Path: blob/main/transformers_doc/ja/tensorflow/preprocessing.ipynb
4535 views
Preprocess
データセットでモデルをトレーニングする前に、それをモデルの期待する入力形式に前処理する必要があります。 データがテキスト、画像、またはオーディオであるかどうかにかかわらず、それらはテンソルのバッチに変換して組み立てる必要があります。 🤗 Transformersは、データをモデル用に準備するのに役立つ前処理クラスのセットを提供しています。 このチュートリアルでは、次のことを学びます:
テキストの場合、Tokenizerを使用してテキストをトークンのシーケンスに変換し、トークンの数値表現を作成し、それらをテンソルに組み立てる方法。
音声とオーディオの場合、Feature extractorを使用してオーディオ波形から連続的な特徴を抽出し、それらをテンソルに変換する方法。
画像入力の場合、ImageProcessorを使用して画像をテンソルに変換する方法。
マルチモーダル入力の場合、Processorを使用してトークナイザと特徴抽出器または画像プロセッサを組み合わせる方法。
AutoProcessor
は常に動作し、使用するモデルに適切なクラスを自動的に選択します。 トークナイザ、画像プロセッサ、特徴抽出器、またはプロセッサを使用しているかにかかわらず、動作します。
始める前に、🤗 Datasetsをインストールして、いくつかのデータセットを試すことができるようにしてください:
Natural Language Processing
テキストデータの前処理に使用する主要なツールは、トークナイザです。トークナイザは、一連のルールに従ってテキストをトークンに分割します。トークンは数値に変換され、その後テンソルに変換され、モデルの入力となります。モデルが必要とする追加の入力は、トークナイザによって追加されます。
事前学習済みモデルを使用する予定の場合、関連する事前学習済みトークナイザを使用することが重要です。これにより、テキストが事前学習コーパスと同じ方法で分割され、事前学習中に通常ボキャブとして参照される対応するトークンインデックスを使用します。
AutoTokenizer.from_pretrained()メソッドを使用して事前学習済みトークナイザをロードして、開始しましょう。これにより、モデルが事前学習されたボキャブがダウンロードされます:
次に、テキストをトークナイザに渡します:
トークナイザは、重要な3つの項目を持つ辞書を返します:
input_ids は文中の各トークンに対応するインデックスです。
attention_mask はトークンがアテンションを受ける必要があるかどうかを示します。
token_type_ids は複数のシーケンスがある場合、トークンがどのシーケンスに属しているかを識別します。
input_ids
をデコードして入力を返します:
如何にお分かりいただけるかと思いますが、トークナイザはこの文章に2つの特別なトークン、CLS
(クラシファイア)とSEP
(セパレータ)を追加しました。 すべてのモデルが特別なトークンを必要とするわけではありませんが、必要な場合、トークナイザは自動的にそれらを追加します。
複数の文章を前処理する場合、トークナイザにリストとして渡してください:
Pad
文章は常に同じ長さではないことがあり、これはテンソル(モデルの入力)が均一な形状を持つ必要があるため問題となります。 パディングは、短い文に特別な「パディングトークン」を追加して、テンソルを長いシーケンスに合わせるための戦略です。
バッチ内の短いシーケンスを最長のシーケンスに合わせるために、padding
パラメータをTrue
に設定します:
1番目と3番目の文は、短いために0
でパディングされています。
Truncation
逆のスペクトルでは、時折、モデルが処理するのに長すぎるシーケンスがあるかもしれません。この場合、シーケンスを短縮する必要があります。
モデルが受け入れる最大の長さにシーケンスを切り詰めるには、truncation
パラメータをTrue
に設定します:
Build tensors
最後に、トークナイザがモデルに供給される実際のテンソルを返すように設定します。
return_tensors
パラメータをpt
(PyTorch用)またはtf
(TensorFlow用)に設定します:
Audio
オーディオタスクの場合、データセットをモデル用に準備するために特徴抽出器が必要です。 特徴抽出器は生のオーディオデータから特徴を抽出し、それらをテンソルに変換するために設計されています。
PolyAI/minds14データセットをロードして(データセットのロード方法の詳細については🤗 Datasetsチュートリアルを参照)、 オーディオデータセットで特徴抽出器をどのように使用できるかを確認してみましょう:
アクセスしてaudio
列の最初の要素を確認します。audio
列を呼び出すと、自動的にオーディオファイルが読み込まれ、リサンプリングされます:
これにより、3つのアイテムが返されます:
array
は読み込まれた音声信号で、1Dの配列として読み込まれます。必要に応じてリサンプリングされることもあります。path
は音声ファイルの場所を指します。sampling_rate
は音声信号内のデータポイントが1秒間にいくつ測定されるかを示します。
このチュートリアルでは、Wav2Vec2モデルを使用します。 モデルカードを確認すると、Wav2Vec2が16kHzのサンプリングされた音声オーディオで事前学習されていることがわかります。 モデルの事前学習に使用されたデータセットのサンプリングレートと、あなたのオーディオデータのサンプリングレートが一致することが重要です。 データのサンプリングレートが異なる場合、データをリサンプリングする必要があります。
🤗 Datasetsの
cast_column
メソッドを使用して、サンプリングレートを16kHzにアップサンプリングします:
再び
audio
列を呼び出してオーディオファイルをリサンプルします:
次に、入力を正規化しパディングするために特徴抽出器をロードします。テキストデータをパディングする場合、短いシーケンスには 0
が追加されます。同じ考え方がオーディオデータにも適用されます。特徴抽出器は array
に 0
を追加します(これは無音として解釈されます)。
AutoFeatureExtractor.from_pretrained()を使用して特徴抽出器をロードします:
オーディオ array
を特徴抽出器に渡します。特徴抽出器で発生する可能性のある無音エラーをより良くデバッグするために、特徴抽出器に sampling_rate
引数を追加することをお勧めします。
同様に、トークナイザと同様に、バッチ内の可変シーケンスを処理するためにパディングまたは切り詰めを適用できます。次に、これらの2つのオーディオサンプルのシーケンス長を確認してみましょう:
この関数は、データセットを前処理してオーディオサンプルの長さを同じにするためのものです。最大サンプル長を指定し、特徴抽出器はシーケンスをそれに合わせてパディングまたは切り詰めます。
preprocess_function
をデータセットの最初の数例に適用します:
サンプルの長さは現在同じで、指定された最大長と一致しています。これで処理されたデータセットをモデルに渡すことができます!
Computer Vision
コンピュータビジョンタスクでは、モデル用にデータセットを準備するための画像プロセッサが必要です。 画像の前処理には、画像をモデルが期待する入力形式に変換するためのいくつかのステップが含まれています。これらのステップには、リサイズ、正規化、カラーチャネルの補正、および画像をテンソルに変換するなどが含まれます。
画像の前処理は、通常、画像の増強の形式に従います。画像の前処理と画像の増強の両方は画像データを変換しますが、異なる目的があります:
画像の増強は、過学習を防ぎ、モデルの堅牢性を向上させるのに役立つ方法で画像を変更します。データを増強する方法は無限で、明るさや色の調整、クロップ、回転、リサイズ、ズームなど、様々な方法があります。ただし、増強操作によって画像の意味が変わらないように注意する必要があります。
画像の前処理は、画像がモデルの期待する入力形式と一致することを保証します。コンピュータビジョンモデルをファインチューニングする場合、画像はモデルが最初にトレーニングされたときとまったく同じ方法で前処理する必要があります。
画像の増強には任意のライブラリを使用できます。画像の前処理には、モデルに関連付けられたImageProcessor
を使用します。
コンピュータビジョンのデータセットで画像プロセッサを使用する方法を示すために、food101データセットをロードします(データセットのロード方法の詳細については🤗Datasetsチュートリアルを参照):
データセットがかなり大きいため、🤗 Datasetsのsplit
パラメータを使用してトレーニングデータの小さなサンプルのみをロードします!
次に、🤗 Datasetsの Image
機能で画像を見てみましょう:

AutoImageProcessorをAutoImageProcessor.from_pretrained()を使用してロードします:
まず、画像の拡張を追加しましょう。好きなライブラリを使用できますが、このチュートリアルではtorchvisionの
transforms
モジュールを使用します。別のデータ拡張ライブラリを使用したい場合は、AlbumentationsまたはKornia notebooksで詳細を学ぶことができます。ここでは、
Compose
を使用していくつかの変換を連鎖させます -RandomResizedCrop
とColorJitter
。 サイズの変更に関しては、image_processor
から画像サイズの要件を取得できます。 一部のモデルでは、正確な高さと幅が必要ですが、他のモデルではshortest_edge
のみが定義されています。
モデルは
pixel_values
を入力として受け取ります。ImageProcessor
は画像の正規化と適切なテンソルの生成を処理できます。 一連の画像に対する画像拡張と画像前処理を組み合わせ、pixel_values
を生成する関数を作成します:
上記の例では、画像のサイズ変更を既に画像増強変換で行っているため、do_resize=False
を設定しました。 適切な image_processor
からの size
属性を活用しています。画像増強中に画像のサイズ変更を行わない場合は、このパラメータを省略してください。 デフォルトでは、ImageProcessor
がサイズ変更を処理します。
画像を増強変換の一部として正規化したい場合は、image_processor.image_mean
と image_processor.image_std
の値を使用してください。
次に、🤗 Datasetsの
set_transform
を使用して、変換をリアルタイムで適用します:
画像にアクセスすると、画像プロセッサが
pixel_values
を追加したことがわかります。これで処理済みのデータセットをモデルに渡すことができます!
以下は、変換が適用された後の画像の外観です。 画像はランダムに切り抜かれ、その色の特性も異なります。

オブジェクト検出、意味セグメンテーション、インスタンスセグメンテーション、およびパノプティックセグメンテーションなどのタスクの場合、ImageProcessor
は ポスト処理メソッドを提供します。これらのメソッドは、モデルの生の出力を境界ボックスやセグメンテーションマップなどの意味のある予測に変換します。
Pad
一部の場合、たとえば、DETRをファインチューニングする場合、モデルはトレーニング時にスケールの変更を適用します。 これにより、バッチ内の画像のサイズが異なる場合があります。DetrImageProcessorからDetrImageProcessor.pad()
を使用し、 カスタムのcollate_fn
を定義して画像を一緒にバッチ処理できます。
Multi Modal
マルチモーダル入力を使用するタスクの場合、モデル用にデータセットを準備するためのプロセッサが必要です。プロセッサは、トークナイザや特徴量抽出器などの2つの処理オブジェクトを結合します。
自動音声認識(ASR)のためのプロセッサの使用方法を示すために、LJ Speechデータセットをロードします(データセットのロード方法の詳細については🤗 Datasets チュートリアルを参照):
ASR(自動音声認識)の場合、主に audio
と text
に焦点を当てているため、他の列を削除できます:
次に、audio
とtext
の列を見てみましょう:
常に、オーディオデータセットのサンプリングレートを、モデルの事前学習に使用されたデータセットのサンプリングレートと一致させるようにリサンプルする必要があります!
プロセッサを AutoProcessor.from_pretrained() を使用してロードします:
array
内に含まれるオーディオデータをinput_values
に処理し、text
をlabels
にトークン化する関数を作成します:
サンプルに
prepare_dataset
関数を適用します: