Path: blob/main/transformers_doc/ja/pytorch/image_classification.ipynb
4542 views
Image classification
画像分類では、画像にラベルまたはクラスを割り当てます。テキストや音声の分類とは異なり、入力は 画像を構成するピクセル値。損傷の検出など、画像分類には多くの用途があります 自然災害の後、作物の健康状態を監視したり、病気の兆候がないか医療画像をスクリーニングしたりするのに役立ちます。
このガイドでは、次の方法を説明します。
このタスクと互換性のあるすべてのアーキテクチャとチェックポイントを確認するには、タスクページ を確認することをお勧めします。
始める前に、必要なライブラリがすべてインストールされていることを確認してください。
Hugging Face アカウントにログインして、モデルをアップロードしてコミュニティと共有することをお勧めします。プロンプトが表示されたら、トークンを入力してログインします。
Load Food-101 dataset
Datasets、🤗 データセット ライブラリから Food-101 データセットの小さいサブセットを読み込みます。これにより、次の機会が得られます 完全なデータセットのトレーニングにさらに時間を費やす前に、実験してすべてが機能することを確認してください。
train_test_split
メソッドを使用して、データセットの train
分割をトレイン セットとテスト セットに分割します。
次に、例を見てみましょう。
データセット内の各例には 2 つのフィールドがあります。
image
: 食品の PIL 画像label
: 食品のラベルクラス
モデルがラベル ID からラベル名を取得しやすくするために、ラベル名をマップする辞書を作成します。 整数への変換、またはその逆:
これで、ラベル ID をラベル名に変換できるようになりました。
Preprocess
次のステップでは、ViT 画像プロセッサをロードして画像をテンソルに処理します。
いくつかの画像変換を画像に適用して、モデルの過学習に対する堅牢性を高めます。ここでは torchvision の transforms
モジュールを使用しますが、任意の画像ライブラリを使用することもできます。
画像のランダムな部分をトリミングし、サイズを変更し、画像の平均と標準偏差で正規化します。
次に、変換を適用し、画像の pixel_values
(モデルへの入力) を返す前処理関数を作成します。
データセット全体に前処理関数を適用するには、🤗 Datasets with_transform
メソッドを使用します。変換は、データセットの要素を読み込むときにオンザフライで適用されます。
次に、DefaultDataCollator
を使用してサンプルのバッチを作成します。 🤗 Transformers の他のデータ照合器とは異なり、DefaultDataCollator
はパディングなどの追加の前処理を適用しません。
Evaluate
次に、予測とラベルを compute
に渡して精度を計算する関数を作成します。
これで compute_metrics
関数の準備が整いました。トレーニングを設定するときにこの関数に戻ります。
Train
Trainer を使用したモデルの微調整に慣れていない場合は、こちら の基本的なチュートリアルをご覧ください。
これでモデルのトレーニングを開始する準備が整いました。 AutoModelForImageClassification を使用して ViT をロードします。ラベルの数と予想されるラベルの数、およびラベル マッピングを指定します。
この時点で残っているステップは 3 つだけです。
TrainingArguments でトレーニング ハイパーパラメータを定義します。
image
列が削除されるため、未使用の列を削除しないことが重要です。image
列がないと、pixel_values
を作成できません。この動作を防ぐには、remove_unused_columns=False
を設定してください。他に必要なパラメータは、モデルの保存場所を指定するoutput_dir
だけです。push_to_hub=True
を設定して、このモデルをハブにプッシュします (モデルをアップロードするには、Hugging Face にサインインする必要があります)。各エポックの終了時に、Trainer は精度を評価し、トレーニング チェックポイントを保存します。トレーニング引数を、モデル、データセット、トークナイザー、データ照合器、および
compute_metrics
関数とともに Trainer に渡します。train() を呼び出してモデルを微調整します。
トレーニングが完了したら、 push_to_hub() メソッドを使用してモデルをハブに共有し、誰もがモデルを使用できるようにします。
Inference
モデルを微調整したので、それを推論に使用できるようになりました。
推論を実行したい画像を読み込みます。

推論用に微調整されたモデルを試す最も簡単な方法は、それを pipeline() で使用することです。モデルを使用して画像分類用のpipeline
をインスタンス化し、それに画像を渡します。
必要に応じて、pipeline
の結果を手動で複製することもできます。
画像プロセッサをロードして画像を前処理し、input
を PyTorch テンソルとして返します。
入力をモデルに渡し、ロジットを返します。
最も高い確率で予測されたラベルを取得し、モデルの id2label
マッピングを使用してラベルに変換します。