Path: blob/main/transformers_doc/ja/quicktour.ipynb
4522 views
Quick tour
🤗 Transformersを使い始めましょう! 開発者であろうと、日常的なユーザーであろうと、このクイックツアーは 初めて始めるのを支援し、pipeline()を使った推論方法、AutoClassで事前学習済みモデルとプリプロセッサをロードする方法、 そしてPyTorchまたはTensorFlowで素早くモデルをトレーニングする方法を示します。 初心者の場合、ここで紹介されたコンセプトの詳細な説明を提供する チュートリアルまたはコースを次に参照することをお勧めします。
始める前に、必要なライブラリがすべてインストールされていることを確認してください:
あなたはまた、好きな機械学習フレームワークをインストールする必要があります:
Pipeline
pipeline() は、事前学習済みモデルを推論に最も簡単で高速な方法です。 pipeline() を使用することで、さまざまなモダリティにわたる多くのタスクに対して即座に使用できます。 いくつかのタスクは以下の表に示されています:
使用可能なタスクの完全な一覧については、pipeline API リファレンスを確認してください。
タスク | 説明 | モダリティ | パイプライン識別子 |
---|---|---|---|
テキスト分類 | テキストのシーケンスにラベルを割り当てる | NLP | pipeline(task="sentiment-analysis") |
テキスト生成 | プロンプトを指定してテキストを生成する | NLP | pipeline(task="text-generation") |
要約 | テキストまたはドキュメントの要約を生成する | NLP | pipeline(task="summarization") |
画像分類 | 画像にラベルを割り当てる | コンピュータビジョン | pipeline(task="image-classification") |
画像セグメンテーション | 画像の各個別のピクセルにラベルを割り当てる(セマンティック、パノプティック、およびインスタンスセグメンテーションをサポート) | コンピュータビジョン | pipeline(task="image-segmentation") |
オブジェクト検出 | 画像内のオブジェクトの境界ボックスとクラスを予測する | コンピュータビジョン | pipeline(task="object-detection") |
オーディオ分類 | オーディオデータにラベルを割り当てる | オーディオ | pipeline(task="audio-classification") |
自動音声認識 | 音声をテキストに変換する | オーディオ | pipeline(task="automatic-speech-recognition") |
ビジュアルクエスチョン応答 | 画像と質問が与えられた場合に、画像に関する質問に回答する | マルチモーダル | pipeline(task="vqa") |
ドキュメントクエスチョン応答 | ドキュメントと質問が与えられた場合に、ドキュメントに関する質問に回答する | マルチモーダル | pipeline(task="document-question-answering") |
画像キャプショニング | 与えられた画像にキャプションを生成する | マルチモーダル | pipeline(task="image-to-text") |
まず、pipeline() のインスタンスを作成し、使用したいタスクを指定します。 このガイドでは、センチメント分析のために pipeline() を使用する例を示します:
pipeline()は、感情分析のためのデフォルトの事前学習済みモデルとトークナイザをダウンロードしてキャッシュし、使用できるようになります。 これで、classifier
を対象のテキストに使用できます:
複数の入力がある場合は、pipeline()に入力をリストとして渡して、辞書のリストを返します:
pipeline()は、任意のタスクに対してデータセット全体を繰り返し処理することもできます。この例では、自動音声認識をタスクとして選びましょう:
データセットのサンプリングレートがfacebook/wav2vec2-base-960h
がトレーニングされたサンプリングレートと一致することを確認してください:
"audio"列を呼び出すと、オーディオファイルは自動的にロードされ、リサンプリングされます。最初の4つのサンプルから生の波形配列を抽出し、それをパイプラインにリストとして渡します。
大規模なデータセットで、入力が大きい場合(音声や画像など)、すべての入力をメモリに読み込む代わりに、リストではなくジェネレータを渡すことがお勧めです。詳細についてはパイプラインAPIリファレンスを参照してください。
Use another model and tokenizer in the pipeline
pipeline()はHubからの任意のモデルを収容でき、他のユースケースにpipeline()を適応させることが容易です。たとえば、フランス語のテキストを処理できるモデルが必要な場合、Hubのタグを使用して適切なモデルをフィルタリングできます。トップのフィルタリングされた結果は、フランス語のテキストに使用できる感情分析用に調整された多言語のBERTモデルを返します:
AutoModelForSequenceClassificationとAutoTokenizerを使用して事前学習済みモデルとそれに関連するトークナイザをロードします(次のセクションでAutoClass
について詳しく説明します):
以下のコードは、TFAutoModelForSequenceClassificationおよびAutoTokenizerを使用して、事前学習済みモデルとその関連するトークナイザをロードする方法を示しています(TFAutoClass
については次のセクションで詳しく説明します):
指定したモデルとトークナイザをpipeline()に設定し、今度はフランス語のテキストにclassifier
を適用できます:
もし、あなたのユースケースに適したモデルが見つからない場合、事前学習済みモデルをあなたのデータでファインチューニングする必要があります。 ファインチューニングの方法については、ファインチューニングのチュートリアルをご覧ください。 最後に、ファインチューニングした事前学習済みモデルを共有し、コミュニティと共有ハブで共有することを検討してください。これにより、機械学習を民主化する手助けができます! 🤗
AutoClass
AutoModelForSequenceClassification および AutoTokenizer クラスは、上記で使用した pipeline() を駆動するために協力して動作します。 AutoClass は、事前学習済みモデルのアーキテクチャをその名前またはパスから自動的に取得するショートカットです。 適切な AutoClass
を選択し、それに関連する前処理クラスを選択するだけで済みます。
前のセクションからの例に戻り、AutoClass
を使用して pipeline() の結果を再現する方法を見てみましょう。
AutoTokenizer
トークナイザはテキストをモデルの入力として使用できる数値の配列に前処理する役割を果たします。 トークナイゼーションプロセスには、単語をどのように分割するかや、単語をどのレベルで分割するかといった多くのルールがあります (トークナイゼーションについての詳細は トークナイザサマリー をご覧ください)。 最も重要なことは、モデルが事前学習済みになったときと同じトークナイゼーションルールを使用するために、同じモデル名でトークナイザをインスタンス化する必要があることです。
AutoTokenizer を使用してトークナイザをロードします:
Pass your text to the tokenizer:
トークナイザは、次の情報を含む辞書を返します:
input_ids: トークンの数値表現。
attention_mask: どのトークンにアテンションを向けるかを示します。
トークナイザはまた、入力のリストを受け入れ、一様な長さのバッチを返すためにテキストをパディングおよび切り詰めることができます。
前処理チュートリアルをご覧いただき、トークナイゼーションの詳細や、AutoImageProcessor、AutoFeatureExtractor、AutoProcessorを使用して画像、オーディオ、およびマルチモーダル入力を前処理する方法について詳しく説明されているページもご覧ください。
AutoModel
🤗 Transformersは事前学習済みインスタンスを簡単に統一的にロードする方法を提供します。 これは、AutoTokenizerをロードするのと同じようにAutoModelをロードできることを意味します。 タスクに適したAutoModelを選択する以外の違いはありません。 テキスト(またはシーケンス)分類の場合、AutoModelForSequenceClassificationをロードする必要があります:
モデルは、logits
属性に最終的なアクティベーションを出力します。 logits
にsoftmax関数を適用して確率を取得します:
🤗 Transformersは事前学習済みインスタンスをロードするためのシンプルで統一された方法を提供します。 これは、TFAutoModelをAutoTokenizerをロードするのと同じようにロードできることを意味します。 唯一の違いは、タスクに適したTFAutoModelを選択することです。 テキスト(またはシーケンス)分類の場合、TFAutoModelForSequenceClassificationをロードする必要があります:
モデルはlogits
属性に最終的なアクティベーションを出力します。logits
にソフトマックス関数を適用して確率を取得します:
🤗 Transformersのすべてのモデル(PyTorchまたはTensorFlow)は、最終的な活性化関数(softmaxなど)前のテンソルを出力します。 最終的な活性化関数は、しばしば損失と結合されているためです。モデルの出力は特別なデータクラスであり、その属性はIDEで自動補完されます。 モデルの出力は、タプルまたは辞書のように動作します(整数、スライス、または文字列でインデックスを付けることができます)。 この場合、Noneである属性は無視されます。
Save a Model
モデルをファインチューニングしたら、PreTrainedModel.save_pretrained()を使用してトークナイザと共に保存できます:
再びモデルを使用する準備ができたら、PreTrainedModel.from_pretrained()を使用して再度ロードします:
モデルをファインチューニングしたら、そのトークナイザを使用してモデルを保存できます。TFPreTrainedModel.save_pretrained()を使用します:
モデルを再度使用する準備ができたら、TFPreTrainedModel.from_pretrained()を使用して再度ロードします:
🤗 Transformersの特に素晴らしい機能の一つは、モデルを保存し、それをPyTorchモデルまたはTensorFlowモデルとして再ロードできることです。 from_pt
またはfrom_tf
パラメータを使用してモデルをフレームワーク間で変換できます:
Custom model builds
モデルを構築方法を変更するには、モデルの設定クラスを変更できます。設定はモデルの属性を指定します。例えば、隠れ層の数やアテンションヘッドの数などがこれに含まれます。カスタム設定クラスからモデルを初期化する際には、ゼロから始めます。モデルの属性はランダムに初期化され、有意義な結果を得るためにモデルをトレーニングする必要があります。
最初にAutoConfigをインポートし、変更したい事前学習済みモデルをロードします。AutoConfig.from_pretrained()内で、変更したい属性(例:アテンションヘッドの数)を指定できます:
AutoModel.from_config()を使用してカスタム設定からモデルを作成します:
カスタム構成からモデルを作成するには、TFAutoModel.from_config()を使用します:
カスタムアーキテクチャを作成ガイドを参照して、カスタム構成の詳細情報を確認してください。
Trainer - PyTorch向けの最適化されたトレーニングループ
すべてのモデルは標準のtorch.nn.Module
であるため、通常のトレーニングループで使用できます。 独自のトレーニングループを作成できますが、🤗 TransformersはPyTorch向けにTrainerクラスを提供しており、基本的なトレーニングループに加えて、 分散トレーニング、混合精度などの機能の追加を行っています。
タスクに応じて、通常はTrainerに以下のパラメータを渡します:
PreTrainedModelまたは
torch.nn.Module
から始めます:TrainingArgumentsには、変更できるモデルのハイパーパラメータが含まれており、学習率、バッチサイズ、トレーニングエポック数などが変更できます。指定しない場合、デフォルト値が使用されます:
トークナイザ、画像プロセッサ、特徴量抽出器、またはプロセッサのような前処理クラスをロードします:
データセットをロードする:
データセットをトークン化するための関数を作成します:
その後、
map
を使用してデータセット全体に適用します:データセットからの例のバッチを作成するための DataCollatorWithPadding:
次に、これらのクラスをTrainerにまとめます:
訓練を開始する準備ができたら、train()を呼び出してトレーニングを開始します:
翻訳や要約など、シーケンス間モデルを使用するタスクには、代わりにSeq2SeqTrainerとSeq2SeqTrainingArgumentsクラスを使用してください。
Trainer内のメソッドをサブクラス化することで、トレーニングループの動作をカスタマイズできます。これにより、損失関数、オプティマイザ、スケジューラなどの機能をカスタマイズできます。サブクラス化できるメソッドの一覧については、Trainerリファレンスをご覧ください。
トレーニングループをカスタマイズする別の方法は、Callbacksを使用することです。コールバックを使用して他のライブラリと統合し、トレーニングループを監視して進捗状況を報告したり、トレーニングを早期に停止したりできます。コールバックはトレーニングループ自体には何も変更を加えません。損失関数などのカスタマイズを行う場合は、Trainerをサブクラス化する必要があります。
Train with TensorFlow
すべてのモデルは標準のtf.keras.Model
であるため、Keras APIを使用してTensorFlowでトレーニングできます。 🤗 Transformersは、データセットをtf.data.Dataset
として簡単にロードできるようにするprepare_tf_dataset()メソッドを提供しており、Kerasのcompile
およびfit
メソッドを使用してトレーニングをすぐに開始できます。
TFPreTrainedModelまたは
tf.keras.Model
から始めます:トークナイザ、画像プロセッサ、特徴量抽出器、またはプロセッサのような前処理クラスをロードします:
データセットをトークナイズするための関数を作成します:
map
を使用してデータセット全体にトークナイザを適用し、データセットとトークナイザをprepare_tf_dataset()に渡します。バッチサイズを変更し、データセットをシャッフルすることもできます。準備ができたら、
compile
とfit
を呼び出してトレーニングを開始できます。 Transformersモデルはすべてデフォルトのタスクに関連する損失関数を持っているため、指定しない限り、損失関数を指定する必要はありません。
What's next?
🤗 Transformersのクイックツアーを完了したら、ガイドをチェックして、カスタムモデルの作成、タスクのためのファインチューニング、スクリプトを使用したモデルのトレーニングなど、より具体的なことを学ぶことができます。🤗 Transformersのコアコンセプトについてもっと詳しく知りたい場合は、コンセプチュアルガイドを読んでみてください!