Path: blob/main/transformers_doc/zh/tensorflow/asr.ipynb
4542 views
自动语音识别
加载 MInDS-14 数据集
首先从🤗 Datasets 库中加载 MInDS-14 数据集的一个较小子集。这将让您有机会先进行实验,确保一切正常,然后再花更多时间在完整数据集上进行训练。
使用 ~Dataset.train_test_split
方法将数据集的 train
拆分为训练集和测试集:
然后看看数据集:
虽然数据集包含 lang_id
和 english_transcription
等许多有用的信息,但在本指南中, 您将专注于 audio
和 transcription
。使用 remove_columns
方法删除其他列:
再看看示例:
有 2 个字段:
audio
:由语音信号形成的一维array
,用于加载和重新采样音频文件。transcription
:目标文本。
预处理
下一步是加载一个 Wav2Vec2 处理器来处理音频信号:
MInDS-14 数据集的采样率为 8000kHz(您可以在其数据集卡片中找到此信息), 这意味着您需要将数据集重新采样为 16000kHz 以使用预训练的 Wav2Vec2 模型:
如您在上面的 transcription
中所看到的,文本包含大小写字符的混合。 Wav2Vec2 分词器仅训练了大写字符,因此您需要确保文本与分词器的词汇表匹配:
现在创建一个预处理函数,该函数应该:
调用
audio
列以加载和重新采样音频文件。从音频文件中提取
input_values
并使用处理器对transcription
列执行 tokenizer 操作。
要在整个数据集上应用预处理函数,可以使用🤗 Datasets 的 map
函数。 您可以通过增加 num_proc
参数来加速 map
的处理进程数量。 使用 remove_columns
方法删除不需要的列:
🤗 Transformers 没有用于 ASR 的数据整理器,因此您需要调整 DataCollatorWithPadding 来创建一个示例批次。 它还会动态地将您的文本和标签填充到其批次中最长元素的长度(而不是整个数据集),以使它们具有统一的长度。 虽然可以通过在 tokenizer
函数中设置 padding=True
来填充文本,但动态填充更有效。
与其他数据整理器不同,这个特定的数据整理器需要对 input_values
和 labels
应用不同的填充方法:
现在实例化您的 DataCollatorForCTCWithPadding
:
评估
在训练过程中包含一个指标通常有助于评估模型的性能。 您可以通过🤗 Evaluate 库快速加载一个评估方法。 对于这个任务,加载 word error rate(WER)指标 (请参阅🤗 Evaluate 快速上手以了解如何加载和计算指标):
然后创建一个函数,将您的预测和标签传递给 compute
来计算 WER:
您的 compute_metrics
函数现在已经准备就绪,当您设置好训练时将返回给此函数。
训练
推断
很好,现在您已经微调了一个模型,您可以用它进行推断了!
加载您想要运行推断的音频文件。请记住,如果需要,将音频文件的采样率重新采样为与模型匹配的采样率!
尝试使用微调后的模型进行推断的最简单方法是使用 pipeline()。 使用您的模型实例化一个用于自动语音识别的 pipeline
,并将您的音频文件传递给它:
转录结果还不错,但可以更好!尝试用更多示例微调您的模型,以获得更好的结果!
如果您愿意,您也可以手动复制 pipeline
的结果: