Path: blob/main/transformers_doc/zh/tensorflow/llm_tutorial.ipynb
4534 views
使用LLMs进行生成
LLMs,即大语言模型,是文本生成背后的关键组成部分。简单来说,它们包含经过大规模预训练的transformer模型,用于根据给定的输入文本预测下一个词(或更准确地说,下一个token
)。由于它们一次只预测一个token
,因此除了调用模型之外,您需要执行更复杂的操作来生成新的句子——您需要进行自回归生成。
自回归生成是在给定一些初始输入,通过迭代调用模型及其自身的生成输出来生成文本的推理过程。在🤗 Transformers中,这由generate()方法处理,所有具有生成能力的模型都可以使用该方法。
本教程将向您展示如何:
使用LLM生成文本
避免常见的陷阱
帮助您充分利用LLM下一步指导
在开始之前,请确保已安装所有必要的库:
生成文本
一个用于因果语言建模训练的语言模型,将文本tokens
序列作为输入,并返回下一个token
的概率分布。
使用LLM进行自回归生成的一个关键方面是如何从这个概率分布中选择下一个token
。这个步骤可以随意进行,只要最终得到下一个迭代的token
。这意味着可以简单的从概率分布中选择最可能的token
,也可以复杂的在对结果分布进行采样之前应用多种变换,这取决于你的需求。
上述过程是迭代重复的,直到达到某个停止条件。理想情况下,停止条件由模型决定,该模型应学会在何时输出一个结束序列(EOS
)标记。如果不是这种情况,生成将在达到某个预定义的最大长度时停止。
正确设置token
选择步骤和停止条件对于让你的模型按照预期的方式执行任务至关重要。这就是为什么我们为每个模型都有一个[~generation.GenerationConfig]文件,它包含一个效果不错的默认生成参数配置,并与您模型一起加载。
让我们谈谈代码!
如果您对基本的LLM使用感兴趣,我们高级的Pipeline
接口是一个很好的起点。然而,LLMs通常需要像quantization
和token选择步骤的精细控制
等高级功能,这最好通过generate()来完成。使用LLM进行自回归生成也是资源密集型的操作,应该在GPU上执行以获得足够的吞吐量。
首先,您需要加载模型。
model_inputs
变量保存着分词后的文本输入以及注意力掩码。尽管generate()在未传递注意力掩码时会尽其所能推断出注意力掩码,但建议尽可能传递它以获得最佳结果。
在对输入进行分词后,可以调用generate()方法来返回生成的tokens
。生成的tokens
应该在打印之前转换为文本。
最后,您不需要一次处理一个序列!您可以批量输入,这将在小延迟和低内存成本下显著提高吞吐量。您只需要确保正确地填充您的输入(详见下文)。
就是这样!在几行代码中,您就可以利用LLM的强大功能。
常见陷阱
有许多生成策略,有时默认值可能不适合您的用例。如果您的输出与您期望的结果不匹配,我们已经创建了一个最常见的陷阱列表以及如何避免它们。
生成的输出太短/太长
如果在GenerationConfig文件中没有指定,generate
默认返回20个tokens。我们强烈建议在您的generate
调用中手动设置max_new_tokens
以控制它可以返回的最大新tokens数量。请注意,LLMs(更准确地说,仅解码器模型)也将输入提示作为输出的一部分返回。
错误的生成模式
默认情况下,除非在GenerationConfig文件中指定,否则generate
会在每个迭代中选择最可能的token(贪婪解码)。对于您的任务,这可能是不理想的;像聊天机器人或写作文章这样的创造性任务受益于采样。另一方面,像音频转录或翻译这样的基于输入的任务受益于贪婪解码。通过将do_sample=True
启用采样,您可以在这篇博客文章中了解更多关于这个话题的信息。
错误的填充位置
LLMs是仅解码器架构,意味着它们会持续迭代您的输入提示。如果您的输入长度不相同,则需要对它们进行填充。由于LLMs没有接受过从pad tokens
继续训练,因此您的输入需要左填充。确保在生成时不要忘记传递注意力掩码!
错误的提示
更多资源
虽然自回归生成过程相对简单,但要充分利用LLM可能是一个具有挑战性的任务,因为很多组件复杂且密切关联。以下是帮助您深入了解LLM使用和理解的下一步:
高级生成用法
指南,介绍如何控制不同的生成方法、如何设置生成配置文件以及如何进行输出流式传输;
指南,介绍聊天LLMs的提示模板;
指南,介绍如何充分利用提示设计;
API参考文档,包括GenerationConfig、generate()和与生成相关的类。
LLM排行榜
Open LLM Leaderboard, 侧重于开源模型的质量;
Open LLM-Perf Leaderboard, 侧重于LLM的吞吐量.
延迟、吞吐量和内存利用率
相关库
text-generation-inference
, 一个面向生产的LLM服务器;optimum
, 一个🤗 Transformers的扩展,优化特定硬件设备的性能