Transformers documentation

导出为 ONNX

You are viewing main version, which requires installation from source. If you'd like regular pip install, checkout the latest stable version (v4.46.2).
Hugging Face's logo
Join the Hugging Face community

and get access to the augmented documentation experience

to get started

导出为 ONNX

在生产环境中部署 🤗 Transformers 模型通常需要或者能够受益于,将模型导出为可在专门的运行时和硬件上加载和执行的序列化格式。

🤗 Optimum 是 Transformers 的扩展,可以通过其 exporters 模块将模型从 PyTorch 或 TensorFlow 导出为 ONNX 及 TFLite 等序列化格式。🤗 Optimum 还提供了一套性能优化工具,可以在目标硬件上以最高效率训练和运行模型。

本指南演示了如何使用 🤗 Optimum 将 🤗 Transformers 模型导出为 ONNX。有关将模型导出为 TFLite 的指南,请参考 导出为 TFLite 页面

导出为 ONNX

ONNX (Open Neural Network eXchange 开放神经网络交换) 是一个开放的标准,它定义了一组通用的运算符和一种通用的文件格式,用于表示包括 PyTorch 和 TensorFlow 在内的各种框架中的深度学习模型。当一个模型被导出为 ONNX时,这些运算符被用于构建计算图(通常被称为中间表示),该图表示数据在神经网络中的流动。

通过公开具有标准化运算符和数据类型的图,ONNX使得模型能够轻松在不同深度学习框架间切换。例如,在 PyTorch 中训练的模型可以被导出为 ONNX,然后再导入到 TensorFlow(反之亦然)。

导出为 ONNX 后,模型可以:

🤗 Optimum 通过利用配置对象提供对 ONNX 导出的支持。多种模型架构已经有现成的配置对象,并且配置对象也被设计得易于扩展以适用于其他架构。

现有的配置列表请参考 🤗 Optimum 文档

有两种方式可以将 🤗 Transformers 模型导出为 ONNX,这里我们展示这两种方法:

  • 使用 🤗 Optimum 的 CLI(命令行)导出。
  • 使用 🤗 Optimum 的 optimum.onnxruntime 模块导出。

使用 CLI 将 🤗 Transformers 模型导出为 ONNX

要将 🤗 Transformers 模型导出为 ONNX,首先需要安装额外的依赖项:

pip install optimum[exporters]

请参阅 🤗 Optimum 文档 以查看所有可用参数,或者在命令行中查看帮助:

optimum-cli export onnx --help

运行以下命令,以从 🤗 Hub 导出模型的检查点(checkpoint),以 distilbert/distilbert-base-uncased-distilled-squad 为例:

optimum-cli export onnx --model distilbert/distilbert-base-uncased-distilled-squad distilbert_base_uncased_squad_onnx/

你应该能在日志中看到导出进度以及生成的 model.onnx 文件的保存位置,如下所示:

Validating ONNX model distilbert_base_uncased_squad_onnx/model.onnx...
	-[✓] ONNX model output names match reference model (start_logits, end_logits)
	- Validating ONNX Model output "start_logits":
		-[✓] (2, 16) matches (2, 16)
		-[✓] all values close (atol: 0.0001)
	- Validating ONNX Model output "end_logits":
		-[✓] (2, 16) matches (2, 16)
		-[✓] all values close (atol: 0.0001)
The ONNX export succeeded and the exported model was saved at: distilbert_base_uncased_squad_onnx

上面的示例说明了从 🤗 Hub 导出检查点的过程。导出本地模型时,首先需要确保将模型的权重和分词器文件保存在同一目录(local_path)中。在使用 CLI 时,将 local_path 传递给 model 参数,而不是 🤗 Hub 上的检查点名称,并提供 --task 参数。你可以在 🤗 Optimum 文档中查看支持的任务列表。如果未提供 task 参数,将默认导出不带特定任务头的模型架构。

optimum-cli export onnx --model local_path --task question-answering distilbert_base_uncased_squad_onnx/

生成的 model.onnx 文件可以在支持 ONNX 标准的 许多加速引擎(accelerators) 之一上运行。例如,我们可以使用 ONNX Runtime 加载和运行模型,如下所示:

>>> from transformers import AutoTokenizer
>>> from optimum.onnxruntime import ORTModelForQuestionAnswering

>>> tokenizer = AutoTokenizer.from_pretrained("distilbert_base_uncased_squad_onnx")
>>> model = ORTModelForQuestionAnswering.from_pretrained("distilbert_base_uncased_squad_onnx")
>>> inputs = tokenizer("What am I using?", "Using DistilBERT with ONNX Runtime!", return_tensors="pt")
>>> outputs = model(**inputs)

从 Hub 导出 TensorFlow 检查点的过程也一样。例如,以下是从 Keras 组织 导出纯 TensorFlow 检查点的命令:

optimum-cli export onnx --model keras-io/transformers-qa distilbert_base_cased_squad_onnx/

使用 optimum.onnxruntime 将 🤗 Transformers 模型导出为 ONNX

除了 CLI 之外,你还可以使用代码将 🤗 Transformers 模型导出为 ONNX,如下所示:

>>> from optimum.onnxruntime import ORTModelForSequenceClassification
>>> from transformers import AutoTokenizer

>>> model_checkpoint = "distilbert_base_uncased_squad"
>>> save_directory = "onnx/"

>>> # 从 transformers 加载模型并将其导出为 ONNX
>>> ort_model = ORTModelForSequenceClassification.from_pretrained(model_checkpoint, export=True)
>>> tokenizer = AutoTokenizer.from_pretrained(model_checkpoint)

>>> # 保存 onnx 模型以及分词器
>>> ort_model.save_pretrained(save_directory)
>>> tokenizer.save_pretrained(save_directory)

导出尚未支持的架构的模型

如果你想要为当前无法导出的模型添加支持,请先检查 optimum.exporters.onnx 是否支持该模型,如果不支持,你可以 直接为 🤗 Optimum 贡献代码

使用 transformers.onnx 导出模型

tranformers.onnx 不再进行维护,请如上所述,使用 🤗 Optimum 导出模型。这部分内容将在未来版本中删除。

要使用 tranformers.onnx 将 🤗 Transformers 模型导出为 ONNX,请安装额外的依赖项:

pip install transformers[onnx]

transformers.onnx 包作为 Python 模块使用,以使用现成的配置导出检查点:

python -m transformers.onnx --model=distilbert/distilbert-base-uncased onnx/

以上代码将导出由 --model 参数定义的检查点的 ONNX 图。传入任何 🤗 Hub 上或者存储与本地的检查点。生成的 model.onnx 文件可以在支持 ONNX 标准的众多加速引擎上运行。例如,使用 ONNX Runtime 加载并运行模型,如下所示:

>>> from transformers import AutoTokenizer
>>> from onnxruntime import InferenceSession

>>> tokenizer = AutoTokenizer.from_pretrained("distilbert/distilbert-base-uncased")
>>> session = InferenceSession("onnx/model.onnx")
>>> # ONNX Runtime expects NumPy arrays as input
>>> inputs = tokenizer("Using DistilBERT with ONNX Runtime!", return_tensors="np")
>>> outputs = session.run(output_names=["last_hidden_state"], input_feed=dict(inputs))

可以通过查看每个模型的 ONNX 配置来获取所需的输出名(例如 ["last_hidden_state"])。例如,对于 DistilBERT,可以用以下代码获取输出名称:

>>> from transformers.models.distilbert import DistilBertConfig, DistilBertOnnxConfig

>>> config = DistilBertConfig()
>>> onnx_config = DistilBertOnnxConfig(config)
>>> print(list(onnx_config.outputs.keys()))
["last_hidden_state"]

从 Hub 导出 TensorFlow 检查点的过程也一样。导出纯 TensorFlow 检查点的示例代码如下:

python -m transformers.onnx --model=keras-io/transformers-qa onnx/

要导出本地存储的模型,请将模型的权重和分词器文件保存在同一目录中(例如 local-pt-checkpoint),然后通过将 transformers.onnx 包的 --model 参数指向该目录,将其导出为 ONNX:

python -m transformers.onnx --model=local-pt-checkpoint onnx/
< > Update on GitHub