9n-triton部署bert模型实战经验
2024-4-1 10:15:51 Author: www.freebuf.com(查看原文) 阅读量:4 收藏

对于算法工程师来说,通常采用python语言来作为工作语言,但是直接用python部署线上服务性能很差。这个问题困扰了我很久,为了缓解深度学习模型工程落地性能问题,探索了Nvidia提供的triton部署框架,并在九数中台上完成线上部署,发现性能提升近337%!!原服务单次访问模型推理时间175ms左右,同模型框架单次访问推理时间缩减至40ms左右)。本文仅以本次部署服务经验分享给诸多受制于python性能问题的伙伴,希望有所帮助。

组内原算法服务一直采用python-backend的镜像部署方式,将算法模型包装成接口形式,再通过Flask外露,打入docker中启动服务,但是发现推到线上接口响应时间过长,非常影响用户体验,于是想做出改进。python后端部署一般存在以下问题:

1.性能问题:

由于python是一种解释语言,因此对比于其他编译语言(如C,C++或go)要慢很多,这对于要求高性能或者低延迟快速响应的线上服务很不友好,用户体验很差。

GIL全局锁限制,多线程困难,限制了高并发能力,限制程序性能。

python内存占用过多,资源浪费。

2.部署复杂:

自训练/自搭建算法模型往往需要一系列的相关依赖和系统库,如果利用python环境直接部署至线上,则必须解决将所有依赖库同步打包至对应容器中,并很可能需要额外解决不同库版本冲突问题,十分麻烦。

为了解决上述困扰,我们经过调研行业内其他实践经验,决定摒弃传统镜像部署方式,摆脱python部署环境,换用triton部署算法模型。

本试验通过fine-tune的Bert模型进行文本分类任务,并通过九数算法中台包装的triton部署框架部署至公网可访问,以下介绍了我们团队部署的全流程和途中踩到的坑,以供大家快速入手(以下均以Bert模型为例):

step 1: 将训练好的模型保存为onnx或torchscript(即.pt)文件格式。据调研行业经验,onnx一般用于cpu环境下推理任务效果较好,.pt文件在gpu环境下推理效果较好,我们最终选择了将模型转化为.pt文件。代码例子如下:

importtorch
fromtransformers importBertTokenizer,BertForSequenceClassification

tokenizer =BertTokenizer.from_pretrained('./pretrained-weights/bert-base-chinese')model =BertForSequenceClassification.from_pretrained('./pretrained-weights/bert-base-chinese',num_labels=10)# Trace the wrapped model# input_ids和attention_mask来自tokenizer, 具体可看一下torch.jit.trace用法traced_model =torch.jit.trace(model,(input_ids,attention_mask))traced_model.save("./saved_model_torchscript_v3.pt")

本段代码借用了torch.jit.trace的存储方式,输入是文本经过tokenizer之后的input_ids和attention_mask,输出是未经softmax处理的线性层。我们尝试将softmax部分包装进模型中一起打包成pt文件,使模型能够直接吐出分类类别,方案是外层再包装一层forward,代码例子如下:

classBertSequenceClassifierWrapper(torch.nn.Module):def__init__(self,model):super().__init__()self.model =model.cuda()defforward(self,input_ids,attention_mask):outputs =self.model(input_ids=input_ids.cuda(),attention_mask=attention_mask.cuda())# Apply softmax to the logitsprobs =softmax(outputs.logits,dim=-1)# Get the predicted classpredicted_class =torch.argmax(probs,dim=-1)returnpredicted_class

wrapped_model =BertSequenceClassifierWrapper(model)traced_model =torch.jit.trace(wrapped_model,(input_ids,attention_mask))traced_model.save("./saved_model_torchscript_v3.pt")

然而,参考于行业内实践,我们没有选择将tokenizer部分包装至模型内部,这是因为torchscript仅接受数组类型输入而非文本。最终,我们封装的模型输入为input_ids和attention_mask,输出为分类结果(标量输出)。

【注】:坑点:

转onnx需要额外安装transformers-onnx包,需要sudo权限,九数上不能执行,建议本地转换。

对于.pt类型文件,当前九数triton部署仅支持gpu方式推理方式,不支持cpu推理,且torch版本有强要求限制 torch ==1.10.0,cuda11.2(更高版本似乎也可),故我们在保存时必须要在torch ==1.10.0,cuda11.2环境下生成pt文件,不然会部署失败。

转pt文件时建议使用torch.jit.trace而非torch.jit.script,后者经常出现引擎不兼容问题。

step 2: 将.pt文件存放在九数磁盘目录下指定位置,注意,目录格式需要严格按照要求,具体可参考九数帮助文档。

目录格式如下(其中model.pt即为我们训练好的模型):

pytorch-backend-online
|-- pytorch-model
|   |-- 1
|   |   |-- model.pt
|   `-- config.pbtxt

config.pbtxt配置如下:

name: "pytorch-model"
platform: "pytorch_libtorch"

input [
  {
    name: "INPUT__0"
    data_type: TYPE_INT64
    dims: [1, 512]
  },
  {
    name: "INPUT__1"
    data_type: TYPE_INT64
    dims: [1, 512]
  }
]
output [
  {
    name: "OUTPUT__0"
    data_type: TYPE_INT64
    dims: [1, 1] 
  }
]
instance_group [
  {
      count: 1
  }
]

配置中,我们需要指定输入和输出的维度以及数据类型。注意,数据类型指的是每个可迭代对象的类型(比如512维向量每个维度都是int64)。在本实例中,我们定义了两个输入均为1*512维向量,输出为一个标量。

step 3: 模型注册。需要到九数上注册你的模型,然后才能部署,方式如下:

模型注册表填写如下:

坑点:图中step2定义的一级目录,比如 /home/{erp}/xxx/xxx/xxx。

step 4: 模型注册好之后,就可以在注册好的模型下点击:部署-测试

然后需要填写UI界面的信息。

到这里,如果模型没有问题,部署就是成功了~

step 5: 测试端口通不通。如果是测试环境,我们可以通过post接口在notebook中测试接口通不通,测试demo如下:

URL来自获取方式如下:

如果测试没有问题,就可以转生产了~配置好域名和端口就可以公网访问了。至此,triton框架部署torchscript方式完结。

本文主要展示了一个基于Bert模型finetune的结果部署,经我们线下测试,对比于原有onnx在cpu机器上的推理速度增幅超过300%。

本项工作由殷擎,孙研同学共同完成,致谢团队工作者!


文章来源: https://www.freebuf.com/news/396573.html
如有侵权请联系:admin#unsafe.sh