火山引擎技术
该技术由火山引擎申报并参与“数据猿年度金猿策划活动——2020大数据产业创新技术突破榜榜单及奖项”评选。
大数据产业创新服务媒体
——聚焦数据 · 改变商业
自2017年Google提出Transformer模型,以其为基础的特征提取方法,推动了众多自然语言处理任务能力水平的提升,与此同时,模型的参数量和推理延迟也呈现近乎指数增长。以机器翻译为例,目前WMT比赛中SOTA模型已经达到了50层以上。
目前主流深度学习框架,主要面临两大问题:一是翻译时间太长,时长直接影响用户体验;二是单卡QPS(每秒查询率)太低,导致客户服务成本过高。
LightSeq 团队对以Transformer为基础的序列特征提取器(Encoder)和自回归的序列解码器(Decoder)做了深度优化。成为业界第一款完整支持Transformer、GPT等多种模型高速推理的开源引擎。
目前火山翻译平均每日,处理请求超过2亿,服务用户超过2亿,覆盖100个国家和地区。LightSeq 帮助火山翻译将服务延迟降低十倍以上,平均响应时间控制在百毫秒内,大幅提升了用户体验及云服务成本。同时,LightSeq还可以应用于自动问答、智能写作、对话回复生成等众多场景,大大提高线上模型推理速度,改善用户的使用体验,降低企业的运营服务成本。
技术说明
1. 性能非常高。LightSeq是业界最早开源的序列生成推理引擎,推理速度非常快。例如在翻译任务上,LightSeq相比于Tensorflow实现最多可以达到14倍的加速。同时领先目前其他开源序列推理引擎,例如最多可比Faster Transformer快1.4倍。
2. 支持模型功能多。LightSeq支持BERT、GPT、Transformer、VAE 等众多模型,同时支持beam search、diverse beam search、sampling等多种解码方式。
3. 简单易用。无缝衔接Tensorflow、PyTorch等深度学习框架。LightSeq通过定义模型协议,支持各种深度学习框架训练好的模型灵活导入。同时包含了开箱即用的端到端模型服务,即在不需要写一行代码的情况下部署高速模型推理,同时也灵活支持多层次复用。
开发团队
●带队负责人:王晓晖
2017年硕士毕业于上海交通大学计算机系,目前就职于字节跳动AI-LAB,担任NLP算法工程师。主要关注领域包括:机器翻译,高性能计算,模型压缩,模型编译优化等。
●其他重要成员:
熊鹰,字节跳动AI Lab,算法工程师
韦阳,字节跳动AI Lab,实习算法工程师
●隶属机构:火山引擎
火山引擎是字节跳动旗下的数字服务与智能科技品牌,基于公司服务数亿用户的大数据、人工智能和基础服务等技术能力,为企业提供系统化的全链路解决方案,助力企业务实地创新,给企业带来持续、快速增长。
相关评价
LightSeq目前已获得三项专利,且已经开源。
GitHub项目地址:
https://github.com/bytedance/lightseq