Divider

FastTransformer 2.0 的原理与应用

最近一、两年来,transformer layer成为NLP里面非常热门的一个深度学习网络架构。在FasterTransformer 1.0中,提供了以BERT transformer layer为模版、经过高度优化之后的 transformer layer,让用户能够降低使用transformer编码 (encode) 的时延。
然而,在编码-解码 (encoder-decoder) 的流程当中,占据大部份时间的是解码。因此,FasterTransformer 2.0提供针对解码器进行高度优化的transformer layer。同时,还提供了优化过后的整个翻译流程,满足想要在翻译场景中大幅降低时延的用户们。通过本次的在线研讨会,您可以获得以下的内容:
  • FasterTransformer 2.0 新增加的功能,包括decoder和整个翻译流程 – decoding - 的优化
  • 我们如何针对decoder和decoding进行优化
  • 如何使用decoder和decoding
  • Decoder和decoding能够带来什么样的加速效果
注册在线研讨会
我们将通过电子邮件将网络研讨会访问信息发送给您。

主持人
Add Presenter 1's Head Shot Image URL (ex: http://info.nvidianews.com/rs/156-OFN-742/images/dan_m.jpg)
薛博阳
GPU 计算专家 NVIDIA

拥有多年GPU开发经验和深度学习开发经验。曾参与计算机视觉、游戏人工智能等项目开发。为FasterTransformer 2.0 开发者之一。目前主要负责 FasterTransformer 2.0 的进一步的优化。
 
Add Presenter 2's Head Shot Image URL (ex: http://info.nvidianews.com/rs/156-OFN-742/images/dan_m.jpg)
戴巍
原力动画资深渲染艺术家, 原力动画

原力动画资深渲染艺术家,Vray官方认证艺术家,Vray官方认证讲师。2016年加入原力动画,参与《爵迹》等项目制作。
 
Add Presenter 3's Head Shot Image URL (ex: http://info.nvidianews.com/rs/156-OFN-742/images/dan_m.jpg)
Add Presenter 3's Name (John Smith)
Add Presenter 3's Title (ex: CMO, ABC Company)

Add Presenter 3's Bio (2-3 Sentences)
Add Presenter 4's Head Shot Image URL (ex: http://info.nvidianews.com/rs/156-OFN-742/images/dan_m.jpg)
Add Presenter 4's Name (John Smith)
Add Presenter 4's Title (ex: CMO, ABC Company)

Add Presenter 4's Bio (2-3 Sentences)


主办方
Host1
Host1
 
Host2
Host1
 
Host2
 
Host3
Host1
 
Host2
 
Host3
 
Host4