• <center id="8gsce"><source id="8gsce"></source></center>
  • <tbody id="8gsce"></tbody>
  • <blockquote id="8gsce"></blockquote>
    <center id="8gsce"><cite id="8gsce"></cite></center>
  • <dfn id="8gsce"><dl id="8gsce"></dl></dfn>
    歡迎光臨 : 北京品立科技有限責(zé)任公司服務(wù)熱線 :+86-400-127-3302
    語言選擇: 中文版 ∷  英文版

    新聞中心

    如何突破Decoder性能瓶頸?英偉達(dá)專家揭秘

    自從 “Attention is All You Need” 在2017年提出以來,Transformer已成為 NLP 領(lǐng)域中非常熱門的深度學(xué)習(xí)網(wǎng)絡(luò)架構(gòu)。但是在推理部署階段,其計(jì)算性能往往難以滿足在線業(yè)務(wù)對于低延遲和高吞吐的要求。

    在英偉達(dá)開源的FasterTransformer 1.0版本中,針對BERT中的 Transformer Encoder進(jìn)行了優(yōu)化和加速,經(jīng)過高度優(yōu)化之后,降低了用戶使用transformer編碼的時(shí)延。

    在解決了Encoder性能問題之后,英偉達(dá)將重點(diǎn)放到了同樣重要的Transformer Decoder推理上。

    因此,英偉達(dá)推出了FasterTransformer 2.0版本,提供針對解碼器進(jìn)行高度優(yōu)化的transformer layer。同時(shí),還提供了優(yōu)化過后的整個(gè)翻譯流程,滿足想要在翻譯場景中大幅降低時(shí)延的用戶們。

    热视频精品在线视频精品,日本午夜免a费看大片中文4,在线观看亚洲无码sv,免费国产无码不卡 免费无码一区二区精品视频 永久免费无码国产
  • <center id="8gsce"><source id="8gsce"></source></center>
  • <tbody id="8gsce"></tbody>
  • <blockquote id="8gsce"></blockquote>
    <center id="8gsce"><cite id="8gsce"></cite></center>
  • <dfn id="8gsce"><dl id="8gsce"></dl></dfn>