在本期 PhD Talk 中,來自香港大學的博士生顧佳濤,將向大家介紹他們在加速神經機器翻譯(NMT)方向的一些進展。
本次 Talk 分為三部分:
第一部分將以 Google Brain 的 Transformer 為基礎,簡要介紹一些神經機器翻譯的基本知識、主要進展和侷限。
第二部分是這期的主要內容,嘉賓將以第一作者身份,為大家詳細介紹他們最近在 ICLR2018 上發表的文章 Non-autoregressive Neural Machine Translation。本文嘗試用非自回歸的方式改造 Transformer,在效能下降不多的情況下實現 10 倍左右的解碼速度。
最後,作為 brainstorming,嘉賓會和大家一起交流對於非自回歸解碼幾個已經實現或者可能的研究方向和應用。
■ 論文 | Non-Autoregressive Neural Machine Translation
■ 連結 | https://www.paperweekly.site/papers/1093
■ 作者 | Jiatao Gu, James Bradbury, Caiming Xiong, Victor O.K. Li, Richard Socher
嘉賓介紹
顧佳濤
香港大學博士生
Jiatao Gu is currently a 4th year Ph.D. student at the Hong Kong University in Victor O.K. Li’s research group.
He was a former research intern at Salesforce Research (September ~ December 2017) and Microsoft Research (April ~ August 2017). He was also a former visiting student in Kyunghyun Cho’s group at NYU (June 2016 ~ January 2017). Before that, he received his Bachelor’s degree at Tsinghua University in 2014. Jiatao’s research interests cover natural language processing and deep learning, especially on neural machine translation.
He has published papers on ACL, EMNLP, NAACL, EACL, AAAI, and ICLR.
PhD Talk
非自回歸神經機器翻譯
香港大學博士生顧佳濤
內容分享√線上Q&A;√
活動形式:PPT直播
活動時間
3 月 9 日(週五)20:00-21:00
45 min 分享 + 15 min Q&A;
長按識別二維碼,進入直播間
*或使用鬥魚App搜尋「1743775」
往期回顧
關於PaperWeekly
PaperWeekly 是一個推薦、解讀、討論、報道人工智慧前沿論文成果的學術平臺。如果你研究或從事 AI 領域,歡迎在公眾號後臺點選「交流群」,小助手將把你帶入 PaperWeekly 的交流群裡。
▽ 點選 | 閱讀原文 | 加入社群刷論文