在碎片化閱讀充斥眼球的時代,越來越少的人會去關註每篇論文背後的探索和思考。
在這個欄目裡,你會快速 get 每篇精選論文的亮點和痛點,時刻緊跟 AI 前沿成果。
點選本文底部的「閱讀原文」即刻加入社群,檢視更多最新論文推薦。
@bzhang 推薦
#Neural Machine Translation
本文主要研究機器翻譯領域最先進的 Transformer 系統(Attention is all you need)。針對該系統解碼效率底下的問題,本文在模型設計層面提出平均註意網路,在不損失翻譯質量的情況下,本文所提模型有效提升解碼速率 4~7 倍。
本文在 WMT 六個語言對 12 個翻譯方向上進行了實驗論證,結果一致地表明本文所提模型可以有效地提升解碼速率,並生成高質量譯文。
@Ttssxuan 推薦
#Adversarial Learning
本文來自 SIGIR ’18。深度表徵學習網路可以自動地學習資料集中資料的表示,但是這也存在侷限性,其被侷限到被取樣的資料中,而對未見過的資料域泛化能力有限。本文藉助對抗網路對錶徵學習網路進行正則化,其分類器向表徵網路提供負反饋,使其不會陷入特定資料域的表徵學習,從而提升網路對的泛化能力。
Hierarchical Neural Story Generation
@llamazing 推薦
#Text Generation
本文來自 Facebook AI Research,論文使用層次話結構做故事生成,解決長依賴性問題。少資訊->多資訊,decoder self-attention + model fusion,decoder 時 word 從 word prob top10 中隨機選取,可減少生成重覆文字。
@paperweekly 推薦
#Object Detection
本文提出了一個資料集,包含 2806 張遙感影象(大小約 4000*4000),188,282 個 instances,分為 15 個類別。
@chlr1995 推薦
#Spiking Neural Network
脈衝神經網路(SNN)在生物理論中備受關註。理論上脈衝神經網路應該與人工神經網路的效能是相同的,但是訓練深層的 SNN 是非常困難的。本文提出了一種脈衝版本的 ResNet,並且在 MNIST、CIFAR 等資料集上實驗得到了 state of the art的結果。
@cmdjeu 推薦
#Named Entity Recognition
本文是亞馬遜和 UT Austin 發表於 ICLR 2018 的工作,論文在命名物體識別的方法上引入主動學習,在少量資料集即可達到較優結果,感覺也可以擴充套件到其他自然語言方向。
@Ttssxuan 推薦
#Image Ranking
本文來自微軟,本文結合 deep convolutional neural network 和 rank net,設計對成對的圖片的 Attractiveness 排序模型。 模型首先使用深度摺積得到網路圖片的 attractiveness score 的均值和方差,然後使用設計好的標準,對兩個圖片之間的關係進行預測。
論文把模型排序結果和搜尋引擎排序結果比較,質量得到較明顯提升。
@xavierzw 推薦
#Network Embedding
本文來自清華和微軟。論文創造性地將 DeepWalk,LINE,Node2Vec 等 network embedding 的方法,透過 Matrix Factorization 框架來統一表示。
進一步地基於 Matrix Factorization 的思路,作者提出 NetMF 方法,實驗證明優於 DeepWalk,LINE 的演演算法。此外作者也給出了相關 Upper Bound 的嚴格數學證明。
@llamazing 推薦
#Abstractive Summarization
本文是北京大學發表於 ACL 2018 的工作,論文提出用 Global Encoding 解決句內重覆和輸入輸出語意無關問題,Convolutional Gated Unit + Self Attention。
@RTM 推薦
#Image Recognition
本文是 CVPR 2017 的一篇 Oral 文章,主要工作集中在細粒度圖片識別。文中提出了一種級聯的網路結構,透過 anattention proposal sub-network 實現粗粒度圖片到細粒度圖片的獲取和識別,文中充分利用了摺積神經網路的註意力機制,在原始圖片的基礎上裁剪、放大識別圖片中標的。
@IndexFziQ 推薦
#Answer Selection
本文來自 Digitalgenius,提出用 attention 根據不同的輸入粒度計算相似度,將答案的特定部分中的區域性資訊與整個問題的全域性表示相結合。Answer selection 的關鍵就是文字相似度的計算,文章有可以學習的地方。
最後在 InsuranceQA 上評估系統,實驗目的是看註意力機制關註的哪些部分文字,並探究其在不同引數設定下的表現,結果比 IBM(Improved Representation Learning for Question Answer Matching)提出的 Attention LSTM 稍微提高了一些。
@c0de 推薦
#Ad Click Predictions
本文來自斯坦福大學和 Google,論文利用深度學習自動高效得學習高階交叉特徵,免去特徵工程。
@liria 推薦
#Convolutional Neural Network
本文來自斯坦福吳恩達組,該論文主要做的事情建立了從單導聯的心電訊號到 14 種心臟疾病的模型,模型是一個 34 層的 CNN 網路。文章定義了 12 種心臟異常狀態和竇性心率及噪聲,共 14 種。模型主要是 34 層的殘差 CNN 將 ECG 序列對映到 label 序列。
本文聲稱自己的模型超過了心電科的醫生,不同於傳統的提取各種統計指標再訓練模型,是一種直接從 sequnce 訓練的模型,確實能夠減少很多工作量。
@mev 推薦
#Natural Language Understanding
本文介紹了 Gmail Smart Reply 的一個檢索式實現,這個結果應該是實際產品化了的,有一定的參考價值。文章中使用了大量的方式來降低模型的 latency,並且使最終結果保持在較高精度。
比較有意思的是文中有一個實驗,使用句子的 ngram embedding sum 來表示句子,然後透過一個 RNN 重新生成原句,在幾十萬詞的資料集下得到了 ppl 為 1.2 的結果,證明瞭僅僅使用 ngram 就可以捕捉到足夠的句子序列資訊了。
@somtian 推薦
#Recommender System
作者使用深層自編碼器解決推薦中的一個新穎問題:長尾推薦問題。探索了深度學習在推薦系統中越來越多的領域。
#推 薦 有 禮#
本期所有入選論文的推薦人
均將獲得PaperWeekly紀念周邊一份
▲ 機器學習主題行李牌/卡套
想要贏取以上週邊好禮?
點選閱讀原文即刻加入社群吧!
點選以下標題檢視往期推薦:
▲ 戳我檢視比賽詳情
關於PaperWeekly
PaperWeekly 是一個推薦、解讀、討論、報道人工智慧前沿論文成果的學術平臺。如果你研究或從事 AI 領域,歡迎在公眾號後臺點選「交流群」,小助手將把你帶入 PaperWeekly 的交流群裡。
▽ 點選 | 閱讀原文 | 加入社群刷論文