在碎片化閱讀充斥眼球的時代,越來越少的人會去關註每篇論文背後的探索和思考。
在這個欄目裡,你會快速 get 每篇精選論文的亮點和痛點,時刻緊跟 AI 前沿成果。
點選本文底部的「閱讀原文」即刻加入社群,檢視更多最新論文推薦。
@theodoric008 推薦
#Relation Extraction
本文來自蘇黎世聯邦理工學院 DS3Lab,文章針對物體關係抽取任務進行了非常系統的實驗,併在第十二屆國際語意評測比賽 SemEval 2018 的語意關係抽取和分類任務上獲得冠軍。本文思路嚴謹,值得國內學者們仔細研讀。
@yihongchen 推薦
#Dialogue System
本文是 Facebook AI Research 發表於 NIPS 2018 的工作。論文根據一個名為 PERSONA-CHAT 的對話資料集來訓練基於 Profile 的聊天機器人,該資料集包含超過 16 萬條對話。
本文致力於解決以下問題:
-
聊天機器人缺乏一致性格特徵
-
聊天機器人缺乏長期記憶
-
聊天機器人經常給出模糊的回應,例如 I don’t know
DiSAN: Directional Self-Attention Network for RNN/CNN-Free Language Understanding
@zhkun 推薦
#Natural Language Understanding
本文是悉尼科技大學發表於 AAAI 2018 的工作,這篇文章是對 Self-Attention 的另一種應用,作者提出一種新的方向性的 Attention,從而能更加有效地理解語意。
@chlr1995 推薦
#Object Detection
本文來自清華大學和 Face++,文章分析了使用 ImageNet 預訓練網路調優檢測器的缺陷,研究透過保持空間解析度和擴大感受野,提出了一種新的為檢測任務設計的骨幹網路 DetNet。
實驗結果表明,基於低複雜度的 DetNet59 骨幹網路,在 MSCOCO 標的檢測和實體分割追蹤任務上都取得當前最佳的成績。
@chlr1995 推薦
#Video Caption
本文以《摩登原始人》的動畫片段作為訓練資料,對每個片段進行詳細的文字標註,最終訓練得到一個可以透過給定指令碼或文字描述生成動畫片段的模型。
模型稱為 Craft,分為佈局、物體、背景,三個部分。雖然現階段模型存在著很多問題,但是這個研究在理解文字和影片影象高層語意方面有著很大的意義。
@Aidon 推薦
#Image Caption
本文來自華盛頓大學和微軟,文章提出一個基於 GAN 的 Image Caption 框架,亮點如下:
1. 提出用 comparative relevance score 來衡量 image-text 的質量從而指導模型的訓練,並且在訓練過程中引入 unrelated captions;
2. 利用 human evaluations 評估 caption 的 accuracy,給出了和傳統的六個評價指標的結果對比;
3. 提出透過比較 caption feature vectors 的 variance 來評估 caption 的 diversity。
@robertdlut 推薦
#Self-Attention
本文是 Andrew McCallum 團隊應用 Self-Attention 在生物醫學關係抽取任務上的一個工作。這篇論文作者提出了一個檔案級別的生物關係抽取模型,作者使用 Google 提出包含 Self-Attention 的 transformer 來對輸入文字進行表示學習,和原始的 transformer 略有不同在於他們使用了視窗大小為 5 的 CNN 代替了原始 FNN。
@Ttssxuan 推薦
#Recommender System
本文系統地介紹了 Session-based Recommendation,主要針對 baseline methods, nearest-neighbor techniques, recurrent neural networks 和 (hybrid) factorization-based methods 等 4 大類演演算法進行介紹。
此外,本文使用 RSC15、TMALL、ZALANDO、RETAILROCKET、8TRACKS 、AOTM、30MUSIC、NOWPLAYING、CLEF 等 7 個資料集進行分析,在 Mean Reciprocal Rank (MRR)、Coverage、Popularity bias、Cold start、Scalability、Precision、Recall 等指標上進行比較。
@chlr1995 推薦
#Neural Network
本文是 ICLR 2018 最佳論文之一。在神經網路最佳化方法中,有很多類似 Adam、RMSprop 這一類的自適應學習率的方法,但是在實際應用中,雖然這一類方法在初期下降的很快,但是往往存在著最終收斂效果不如 SGD+Momentum 的問題。
作者發現,導致這樣問題的其中一個原因是因為使用了指數滑動平均,這使得學習率在某些點會出現激增。在實驗中,作者給出了一個簡單的凸最佳化問題,結果顯示 Adam 並不能收斂到最優點。
在此基礎上,作者提出了一種改進方案,使得 Adam 具有長期記憶能力,來解決這個問題,同時沒有增加太多的額外開銷。
@jamiechoi 推薦
#Image Captioning
本文是佐治亞理工學院發表於 CVPR 2018 的工作,文章結合了 image captioning 的兩種做法:以前基於 template 的生成方法(baby talk)和近年來主流的 encoder-decoder 方法(neural talk)。
論文主要做法其實跟作者以前的工作”Knowing When to Look: Adaptive Attention via A Visual Sentinel for Image Captioning”類似:在每一個 timestep,模型決定生成到底是生成 textual word(不包含視覺資訊的連線詞),還是生成 visual word。其中 visual word 的生成是一個自由的介面,可以與不同的 object detector 對接。
@wanzysky 推薦
#Semantic Segmentation
本文提出了一種與類別預測相關的網路結構,使得在一定程度上降低了分割任務的難度。Channel attention 和空間 attention 形成互補,Global contextual loss 增強 context 資訊,同時提高了小物體的分割精度。
@VIPSP 推薦
#Convolutional Neural Network
圖摺積神經網路(Graph CNN)是經典 CNN 的推廣方法,可用於處理分子資料、點雲和社交網路等圖資料。Graph CNN 中的的濾波器大多是為固定和共享的圖結構而構建的。但是,對於大多數真實資料而言,圖結構的大小和連線性都是不同的。
本論文提出了一種有泛化能力且靈活的 Graph CNN,其可以使用任意圖結構的資料作為輸入。透過這種方式,可以在訓練時為每個圖資料構建一個任務驅動的自適應圖(adaptive graph)。
為了有效地學習這種圖,作者提出了一種距離度量學習方法。並且在九個圖結構資料集上進行了大量實驗,結果表明本文方法在收斂速度和預測準確度方面都有更優的表現。
本文由 AI 學術社群 PaperWeekly 精選推薦,社群目前已改寫自然語言處理、計算機視覺、人工智慧、機器學習、資料挖掘和資訊檢索等研究方向,點選「閱讀原文」即刻加入社群!
點選以下標題檢視往期推薦:
#作 者 招 募#
我是彩蛋
解鎖新功能:熱門職位推薦!
PaperWeekly小程式升級啦
今日arXiv√猜你喜歡√熱門職位√
找全職找實習都不是問題
解鎖方式
1. 識別下方二維碼開啟小程式
2. 用PaperWeekly社群賬號進行登陸
3. 登陸後即可解鎖所有功能
職位釋出
請新增小助手微信(pwbot02)進行諮詢
長按識別二維碼,使用小程式
*點選閱讀原文即可註冊
關於PaperWeekly
PaperWeekly 是一個推薦、解讀、討論、報道人工智慧前沿論文成果的學術平臺。如果你研究或從事 AI 領域,歡迎在公眾號後臺點選「交流群」,小助手將把你帶入 PaperWeekly 的交流群裡。
▽ 點選 | 閱讀原文 | 加入社群刷論文