在碎片化閱讀充斥眼球的時代,越來越少的人會去關註每篇論文背後的探索和思考。
在這個欄目裡,你會快速 get 每篇精選論文的亮點和痛點,時刻緊跟 AI 前沿成果。
點選本文底部的「閱讀原文」即刻加入社群,檢視更多最新論文推薦。
[ 自然語言處理 ]
@jerryshi 推薦
#Knowledge Graph
本文對當下流行的 Knowledge Graph Eembedding 進行彙總,主要介紹了兩大類,Translational Distance Models 和 Semantic Matching Models,簡要敘述了每中方式下的演演算法。最後又給出了 KG Embedding 的一些應用,包括 KG 內部知識補全及外部的關係抽取、QA、推薦等。
@wuhecong 推薦
#Deep Learning
DeepmMind 17 年 11 月份的論文,wavenet 的改良版本,實現了並行文字轉語音。可以和百度的 Deep Voice 3 對比一下。
Deconvolutional Latent-Variable Model for Text Sequence Matching
@zhangjianhai 推薦
#Sentence Matching
利用 Convolution encoder – Deconvolution decoder 學習句子的語意表示,將 cnn-deconv 框架用於文字匹配任務中,如 Text Entailment、Paraphrase Identification 任務中,generation 和 discriminative 共同訓練,提升特定任務的效果。
該論文方法優勢是可以利用 unlabeled 資料幫助學習句子表示,當資料不足時非常有效,隨著標註資料的增加,優勢逐漸減小。
@longquan 推薦
#QA System
本文嘗試探索了從整個端到端問答系統的流程的角度去衡量摺積神經網路對於答案選擇任務的有效性。使用的資料集是標準的 TrecQA 資料集。
@applenob 推薦
#Sentiment Classification
使用基於 Attention 的 LSTM 解決細粒度的情感分析問題,在 SemEval 2014 上取得 state-of-art 的結果。
@Aidon 推薦
#Neural Networks
文章提出一種加速 DNNs 的新方法(WAE: wavelet-like auto-encoder)來剋服現有方法中存在的一個主要問題:如何保證網路加速而又不損失網路效能。
MAE 藉助小波的思想,在 encoding 階段利用 CNNs 分別提取影象的低頻分量和高頻分量,在 decoding 階段利用這兩個分量恢復出原始影象。
訓練好 MAE 之後,可以用於提取影象的低頻分量和高頻分量,比如在影象分類任務中,將低頻分量輸入到標準的分類 DNNs(如 VGG-16,ResNet)中,然後與高頻分量融合後一起用於分類。
這裡提高效率的關鍵在於,相比於原始影象,提取的低頻分量和高頻分量都是低分率(原始影象的 1/4)的。
@snowwalkerj 推薦
#Face Recognition
在不直接接觸模型和訓練樣本的前提下,只使用極少量的“汙染樣本”來迷惑模型,達到攻擊(偽裝)指定類別的目的。攻擊者可以透過佩戴特定的裝飾來達到把自己偽裝成某個特定標的的目的。
@corenel 推薦
#Unsupervised Learning
本文來自 Facebook AI Research,提出了一種利用單一模型來 ensemle 不同 encoded features 來進行 self=training 的方法,就結果上來說很不錯,值得一看。
@duinodu 推薦
#Image-to-image Translation
在很多 image-to-image 問題中,one-to-many 是大部分情況,而一般方法比如 pix2pix,僅僅能產生 one-to-one 的結果,但似乎 one-to-many 更符合常理。比如一張灰色的圖,對應的彩色圖片應該有很多種方式,不僅僅是一種。
困難在於,GAN 總是會讓 G 產生某幾種固定的樣式輸出,而如果簡單地在輸入加隨機噪聲,G 會在 D 的判別下,忽略隨機噪聲的作用,還是會有 mode collapse 問題。
文章提出一種 bicycle 的方式,顯式地對隱含變數 z 進行表示,處理 one-to-many 中的 mode collapse 問題。
@chenhong 推薦
#Video Object Segmentation
傳統的影片分割方法依賴於生成掩膜的時間連續性,但是無法處理標的丟失或目較大的位移等情況。
論文為了剋服這些問題,提出影片物件分割與重新識別( Video Object Segmentation with Re-identification,VSReID),包括掩碼生成模組和 ReID 模組(Person re-identification,ReID,既給定一個監控行人影象,跨裝置檢索行人的影象)。
前者透過 flow warping 生成初始化機率圖,後者自適應匹配檢索丟失的標的物體。透過透過兩個模組的迭代應用,本文的模型在 DAVIS-2017 取得冠軍,驗證了演演算法的效能。
本文由 AI 學術社群 PaperWeekly 精選推薦,社群目前已改寫自然語言處理、計算機視覺、人工智慧、機器學習、資料挖掘和資訊檢索等研究方向,點選「閱讀原文」即刻加入社群!
我是彩蛋
解鎖新功能:熱門職位推薦!
PaperWeekly小程式升級啦
今日arXiv√猜你喜歡√熱門職位√
找全職找實習都不是問題
解鎖方式
1. 識別下方二維碼開啟小程式
2. 用PaperWeekly社群賬號進行登陸
3. 登陸後即可解鎖所有功能
職位釋出
請新增小助手微信(pwbot01)進行諮詢
長按識別二維碼,使用小程式
*點選閱讀原文即可註冊
關於PaperWeekly
PaperWeekly 是一個推薦、解讀、討論、報道人工智慧前沿論文成果的學術平臺。如果你研究或從事 AI 領域,歡迎在公眾號後臺點選「交流群」,小助手將把你帶入 PaperWeekly 的交流群裡。