歡迎光臨
每天分享高質量文章

春節囤貨清單 | 15篇近期值得讀的AI論文


在碎片化閱讀充斥眼球的時代,越來越少的人會去關註每篇論文背後的探索和思考。

在這個欄目裡,你會快速 get 每篇精選論文的亮點和痛點,時刻緊跟 AI 前沿成果。


點選本文底部的「閱讀原文」即刻加入社群,檢視更多最新論文推薦。

這是 PaperDaily 的第 42 篇文章

[ 自然語言處理 ]

Deep Learning for Sentiment Analysis : A Survey

@xwzhong 推薦

#Sentiment Classification

近年來,深度學習有了突破性發展,NLP 領域裡的情感分析任務逐漸引入了這種方法,並形成了很多業內最佳結果。本文中,來自領英與伊利諾伊大學芝加哥分校的研究人員對基於深度學習的情感分析研究進行了詳細論述。

論文連結

https://www.paperweekly.site/papers/1589

Generating Wikipedia by Summarizing Long Sequences

@paperweekly 推薦

#Short Text Expansion

本文來自 Google Brain,透過長序列摘要生成維基百科。

論文連結

https://www.paperweekly.site/papers/1615

MaskGAN: Better Text Generation via Filling in the ______

@Synced 推薦

#Paraphrase Generation

谷歌大腦提出使用生成對抗網路(GAN)來提高文字質量,它透過顯式地訓練生成器產生高質量文字,並且已經在影象生成領域取得很大成功。GAN 最初設計用於輸出可微分的值,所以生成離散語言是具有挑戰性的。作者認為驗證複雜度本身不代表模型生成的文字質量。

本文引入條件 actor-critic GAN,它可以基於背景關係填充缺失的文字。本文從定性和定量的角度證明,相比最大似然訓練的模型,這種方法生成了更真實的有條件和無條件文字樣本。

論文連結

https://www.paperweekly.site/papers/1588


Investigating the Working of Text Classifiers

@duinodu 推薦

#Text Classification

文字分類問題,給一段文字指定一個類別,在主題分類和情感分析中都有應用到。它的難點在於如何在具有語意的文字中,對句子之間的內在聯絡(語意或句法)進行編碼。這對文字情感分類很關鍵,因為比如像“對照”或者“因果”等關係,會直接決定整個檔案的性質。

本文並沒有提出一套完整的解決方法,而是透過構建新的資料集(訓練集和測試集盡可能不包含共同的關鍵詞),驗證上面的猜想。此外,作者還設計了一種 ANON 的正則方法,讓網路不那麼容易記住檔案的關鍵詞。

論文連結

https://www.paperweekly.site/papers/1579

A Hybrid Framework for Text Modeling with Convolutional RNN

@yinnxinn 推薦

#Question Answering

本文使用 RNN+CNN 的結構來完成 NLP 中的問答任務,其亮點在於使用 RNN 獲取 question 和 answer 的背景關係語意,CNN 在語意層面對二者進行操作。

論文連結

https://www.paperweekly.site/papers/1663


[ 計算機視覺 ]


MAttNet: Modular Attention Network for Referring Expression Comprehension

@EthanLC 推薦

#Multimodal

本文對 referring expression(指向標的物體的自然陳述句)進行 modular network 的建模,提供了主語,位置,關係三個 module。

每個 module 的組合權重由 attention 機制來實現,各個模組內提供不同的 visual attention 來關註圖片內的相關區域。模型涉及到的 word,module,visual 的 attention 都當做隱變數自動學習。

整體框架可以與 Mask R-CNN 無縫連線,在標的定位和分割兩個 task 上都達到了目前最佳準確率。

Demo: http://gpuvision.cs.unc.edu/refer/comprehension

論文連結

https://www.paperweekly.site/papers/1594

Wasserstein Auto-Encoders

@huapohen 推薦

#GAN

ICLR2018 高分論文,透過 optimal transport(最優傳輸)的角度,Wasserstein+auto-encoder 構建生成模型。但對 GAN 有情懷,透過對抗訓練學習對手來提升自己,學習此篇 WAE(WGAN 的對手)正是如此,助於我們提升 GAN 網路的生成效能和或解釋性。

論文連結

https://www.paperweekly.site/papers/1578

A Mixed-scale Dense Convolutional Neural Network for Image Analysis

@somtian 推薦

#CNN

本文透過將 dilated 摺積的 feature maps 做 dense connection,使模型可以處理計算機視覺中的很多問題,比如混合尺度的處理以及可以應用到很多問題中。同時減少了網路的引數,加速訓練和應用。

論文連結

https://www.paperweekly.site/papers/1621

Dynamic Weight Alignment for Convolutional Neural Networks

@duinodu 推薦

#CNN

用 CNN 處理序列資料的問題在於,序列資料在時間上是存在畸變的,比如速率不穩定。而 CNN 的這種線性性質,讓摺積核無法處理時間畸變這個問題。

本文提出了一種在 CNN 的摺積核中對齊權重的方法,使得這樣的 CNN 更能處理序列資料,併在多個資料集上驗證了這個方法的有效性。

論文連結

https://www.paperweekly.site/papers/1591


Single-Shot Refinement Neural Network for Object Detection

@arlen 推薦

#Object Detection

本文來自中科院自動化所,論文利用多層特徵效果顯著,結合了單階段和雙階段的優點,在準確率和速度上有很好的均衡。

論文連結

https://www.paperweekly.site/papers/1576

[ 機器學習 ]


Model Evaluation, Model Selection, and Algorithm Selection in Machine Learning

@Synced 推薦

#Model Optimization

本文回顧了用於模型評估、模型選擇和演演算法選擇任務中的不同技術,並參考理論和實證研究討論了每種技術的主要優勢和劣勢。

論文連結

https://www.paperweekly.site/papers/1616

Training Neural Networks by Using Power Linear Units (PoLUs)

@snowwalkerj 推薦

#Activation Function

本文設計了一種 PoLU 啟用函式,在多個資料集上取得超過 ReLU 的效能。

論文連結

https://www.paperweekly.site/papers/1658

Learning Continuous User Representations through Hybrid Filtering with doc2vec

@Ttssxuan 推薦

#Recommender System

本文把用行為使用 item 描述進行串連,構成檔案,並使用 doc2vec 訓練使用者表示向量。

論文連結

https://www.paperweekly.site/papers/1562

NDDR-CNN: Layer-wise Feature Fusing in Multi-Task CNN by Neural Discriminative Dimensionality Reduction

@xaj 推薦

#Multi-task Learning

本文研究的問題是多工學習。作者提出了一種對多個網路(對應多個任務)進行逐層特徵融合的方法。

論文連結

https://www.paperweekly.site/papers/1614


An Attention-based Collaboration Framework for Multi-View Network Representation Learning

@arlen 推薦

#Object Detection

本文是網路表示學習大牛 Jian Tang 的工作,論文利用 multi-view 來對網路進行表示學習。各個 view 之間透過共享鄰居來保證所有節點表示在同一個空間中,同時,透過引入 attention 機制,可以學到不同節點在不同 view 的權重。

論文連結

https://www.paperweekly.site/papers/1583

本文由 AI 學術社群 PaperWeekly 精選推薦,社群目前已改寫自然語言處理、計算機視覺、人工智慧、機器學習、資料挖掘和資訊檢索等研究方向,點選「閱讀原文」即刻加入社群!

我是彩蛋 


 解鎖新功能:熱門職位推薦!

PaperWeekly小程式升級啦

今日arXiv√猜你喜歡√熱門職位

找全職找實習都不是問題

 

 解鎖方式 

1. 識別下方二維碼開啟小程式

2. 用PaperWeekly社群賬號進行登陸

3. 登陸後即可解鎖所有功能

 職位釋出 

請新增小助手微信(pwbot01)進行諮詢

 

長按識別二維碼,使用小程式

*點選閱讀原文即可註冊

關於PaperWeekly


PaperWeekly 是一個推薦、解讀、討論、報道人工智慧前沿論文成果的學術平臺。如果你研究或從事 AI 領域,歡迎在公眾號後臺點選「交流群」,小助手將把你帶入 PaperWeekly 的交流群裡。


贊(0)

分享創造快樂