王选所网络信息处理研究方向5篇论文被AAAI 2021录用

2021年2月2日,人工智能领域顶级会议AAAI 2021(The Thirty-Fifth AAAI Conference on Artificial Intelligence)在线上举办。王选所网络信息处理研究方向在该会议上发表5篇学术论文,涉及检索式和生成式对话、故事生成和新闻标题生成、机器学习方法等。

論文作者參會並進行了線上論文報告。論文的具體信息如下:

[1] The Style-Content Duality of Attractiveness: Learning to Write Eye-Catching Headlines via Disentanglement, Mingzhe Li, Xiuying Chen, Min Yang, Shen Gao, Dongyan Zhao, Rui Yan.

搶眼的新聞標題可以吸引更多的讀者點擊,發布者可以獲得更多的流量和利潤,讀者可以訪問閱讀優秀的文章。基于有吸引力標題具有風格和內容的二象性,本文提出一個生成有吸引力標題的任務。文章設計了一個解耦模塊從原型標題中分離出風格和內容表示,內容信息幫助捕獲重要部分,風格信息指導標題生成。大量實驗表明,本文的模型生成的標題既能保持內容一致性,又能有效增加文章點擊率。

[2] Reasoning in Dialog: Improving Response Generation by Context Reading Comprehension, Xiuying Chen, Zhi Cui, Jiayi Zhang, Chen Wei, Jianwei Cui, Bin Wang, Dongyan Zhao, and Rui Yan.

本文提出藉由檢視模型回答閱讀理解問題的能力來改善回應産生的效能,而問題集中在對話中省略的信息。受多任務學習方案的啓發,本文提出了一個將這兩個任務統一起來的聯合框架,共享同一個編碼器,用不同的解碼器來提取共同的和任務不變的特征來學習特定任務的特征。在實驗中,本文使用人工標注來編寫和檢驗一個大型對話閱讀理解數據集。在這個數據集上進行的大量實驗結果表明,該模型在兩個任務上都比幾個強基線有了實質性的改進。

[3] Learning an Effective Context-Response Matching Model with Self-Supervised Tasks for Retrieval-based Dialogues, Ruijian Xu, Chongyang Tao, Daxin Jiang, Xueliang Zhao, Dongyan Zhao, Rui Yan.

現有的檢索式對話系統忽視了對話數據中許多潛在的、對文本理解和回複預測有益的監督信號,且仍然面臨著一些關鍵的不足,例如上下文的不相關和不一致。爲了解決這個問題,本文提出借助爲對話數據特別設計的自監督任務來訓練基于預訓練語言模型的文本-回複匹配模型。實驗結果表明,本文提出的方法在兩個公開對話數據集上爲多輪對話回複選擇帶來了顯著的提高,並刷新了當前的最優結果。

[4] Content Learning with Structure-Aware Writing: A Graph-Infused Dual Conditional Variational Autoencoder for Automatic Storytelling, Meng-Hsuan Yu, Juntao  Li, Zhangming Chan, Dongyan Zhao and Rui Yan.

自動故事生成依靠預先對故事情節或是故事骨架進行規劃以生成上下文一致的文本,爲了模仿人類寫故事的過程並利用每個故事的細微內在結構信息,本文將自動故事生成分解爲故事情節提取,故事內部架構圖構建,圖生成和圖注入序列內容生成的子問題,提出一種圖注入的雙條件變分自動編碼器模型,捕獲結構信息並將其融合到故事生成的過程中。通過該模型,我們能夠有效地生成多樣且內容一致性的故事,使得自動故事寫作更加貼近人類寫作的真實場景。

[5] Predictive Adversarial Learning from Positive and Unlabeled Data, Wenpeng Hu, Ran Le, Bing Liu, Feng Ji, Jinwen Ma, Dongyan Zhao, Rui Yan.

从无标注的数据中获取正样本在工业界拥有广泛的应用,例如异常检测,意图挖掘等,加之监督信息的获取往往需要较高的经济成本且标注的负样本代表性有限等因素的影响,使得PU Learning成为一个重要的研究热点,本文针对传统PU learning方法依赖正负数据比例的问题,提出一种基于对抗思想的PAN方法,并在大量的测试中取得了领域最好水平。

 

CLOSE

上一篇 沒有了