Graph2Seq:自然語言處理中的從圖到序列學習(Graph-to-Sequence Learning in Natural Language Processing)

發佈者:澳门新银河發佈時間:2019-05-21瀏覽次數:13

報告題目:Graph2Seq:自然語言處理中的從圖到序列學習(Graph-to-Sequence Learning in Natural Language Processing

報告人:吳凌飛 研究員

單位:IBM全球研究院總部(IBM T.J. Watson Research Center)

報告時間:2019年5月22日(週三)上午10:30

報告地點:翡翠湖校區翡翠科教樓A座902會議室

摘要:從序列到序列(Sequence-to-sequence, Seq2Seq技術及其衆多變體在神經機器翻譯、自然語言生成、語音識別和藥物發現等許多方面都取得了優異的性能。儘管Seq2Seq模型具有很強的靈活性和表達能力 ,但它只能應用於輸入爲序列的問題 。然而,序列結構化數據的一種簡單表示 ,許多重要的問題需要用複雜的結構(如圖)來表示。這些圖結構數據不僅可以編碼複雜的成對關係,以便學習更多的信息表示;同時,序列數據中的結構和語義信息可以通過合併特定領域的知識來擴充原始序列數據。爲了處理複雜的結構圖輸入,我們提出了Graph2Seq,這是一種用於圖到序列學習的新的基於注意的神經網絡結構。Graph2Seq可以看作是一個廣義的圖輸入Seq2Seq模型 ,它是一種通用的端到端的神經編解碼器結構 ,它對輸入圖進行編碼,並對目標序列進行解碼。在本次講座中 ,吳凌飛研究員首先介紹Graph2Seq模型 ,然後討論如何在不同的NLP任務中應用該模型。最近的兩部著作(Exploiting Rich Syntactic Information for Semantic Parsing with Graph-to-Sequence Model”,EMNLP 2018)和(SQL-to-Text Generation with Graph-to-Sequence Model” ,EMNLP 2018)中說明了Graph2Seq模型相對於各種Seq2Seq模型和Tree2Seq模型的優勢。



講者簡介:吳凌飛,IBM全球研究院總部(IBM T.J. Watson Research Center) 研究員 , 威廉瑪麗大學計算機系博士 ,主要研究方向爲機器學習(深度學習)、表徵學習和自然語言處理的交叉領域,尤其是快速發展的圖神經網絡及其在新的應用領域和任務上的擴展 。吳博士已經發表30多篇頂尖雜誌和會議,包含NIPS、ICML、ICLR、SysML、AISTATS、KDD、ICDM、NAACL、EMNLP、AAAI、ICASSP、SC、SIAM Journal on Scientific Computing, IEEE Transaction on Big Data, and Journal of Computational Physics。吳博士的研究已被衆多媒體報道,包括Venturebeat、TechTalks、季啓智新、MIT News IBM Research News和SIAMNews,合作了13項美國專利。吳博士組織並擔任了The First International Workshop on Deep Learning on Graphs: Methods and Applications (DLG’19)聯合主席,18年IEEE BigData Tutorial的聯合主席。經常性擔任NIPS, ICML, ICLR, KDD, ACL, IJCAI, and AAAI.等國際頂級會議的TPC member 。