<code id='xik74'><strong id='xik74'></strong></code>
<span id='xik74'></span>

      <fieldset id='xik74'></fieldset>
      <acronym id='xik74'><em id='xik74'></em><td id='xik74'><div id='xik74'></div></td></acronym><address id='xik74'><big id='xik74'><big id='xik74'></big><legend id='xik74'></legend></big></address>

      <i id='xik74'><div id='xik74'><ins id='xik74'></ins></div></i>
    1. <tr id='xik74'><strong id='xik74'></strong><small id='xik74'></small><button id='xik74'></button><li id='xik74'><noscript id='xik74'><big id='xik74'></big><dt id='xik74'></dt></noscript></li></tr><ol id='xik74'><table id='xik74'><blockquote id='xik74'><tbody id='xik74'></tbody></blockquote></table></ol><u id='xik74'></u><kbd id='xik74'><kbd id='xik74'></kbd></kbd>
      1. <i id='xik74'></i>
        <ins id='xik74'></ins>
        <dl id='xik74'></dl>
        1. 深研院信息工程學院鄒月嫻教授課題組在人工智能頂級會議AAAI上發太太的情人表論文

          • 时间:
          • 浏览:19
          • 来源:午夜色情大香蕉伊人姐弟_午夜色情非洲_午夜色情嫂子免费播放

            最近,視覺和語言的多模態任務,例如圖像字幕和視覺問題解答(VQA),引起瞭學術界和工業界的廣泛興趣。但是,大多數現有的模型都專註於單個任務。深圳研主人回國小狗小區裡苦等三年究生院信息工程學院鄒月嫻教授課題組研究發現,這些任務存在一定的相似性,因此認為如果模型可以致命彎道在線同時考慮這些多模態問題,則可以共同學習來自不同任務的不同知識,並且很有可能提高每個任務的效能。

            近日,鄒月嫻課題組的研究“Federated Learning for Vision-and-Language Grounding Problems”被在美國紐約舉行的第34屆人工智能發展協會(AAAI)人工智能會議(AAAI Conference on Artificial Intelligence, AAAI 2020)接收發表並以口頭匯報(Oral)的形式進行瞭展示。該研究成果提出瞭一種聯邦學習框架,可以從不同的任務中獲得各種類型的圖像表示,然後將它們融合在一起以形成細粒度的圖像表示。這些圖像表示融合瞭來自不同視覺和語言的多模態問七天影院題的有用圖像表示,因此在單個任務中比單獨的原始圖像表示強大得多。為瞭學習這種圖像表示,該課題組提出瞭對齊(Aligning)、集成(Integrating)和映射(Mapping)、網絡(aimNet)。aimNet由一個對齊模塊,一個集成模塊和一個映射模塊組成(如下圖)。

          課題組提出的集中式模型aimNet

            其中,對齊模塊通過對提取的視覺和文本特征進行相互關註來構建對齊的圖像表示,其能為顯著圖像區域提供瞭更清晰的語義描述。接下來,集成模塊著重於通過自我註意機制集成視覺和文本特征,該機制捕獲顯著區域的分組和屬性的搭配。最後,映射模塊由兩層非線性層組成,用於將學習到的細粒度圖像表示映射到特定任務的特征域。各課題組提出的模塊充分利用瞭圖像中的所有有京東商城效信息,並將其作為輸入傳遞給解碼器,以生成有意義的句子或給出問題的準確俄羅斯暫停撤僑答案。該課題組在兩個奧運門票可退票新聞圖像字幕數據集和一個VQA數據集上,以及相應的三個聯邦學習設置上,包括水平聯合學習,垂直聯合學習和聯合遷移學習,進行實驗用於驗證該課題組的動機以及所提出方法的有效性。

            2019級碩士生劉峰林為該論文第一作者,鄒月嫻為通訊作者,該工作得到瞭數字視頻編解碼技術國傢工程實驗室、深圳市發改委(九久愛視頻精品香蕉我為情狂數據科學與智能計算學科發展計劃)和Aoto-PKUSZ聯合實驗室的支持。