欢迎访问广东工业大学数据挖掘与信息检索实验室!
实验室两篇文章获IJCAI 2019录用
2019-05-13 22:16 DMIR 

近日,IJCAI 2019论文接收结果发布,DMIR实验室蔡瑞初老师指导乔杰、李梓健同学完成的两篇文章《Causal Discovery with Cascade Nonlinear Additive Noise Model》、《Learning Disentangled Semantic Representation for Domain Adaptation》被该会议接收。国际人工智能联合会议IJCAI(International Joint Conference on Artificial Intelligence)是人工智能领域的主要学术会议之一,同时也是CCF A类人工智能学术会议之一。本次会议共计收到有效投稿4752篇,最终接收850篇,接收率为17.9% 。


《Causal Discovery with Cascade Nonlinear Additive Noise Model》给出了一种在因果变量间存在瀑布式的隐变量下的因果发现框架。描述数据间的因果关系,一种常用的方法是结构方程模型或者也可以称函数式因果模型。然而如果因果关系间存在隐变量时,比如存在间接的因果关系时,基于函数式因果模型的因果发现方法常常会失效,尤其是在非线性加性噪声模型假设下。针对此问题,本文框架给出了该结构下的概率模型,并使用变分自编码机来求解。


《Learning Disentangled Semantic Representation for Domain Adaptation》旨在提取解耦的语义特征(disentangled semantic representation)。无监督领域自适应是一项很重要而且很有挑战性的任务,目前主流的工作大多在特征空间上提取领域不变的表达,然而领域的信息和语义信息常常耦合在这些表达中,因此这些方法其实不能真正地提取到领域不变,并且包含语义信息的特征。为了解决这个问题,首先,本文假设数据由两组独立的隐变量生成:语义隐变量z_y和领域隐变量z_d,基于这个假设使用变分自动编码器重构这两组隐变量。而且,本文设计了双重对抗网络去解耦这两组变量,使得语义隐变量z_y是领域不变的。本文在领域自适应的标准数据集Office-31和Office-home上做了实验,除了实验结果达到了state-of-the-art 之外,还证明了解耦的语义特征在领域自适应问题上的重要性。


关闭窗口