欢迎访问广东工业大学数据挖掘与信息检索实验室!
实验室2项成果被ICML录用,3项成果被IJCAI录用
2025-05-29 15:14 DMIR实验室 

      近日,人工智能领域两大CCF A类顶级国际会议——ICML 2025 与 IJCAI 2025 相继公布论文录用结果。广东工业大学计算机学院数据挖掘与信息检索(DMIR)实验室科研成果再获国际顶级学术会议高度认可:2项成果被ICML 2025 录用,3项成果被 IJCAI 2025 录用。后续将陆续发布论文详细解读,敬请关注。下面附上论文信息。

1

标题:Identification of Latent Confounders via Investigating the Tensor Ranks of the Nonlinear Observations.

作者:Zhengming Chen, Yewei Xia, Feng Xie, Jie Qiao, Zhifeng Hao, Ruichu Cai, Kun Zhang.
会议名称:ICML 2025
摘要: 我们研究了从混合类型观测数据中学习离散隐变量因果结构的问题。传统方法如基于张量秩条件(Tensor Rank Condition)的,在观测变量为连续数据类型时不再适用,这限制了隐变量因果结构学习的适用范围。本文考虑更一般的情况,即观测变量可连续可离散,且允许多个隐父变量导致同一组观测变量(n-factor)。我们证明,在完备性条件下,可对数据进行离散化以满足张量秩条件所需的满秩假设,实现混合数据中离散隐变量结构模型的可识别。此外,引入两个充分测量条件这一更一般假设,我们证明了在此条件下张量秩条件仍然成立,且可通过两阶段算法识别隐变量的因果结构。实验验证了方法的有效性。

2

标题:Reducing Confounding Bias without Data Splitting for Causal Inference via Optimal Transport.

作者:Yuguang Yan, Zongyu Li, Haolin Yang, Zeqin Yang, Hao Zhou, Ruichu Cai, Zhifeng Hao.
会议名称:ICML 2025
摘要:因果推断旨在估计干预措施(如药物或剂量)的效应。现有方法为减少非随机化干预分配导致的混杂偏差,通常根据干预变量对有限的训练样本进行拆分。这一做法会降低训练样本数,而精确的分布估计与对齐依赖充足的训练样本。针对这一问题,我们提出了无需数据分割的分布对齐范式,可应用于二元和连续型干预的场景。具体地,我们通过概率测度刻画数据分布与混杂偏差,并利用最优传输理论分析混杂偏差与结果估计误差,进而通过减少边缘分布与条件分布的偏差来学习平衡表征,避免数据拆分,使预测模型更具泛化性。我们在二元和连续型干预场景中进行了实验,证明了方法的有效性。

3

标题:Long-Term Individual Causal Effect Estimation via ldentifiable Latent Representation Learning.

作者:Ruichu Cai, Junjie Wan, Weilin Chen, Zegin Yang, Ziian Li, Pena Zhen, Jiecheng Guo.
会议名称:IJCAI 2025
摘要:在许多现实场景中,结合长期观测与短期实验数据来估计长期因果效应至关重要且颇具挑战。现有方法提出理想假设以解决观测数据中的潜在混杂问题,但这些假设在实际中常不成立,限制了其有效性。本文在不依赖这些假设的情况下,解决长期个体因果效应估计问题。我们利用如多源数据等的自然异质性来识别潜在混杂因素,减少对理想假设的依赖。同时,我们设计了基于潜在表征学习的长期因果效应估计器,并从理论上证明了潜在混杂因素的可识别性,实现了长期效应的识别。在合成和半合成数据集上的实验,验证了我们方法的有效性。

4

标题:Causal View of Time Series lmputation: Some ldentification Results on Missing Mechanism.

作者:Ruichu Cai, Kaitao Zheng, Junxian Huang, Zijian Li, Zhengming Chen, Boyan Xu, Zhifeng Hao.
会议名称:IJCAI 2025
摘要:时间序列填充是极具挑战性的问题,在医疗、物联网等领域应用广泛。现有方法多从观测数据中建模时间潜在依赖与生成过程。然而,实际中时间序列数据存在随机缺失(MAR)和非随机缺失(MNAR)等不同缺失机制,现有方法常忽视缺失机制的差异,用单一模型填充,易因机制不匹配导致错误结果。本文提出针对时间序列填充的框架(DMM),通过探索不同缺失机制来定制解决方案。我们分析了不同机制下含时间潜在状态和缺失原因的数据生成过程,用变分推断建模,通过神经网络估计潜在变量先验分布,并证明了潜在变量可识别。实验表明,该方法在不同缺失机制的数据集上均优于现有技术,现实应用中效果显著。

5

标题:Causal-aware Large Language Models: Enhancing Decision-Making through Learning, Adapting and Acting.
作者:Wei Chen, Jiahao Zhang, Haipeng Zhu, Boyan Xu, Zhifeng Hao, Keli Zhang, Junjian Ye, Ruichu Cai.
会议名称:IJCAI 2025
摘要:大型语言模型(LLMs)虽因存储海量知识在决策上有潜力,但缺乏推理能力且难适应新环境,这限制了其在复杂任务中的应用。受人类认知启发,我们提出具备因果感知能力的大型语言模型(Causal-Aware LLMs)。该模型将结构因果模型(SCM)融入决策,采用“学习-适应-行动”范式。学习阶段,用大型语言模型提取环境因果实体及关系,初始化结构因果模型;适应阶段,通过因果干预和外部反馈更新模型;行动阶段,利用强化学习智能体和结构化因果知识制定高效策略。此过程迭代进行以学习因果知识,使模型能更准确理解环境并高效决策。实验结果验证了方法的有效性。

   


关闭窗口