人工智能数学理论

  人工智能数学理论团队聚焦三个问题:图神经网络、DNN的数学理论、鲁棒神经网络。该团队与华为所提“面向数学的十大挑战问题”中的“可解释人工智能”相关。

  深度神经网络(DNN)在许多领域取得了惊人的表现和潜力,是当下人工智能领域的热点领域。但其作为一种黑箱模型,是通过大量计算实验得到的,这为深度神经网络的应用带来很多现实的问题,如依赖于神经网络的智能系统是否可信、可靠等。深度神经网络的数学原理和解释逐渐引起各领域研究者们的广泛兴趣和关注,是实现神经网络可解释性、可控性的基础。如何去解释深度神经网络尚无定论,原因在于其复杂性很难被某一数学分支所描述,更可能是概率论、计算几何、微分方程、信息论、代数、组合数学、统计学、最优化、复杂网络等系列分支多个视角的交叉与综合。

  随着各领域海量数据的涌现、各种系统智能化程度的不断提高等前沿科技的发展对未来网络的理论、架构提出了新的挑战性问题,数学理论的发展对探索并解决其中的关键性问题起到基础性的作用。图神经网络作为一种基于图域分析的深度学习方法,在图数据领域的研究中发挥了重要作用。研究并完善图神经网络理论、设计新的方法和算法并应用于实际对于前沿领域如人工智能的发展具有重要意义。

  鲁棒性深度神经网络(DNN)在安全攸关的决策中非常重要,例如:自动驾驶的图像识别、医学图像诊断、军事目标识别等等。但是,目前很多用于图像识别的DNN鲁棒性非常差,50%-90%的样本通过微小变化可以成为对抗样本。鲁棒性也是可解释性的重要侧面。目前的研究鲁棒DNN的主要思路是通过修改损失函数改进DNN的鲁棒性并通过实验结果验证DNN的鲁棒性,没有严格的数学理论,甚至鲁棒DNN的严格定义都不存在。

团队成员(姓氏笔划排序):
  马志明、陆汝钤、王彬、史斌、闫桂英、李阳阳、吴凌云、张世华、周川、高小山