学术报告|构建可信任的AI系统:深度神经网络的形式化验证方法

admin 2024年1月3日09:43:03评论34 views字数 887阅读2分57秒阅读模式

浙江大学网络空间安全学院

学术报告

学术报告|构建可信任的AI系统:深度神经网络的形式化验证方法

张欢 助理教授

美国伊利诺伊大学香槟分校


构建可信任的AI系统:

深度神经网络的形式化验证方法

2024年1月6日(周六)10:00

腾讯会议:833-376-532

https://meeting.tencent.com/dm/xBYiSFMgsgrZ

  报告简介  

随着人工智能(AI)系统的广泛应用,如何在关键应用中严格保证AI的正确性、安全性是一个重要的研究课题。由于人工智能系统的复杂性和特殊性,在人工智能系统中采用传统的形式化验证方法常常有很大挑战。在本次讲座中,我将介绍一个专门用于深度神经网络形式化验证的方法理论框架。它利用了神经网络问题的特殊结构,在神经网络上高效传递线性不等式,避免了传统求解方法的高复杂度,并可以实现对形式化验证问题的GPU加速。基于该框架实现的神经网络验证器α,β-CROWN在一些形式化验证问题上实现了比传统算法快三个数量级的加速,并连续三年获得了国际神经网络验证大赛(VNN-COMP)冠军。最后,我将讨论近期神经网络算法在一些工程领域的应用,比如自治系统、非线性控制、计算机系统等。


  报告人简介  

张欢现任美国伊利诺伊大学香槟分校(UIUC)电子与计算机工程系任助理教授。张欢教授在2012年获得浙江大学学士学位,并于2020年获得加州大学洛杉矶分校(UCLA)博士学位。他的主要研究方向为构建可信任的人工智能系统,特别是采用形式化验证方法来严格证明深度神经网络的安全性和鲁棒性。他带领的团队开发了α,β-CROWN神经网络验证器 (https://abcrown.org),获得了2021、2022、2023年度国际神经网络验证大赛(VNN-COMP)的第一名。他获得的奖项还包括IBM Ph.D. fellowship, 2022 Adversarial Machine Learning Rising Star Award, 和Schmidt Futures AI2050 Early Career Fellowship等。

学术报告|构建可信任的AI系统:深度神经网络的形式化验证方法

更多学院动态

欢迎关注

学术报告|构建可信任的AI系统:深度神经网络的形式化验证方法

原文始发于微信公众号(浙大网安):学术报告|构建可信任的AI系统:深度神经网络的形式化验证方法

  • 左青龙
  • 微信扫一扫
  • weinxin
  • 右白虎
  • 微信扫一扫
  • weinxin
admin
  • 本文由 发表于 2024年1月3日09:43:03
  • 转载请保留本文链接(CN-SEC中文网:感谢原作者辛苦付出):
                   学术报告|构建可信任的AI系统:深度神经网络的形式化验证方法http://cn-sec.com/archives/2355697.html

发表评论

匿名网友 填写信息