大模型时代,可解释和模型对齐变得至关重要。大模型对人的工作生活影响越来越大,但却更加难以理解和控制。OpenAI对外支持的七大研究方向中,可解释和模型对齐就是其中两个。我们应该怎么让深度学习模型变得更透明、可理解、更容易训练、调试和优化,确保它和人类意图对齐呢?本期SPP报告将围绕这些问题进行探讨,介绍我们近期可解释人工智能(XAI)以及利用强化学习从人类反馈学习(RLHF)的方法,探索越狱等大模型安全问题、推理等性能提升的可能解决方案。欢迎参与本期 SPP:7月31日(本周三)19:30 —21:00。
本期直播你将收获哪些
演讲嘉宾
王希廷
CCF高级会员
中国人民大学高瓴人工智能学院助理教授
王希廷为中国人民大学准聘助理教授,曾是MSRA社会计算组首席研究员,本科、博士毕业于清华大学。研究兴趣为可解释、负责任的人工智能,相关科研成果落地全球占有量第二的必应搜索引擎。两篇论文被CCF-A类期刊TVCG评选为封面论文,被邀请担任IJCAI、AAAI领域主席,加入IEEE VIS组委会担任档案主席,Visual Informatics编委,被评为AAAI 2021 杰出高级程序委员。两次受邀在SIGIR可解释推荐研讨会上发表主旨演讲,是CCF和IEEE高级会员。
开课时间
2024年7月31日(本周三)19:30-21:00
如何报名
SPP为免费直播。点击“阅读原文”立即报名,报名可在活动当天15:00前邮件获取到腾讯直播间链接,可与老师线上即时交流,也可通过预约文末CCF视频号观看活动直播。希望能通过这样的方式和你一起进步、成长。呼朋唤友来参加吧!
CCF推荐
【精品文章】
点击“阅读原文”,立即报名。
原文始发于微信公众号(中国计算机学会):大模型解释与对齐|SPP第99期
- 左青龙
- 微信扫一扫
-
- 右白虎
- 微信扫一扫
-
评论