CCF走进华体会安卓版系列学术活动

发布时间:2025-11-26浏览次数:11

时间:2025年11月28日14:00-17:00

地点:华体会安卓版 天软云端一楼报告厅

报告嘉宾及内容:


题目:《持续学习:从小模型到大模型》

摘要:持续学习是新一代人工智能系统的核心能力之一,其核心目标在于使智能系统在动态吸收新知识的过程中有效保留历史知识,从而避免模型训练中的灾难性遗忘现象,最终逐步趋近人类终身学习的认知特性。随着大模型技术的发展,持续学习范式面临新的问题和挑战,本报告将首先解析经典小模型持续学习的理论框架与实现路径,随后介绍团队在大模型持续学习方向的最新研究成果。

主讲人简介:丛润民,山东大学教授、博士生导师,国家高层次青年人才、山东省泰山学者青年专家,入选全球前2%顶尖科学家终身影响力榜单。主要研究方向包括模式识别与机器学习、计算机视觉、具身智能等。主持了包括国家自然科学基金(面上、青年)、科技创新2030子课题在内的10余项科研项目。在TPAMI、IJCV、TIP、NeurIPS、CVPR、ICCV、ICML等CCF-A、IEEE/ACM Trans 论文100余篇,ESI热点论文2篇、ESI高被引论文20篇,谷歌引用15000余次;授权国家发明专利40项。担任IEEE Transactions on Neural Networks and Learning Systems等3个SCI期刊编委,获中国图象图形学学会自然科学奖二等奖(序1)、IEEE Chester W. Sall奖、CVPR/ECCV竞赛冠军、IEEE ICME 最佳学生论文奖亚军、ACM SIGWEB 中国新星奖、中国图象图形学学会优秀博士学位论文奖、《信号处理》2020-2022年度优秀论文奖等。

 

题目:《群体智能驱动的多模态认知计算》

摘要:社会模拟器作为数字时代人工智能与社会科学交叉创新研究的方法论革命,其本质是构建人工社会实验室,对复杂社会系统进行计算解构与涌现重构,实现从静态观察到动态干预的转变,并通过多智能体的认知建模与多尺度社会网络的耦合演化,在虚拟空间中创造具有涌现特性的社会数字孪生。本报告将汇报团队基于群体智能驱动的多模态认知计算相关工作,探索群体智能在媒体内容流行度预测、虚假信息认知、个性化信息传播等重大社会议题中验证其决策支持价值,为数字社会治理提供了新的科学范式。

主讲人简介:刘安安,天津大学讲席教授,人工智能学院副院长,天津大学图象所所长,国家杰青,IET Fellow。从事多模态信息感知与决策,社会模拟器构建研究,服务于网络媒体安全审核与引导等。作为负责人承担国家基金联合重点、重点研发课题等;以第一完成人获天津市科技进步特等奖;发表高水平论文百余篇;担任CSIG图像智能边缘计算专委会副主任、CSIG多媒体专委会常委、CAAI智能融合专委会常委,担任4个IEEE/ACM期刊编委,连续7年担任CCF-A类国际会议ACM Multimedia领域主席。

 

题目:《面向开放世界可泛化的具身连续学习

摘要:具身智能从封闭专用逐步向开放通用迈进,面临从被动到主动、从闭集到开集、从静态到动态的挑战,一次训练、终身受用为特点的传统学习范式面临较大局限,需建立系统性的具身连续学习范式,实现智能体知识和技能的日益精进,提升在开放环境下的泛化效果。报告将介绍本课题组在具身连续学习方面开展的初步探索及取得的一些具体进展,包括:基于棋盘格表示的具身交互框架R2C、示教视频指导的机械臂操作代码生成框架RoboPro、基于3DGS表示的机械臂操作仿真器RoboGSim。

主讲人简介:王瑞平,中科院计算所研究员、博导,研究领域为计算机视觉与模式识别,重点关注真实开放环境下的视觉场景理解问题。发表国际期刊和会议论文100余篇,Google Scholar引用10,400余次,获授权国家发明专利9项。带领研究生6次获得本领域主流国际学术竞赛冠亚军,获得CVPR2021 CLVISION Workshop最佳论文奖。担任Pattern Recognition、Neurocomputing等国际期刊编委,二十余次担任IEEE CVPR(2021/2022/2026)、ICCV(2021/2025)、ECCV(2022/2024)、WACV(2018~2026)等国际会议领域主席,获得IEEE CVPR2019&2025/ICCV2019/FG2019/ECCV2020/NeurIPS2020/ICML2022等国际会议杰出审稿人荣誉,先后在CVPR2015、ECCV2016、ICCV2019、ACCV2022等国际会议合作组织并主讲Tutorial。研究成果获得2015年度国家自然科学奖二等奖(第4完成人)、2022年度中国图象图形学学会自然科学奖一等奖(第1完成人)。

 

题目:《复杂感知挑战:多模态基础模型驱动的感知新范式》

摘要:在人工智能(AI)和计算机视觉(CV)快速发展的领域,视觉语言模型(VLMs)以及视觉基础模型(SAM2)正在为解决高难度感知任务开辟新路径。本次报告将探讨一系列创新方法,利用这些强大工具突破少样本学习、伪装视频目标检测以及长时间视频跟踪等方面的局限。首先,我们介绍基于视觉语言模型的广义少样本3D点云分割,该方法通过整合VLMs,在极少样本条件下实现高效、泛化的3D点云分割。其次,我们将介绍一种可在伪装视频中精准分割任意目标的方法,其将SAM2扩展至动态视频中的伪装场景。通过自适应特征融合与运动感知优化,显著提升了与背景融合目标的分割精度,适用于安防监控与野生动物监测等领域。最后,我们提出通过层次化运动估计与记忆力优化提升SAM2的长时序跟踪能力,增强SAM2在长视频中的性能。该方法专注于优化记忆力并进行多尺度运动估计,实现了长时间可靠跟踪,有效缓解了目标漂移。这些工作展示了多模态基础模型如何适应真实世界感知难题,为构建更通用更鲁邦的AI系统铺平道路。我们将讨论核心思想、实验结果以及该领域的未来方向。

主讲人简介:孙国磊,南开大学计算机学院教授、博导,国家级青年人才。博士毕业于瑞士苏黎世理工学院(ETH Zurich),师从国际计算机视觉顶尖科学家Luc Van Gool教授(计算机视觉最高奖Marr奖获得者,谷歌学术总引用27万余次)。并随后担任博士后研究员。曾在阿联酋人工智能研究院任研究工程师,在美国大公司Meta、Adobe任研究科学家(实习)。研究方向为计算机视觉、视频理解、多模态大模型的应用与压缩。在CCF-A类等国际顶级期刊和会议上发表论文40余篇(含多篇Oral/Spotlight),授权国际/国内专利2 项,谷歌学术论文总引用8800余次。曾获CVPR、ICCV研讨会最佳论文奖,CVPR研讨会弱监督分割挑战赛冠军。作为核心成员参与瑞士“私人化医疗与相关技术”项目。研究成果曾获英国国际媒体《New Scientist》报告。担任NeurIPS、ICLR、CVPR等学术会议领域主席或程序委员会委员。



计算机科学与技术学院

2025年11月26日


Baidu
hth358华体会