11月6-9日,第31届国际人工智能联合会议-中国会议(IJCAI 2022 China)在深圳坪山燕子湖国际会展中心召开。其中大会主题论坛《人工智能模型审计与监管》由IJCAI中国办公室、微众银行、中山大学、浙江大学、复旦大学联合举办,于11月7日在线上线下同步顺利进行。论坛邀请十多位领域知名学者,全面探讨了模型知识产权保护研究的前沿方向,展示了该领域最新的研究成果,并讨论了研究中面临的难题与挑战。

人工智能模型审计与监管论坛全面展示了人工智能模型知识产权保护的前沿学术进展。作为第31届国际人工智能联合会议-中国会议的重要组成部分,此次论坛为促进人工智能技术的有效治理和监管,推动人工智能健康可持续发展,保护深度学习模型知识产权,加快模型交易和共享贡献了重要的推动力。

 

 

IJCAI 2022 China人工智能模型审计与监管论坛召开

 

 

聚焦模型知识产权保护

11月6-9日,第31届国际人工智能联合会议-中国会议(IJCAI 2022 China)在深圳坪山燕子湖国际会展中心召开。其中大会主题论坛《人工智能模型审计与监管》由IJCAI中国办公室、微众银行、中山大学、浙江大学、复旦大学联合举办,于11月7日在线上线下同步顺利进行。论坛邀请十多位领域知名学者,全面探讨了模型知识产权保护研究的前沿方向,展示了该领域最新的研究成果,并讨论了研究中面临的难题与挑战。

论坛上半场由论坛主席、微众银行人工智能首席科学家范力欣博士主持并作开场发言,范力欣博士对论坛议程进行了简要介绍,并对人工智能模型审计及管理涉及的技术挑战进行了详细的讲解,对未来研究的重点和学术发展方向进行了系统的展望。

论坛主席范力欣博士
论坛主席范力欣博士

浙江大学网络空间安全学院任奎教授团队的王志波教授发表了《人工智能安全验证与评测平台》主题演讲,介绍了人工智能安全背景、深层次分析了数据驱动的人工智能安全系统存在的安全问题成因,并具体介绍了团队在人工智能模型安全性检测、人工智能算法公平性检测和人工智能伪造音视频检测方向所提出的技术和搭建的平台。

针对深度学习发展过程中不断涌现的知识产权保护需求,中国科学技术大学网络空间安全学院周文柏副研究员分享了深度学习模型及数据的版权保护的相关研究工作,包括深度学习模型鲁棒水印、深度学习模型可逆水印、深度学习模型感知哈希和深度学习模型加密。

南京航空航天大学计算机科学与技术学院/人工智能学院薛明富副教授介绍了其课题组在深度学习模型版权保护方面的前沿成果,包括深度学习模型版权保护方法的分类方法学,和三类主动授权控制的深度学习模型知识产权保护方法。

武汉大学国家网络安全学院汪润副研究员分享了其在面向深度神经网络的版权保护方向的最新研究,为了提高模型指纹防御算法的鲁棒性,汪润研究员提出了MetaFinger指纹保护框架,它通过使用元训练从模型的内部决策区域中提取特征达到版权保护的目的,而非决策边界。

鹏城实验室博士后李少锋介绍了关于面向智能模型保护的深度神经网络鉴权技术的两项工作,分别是基于UAP的智能模型鉴权技术和基于承诺机制训练数据鉴权技术,实验表明这两种技术可以准确地识别出数据集和模型的侵权行为。

现有的模型水印方法主要面向分类网络,图像分类与图像复原任务有很多差异,其模型水印方法不好直接用于图像复原模型。针对该问题,华南理工大学计算机学院全宇晖副教授提出了面向图像复原深度网络的模型水印技术,实验表明,基于该技术的模型水印有较好的保真性、唯一性和鲁棒性。

论坛主席杨文元教授
论坛主席杨文元教授

论坛下半场由中山大学网络空间安全学院助理教授杨文元主持,杨文元教授对上半场的七场精彩演讲进行了简要回顾,并介绍了下半场的论坛议程。

国家杰出青年科学基金获得者张新鹏教授发表了《神经网络水印》主题演讲,张新鹏教授对神经网络水印进行了概述,并介绍了基于内在机制的白盒神经网络水印,基于触发集的黑盒神经网络水印,基于输出结果的无盒神经网络水印和神经网络模型篡改检测。

香港中文大学(深圳)数据科学学院吴保元副教授以《后门学习发展现状及最新进展》为主题,对后门攻击、后门防御的发展现状进行了总结,并详细介绍了后门学习的最新基准平台BackdoorBench。

清华大学在读博士生李一鸣介绍了其关于"基于所有权认证的模型和数据集版权保护"的一系列最新研究成果,包括通过嵌入的外部特征进行有效且无害的所有权验证,通过后门水印保护数据集的黑盒所有权验证,和非目标后门水印 -- 无害和隐秘的数据集版权保护。

中国科学院信息工程研究所国家重点实验室博士生梁思源提出了模仿检测器,可用于窃取黑盒目标检测器的知识。模仿检测器将目标检测中的知识窃取视为黑盒知识蒸馏,并提出了师生框架来解决该问题,这是第一个关于目标检测器的框架。大量实验表明该方法实现了最高的模型提取精度。

上海交通大学网络空间安全学院博士研究生李方圻介绍了神经网络水印的新型安全威胁,其中黑盒水印的新问题包括封装攻击、版权勒索等,其核心矛盾在于公证性、时间戳、黑盒场景三者的不兼容;白盒水印的新问题主要有模型重构攻击,该攻击可以通过从中间层信息中逆重构,还原网络信息来抵抗。

复旦大学系统软件与安全实验室18级直博生潘旭东进行了《AI模型通用指纹追溯与产权保护实践》主题演讲,介绍了一种通用的模型指纹方法,该方法可以进行下游任务无关的模型指纹提取和验证。

针对联邦学习中的模型版权保护和监管这一热点问题,中山大学网络空间安全学院助理教授杨文元介绍了面向可信联邦学习的模型版权监管研究,并详细讲解了其联邦学习模型版权验证方案和联邦学习模型溯源方案两项研究工作。

微众银行人工智能算法研究员古瀚林博士以《联邦学习的模型版权保护》为主题,介绍了其最新研究成果FedIPR。该项研究提出了首个联邦学习模型版权验证框架,在不牺牲模型可用性前提下, 准确验证联邦模型的所属权。

人工智能模型审计与监管论坛全面展示了人工智能模型知识产权保护的前沿学术进展。作为第31届国际人工智能联合会议-中国会议的重要组成部分,此次论坛为促进人工智能技术的有效治理和监管,推动人工智能健康可持续发展,保护深度学习模型知识产权,加快模型交易和共享贡献了重要的推动力。