Skip to content

ai-data-model-safety/ai-data-model-safety.github.io

Repository files navigation

人工智能:数据与模型安全

第一版:ai-data-model-safety.github.io

人工智能真的安全吗?数据是否干净?模型是否可信?

关于人工智能安全,你想要了解的都在这里。


变色龙是丛林伪装大师,可以通过改变肤色来伪装和保护自己,代表着“变化”“适应”与“保护”,寓意安全防护的动态特性,需要适应复杂多变的外部环境。

本书聚焦学术前沿,围绕人工智能的两大核心要素,即数据模型,系统深入地介绍相关安全问题和攻防算法。

本书的特色包括:

  • 深入:详细讲解各类攻防算法及其背后的对抗和鲁棒优化思想
  • 系统:全面梳理介绍人工智能数据与模型面临的各类安全风险
  • 前沿:覆盖人工智能安全领域最前沿的攻防技术及其发展动态

本书适合人工智能、智能科学与技术、计算机科学与技术、软件工程、信息安全等专业的高年级本科生、研究生以及人工智能从业者阅读。 通过本书,读者可以了解人工智能安全这一新兴领域,培养致力于发展“安全”“可信”人工智能的社会责任感。

配套课件

如需配套课件,请直接联系我们

序号 主题
1 课程介绍&机器学习基础
2 可解释性和普通鲁棒性
3 对抗样本
4 对抗样本检测
5 对抗防御
6 数据投毒和防御
7 后门攻击和防御
8 数据抽取和模型窃取
9 隐私攻击和防御
10 深度伪造与检测
11 联邦学习
12 AI模型版权保护
13 AI公平性与伦理

About

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

 
 
 

Contributors