- 授权协议: MIT
- 开发语言: Python
- 操作系统: 跨平台
- 软件首页: https://github.com/IBM/adversarial-robustness-toolbox
- 软件文档: https://github.com/IBM/adversarial-robustness-toolbox/blob/master/README.md
- 官方下载: https://github.com/IBM/adversarial-robustness-toolbox
软件介绍
Adversarial Robustness Toolbox 是 IBM 研究团队开源的用于检测模型及对抗攻击的工具箱,为开发人员加强 AI 模型被误导的防御性,让 AI 系统变得更加安全,目前支持 TensorFlow 和 Keras 框架,未来预计会支持更多框架。
支持以下攻击和防御的方法
Deep Fool
Fast Gradient Method
Jacobian Saliency Map
Universal Perturbation
Virtual Adversarial Method
C&W Attack
NewtonFool
防御方法
Feature squeezing
Spatial smoothing
Label smoothing
Adversarial training
Virtual adversarial training
人机交互:以用户为中心的设计和评估
董建明、傅利民、[美]沙尔文迪 / 清华大学出版社 / 2003-9-1 / 28.00
本书综述部分介绍了与“用户为中心的设计和评估”方法相关的背景知识及发展概况。其后,分3篇分别介绍了解用户、用户界在设计和可用性评估的内容及一些相关的研究专题。最后,第11章讨论了在组织中实施以用户为中心的设计的专题。本书主要面向的读者包括:软件或网站的设计人员。同时本书也可成为“现代人因工程学”及“以用户为中心的设计”的教材,还可作为软件或网站公司经理的提高用户满意度或提升公司形象的手册。一起来看看 《人机交互:以用户为中心的设计和评估》 这本书的介绍吧!
