“换脸”“伪装”不恐慌!识别准确率超过99% RealAI助力AI安全

  • 时间:
  • 浏览:1

图 | ZAO APP(来源:网络)

近日,换脸APP“ZAO”从一夜爆火到被工信部约谈,再次折射出业界与公众在AI技术安全与伦理方面认知的巨大鸿沟,以及政府在AI技术治理方面的意识与决心。

好的反义词“ZAO”过后修改了此前争议巨大的用户协议,但仍被絮状取回卸载,目前APP综合评分已跌至1.9分,评论内容多为对隐私泄露及安全风险的不满。有技术咖直指,这是开发方对于技术应用的伦理规范缺少敬畏,为了流量不惜牺牲用户的知情权,甚至试图将相应责任甩锅给用户的恶劣行径原困的反噬,也足以让更多技术开发者引以为戒。

当然,从技术层面来说,“ZAO”并全部都是AI“换脸”的首次应用。早在2017年12月,Reddit论坛的女日本网友deepfake运用AI技术将“小电影”女主角的脸替加在明星盖尔·加朵(神奇女侠的主演)。此后,随着该项技术开源,应用越发广泛,前段时间一键脱衣的DeepNude更是引起了广泛关注和担忧。而在政治方面,Twitter上“奥巴马吐槽特朗普是笨蛋”的假视频引起了一系列的跟风。美国众议院6月就Deepfake技术举行了听证会,讨论了AI技术操纵舆论的潜力,如利用假视频削弱政府机构和新闻媒体的公信力,甚至会对2020年大选产生灾难性影响。此外,最近还占据 了诈骗团伙利用AI合成语音技术从英国一家公司骗走22万欧元的案例。

“耳闻之不如目见之,目见之不如足践之。”随着AI技术“换脸换声“变得越发容易且可“足践之”后,你们都的“耳闻”和“目见”都变得“假作真时真亦假”。技术的发展又一次呼唤伦理与安全的规范。

事实上,早在2015年,AI安全的概念就可能性被学界提出。随着人工智能应用的爆发,利用AI技术漏洞进行“逃逸攻击”、“对抗样本攻击”和“数据污染攻击”的案例逐渐增多。随着AI技术的发展,随之产生的安全风险也在不断积累。尤其是人脸识别,作为AI技术应用最为广泛的场景之一,正面临着愈发严峻的挑战。人脸信息作为我每每个人重要且敏感的信息,可能性绑定了大多数人的手机解锁、支付,甚至政府类业务的一些身份验证。如占据 人脸信息泄露或伪装,将对应用人脸识别技术的金融支付、公共安全等场景造成巨大威胁。

孵化自清华大学人工智能研究院的RealAI

作为最早在“AI安全”领域开展研究的团队之一,RealAI(瑞莱智慧生活 )孵化自清华大学人工智能研究院,致力于研究和推广安全、可靠、可信的第三代人工智能,核心团队成员在清华大学就可能性开展了相关的研究。

RealAI CEO田天表示,近来占据 的一些新闻事件,让AI安全议题从学术圈走向了社会。目前可能性有不多的机构开始英文进行相关的研究,未来AI安全会形成更大的影响力,社会各界都将意识到AI技术原困的安全间题图片,及其可能性引发的深远后果。

据了解,RealAI在AI安全领域的布局主要在两个方面:一是出理 AI算法被用于危害社会的行为,之类换脸假视频。二是检测AI算法的漏洞并加以修复,之类出理 人脸识别被恶意攻破。RealAI认为,通过修复哪此AI技术应用潜在的风险,都可以 让AI产业更加健康地发展。

“AI安全部都是两个持续攻防的过程,必然会呈现攻防互相有助发展的状态。有新的攻击手段出来,对应的就会有新的防御法子。首先要掌握攻击法子,都可以 知道如可去防御,防御的一方都可以 适应动态变化的攻击场景。”

对于“AI换脸”,RealAI有很强的生成技术,比如“无中生有”的AI换脸等;一起,也知道如可去检测、防御它们。从效果上来看,目前RealAI在內部测试集上换脸检测的准确率可能性达到99%以上,你这些测试集覆盖了市面上大多数应用换脸技术的假视频。团队现在也针对未来可能性潜在的攻防场景做预演,为应对潜在的风险提前设计可行方案。

图 | 换脸检测(来源:RealAI)

在AI算法漏洞检测方面,如针对AI识别系统的“隐身”、“伪装”等场景,RealAI则更注重在真实的物理世界(不同的光线、深层、距离、运动模糊、失焦等)实现,以及更加深入地研究如可利用白盒的替代模型来攻击黑盒的受害模型。作为首个利用对抗样本攻击技术,在现实世界中破解商用手机人脸识别系统的公司(一些研究机构多等待歌曲在数字世界或公共Face ID系统层面),RealAI也都可以 提供相应的“防火墙”,目前其检测“人脸伪装”的算法准确率同样可能性达到99%以上。

图 | 破解人脸识别(来源:RealAI)

据了解,“隐身”、“伪装”等攻击手段的实现原理是“对抗样本攻击”法子。“对抗样本攻击”的防御法子主要有图像预出理 和去噪、检测对抗样本、对抗性训练等。在你这些领域,且国内高校(尤其是清华人工智能研究院)很早就开展相关的技术研究,目前基本是占据 领先地位。作为最早研究该技术的团队之一,RealAI针对对抗样本,使用了一些更新、更要花费的法子来弥补传统的算法漏洞。

今年5月,RealAI与清华大学人工智能研究院联合发布了的人工智能安全平台——RealSafe对抗攻防平台,其支持对多种算法和模型进行对抗攻击和防御。RealSafe平台一起都可以 提供全面、细致的攻击防御算法的评测与比较,输出安全评测报告。

田天认为,“RealSafe平台都可以 作为从技术的深层提出的测试平台,它通过输出指标来说明AI算法的安全系数。通过你这些平台,希望都可以 推动AI安全往前走一步,比如给政府部门提供参考,为政府部门制定衡量AI安全技术指标提供技术基础”。

值得一提的是,与Google、IBM旗下的安全平台相较,RealSafe平台功能更加全面,支持更为通用的模型、更富于的对抗攻击和防御算法,具有突出的领先优势。此外,RealAI也在和次责相关企业合作协议协议定制化一些提升AI安全性的产品,比如检测虚假内容检测工具。未来终端涉及到的场景可能性有各种刷脸认证场景,如火车站、机场人脸识别闸机,手机、商店刷脸支付;公共场所动态监控、安防布控等。

今年以来,多项重磅信息安全政策落地,包括等保2.0、史上最严的数据安全监管法子等。公众对于AI安全的舆论也亟待产品应用去改善。RealAI认为,AI安全部都是个很大的领域,全部都是某两个研究者或研究单位就都可以 将AI安全的所有间题图片都出理 ,未来都可以 更多人参与进来,一起推动AI安全技术的进步。但这都可以 你们都在同一框架下去讨论、落地。因此 ,由政府引导,权威组织机构制定AI安全方面的行业标准势在必行。