Deepfake攻击可以轻松欺骗在线实时面部识别系统

发布时间:2022-05-23 00:12

不法分子可以通过使用 deepfakes 欺骗实时面部识别软件来轻松窃取他人的身份。

专注于解决身份欺诈的初创公司 Sensity AI 进行了一系列伪装攻击。工程师从身份证上扫描某人的图像,并将他们的肖像映射到另一个人的脸上。然后,Sensity 测试他们是否可以通过诱使他们相信假冒的攻击者是真实用户来破坏实时面部识别系统。

所谓的“活性测试”试图实时验证身份,例如依靠来自用于解锁手机的面部识别等摄像头的图像或视频流。十个供应商中有九个未能通过 Sensity 的实时深度伪造攻击。

Sensity 没有说出容易受到深度伪造攻击的公司的名字。Sensity 的首席运营官 Francesco Cavalli告诉The Verge:“我们告诉他们‘看起来你很容易受到这种攻击’,他们说‘我们不在乎’。 ” “我们决定发布它,因为我们认为,在企业层面和一般情况下,公众应该意识到这些威胁。”

活性测试是有风险的,特别是如果银行或美国税务机关,例如,将它们用于自动生物特征认证。然而,这些攻击并不总是容易实施。Sensity 在其报告中提到需要专门的手机来劫持移动摄像头并注入预制的 deepfake 模型。

PyTorch 开发人员可以很快在自己的 Apple 笔记本电脑上训练 AI 模型
较新版本的 Apple 计算机包含定制的 GPU,但 PyTorch 开发人员在训练机器学习模型时无法利用硬件的强大功能。

然而,随着即将发布的 PyTorch v1.12 版本的发布,这种情况将会改变。“与 Apple 的 Metal 工程团队合作,我们很高兴宣布支持在 Mac 上进行 GPU 加速的 PyTorch 培训,”PyTorch 社区本周在一篇博 文中宣布。

“到目前为止,Mac 上的 PyTorch 训练仅利用 CPU,但随着即将发布的 PyTorch v1.12 版本,开发人员和研究人员可以利用 Apple 硅 GPU 显着加快模型训练。” 新版本意味着 Mac 用户将能够在自己的设备上训练神经网络,而无需通过云计算服务租用计算资源。

一位发言人告诉The Register,最新的 PyTorch v1.12 预计将在“6 月下半月的某个时候”发布。

Apple 的 GPU 比其 CPU 更适合训练机器学习模型,因此更容易更快地训练更大的模型。

医学模型的假数据
美国健康保险提供商 Anthem 正在与 Google Cloud 合作,为机器学习模型构建合成数据管道。

巧克力工厂的人们将生成多达 2 PB 的虚假数据,模仿医疗记录和医疗保健声明。这些合成数据集将用于训练人工智能算法,这些算法可以更好地检测欺诈案件,并且比从患者那里收集真实数据造成的安全风险更小。

这些模型最终将分析真实数据,例如,可以通过自动检查人们的健康记录来寻找人们提出的欺诈性索赔。Anthem 的首席信息官 Anil Bhatt告诉华尔街日报:“越来越多……合成数据将超越并成为人们未来使用 AI 的方式。 ”

使用虚假数据可以避免隐私问题,也可以减少偏见。但专家此前告诉 The Register,这些人工样本并不总是适用于所有机器学习应用程序。

“在我们看来,合成数据模型最终将推动大数据能够提供的承诺,”谷歌云美国医疗保健与生命科学董事总经理 Chris Sakalosky 说。“我们认为这实际上将推动这个行业向前发展。”

前苹果人工智能总监离开 DeepMind
据报道,苹果公司的一位前机器学习主管因公司的重返工作岗位政策而辞职,他正在前往 DeepMind 工作。

Ian Goodfellow 领导了 iGiant 的秘密“特别项目组”,帮助开发其自动驾驶汽车软件。此前有报道称,在苹果公司要求员工从 5 月 23 日开始每周三天返回办公室后,他离开了。由于 COVID 病例的增加,该政策现已被推迟。

据彭博社报道,他将继续加入 DeepMind 。有趣的是,据报道,Goodfellow 将被这家总部位于英国的研究实验室聘为“个人贡献者”。他以发明生成对抗网络(一种通常用于生成 AI 生成图像的神经网络)以及帮助编写 2015 年出版的流行深度学习教科书而闻名。

Goodfellow 在苹果公司担任董事三年多,此前曾在谷歌和 OpenAI 担任人工智能研究员。

客户热线:037125966675