Deepfakes:打击AI的危险使用

2020-02-10 14:12:41    来源:    作者:

Deepfake被称为操纵视频,其中通过使用人工智能将一个人更改或显示为另一个人。由于人工智能的帮助同时用于制作此类视频,因此AI技术正致力于应对此类威胁。

Deepfakes:打击AI的危险使用

Deepfake几乎不可能区分真实与非真实。许多人认为,深造假货会导致危险的后果,例如造成混乱,挑起种族暴力等等。作为公众人物,许多著名的政治人物记者和商人都经历了这种欺诈行为。使用伪造的应用程序技术,制作了奥巴马的视频。同样,还制作了唐纳德·特朗普的视频和马克·扎克伯格的视频。

打击假货的技术

现在,许多科技公司正在共同努力,以打击这些骗局。根据网络安全创业公司Deep-trace的一项研究,从12月到8月,网上的Deepfake数量几乎翻了一番,达到14,678。Facebook,Twitter和Google等公司用于信息的上载和共享。这些技术公司在应对这些威胁方面可以提供很大的帮助。

自动化的深层伪造检测有助于深层伪造检测,但是该技术最有可能仅在短期内有用。自动深度伪造检测使用技术来确定是否已从原始文件修改了特定的图像,音频或视频。他们发现诸如口腔和语音瞬间之间的差异,不自然的面部特征和许多其他方法之类的迹象。

Deepfakes:打击AI的危险使用

DARPA及其程序:

国防高级研究计划局(DARPA)开发了一种工具,政府机构可以使用该工具来识别更改后的视频和照片。此外,它将被用作开发更多技术来检测假文本并识别其来源。

达尔帕(Darpa)名为MediFor – Media Forensics的用于检测深层虚假的新程序正在努力披露操纵者。通过使用语义取证,DARPA计划解决深造。SemaFor程序旨在开发一种分析媒体的工具。它包括使用告诉算法是否已被控制的算法来检测该方法。

Google与Deepfake的斗争:

Google还在努力开发文本到语音转换工具,以设计出可以帮助验证说话者的新工具。Google在使用一种完全不同的方法,他们在使用Deepfake来对抗Deepfake。Google在其中一篇文章中设定了7条原则,描述了他们为确保用户信息的安全性和保护性而采取的步骤。

他们的原则之一是:“ 我们将在AI进度和利用方面巩固我们的安全努力。我们将允许在具有安全保护的情况下进行通知和同意,赋予动画结构,并在信息利用方面给予真正的直率和权威 ”。这个决定可以帮助他们保存私人信息。

Adobe的面部操作技术:

Adobe开发了一个系统,该系统将允许作者和发布者将详细信息附加到内容上,以告知创建该内容的时间和地点。Adobe创始人Richard Zhang表示:“ 在这个世界上,很难通过获取数字化来确保我们使用的信息。” Adobe正在开发识别面部操作的方法。Adobe的神经网络以99%的准确率检测到了假脸。而人眼可以吸收其53%的光线。以后,该工具可以将图像转换为旧格式。

Deepfakes:打击AI的危险使用

深度检测挑战

检测深度欺诈的挑战是一项全球竞赛,该竞赛与许多全球知名公司一起使用AI并与深度欺诈作斗争。这项比赛邀请世界各地的参与者加入他们的行列,并与他们一起克服这一日益严重的问题。这项挑战将持续到2020年3月。

现实防御者–防御工具

据AI Foundation总裁兼首席技术官Rob Meadows称,该工具将是您的监护人。Reality Defender是Web程序的模块,可以类似的方式用作电话的应用程序。它使用一组已更改的定位器在屏幕上显示所有内容,然后向客户发出有关平衡媒体的警报。他们有许多Beta测试人员正在工作,并为他们提供有关此应用程序的所有更新。该工具将于2020年推出。

深造假的未来

打击假冒产品并不容易。上面提到的工具在将来与Deepfake对抗时将非常有用。尽管我们将产生更多的方法来克服此类骗局,但他们会找到更好的方法使骗局更加真实。这些骗局只能通过更新这些工具并确保定期例行维护以获得有效和准确的结果来进行控制。

科学家现在正在研究语音和面部差异。真实视频具有更好和明确的质量,另一方面,被操纵的视频存在质量问题,无法访问真实视频中真实人物所具有的正确3D方向。Deepfakes开发出简单的2D图像。奥尔巴尼大学的研究小组正在介绍一种算法,该算法可以显示人的鼻子指向的方式。人工智能和其他科学技术必须领先于他们为对抗假冒产品而想出的一切。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。