免费咨询热线
020-88888888当前,初创公司和科技巨头都在竞相开发深度伪造检测设备,试图在聊天技术时代防止人工智能产生的虚假信息激增。
本周早些时候,人工智能生成的五角大楼外发生爆炸的图像在社交媒体上迅速传播,此事件竟成为了人工智能研究人员多年来一直警告的数字信息灾难的简要预演。这张照片显然是捏造的,但这并没有阻止相当多的知名账户竞相发布这张照片。据报道,当地警方收到了人们疯狂的报警,他们认为另一场911式的袭击正在进行中。随之而来的混乱也给股市带来了短暂的冲击波。
这场捏造的五角大楼惨败在几个小时内就自行解决了,但情况本来可能更糟。今年早些时候,被一些人称为“人工智能教父”的计算机科学家杰弗里·辛顿(Geoffrey Hinton)表示,他担心人工智能生成的图像质量越来越令人信服,可能会导致普通人“无法知道谁是真的。”
由此,初创公司和成熟的人工智能公司都在竞相开发新的人工智能深度伪造检测工具,以防止这种情况的发生。其中一些努力已经进行了多年,但由于OpenAI的DALL-E和ChatGPT的突然爆发,生成式人工智能进入了主流意识,这导致了一种紧迫感的增加,以及更多的投资,以开发某种容易检测人工智能谎言的方法。
竞相寻找检测解决方案的公司正在对所有级别的内容进行检测。一些公司,如初创公司Optic和英特尔的FakeCatch,正专注于找出人工智能参与音频和视频的情况,而另一些公司,如Fictious.AI,则更直接地将重点放在人工智能聊天机器人生成的文本上。在某些情况下,这些目前的检测系统似乎表现良好,但前谷歌信托和Saftey首席执行官阿尔琼·纳拉扬(Arjun Narayan)等技术安全专家担心,这些工具仍在追赶。
阿尔琼·纳拉扬表示:“这就是信任和安全行业需要赶上我们如何检测合成媒体与非合成媒体的地方。我认为,随着人工智能的进步,检测技术可能会赶上来,但这是一个需要更多投资和更多探索的领域。”
芯片制造商英特尔在人工智能研究方面并不陌生。现在,这家著名的科技巨头正在利用这些知识创建“FakeCatcher”,这是一种“实时”深度假检测技术,据称可以在96%的时间内发现人工智能视频。
与其他查看文件或文档原始源代码的检测器不同,FakeCatcher实际上是分析媒体中的人脸,以发现血液流动的变化,它说这种变化只发生在真人身上。该系统还通过眼睛注视检测来判断目标是人类,还是人工智能生成的。
“我们问的问题是,人类的真相是什么?”英特尔实验室高级研究员伊尔克·德米尔(Ilke Demir)说。“是什么让我们成为人类?”
早在微软试图通过整合ChatGPT来重振必应搜索之前,这家科技巨头就在寻找检测深度造假的方法。2020年,该公司发布了微软视频认证器(Microsoft Video Authenticator),它可以分析照片或视频,并给出一个置信度评分,判断内容是否经过数字处理。微软表示,它的探测器能够做到这一点,部分原因是它可以探测到人眼无法探测到的逐渐褪色的灰度元素和微小细节。
微软的探测器在当时似乎是先进的,但目前尚不清楚,与过去三年涌现的人工智能图像生成器的新进展相比,同样的系统能有多好。该公司甚至承认,它的检测工具只能走这么远,因为支持深度伪造的技术仍在以惊人的速度发展。
上图:2015年6月6日,在加利福尼亚州波莫纳举行的Fairplex国防高级研究计划局(DARPA)机器人挑战赛上,塔尔坦救援队的CHIMP(CMU高度智能移动平台)机器人在执行切割任务时使用手持电动工具。
美国国防部高级研究计划局(DARPA)是美国军方毫无顾忌的研发部门,至少从2019年开始,该部门就有一个项目,研究检测合成材料的方法。DARPA的语义取证(SemaFor)项目专注于创建“语义和统计分析算法”,能够防御纵的图像,防止虚假信息的传播。该项目还在开发归因算法,以确定伪造图像的来源,并试图弄清楚它是出于善意,还是潜在的有害虚假信息攻击的一部分。
OpenAI凭借其广受欢迎的DALL-E图像生成器和ChatGPT,几乎轻松地推动了生成式人工智能的主流采用。现在,它正试图开发人工智能分类器,以防止这些产品失控。分类器仅限于文本,它试图扫描文字,并确定它是否是由人类编写的。
到目前为止,它的表现并不好。OpenAI在自己的评估中表示,其分类器只能正确识别26%的人工智能撰写的文本“可能是人工智能撰写的”。更糟糕的是,同样的系统错误地将9%的人类创作的内容标记为人工智能编写的。
“我们的分类器并不完全可靠,”OpenAI写道。“它不应被用作主要的决策工具,而应作为确定一段文本来源的其他方法的补充。”
深度假检测初创公司Optic大胆宣称,它可以识别由Stable Diffusion、Midjourney、DALL-E和Gan.ai创建的人工智能生成的图像。用户只需将有问题的图片拖放到Optic的网站上,或者将其提交给Telegram上的一个机器人,该公司就会给出一个裁决。
Optic给出了一个百分比,显示其系统对提交的图像是人工智能生成的自信程度。它还试图确定是哪个特定的模型被用来创建图像。尽管Op尊龙凯时官方入口tic声称,它能够在96%的情况下正确识别人工智能生成的图像,但它并不是万无一失的。比如,要求Optic的模型确定被广泛驳斥的五角大楼附近假想爆炸图像的真实性,Optic认为这是“由人类产生的”。
GPTZero是一种分类模型,声称能够快速检测文本是由OpenAI的ChatGPT、GPT3、GPT4还是谷歌的Bard生成的。在提交文本后,GTPZero会给出一个分数,指定该文档可能是人工智能生成的可能性。GPTZero表示,它的工具可以用来分析各种各样的英语散文,不过最明显的用例,似乎是教育工作者试图确定学生是否在使用人工智能轻松地完成论文。
据《》报道,来自哈佛大学、耶鲁大学和罗德岛大学的6000多名教师使用了这一工具。
哨兵与世界各地的政府和媒体防御机构合作,努力创建一个所谓的“互联网信任层”。据报道,该公司依靠四个不同的、独立的深度防御层。在最基本的一层,Sentinel扫描文件,寻找与已知深度伪造材料相关的哈希值(基本上是数字面包屑)的证据。其他更深层的防御使用人工智能来分析面部,以寻找视觉操纵的迹象,另一种是寻找音频的变化。
Reality Defender成立于两年前,它提供企业级工具,让企业和其他大型组织能够快速扫描音频、照片和视频,以寻找数字操纵的证据。目前还不清楚Reality Defender能够检测到哪些人工智能模型,然而,该公司声称,其系统被北约战略通信卓越中心用于识别社交媒体网站 VKontakte 上亲俄账户放大的深度伪造和其他形式的错误信息。
总部位于马萨诸塞州的Attestiv,使用自己的人工智能对提交给公司或在其应用程序上捕获的照片、视频、文档甚至遥测数据进行“法医扫描”,以检测可能指向数字操纵的异常情况。一旦被扫描。Attev提供了一个“综合篡改分数”,用来评估图像被人工智能生成或更改的可能性。如果检测到篡改,Attev会将图像的数字副本存储在区块链分类账上,以便轻松发现被篡改媒体再次出现的情况。
黑鸟公司成立于2014年,是该领域使用人工智能捕捉潜在深度假冒并限制其在线传播的历史较长的公司之一。与其他专注于扫描文档以寻找数字操纵的微小迹象的较新科技公司不同,Blackbird将大部分精力花在识别和限制已经识别的人工智能生成或更改的图像的传播上。
Blackbird实时分析社交媒体趋势,调查众多“媒体风险”,在虚假信息或影响活动失控之前识别并粉碎它们。越来越多的恶意活动可能会依靠人工智能生成的图像来欺骗或愚弄观众,让他们相信虚假的叙述,比如唐纳德·特朗普被捕的假照片。
在过去的十年里,任何在大学教室里呆过的人都知道,抄袭检测器并不是什么新鲜事。许多简单地扫描互联网上已经存在的逐字文本的系统,无法解释ChatGPT和其他聊天机器人,这些聊天机器人似乎可以根据用户的提示生成新的“独特”内容。
可笑的是,人工智能正试图填补这一空白。该公司的产品专门针对教育工作者,该公司声称自己的人工智能模型可以检测GPT4和ChatGPT等模型生成的文本行。该公司为教育工作者提供了一个互动控制台,他们可以在那里提交学生的作业,然后查看结果。然而,教师或教授实际如何处理这一分数,仍取决于他们。
总部位于荷兰的Sensity AI公司声称,它可以从Dall-E、Stable Diffusion和Midjourney等模型中检测人工智能生成的图像,以及从OpenAI的GPT3中提取的文本。与榜单上的其他公司不同,Sensity AI还指出,它的模型可以准确地检测到数字换脸的实例。Sensity表示,换脸尤其被诈骗者利用,他们试图冒充受害者,并通过面部扫描或其他生物识别技术破解锁定的账户。
Copyright © 2002-2024 尊龙凯时·(中国)人生就是搏! 版权所有 备案号: