AI 的“矛与盾”:有人用它来制造虚假色情内容,也有人用它来反击
此外,并不是所有的deepfake都是恶意的。正如电子前沿基金会(Electronic Frontier Foundation)在一篇博客文章中指出的那样,像“默克尔(Merke)/特朗普”这样的例子只是政治评论或讽刺。还有其他合法的理由使用这项技术,比如匿名化需要身份保护的人,或者创建经过修改的色情作品。 尽管如此,也很容易看出为什么这么多人会觉得deepfake令人苦恼。它们代表了一个未来的开始,在这个未来,我们不可能知道一段视频是真实的还是假的,这可能会对宣传内容产生广泛影响。在2016年总统大选期间,俄罗斯在2016年总统竞选期间用假机器人淹没了Twitter,在2020年大选期间, 候选人也许会面临着同样的场景,这个时候,也会有更多的虚假视频做同样的事情。 这是一场持久战 虽然Gfycat目前提供了一个潜在的解决方案,但是,deepfake 创作者学会如何规避它的安全措施只是时间问题。随之而来的军备竞赛可能需要数年时间才能结束。 “我们离拥有刑侦技术还有几十年的时间,你可以在Pornhub或Reddit上发布信息,最终从假象中分辨出真假,”达特茅斯学院的计算机科学教授哈夫·法里德说,他专门从事数字取证、图像分析和人类感知等领域的研究。“如果你真的想骗过这个系统,你就要开始建立更深层次的破解刑侦系统的方法了。” 关键是要有许多不同的协议来检测欺骗性的图像,这样就能让创造deepfake变得很难。“我不能阻止你制造虚假内容,但我可以让制造它变得非常困难,而且非常耗时,”法里德说。 就目前而言,Gfycat似乎是唯一一个使用人工智能来调节其网站上deepfake的平台。Pornhub和Discord都告诉我,它们没有使用人工智能来识别deepfake。Reddit拒绝透露是否有这样的技术;其一位发言人表示,不愿透露其平台是如何做的是有原因的,因为这样做可能会鼓励不良行为者试图阻止这些努力。Twitter没有立即回复记者的置评请求。 每天有数百万的视频被上传到网上,每分钟大约有300分钟的视频被发布到YouTube上。我们不仅仅只需要依靠人来识别出哪些视频是不真实的,还需要计算机来帮忙。 原文链接:https://www.wired.com/story/gfycat-artificial-intelligence-deepfakes/ 编译组出品。编辑:郝鹏程 (编辑:源码网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |