您好,欢迎您来到国盈网!
官网首页 小额贷款 购房贷款 抵押贷款 银行贷款 贷款平台 贷款知识 区块链

国盈网 > 区块链 > 从特朗普“被捕”到“巴黎世家”教皇 AI “致幻”引发真实性担忧

从特朗普“被捕”到“巴黎世家”教皇 AI “致幻”引发真实性担忧

区块链 岑岑 本站原创

去年秋天,Tumblr用户称赞了1973年由马丁·斯科塞斯执导,劳勃·狄·尼诺和阿尔·帕西诺主演的电影《冈查罗夫》。他们称赞这部鲜为人知的斯科塞斯经典作品是有史以来最伟大的电影。它走在了时代的前面,却从未赢得应有的赞誉。

现在,我们都应该知道《冈查罗夫》不是一部真正的电影,尽管斯科塞斯本人也参与了这场玩笑。这只是Tumblr上的一个梗,后来变成了整个网站的恶搞。用户在共享的谷歌文档中互相配合,真诚准确地回答“是的,而且”,让这部虚构的电影看起来合情合理。

随着人工智能图像生成技术的提高,互联网在“冈查罗夫”的那一刻感觉有点像Tumblr。我们正在创造新的集体现实,只是这一次,我们只是通过不加思考地发布信息而偶然产生了它们。

两周前,当人工智能图像生成器Midjourney开放对Midjourney 5模型的访问时,其超现实的输出迅速走红。一些生成的图像说明了这些容易获得的工具的危险,例如一系列描绘唐纳德& # 8211;特朗普被捕的假照片。

这组戏剧性的画面显示,特朗普强行拒捕,然后冲过一队警察。这些在网络上不胫而走的图片是由调查新闻网站Bellingcat的创始人艾略特·希金斯(Eliot Higgins)制作的。希金斯最初的推文显示他只是在玩,但这些推文在没有相关背景的情况下迅速传播。

注:目前推文已经添加了背景信息,称照片是人工智能生成的。

其他像病毒一样传播的人工智能照片则较为温和,比如一张广为流传的高级时尚照片,照片中教皇弗朗西斯二世穿着一件令人惊艳的巴黎世家白大褂。一条关于这张照片的推文已经被观看了超过2600万次。

从特朗普“被捕”到“巴黎世家”教皇 AI “致幻”引发真实性担忧

这甚至不是上周唯一一个与巴黎世家有关的AI meme病毒。一位名叫demonflyingfox的创作者一直在使用Midjourney图像、Eleven Labs语音和D-ID动画来制作超现实的人工智能驱动的有趣视频。他传播最广的视频是“巴黎世家的哈利波特”,这是一个高级时装风格的广告,其中合成的人物说着类似“你是巴黎世家,哈利”的话。

Demonflyingfox告诉TechCrunch,他故意让他的视频足够奇怪,以至于没有人会意外地相信它们是真的。普通观众都知道,乔·罗根从来没有真正采访过耶稣,而邓布利多在哈利·波特电影中也不幸没有穿皮夹克、戴墨镜。另外,他故意用了Midjourney 4而不是更新的软件,让他的角色看起来不那么逼真。

从特朗普“被捕”到“巴黎世家”教皇 AI “致幻”引发真实性担忧

“我的所作所为明显是虚假的,我并不担心传播虚假信息,这也是我的本意,”demonflyingfox说。但是我知道工具的力量,现在这样做非常容易。"

前提越可信,我们就越有可能把合成图像当成事实。如果你不是研究教皇衣服的专家,你可能会相信教皇冬天出门时会穿一件很棒的白色羽绒服——你知道这个教皇,他的进步摇滚专辑在Pitchfork上被评论过,他曾经是阿根廷夜店的保镖。

就连超级名模克莉茜·泰根也被这组照片认真对待。她在推特上说:“我以为教皇的羽绒服是真的,没多想。我无法在未来的科技中生存。”

除了“时尚教皇”,特朗普被捕的人工智能图片也在网上疯传,但任何人只要愿意扫描他的推特时间轴,都可以迅速核实事实,找到真正爆料的证据。对于人工智能生成的历史事件,这个过程就不那么明显了。

从特朗普“被捕”到“巴黎世家”教皇 AI “致幻”引发真实性担忧

就在几天前,Reddit用户u/Arctic _智利在Midjourney subreddit上发布了一组人工智能生成的照片,声称它们描绘了“2001年卡斯卡迪亚9.1级地震和海啸”,并袭击了美国和加拿大。在reddit的这一部分,我们致力于对Midjourney的人工智能工具进行实验。显然,卡斯卡迪亚地震不是真实事件。然而,如果r/Midjourney只是你订阅的众多子reddits中的一个,你很容易不假思索地消费这些图片。

一位Reddit用户写道,“难道只有我一个人认为‘我不记得这件事发生过’吗?…..直到你看到这个叫reddit的孩子?

这些图像与现实如此相似,以至于人们相信它可能是真的。卡斯卡迪亚俯冲带是太平洋西北附近真正的断层线,1700年发生过大规模破坏性地震。这方面的人们担心这种规模的灾难可能会在我们有生之年再次发生,这使得人工智能生成的潜在未来事件的场景充满了不祥的感觉。

有时候,像ChatGPT、Bing AI这样的人工智能工具会产生“幻觉”& # 8211;当他们自信地用错误的信息回答问题时,他们使用这个术语。淹没在合成图像的海洋中,我们可能都处于集体幻觉的边缘。

r/midjourney的一位Redditor评论说:“我正准备骂你在这个分论坛上发布旧新闻。”这些看起来如此真实和疯狂。"

互联网社区倾向于围绕一个少数人的想法,并建立关于它的深入知识,就像一个合作建设世界的行为(见:“冈查罗夫”)。自然,同样的事情也发生在这些虚假的历史事件上。Reddit用户开始创造自己的历史,讲述2001年地震如何影响全球政治。

尽管2001年康科迪亚地震的震级和破坏力,但十年后,似乎很少有人记得这个事件。"另一名用户在一篇捏造的新闻文章中写道,那场从未发生过的地震被错误命名了."这可能是全球反恐战争、伊拉克战争、经济大衰退等综合因素造成的。"

最初发布这些图片的Redditor推测了911之前的重大灾难将如何影响反恐战争,并认为这场灾难的经济影响可能会削弱对入侵伊拉克的支持。

从特朗普“被捕”到“巴黎世家”教皇 AI “致幻”引发真实性担忧

随着广泛可用的AI图像生成器越来越成熟,它们的创建可能会超过我们对大量可信但完全虚假的图像的适应能力。不管是好是坏,现在我们可以立即创造我们自己的“冈查罗夫”,把任何模糊的虚构变成有形的东西,并把它们放到互联网上。

虽然这些创作很多是无害的,但不难想象合成图像会如何操纵公众对当前或历史事件的理解。

事实证明,“巴黎世家教皇”是一个31岁的建筑工人的主意,他服用了致幻药物。他告诉BuzzFeed,他没有考虑人工智能图像的后果。他说:“如果他们不开始执行法律来规范它,情况肯定会变得严重。”

事实上,英美一些州的立法者已经发布了未经同意的深度伪造人工智能色情作品的禁令。然而,像卡斯卡迪亚地震和巴黎世家教皇这样的迷因并不是天生有害的,也不会很快面临监管。

人工智能生成的图像还不完美。地震中的路牌好像是用Simlish写的,AI生成的图像中三根手指的现象比你在自然界中发现的还要多。通常,如果你足够仔细地观察人工智能生成的图像,你会发现一些奇怪的扭曲,一组像素会告诉你图像有问题但现在越来越难区分什么是真实的,什么是想象的,更难想象接下来会发生什么。

温馨提示:注:内容来源均采集于互联网,不要轻信任何,后果自负,本站不承担任何责任。若本站收录的信息无意侵犯了贵司版权,请给我们来信(j7hr0a@163.com),我们会及时处理和回复。

原文地址"从特朗普“被捕”到“巴黎世家”教皇 AI “致幻”引发真实性担忧":http://www.guoyinggangguan.com/qkl/167299.html

微信扫描二维码关注官方微信
▲长按图片识别二维码