什么是死亡互联网理论?

szhlha.net消息:当您尝试在 X 上浏览新闻报道时,是否曾经收到过机器人内容的垃圾邮件,或者在 Facebook 上偶然发现过人工智能生成的令人毛骨悚然的照片,这些照片缺乏背景信息,但仍然有数千个赞?如果是这样,您很可能会看到死亡的互联网理论正在发挥作用。

“互联网死亡论”于 2021 年首次提出,曾是一种边缘互联网阴谋论,认为算法策展被用来操纵普通用户。现在,在人工智能生成内容猖獗、机器人占据互联网流量一半左右的时代,这一概念有了全新的含义,许多人认为它已成为一种自我实现的预言。

随着人类和机器人生成的内容之间的界限变得越来越模糊,我们将分解您需要了解的有关死亡互联网理论的所有信息,包括其合法性及其对网络未来的潜在影响。

死亡互联网理论认为,互联网上的内容(包括社交媒体平台)主要是由人工智能和机器人而不是人类制作的。

该理论于 2020 年代初期首次出现在 4Chan 和 Wizardchan 等地下平台上,当时算法在网络内容的策划方面发挥着越来越重要的作用。

在早期,许多网络阴谋论的支持者认为,算法生成的内容与机器人活动相结合,产生了一种量身定制的在线体验,旨在服务于强大实体的利益,而不是普通人的利益。然而,虽然一些更强硬的网民仍然持有这种观点,但这个术语主要用于描述网络上人工生成内容的接管。

跳到 2024 年,由ChatGPT 的发布引发的生成式 AI 浪潮,使该理论比以往任何时候都更加可信。不仅像 Google Gemini 和 Dall-E 这样的工具让用户比以往任何时候都更容易创建 AI 内容,而且快速发展的技术也导致了一种奇怪的现象,即机器人在社交媒体上自行制作 AI 内容,其结果是爬行。互联网死亡理论如何让社交媒体变得更加离奇

如果你还在使用 Facebook 或关注AI 失败,你可能遇到过名为“虾耶稣”的 AI 生成的车祸。这些图像描绘了由虾和螃蟹等各种海上甲壳类动物组成的耶稣基督的图像,在平台上神秘地获得了数千个点赞,甚至让更多的普通用户摸不着头脑。

那么他们的交易是什么?好吧,虽然像虾耶稣这样的图像显然是由用户主导的图像生成器(如 DALL-E 或Midjourney)创建的,但在大多数情况下,内容农场是由机器人而不是人类运行的。

由于这些帖子上看到的大部分活动都是由其他机器人生成的,许多专家认为这些令人毛骨悚然的人工智能生成的图像旨在吸引更多的垃圾邮件帐户的有机参与。通常,成功回复的图像也会被复制,但略有不同,试图让这些帐户玩弄 Facebook 算法,让其内容接触到更广泛的受众。

但抛开震撼和娱乐价值不谈,参与农业的最终结果是什么?你应该担心吗?

一些专家认为,虽然大多数人工智能点击诱饵图像应该被认为是无害的,但这种垃圾内容的大规模生产也可能产生更险恶的影响。

例如,斯坦福互联网观察站的一份报告发现,像虾耶稣这样的人工智能图像背后的许多账户都犯有试图出售不存在的产品、诱使用户泄露用户的个性化详细信息或窃取其他 Facebook 用户的页面的罪行。首先。

大多数与此类内容交互的用户似乎也没有意识到图像不是由人类生成的,他们强调了 Facebook 等平台标记此类内容的重要性,并确保未来推出更多透明度方法。

然而,与互联网死亡理论的激进支持者的观点相反,最近人工智能内容的激增不太可能是控制和操纵普通互联网用户的蓄意行为。更可能的情况是,这是技术进步速度超过其使用监管速度的征兆,因为美国政府在人工智能监管方面仍在努力追赶。

由于美国不太可能很快宣布全面的人工智能法律,我们建议远离社交媒体平台上看似垃圾的人工智能生成的内容,并报告任何看起来可疑或可能有害的活动。随着网络犯罪分子继续使用人工智能作为他们的首选武器,我们还建议您警惕日益先进的网络钓鱼尝试,例如人工智能语音克隆和人工智能社交媒体诈骗。