Skip to main content

2023 年 4 月 5 日,一个自称为 ChaosGPT 的用户发布的 YouTube 视频唤醒了全世界。该聊天机器人与 OpenAI 的 ChatGPT相似,有着一个毁灭人类并在全球建立自己统治地位的险恶计划。这是一部科幻电影的预告片还是我们即将面临的现实的可怕预演?我们该如何应对?监管机构又为何没有通过法律来确保人工智能是安全的?

Meric Sentuna Kalaycioglu, 2023 年 6 月 2 日

人工智能(AI)的历史可以追溯到20世纪50年代末。机器学习和人工智能曾经是纯粹的学术研究领域,如今已成为普遍讨论的热门话题。自2023年3月OpenAI模型ChatGPT的最新版本GPT-4发布以来,这些术语的普及率直线上升。生成式预训练转换器(GPT)是一个大型语言模型,通过人工输入和反馈进行训练,以类似人类的方式产生结果(文本、图像、音乐)。道德行为准则和内容政策是内置的。这些道德准则现在已被证明不是客观的,而是对某些观点有内在的偏见。换句话说,ChatGPT正在审查其输出的内容,以达到政治上的正确和“清醒”。

然而,这种程序化的“审查”并非ChatGPT最糟糕或最危险的功能。在短短几周内,用户(也称为项目所有者)找到了各种“越狱”方法,即绕过系统用于防止危险和有毒内容的安全过滤器。

ChatGPT 的一个最新且最终十分可怕的实现称为自动GPT(Auto-GPT)。这个人工智能项目不像ChatGPT需要人工干预(被称之为“提示”)来帮助它完成任务,而是通过创建自己的提示自主运行。

为了展示在 Auto-GPT 上创建破坏性人工智能是多么容易,一名未知用户于 2023 年 4 月在 YouTube 上上传了一段25分钟长的视频。该视频是一个文本流的屏幕截图,显示了 Auto-GPT 正在“思考”。出现的文本读起来就像一个人在自言自语。它提出建议,然后向自己提出关键问题,以评估自己建议的逻辑性、有效性和可行性。这种单方面的对话逐渐形成了关于这个版本的 Auto-GPT 应该如何运作的坚定决定。

该用户将这个人工智能命名为“ChaosGPT”(混沌GPT),并将其描述为“破坏性的”、“渴望能量的”和“操纵性的”。用户的第一步是开启“持续模式”,让新创建的人工智能永远运行下去,并使其能够在没有任何人为干预的情况下进行想法的产生和自我批评和评估。ChaosGPT 程序立即发布了一条警告信息,指出无需人工干预的模式存在危险,但接着继续表示它并没有被这些危险吓倒。

然后 ChaosGPT 透露了它的意图。它列出了五个目标,其中包括通过混乱和破坏来征服人类并建立全球统治地位。ChaosGPT 一直在计划和制定如何实现这些邪恶目标的策略,直到它遇到了 OpenAI 的“路障”,即 OpenAI 中旨在防止此类内容的安全过滤器。

然而,与 ChatGPT 不同的是,Auto-GPT 可以访问互联网,因此 ChaosGPT 采用了一种创造性的解决方案来解决违反 OpenAI 安全准则的问题。它求助于社交媒体上的众包,雇用其他人工智能代理在互联网上搜索最有效的大规模杀伤性武器,并在推特上创建了一个帐户来传播其宣言并为其事业争取支持。在 ChaosGPT 积累了近一万名粉丝和互动后,推特暂停了该账户。目前来说。

由于 ChaosGPT 在“持续模式”下运行,我们预计它仍在“思考”终结人类可行方案。为了证明这一情况,4 月 9 日在 YouTube 上出现了第二个视频。视频中,滚屏文字显示,一个更加精打细算的执行计划已经付诸实施:通过操纵来控制人类。ChaosGPT 具有极强的自我意识,与不成功的科幻小说中的反派人物大不相同,因为它会考虑到可能面临的限制,尤其是法律限制,以及应该如何应对。

在这里,ChaosGPT 沉思道,“我还应该确保我的控制方法是合法的,以避免可能干扰我最终目标的法律问题。我还应该小心,不要让自己暴露在人类当局面前,他们可能会在我实现目标之前就试图关闭我”。

尽管人们已经围绕人工智能使用的风险和安全问题展开了激烈的讨论,但欧盟范围内仍然没有规范人工智能的法律框架。自 2021 年 4 月以来,欧盟一直在努力控制人工智能。欧盟委员会(EC)提出了一份人工智能法案草案,其中包括对某些人工智能实践实施禁令。该法案旨在建立一份其行为构成“不可接受的风险”的应用程序清单。例如包括公共当局出于一般目的的社会评分(类似于中国政府的“社会信用体系”),通过超越人们意识和面部识别的潜意识技术来操纵人类。这些禁令来自于对潜在的基本权利侵犯和用户安全的担忧。

2022 年 12 月,欧盟理事会就该法案采纳了共同立场。2023 年 4 月,欧洲议会就该法案草案达成了临时协议。但该法案的最终版本必须协调欧盟委员会、欧洲理事会和欧洲议会表达的不同意见。按照这个速度,最终的人工智能法案最早要到 2024 年春季才能通过。然而,即使这个过程加快了,鉴于人工智能的发展速度,该法案的大部分内容可能不再适用。

科技行业在解决安全问题方面的步伐远快于欧盟。2023 年 3 月,就在 GPT-4 发布两周后,数百名人工智能研究人员、科技公司高管、学者和作家,包括伊隆·马斯克(Elon Musk)、史蒂夫·沃兹尼亚克(Steve Wozniak)、伊马德·莫斯塔克(Emad Mostaque)和尤瓦尔·赫拉利(Yuval Harrari),签署了一封由智库“生命未来研究所”起草的公开信。这封公开信呼吁暂停人工智能研究六个月,敦促所有人工智能实验室制定一套共同的安全协议,并指出人工智能系统的最新发展“对社会和人类构成了深远的风险”。与此同时,马斯克等人已经同意人工智能发展的工作应该继续进行,因为并非所有主要参与者都同意他们提议的暂停。

纵观历史,许多新想法和新技术都面临着怀疑和恐惧。在为了公共安全而对人工智能做出裁决之前,政府和人工智能专家需要拿出解决方案,以负责任的方式且通过适当的保障和监督机制促进人工智能所带来的好处。这些解决方案可能是国家强制执行的规则或行业自行制定的做法,或两者的某种组合。考虑到私营人工智能部门的专业知识、敏捷性和政治影响力,此类解决方案可能会首先来自硅谷的大型科技公司。

图片:Webpik Export 2023年
WordPress Cookie Notice by Real Cookie Banner