3月29日,非营利组织“未来生命研究所”(Future of Life Institute)发表了一封名为“暂停巨型AI实验”的信,呼吁世界各地的AI实验室暂停比GPT-4更强大的训练系统至少6个月,并在此期间制定AI的共享安全协议,必要时需要政府干预。
超过1000名科技人士签署了这一* * *,其中包括特斯拉首席执行官马斯克和Stability AI首席执行官艾玛德·莫斯塔克等企业领导人,以及Alphabet子公司DeepMin的研究人员,以及图灵奖得主约舒阿·本吉奥(Yoshua Bengio)等重量级学者。当然,也有人表达了不同意见,认为这是在阻碍技术进步。
开发GPT-4模型的OpenAI还没有人签字,该公司目前也没有回复这封信。但我们要求卷入这场纠纷的ChatGPT做出回应。
但这款AI自然语言模型产品却表现出了善解人意的一面:暂停实验是合理的,但要慎重考虑这样做带来的技术发展的滞后。给出了人工智能的六大风险和十条管理制度建议。
人类精英:暂停实验,建立规则
截止到今天,挂在未来生命研究所(FLI)官网上的“悬浮巨型AI实验”已经征集到了1130个签名。这份名单上全是精英,包括来自特斯拉和苹果等科技公司的高管,以及政治家和作家。当时更多的是全球多所大学的教授和人工智能方面的专家。
那么这封精英签名的信到底说了什么?以下是这封信的全文(向上滑动阅读)
大量研究表明,拥有可以与人类相抗衡的智能的AI系统将对社会和人类构成深刻的风险,顶级AI实验室也承认这一点。正如被广泛认可的Asilo horse人工智能原理中所述,高级AI可能代表着地球生命史上的深刻变革,应该以适当的态度和资源进行规划和管理。不幸的是,这种程度的规划和管理并没有发生。尽管人工智能实验室在最近几个月陷入了一场失控的竞争,以开发和应用越来越强大的数字思维,但没有人能够理解、预测或可靠地控制这些思维,即使是它们的创造者也不行。
当代人工智能系统已经具备了在一般任务中与人类竞争的能力。我们必须问自己:
我们应该让机器用宣传和谎言淹没我们的信息渠道吗?
是不是应该把所有的工作都自动化,包括那些有成就感的工作?
是否应该培养可能比我们数量更多、更聪明的非人类思维,并最终超越、取代我们?
我们应该冒险失去对我们文明的控制吗?
这种决策永远不应该委托给未经选举的技术领导人。只有当我们确信人工智能的效果是积极的,风险是可控的,才应该开发人工智能系统。AI的这种判断一定是合理的,并且随着系统的潜在影响而变化。
OpenAI最近关于人工通用智能(AGI)的声明指出,“在开始训练未来系统之前进行独立的审查可能很重要。同时,对于前沿工作,人们应该在适当的时间点限制用于创建新系统的计算的增长速度。我们同意这种说法,并认为现在正是时候。
因此,我们呼吁所有人工智能实验室立即暂停比GPT-4更强大的人工智能系统的训练至少6个月。这种暂停应该是公开的、可核查的,所有关键参与者也可以暂停相关工作。如果这个暂停不能快速启动,政府应该介入并实施。
AI实验室和独立专家要利用这个暂停期,共同开发一套AI设计开发的共享安全协议,需要经过独立外部专家的严格审核和监督。这些协议应该确保所有符合其系统的人工智能都是安全的。这种暂停并不意味着在总体上暂停AI发展,而只是让人们在与新兴功能的不可预测和危险的竞争中后退一步。
人工智能的研究和开发应该重新专注于使今天强大和先进的系统更加准确、安全、可解释、透明、健壮、一致、可信和可靠。
与此同时,人工智能开发人员必须与政策制定者合作,以大大加快强大的人工智能管理系统的开发。管理制度至少应包括以下内容:
一个新的、有能力的人工智能监管机构;
具有强大监督和跟踪能力的AI系统和计算能力池;
帮助区分真实和合成数据的溯源和水印系统,追踪模型泄漏;
提供一个健全的审计和认证生态系统;
确定AI造成损害的责任;
为AI技术的安全研究提供充足的公共资金;
一个资源充足的机构,以应对AI将造成的巨大经济和政治损害(尤其是对民主的损害)。
人类可以通过人工智能享受繁荣的未来。在成功创建了一个强大的人工智能系统之后,我们现在可以享受一个“人工智能夏天”。
在这个人工智能的夏天,我们可以收获回报,为每个人的利益设计这些系统,并给社会一个适应的机会。人类社会曾经暂停使用一些可能对社会造成灾难性影响的技术,我们现在在AI领域也可以这么做。让我们享受一个艾龙的夏天,不要没有准备就匆忙进入秋天。
事实上,这封* * *是最近人类精英对人工智能风险担忧的总爆发。自ChatGPT高速迭代以来,关注从未停止,尤其是在微软、谷歌、百度、华为等科技巨头就自然语言模型展开“军备竞赛”之后。
日前,“深度学习之父”杰弗里·辛顿(Geoffrey Hinton)在接受媒体采访时表示,人工智能正处于“关键时刻”,毁灭人类“并非不可能”。AI领域的“大牛”加里·马库斯(Gary Marcus)发推特支持辛顿,甚至质问灵魂:“用人类毁灭的百分之一的风险换取与机器对话的乐趣,值得吗?”
在转发FLI的信时,马库斯说,“这封信并不完美,但精神是正确的。我们需要放慢脚步,直到我们更好地理解人工智能的后果...它们可能会造成严重伤害...主要参与者对自己的所作所为越来越遮遮掩掩,这使得社会很难抵御任何可能发生的伤害。”
也有科技界人士对这封信持不同意见。
Writer的创始人Waseem以讽刺的口吻表达了对当局的不满。“让我们停止建设和发展我们的公司,因为来自硅谷的亿万富翁说我们有风险。我们必须喜欢比我们聪明的人,因为他们告诉我们如何生活。当我们有他们神圣的指引时,谁还需要进步?”
OSS Capital创始人约瑟夫·杰克斯(Joseph Jacks)的态度简单明了:强烈反对,绝不签这个。
ChatGPT:暂停合理但谨慎的封锁技术
目前,OpenAI尚未对FLI的这封信做出回应。而我们把人类精英的担忧和建议留给了ChatGPT。引发这场争议的对话机器人不仅认可了FLI要求暂停实验的合理性,还增加了六大AI风险。
ChatGPT的回答还包括暂停实验的弊端:导致技术发展滞后。这也和舆论场上很多普通人的想法类似。
那么,问题就摆在我们面前了。如果研究人员和政府要制定规则,应该包括哪些内容?ChatGPT给出了十条建议,相当于给AI的发展画了一个规范的圈,包括它本身。
连ChatGPT自己都这么说,可见“AI失控”和“取代人类”无论是在意见领袖的圈子里,还是在舆论场,都有着重要的意义。
最近,微软创始人比尔·盖茨强烈肯定了人工智能带来的生产力提升,但也强调了风险。“有可能是AI失控了。机器会认为人类是自己的威胁吗?他们会得出自己的利益与人类不同,不关心我们的结论吗?”他预测,随着算法和计算能力的提升,未来会出现超级智能AI。
就连OpenAI首席执行官山姆·奥特曼(Sam Altman)也表示,超智能AI的风险可能远远超出我们的预期。此前,他在技术研究员Lex Fridman的播客中表达了自己的担忧,包括AI带来的虚假信息问题,带来的经济影响等。“危害可能远远超过人类能够应对的程度。”他举了个例子。“我们怎么知道大语言模型没有在Twitter上引导每个人的思想?”
这正是信中所说的:没有人能够理解、预测或可靠地控制这些数字思维,“即使是它们的创造者也不行。”
虽然通用人工智能(AGI)还远未到来,但正如比尔盖茨所说,在此之前,世界需要建立规则,让AI的正面影响远远超过其负面影响。
换句话说,不要让人类制造的东西害死自己。毕竟战争和核事故带来的灾难还历历在目。
温馨提示:注:内容来源均采集于互联网,不要轻信任何,后果自负,本站不承担任何责任。若本站收录的信息无意侵犯了贵司版权,请给我们来信(j7hr0a@163.com),我们会及时处理和回复。
原文地址"人类精英呼吁暂停AI实验 ChatGPT:合理但谨慎考虑":http://www.guoyinggangguan.com/qkl/168646.html。
微信扫描二维码关注官方微信
▲长按图片识别二维码