您好,欢迎您来到国盈网!
官网首页 小额贷款 购房贷款 抵押贷款 银行贷款 贷款平台 贷款知识 区块链

国盈网 > 区块链 > 斯图尔特·罗萨,斯图尔特罗菲尔

斯图尔特·罗萨,斯图尔特罗菲尔

区块链 岑岑 本站原创

资料来源:报纸。

记者实习生陈

“我不认为理解人工智能安全性的唯一方法是在现实世界中部署一个系统的数亿个副本,然后观察结果。”人类不会这样对待疫苗。“我们必须在部署疫苗之前对其进行测试,因为我们将为数亿人注射疫苗。”

“我们不理解大型语言模型及其工作原理。我们需要这种理解,才能对安全有信心。人类构建AI系统的技术不应该依赖大量的数据训练和内部结构未知的黑匣子。”

加州大学伯克利分校计算机科学教授斯图尔特·罗素(Stuart Russell)在2023北京致远大会上发表主题演讲。

“人工智能就像一块来自未来的巨大磁铁,拉着我们前进。如何保证我们不会被超越人类的智能所控制?”6月10日,加州大学伯克利分校计算机科学教授、人类兼容人工智能中心主任斯图尔特·罗素(Stuart Russell)在2023北京致远大会上发表演讲称,人工智能系统的设计必须遵循两个原则。首先,AI的行为必须符合人类的最大利益;第二,AI本身应该不知道这些利益是什么。

在对话环节,罗素与图灵奖获得者、中国科学院院士姚期智共同探讨了人工智能的长远未来及其与人类的关系。罗素引用中国古代哲学家孟子的话说,“将来人工智能系统代表社会做决策时,要合理考虑每个人的利益。”

罗素的《人工智能:一种现代方法》被视为人工智能领域最受欢迎的教材,已被135个国家的1500多所大学采用。2022年,国际人工智能联合大会(IJCAI)授予罗素卓越研究奖。他此前曾获得IJCAI计算机和思想奖,这使他成为世界上第二位同时获得两项主要IJCAI奖的科学家。

通用人工智能还很远

在北京会议上,罗素发表了题为《AI:一些思考?演讲中定义了通用人工智能(General artificial intelligence,AGI):通用人工智能是指在大多数有经济价值的任务中超越人类能力的人工智能系统。这种人工智能系统可以比人类更好更快地学习和执行任何任务,包括人类无法处理的任务,而且由于机器在速度、内存、通信和带宽方面的巨大优势,在未来,通用人工智能几乎在所有领域都将远远超过人类的能力。

那么,人类离通用人工智能还有多远?罗素说,我们离一般的人工智能还很远。"事实上,还有许多重大的问题没有解决."

罗素在演讲中指出,ChatGPT和GPT-4并不了解这个世界,也不是在“回答”问题。“如果通用人工智能是一个完整的拼图,大语言模型只是其中之一,但我们并不真正知道如何将其与拼图的其他部分连接起来,以真正实现通用人工智能。”他说,“我相信,连一些缺失的拼图都没有找到。”

罗素认为,目前的人工智能系统存在一个根本弱点,即它们使用电路来产生输出。“我们试图从电路中获得高度智能的行为,而电路本身是一种相当有限的计算形式。”他认为,电路无法准确表达和理解一些基本概念,这意味着这些系统需要大量的训练数据来学习一些可以由简单程序定义的功能。他认为人工智能未来的发展方向应该是使用基于清晰知识表示的技术。

“抛开技术问题不谈,如果我们真的创造出通用人工智能。接下来会发生什么?”罗素引用现代计算机科学创始人艾伦·图灵的话说,“机器思维方法一旦启动,很快就会超越我们弱小的力量,这似乎很可怕。”

“如何才能始终保证自己不会被人工智能控制?这就是我们面临的问题——如果我们找不到这个问题的答案,那么我认为除了停止开发通用人工智能,别无选择。”拉塞尔说。

今年3月,Russell与特斯拉CEO埃隆马斯克(elon musk)、“AI教父”杰弗里辛顿(Geoffrey Hinton)等数千人签署了一份* * *状,呼吁暂停训练比GPT-4更强大的AI系统至少6个月。

罗素在会上强调,问题是有答案的。人工智能系统的设计必须遵循两个原则。首先,AI的行为必须符合人类的最大利益;第二,AI本身应该不知道这些利益是什么。所以他们对人类的喜好和未来是不确定的,而这种不确定性会给人类控制。

罗素说,人需要改变观念,不是追求“机器一定是智能的”,而是要关注机器的“好处”,使之符合人类的根本利益。“外星人很聪明,但我们不一定希望他们来到地球。”

艾与孟子的慈善思想

在对话中,罗塞尔和姚期智进行了深刻而有见地的讨论。

当被姚期智问及人工智能与人类关系的长远未来时,罗素表示,人类利用AI来满足自己的利益,这导致了AI不受功利控制的现象。"功利主义是人类进步的重要一步,但它也导致了一些问题."比如当一个决定会影响到很多人的实际存在时,如何做决定?人是想要一个不太快乐的大群体还是一个很快乐的小群体?“我们对这些问题没有很好的答案,但我们需要回答这些道德哲学的核心问题,因为人工智能系统将拥有巨大的权力,我们最好确保它们以正确的方式使用这种权力。”

罗素与图灵奖获得者、中国科学院院士姚期智(右)讨论人工智能的长远未来及其与人类的关系。

罗素在回答中引用了中国古代哲学家孟子的话。“孟子谈到了中国的博爱观念,意思是在做道德决定时,要考虑到每个人的利益。而且每个人的喜好都应该一视同仁。”他认为,有一种基于偏好功利主义复杂形式的方法,可以让人工智能系统在代表社会做决策时合理考虑每个人的利益。

罗素问,当有一个人和很多机器的时候,如何保证这些机器互相配合帮助人类?当很多人有很多机器的时候,这就涉及到道德哲学的基本问题。他认为人工智能系统应该被设计为代表全人类工作。“如果你想让AI系统符合个人意愿,那么你必须证明AI系统的行动范围仅限于个人关注的范围。它不能通过追求个人利益来伤害其他个体,因为它不关心其他个体。所以我觉得默认的情况应该是人工智能系统代表人类工作。”

此外,在讨论中,罗素提到了个人资本的“位置商品”,这是指人们并不关注商品本身,但却隐含着优于他人的意思。“诺贝尔奖为什么有价值?因为别人都没有,这证明你比世界上几乎所有人都聪明。”他说。

“位置商品的本质是某种意义上的零和博弈。简单来说,不是所有人都能进入前1%。所以,如果你从成为1%的人身上获得了个人价值、骄傲和自尊,我们不可能把这种骄傲和自尊给所有人。”拉塞尔说。

那么,AI系统在代表社会做决策时,是否应该考虑位置商品?“如果我们说不应该,会引起社会运行方式的巨大变化。这是一个更难的问题。我认为社会的很多内耗其实都是这些位置货造成的,而这些货根本不是所有人都能实现的。”

和社交媒体算法一样危险。

姚期智问,未来是否有可能拟定一份“白名单”,允许人工智能系统被用来做有益于人类福祉的事情,比如使用人工智能方法设计药物和解决癌症问题。

拉塞尔表示,纳米技术的创始人之一K. Eric Drexler在过去几年中一直致力于人工智能的安全。他提出了综合人工智能服务(Comprehensive AI services,CAIS),即人工智能系统的建立不是为了一般的目标,而是为了解决特定的、狭窄的问题,比如蛋白质折叠、交通预测等。与一般人工智能相比,这些系统带来的大规模风险相对较小。

罗素说,“短期内这是一种合理的方法”,但“我不认为理解人工智能安全性的唯一方法是在现实世界中部署一个系统的数亿个副本,然后观察结果。”他说人类不会对疫苗这么做。“我们必须在部署疫苗之前对其进行测试,因为我们将为数亿人注射疫苗。”

因此,需要做更多的工作来确保使用这些系统的人的安全。拉塞尔指出,人工智能系统可能会通过对话改变数亿人的观点和情绪。OpenAI等科技公司应该停止向数亿人发布新的人工智能系统,而不告诉他们。这些系统可能通过对话操纵和影响人类的思想和行为,导致一些灾难性的后果,如核战争或气候灾难。“如果你能与数亿人交谈,你就能说服他们对其他国家不要那么友好,不要那么关心气候变化。”

拉塞尔说,“这种情况类似于社交媒体算法。我们甚至没有意识到它正在改变公共话语、情绪以及我们如何看待他人和未来。这是非常危险的。”“从系统的角度来看,有一些我们无法检测到的内部目标,这导致AI将我们推向这个方向。”

那么,如何保证人工智能技术的安全性和可控性呢?

“如果人工智能像核武器一样强大,或者更强大,我们可能需要以类似的方式管理它。”罗素说,“在核武器技术发明之前,一些物理学家认为我们需要一个治理结构来确保技术只用于人类利益,而不是以武器的形式存在。不幸的是,无论是物理学界还是政府都没有听取他们的意见。”他强调,AI技术的威力不亚于核武器和航空/KLOC-0技术,各国应争取尽早开展这样的AI安全合作。

罗素认为,确保AI的潜在利益需要全面的变革,不仅要通过监督和建立严格的规则和安全标准,还要通过整个AI领域的文化变革。

他给出建议:第一,要建立一个人类能理解的AI系统。“我们不理解大型语言模型及其工作原理。我们需要这种理解,才能对安全有信心。人类构建AI系统的技术不应该依赖大量的数据训练和内部结构未知的黑匣子。”

此外,要防止不安全的人工智能系统被部署,尤其是被恶意行为者部署,“需要改变整个数字生态系统,从计算机的运行模式开始,即计算机不会运行它们认为不安全的软件。”

在讨论的最后,罗素总结说,人工智能是一门科学,所以在使用它之前,需要了解它的内部结构和工作原理。“就像我们制造飞机一样,我们可以根据飞机的物理形状和发动机来解释它们是如何保存在空中的。”他说,“目前,尤其是在大规模语言模型领域,人工智能还没有达到这样的水平。我们不知道它们是如何产生这些特征的。事实上,我们甚至不知道它们有什么特征,所以我们无法将这些现象与它们的内部工作原理联系起来。”所以人工智能是一门需要进一步探索的科学。

本网站声明:网站内容来源于网络。如有侵权,请联系我们,我们会及时处理。

温馨提示:注:内容来源均采集于互联网,不要轻信任何,后果自负,本站不承担任何责任。若本站收录的信息无意侵犯了贵司版权,请给我们来信(j7hr0a@163.com),我们会及时处理和回复。

原文地址"斯图尔特·罗萨,斯图尔特罗菲尔":http://www.guoyinggangguan.com/qkl/144194.html

微信扫描二维码关注官方微信
▲长按图片识别二维码