文| Juny编辑| VickyXiao
从2023年开始,科技界似乎没有什么大事了,只剩下人工智能。大家都在说ChatGPT,科技圈的大开卷模式,OpenAI的估值不断攀升,大公司的穷追不舍。
这一切繁荣的背后,其实离不开三位人工智能研究人员的工作——Geoffrey hint on、Yoshua Bengio和Yann LeCun,他们因提出和开发深度学习神经网络而获得了2019年计算机行业的最高荣誉。
可以说,如果没有这三位学者的研究,我们今天根本看不到ChatGPT和Bard的出现,也不可能如此迅速地将语音识别、人脸识别、图片检索、机器翻译、自动驾驶等技术运用到我们的日常生活中。
其中,杰弗里·辛顿(Geoffrey Hinton)是“三巨头”中的核心人物,被业界誉为“人工智能教父”。他于2013年加入谷歌,将深度学习技术带入谷歌的多项业务,直接推动谷歌成为AI技术最好的公司之一。同时,他亲自培养了一大批与机器学习相关的人才,包括OpenAI的联合创始人兼首席科学家Ilya Sutskever。
《深度学习的三个先驱》,图片来自Twitter。
就在加入谷歌和深度学习爆发式发展的第十个年头,75岁的杰弗里·辛顿(Geoffrey Hinton)几周前辞去了在谷歌的工作。离职的原因,用他的原话来说,就是毫无负担地告诉大家他对人工智能发展的“真相”。
来自“人工智能教父”的担忧和警告
如果说有谁最热爱深度学习相关的人工智能研究,Geoffrey Hinton一定是最有发言权的人。自20世纪70年代以来,杰弗里·辛顿(Geoffrey Hinton)作为计算机神经网络的先驱,已经在这一领域默默耕耘了近50年。
对于Geoffrey Hinton来说,从零开始创造一个全新的概念和技术的过程极其艰难。
从20世纪80年代他提出神经网络理论开始,直到本世纪初的20多年里,学术界对神经网络理论充满了怀疑。同时,由于当时数据集规模的限制和计算机计算能力的不足,相关研究的进展一度非常缓慢。在这个漫长的过程中,有人放弃,有人转向研究方向,但Geoffrey Hinton从未放弃对深度学习神经网络的研究。
但是现在,深度学习终于来了忠实的妻子,大家开始往深度学习上投入人力和金钱。多年来一直坚持的杰弗里·辛顿(Geoffrey Hinton)希望所有人都停下来,甚至对自己毕生致力的研究感到有点遗憾。为什么?
杰弗里·辛顿(Geoffrey Hinton)在最近接受* * *采访时表示,他这次离开谷歌并不是因为他想批评谷歌,而是因为他真的可以在不影响谷歌的情况下谈论AI的潜在风险。
在他看来,作为AI技术的领导者,谷歌在过去几年里一直扮演着“负责任的管家”的角色,小心翼翼地保留和控制那些可能造成伤害的技术。然而,由于微软非常迅速地将Bing和ChatGPT合并并向公众发布,挑战了谷歌核心搜索引擎的业务,谷歌无法继续保持过去的发展步伐,科技巨头陷入了一场可能不会停止的竞争。
这种情况下,他需要站出来,作为一个研究人员,而不是谷歌员工,给你一个警告。结合整个采访,韩丁主要有以下顾虑。
第一,在人工智能技术的支持下,他认为互联网很快就会充斥各种虚假信息。这些信息包括文字、照片、视频等。,而普通人会越来越难辨别信息的真假,从而导致社会失序。
第二,就业市场可能在就业市场准备好之前就被颠覆,导致失业的爆发。虽然像ChatGPT这样的聊天机器人目前只是对人类工作的补充,但按照人工智能的发展速度,它们很快就会取代律师助理、翻译、行政助理等任何其他基础性、重复性的工作。"它消除了苦差事,但它可能需要更多."辛顿说。
此外,他还担心人工智能技术的下一步发展会对人类社会构成威胁。他承认,在他们过去的研究中,人工智能经常可以从大量的数据中学习,并产生许多意想不到的行为。目前很多用户,包括个人和公司,不仅让人工智能独立生成代码,还让人工智能运行和管理代码。在这种持续的训练中,“自主杀手机器人”很有可能真的成为现实。
“很多人觉得很远。我以前也这么认为。我认为我们至少要30-50年才能到达那里。但就我目前了解到的信息来看,我不再这么认为了。”辛顿认为,谷歌、微软和其他大公司之间的竞争将很快升级为全球性的竞争。没有某种监管,这种竞争是不会停止的,人工智能发展的速度会远远超出我们的想象,最终失控。
呼吁AI监管的声音越来越强烈。
如果这些话出自他人之口,你可能还会认为这些观点是危言耸听。但当全球人工智能领域最权威的专家、深度学习创始人杰弗里·辛顿(Geoffrey Hinton)也这么说的时候,也引发了更多人对这个问题的认真思考和关注。
事实上,在杰弗里·辛顿(Geoffrey Hinton)发声之前,最近几个月已经有两个大型联名在人工智能领域发起,呼吁谨慎发展人工智能技术。
曾经,数千名来自学术界和商界的领袖,如马斯克和Yoshua Bengio,呼吁至少暂停六个月对比GPT-4更强的模型的研究。另一份是人工智能促进会(Association of the Promotion of Artificial Intelligence,AAAI)19位现任和前任领导人发表的联名信,该组织已有40多年历史,是人工智能领域最权威的学术机构之一,其中包括微软现任首席科学家、人工智能研究专家埃里克·霍维茨(Eric Horvitz)。
尽管马斯克暂停模型研发的呼吁在业内引发争议,但包括扬·勒村和吴恩达在内的研究人员都表示反对“一刀切”的停止研发的做法,甚至有人质疑马斯克等人提出暂停研发是为了谋取私利。但目前大家对共同加强AI监管,防范潜在危险的看法几乎一致。
今天Geoffrey Hinton的报告发出后,吴恩达立即转发了Geoffrey Hinton的推特表示支持,感谢Hinton对人工智能技术做出的不可估量的贡献,以及他对人工智能对虚假信息、自动机器和劳动的影响的声音。
一些AI投资者和研究人员今天也转发了杰弗里·辛顿(Geoffrey Hinton)的采访,呼吁学术界、工业界和政府监管机构迅速行动,在当前技术仍处于可控状态的情况下,尽快制定监管框架和应用计划。
当然,也有研究者不认同AI***,包括杰弗里·辛顿以前的学生和研究伙伴扬·勒村(Yann LeCun)。他以前多次说过,大语言模式什么都不是,需要一个“世界模式”才能真正通向AGI。
对此,很多人也希望这些对人工智能发展持有不同看法的研究专家们能够很快进行深入对话,让人们更多地了解当前人工智能发展面临的机遇和风险。
AI会成为新时代的“* * *”吗?
在这次采访中,一个特别有意思的地方是,Geoffrey Hinton在谈到AI风险时多次提到核武器。某种程度上,杰弗里·辛顿(Geoffrey Hinton)可能认为AI对人类社会的危险程度不亚于核武器。
他说,与核武器研究不同,现在AI研究更危险的是,我们几乎没有办法知道哪些组织或国家在秘密研究这项技术。理想情况下,全世界的组织和科学家应该合作,共同控制技术,但现在显然很难做到。
作为深度学习技术的发起人,杰弗里·辛顿(Geoffrey Hinton)承认,他甚至后悔目前研究这项技术。当潘多拉魔盒被打开时,研究人员很难阻止坏人利用这些技术做坏事。
辛顿的说法也让人想起罗伯特·奥本海默类似的心路历程。当时,美国在广岛和长崎投下* * *两个月后,奥本海默辞职。此后,他一直致力于游说国际机构控制军备,并利用自己的影响力推动控制核武器和核不扩散运动。
杰弗里·辛顿(Geoffrey Hinton)说,当人们问他如何从事潜在危险的技术时,他总是引用奥本海默的话:“当你看到一些具有美妙技术前景的东西时,就去做。”但是现在,他再也不会这么说了。
杰弗里·辛顿说:“人们不应该迅速扩大人工智能研究的规模,直到他们足够了解自己是否能够控制它。”
*参考资料:
https://www . nytimes . com/2023/05/01/technology/ai-Google-chatbot-engineer-quits-hint on . html
本网站声明:网站内容来源于网络。如有侵权,请联系我们,我们会及时处理。
温馨提示:注:内容来源均采集于互联网,不要轻信任何,后果自负,本站不承担任何责任。若本站收录的信息无意侵犯了贵司版权,请给我们来信(j7hr0a@163.com),我们会及时处理和回复。
原文地址"谷歌痛失大将:“AI教父” Geoffrey Hinton离职,只为给人类敲响警钟?":http://www.guoyinggangguan.com/qkl/152965.html。

微信扫描二维码关注官方微信
▲长按图片识别二维码