作者:谢若琳
图片来源:工具生成。
随着AI的应用越来越广泛,很多问题开始出现,首当其冲的就是内容的真实性。AI作为一个工具,不具备判断力,它的结果是一个基于数据喂养和计算能力培养的综合产物。那么,这些数据是否真实合法,直接决定了AI能否大规模应用。
日前,国家网信办发布《生成式人工智能服务管理办法(征求意见稿)》(以下简称《征求意见稿》),向社会征求意见。《征求意见稿》明确“国家支持人工智能算法、框架等基础技术的自主创新、推广应用和国际合作,鼓励优先使用安全可靠的软件、工具、计算和数据资源”,并对生成式人工智能服务提供者的准入、算法设计、训练数据选取、模型和内容以及用户个人隐私和商业秘密提出了相关要求。
其中,有两项内容是强调真理的。一是在第四条“提供生成式人工智能产品或者服务应当符合法律法规要求,尊重社会公德、公序良俗”中,提出“生成式人工智能产生的内容应当真实、准确,并采取措施防止虚假信息的产生”。另一个是在第七条中,“提供者应当对生成式人工智能产品的预训练数据和优化训练数据的来源的合法性负责”,规定“能够保证数据的真实性、准确性、客观性和多样性”。
这意味着AIGC的研发平台不仅要保证数据资源的真实性和可靠性,还要对生成的内容负责,这无疑是一个巨大的挑战。
事实上,在全球AI赛道的顶级选手中,没有一个平台能够保证AI生成结果的真实性。此前,谷歌推出的人工智能聊天机器人Bard与ChatGPT对决,但由于Bard犯了一个事实错误,谷歌股价暴跌,市值一夜之间蒸发了约1056亿美元。微软在一份免责声明中表示:“必应是由人工智能驱动的,因此可能会出现意外和错误。”
对于生成式AI的开发者来说,保证结果真实性的难度可想而知。笔者认为,应该允许AI在研发和实验阶段进行试错、修正和完善。但是,随着生成式AI作为工具进入生产领域,开始搜索、画图、提问和回答问题,甚至编程和生成视频,那么保证真实性应该是基本的门槛。
换句话说,AI要想抢人类的活,首先要从底层模型解决真实性和准确性的问题。如果这个问题仍然没有定论,那么R&D平台应该谨慎地向公众推出新产品,而不应该贸然将人工智能应用于商业环境。
如今,基于AI的创业公司如雨后春笋般在世界各地涌现,仅3月份就有近10个AI视频生成器诞生。输入几个关键词就可以得到一段文字、一张图片甚至一段视频,这无疑体现了科技的魅力。然而,一些企业为了赶时髦,急于推出新产品,导致产品质量参差不齐,一些产品产生搞笑内容,一些产品产生虚假内容。这种“深度欺诈”的内容一旦传播开来,很容易引发社会信任危机。
我认为,面对新技术,既要抓住机遇,敢于攀登,又要避免技术发展带来的各种安全隐患和伦理挑战。我们需要构建合理规范的数字规则,做“负责任”的人工智能,设置好规则,明确红线,防范潜在风险,促进科技向善。
温馨提示:注:内容来源均采集于互联网,不要轻信任何,后果自负,本站不承担任何责任。若本站收录的信息无意侵犯了贵司版权,请给我们来信(j7hr0a@163.com),我们会及时处理和回复。
原文地址"观点:严防生成式AI“深度造假”":http://www.guoyinggangguan.com/qkl/156316.html。
微信扫描二维码关注官方微信
▲长按图片识别二维码