脸书是过去20年里在用户隐私方面发生的最糟糕的事情。人工智能可能是未来几天发生的最糟糕的事情。
在一个日益由人工智能驱动的世界中,区块链可以在防止脸书等应用程序犯罪变得常见和正常化方面发挥关键作用。
ChatGPT和谷歌的Bard等人工智能平台已经进入主流,并被指责其偏见加剧了政治分歧。正如《终结者》、《黑客帝国》和最近的《碟中谍-推算定位第一部》等热门电影所预测的那样,人工智能是一种野生动物,我们可能会发现很难驯服,这一点已经变得很明显。
从扼杀民主的虚假信息运动和杀手无人机到对个人隐私的彻底破坏,人工智能可能会改变全球经济甚至文明本身。2023年5月,全球科技领袖写了一篇头条* * *,警告人工智能技术的危险性可能堪比核武器。
人工智能最重要的一个担忧是其训练和编程缺乏透明度,特别是在难以使用的深度学习模型中。因为敏感数据是用来训练人工智能模型的,如果数据被破坏,就有可能被破坏。
未来几年,区块链将与人工智能一起被广泛使用,以提高决策过程的透明度、问责制和可听度。
例如,当通过使用存储在区块链中的数据来训练人工智能模型时,可以确保数据的来源和完整性,并且可以防止未经授权的修改。利益相关者可以通过在区块链上记录模型的训练参数、更新和验证结果来跟踪和验证决策过程。
通过这个用例,区块链将在防止人工智能的无意滥用方面发挥主导作用。但是故意呢?这是一个更危险的情况。不幸的是,我们可能会在未来几年面临这种情况。
即使没有人工智能,集中化的大型技术公司也一直在帮助和教唆历史上通过操纵个人和民主价值观来获得最高出价者的行为,正如脸书的剑桥分析丑闻中所著名的那样。2014年,“Thisisyourdigitallife”应用程序为用户提供了一项付费的个性测试,要求用户访问他们和他们朋友的脸书个人资料。实质上,脸书允许剑桥分析公司在未经许可的情况下监控用户。
结果呢?针对公众的两次历史性心理公关活动,对2016年美国总统大选和英国退出欧盟公投结果产生了巨大影响。梅塔(前脸书)从错误中吸取教训了吗?看起来不像。
7月,Meta推出了最新的应用程序Threads。作为埃隆马斯克的Twitter的竞争对手,它收集脸书和Instagram收集的常规数据。然而,与抖音类似,当Threads用户注册时,他们无意中授予了对GPS位置、相机、照片、IP信息、设备类型和设备信号的元访问权限。Web2的标准做法是证明这种做法的合理性,并促使用户同意这些条款和条件。事实上,阅读标准互联网用户使用的每个应用程序的每个隐私政策平均需要76个工作日。有什么意义?Meta现在可以访问超过1.5亿用户手机上的几乎所有内容。
人工智能出道。如果剑桥分析丑闻的后果令人担忧,我们是否可以开始了解这种侵入式监控和人工智能的神圣智能相结合的影响?
毫不奇怪,区块链是解决方案,但解决方案并不那么简单。
人工智能的主要危险之一是它可以收集数据,然后将其武器化。关于社交媒体,区块链技术可能会增强数据隐私和控制,这可能有助于减少大型技术公司的数据收集行为。然而,它不太可能“阻止”大型技术公司获取敏感数据。
为了真正防止人工智能的故意危险,避免未来出现类似剑桥分析的场景,需要一个去中心化的社交媒体平台,最好是基于区块链的平台。通过设计,它们减少了用户数据在一个中心实体中的集中,从而最大限度地降低了大规模监控和人工智能虚假信息活动的可能性。
简而言之,通过区块链技术,我们已经拥有了确保我们在个人和国家层面上独立于人工智能所需的工具。
在5月份就人工智能的危险签署了一封给各国政府的信后不久,OpenAI的首席执行官Sam Altman发表了一篇博客文章,提出了负责任地管理强大的人工智能系统的几个策略。它涉及主要人工智能开发者之间的合作,对大规模语言模型的更深层次的技术研究以及全球人工智能安全组织的建立。
虽然这些措施取得了良好的开端,但它们未能解决让我们容易受到人工智能攻击的系统——即Meta等集中式Web2实体。为了真正防范人工智能,迫切需要进一步开发基于区块链的技术,即网络安全和分散社交媒体应用的真正有竞争力的生态系统。
温馨提示:注:内容来源均采集于互联网,不要轻信任何,后果自负,本站不承担任何责任。若本站收录的信息无意侵犯了贵司版权,请给我们来信(j7hr0a@163.com),我们会及时处理和回复。
原文地址"Meta对隐私的攻击应该成为对人工智能的警告":http://www.guoyinggangguan.com/qkl/138201.html。
微信扫描二维码关注官方微信
▲长按图片识别二维码