编者按:
最近,数百家公司和品牌参与了“停止从仇恨中获利”的活动,批评脸书和推特对平台上的虚假信息和煽动性言论无所作为,可口可乐公司决定暂停这些平台上的社交媒体广告。
这些平台背后的算法显然助长了虚假新闻的传播。事实上,一个未经审查的算法可能包含并不断固化现有的偏见和不道德的行为模式。
人类应该警惕算法对伦理标准的挑战。本文作者指出,算法的伦理讨论必须由商人、非营利组织、民间行动组织和技术专家来进行,而远不是把它们作为技术讨论推给工程师。
作者进一步提供了五个建议,以指导组织在伦理发展和评估所使用的算法。这些建议包括:伦理结果第一,速度和效率第二;让道德指导原则在组织中占据显著地位;雇佣精通伦理原则的程序员;用组织的道德标准检查算法;让利益相关者参与进来。
专题编辑:林姚森
学术顾问:段伟文
作者:鲁本·曼查,夏诗莲娜·阿里
翻译:水蒸馏器
校对:齐静波、林、。
1983年,在冷战最激烈的时候,一个人在一场可能因为算法而在第一线之间爆发的核战争中发挥了决定性的作用。苏联国防空部队的斯坦尼斯拉夫·彼得罗夫上校正在一个秘密指挥中心值班,这时预警警报响起,促使一枚洲际弹道导弹从美军基地飞来。系统显示该报警属于最高信任级别。彼得罗夫的职责是向他的上级建议警报的真实性,这反过来会影响他们是否发动报复性核攻击的决定。彼得罗夫选择相信直觉而不是算法,将报警认定为故障。事实证明,他的判断是正确的。
这个历史轶事代表了算法对我们生活影响的一个极端例子。原来当时的探测算法把太阳光反射误判为导弹发射。一个设计不当或出现故障的算法可能会改变历史的进程,杀死数百万人,这是令人遗憾的。
01.现代社会中的算法
人工智能(AI)、增强现实(AR)、自动驾驶汽车和物联网等技术正在引领我们进入第四次工业革命。它们正在弥合物质世界和数字领域之间的鸿沟,并表明技术作为人类交流和体验的中介的模式将发生根本变化。这些技术的运行是复杂算法的产物。组成人工智能代理的代码决定了消费者是否会收到特定的广告或产品信息。操作规则决定了增强现实(AR)在我们眼前的世界中呈现的信息。该计划指示自动驾驶汽车在拥堵的道路上行驶,并在儿童穿越他们的路线时踩下刹车。IOT设备的算法规则决定何时触发海啸警报。这些例子凸显了算法在现代社会中隐藏但关键的作用。
当计算机算法(用于解决问题的一组数字编码规则)的内部程序或解决方案不违反我们的道德标准时,它就是道德的。虽然我们同意任何特定的伦理原则,但我们认为算法的操作和结果应该与其利益相关者的伦理观念保持一致。我们呼吁技术界和商业界基于自己的标准来评估自己算法的伦理性,而不是钻研一个可能随环境或地理位置而变化的特定标准。技术和算法有能力帮助人类解决大的社会和环境问题。
与此同时,随着算法驱动越来越多融入我们日常生活的程序和技术,我们应该保持谨慎,避免引发新的意想不到的麻烦:我们是否花费精力来确保支配我们社会运行的伦理规范也支配算法的运行?我们是否准确评估了算法的社会影响?我们如何开发符合我们道德准则的算法?
02.当算法挑战我们的道德标准时,脸书和推特等社交平台正因推送可能通过算法加剧恐惧和动摇人心的政治广告而受到审查。在美国现代史上最致命的大规模枪击事件前夕,谷歌和脸书因转载来源可疑且含有虚假信息的未经核实的新闻报道而再次深受争议。这些平台背后的算法显然对虚假新闻的传播起到了推波助澜的作用,但我们不能责怪算法。因为他们只是完成了程序化的任务——寻找新闻,将信息以个性化的方式呈现给用户。
在一次采访中,谷歌母公司(Alphabet)董事长、用户精准推送策略的狂热支持者埃里克·埃里克·施密特(Eric Eric Schmidt)这样解释了精准(个性化)算法的演变。“个性化精准定位推送技术和力量会如此发达,以至于人们在某种程度上很难观看或消费专门为他们定制的东西。”。施密特还分享了他对改进定向算法并使其盈利的立场:“解决新闻采集收入不足的唯一方法将是提高新闻的盈利能力。据我所知,提高盈利能力的唯一方法就是定向广告。这就是我们所做的。”在他关于算法能在多大程度上帮助目标选择的评论中,显然遗漏了对创收以外的后果的考虑。
仅在几周前,当飓风Irma在9月中旬席卷佛罗里达半岛时,由于受影响的居民试图撤离高风险地区,Airline 空 Company的动态定价算法因需求上升而提高了机票价格。这是典型的航空公司空公司的做法,可能有人会说不应该因为这种做法受到惩罚。就连圣地亚哥大学哲学教授、道德、经济和公共政策中心主任马特·兹沃林斯克(Matt Zwolinsk)等学者也认为,价格随需求的动态调整是自由市场的典型特征,也是高需求物资供应和分配的理性机制。即便如此,在飓风“伊尔玛”登陆大陆之前,航空公司空公司纷纷停止了算法的运行,并对离开灾区的机票价格增加了上限。如果我们不这样做,社会影响将无法承受。
在涉及少数民族的应用场景中,算法也会跨越伦理红线,比如招聘算法、贷款审批算法、人脸识别算法等。多年前,作为一个研究项目的一部分,其中一位作者(Ruben)为一个非营利组织寻找贷款偿还的预测器,以建立小额贷款审批的算法。这样做的目的是建立一个不使用传统信用评分的模型:一个更公平的算法。最初的方案具有很好的预测能力,但当我们发现算法中使用的预测因子是我们避免使用的社会经济指标的替代指标,并且这些指标被算法用来歧视少数族裔时,项目的工作就停止了。由于美国的非洲裔在争取执法机构平等对待的斗争中面临不断的挫折,带有种族偏见的人脸识别算法会过度错误地识别少数族裔,导致无辜的非洲裔成为目标,这只会使现有的歧视模式永久化。
03.忘得又快又好:你的算法道德吗?算法导致违反伦理决定的后果,有很多例子。对于组织来说,使用未经检验(可能不道德)的算法会导致偏见的数字化,以及对有原则的道德的盲目。算法的伦理讨论对于商人、非营利组织、公民行动组织和技术专家都是必要的,而不是作为技术讨论推给工程师。我们提供五条建议来指导您的组织进行道德发展和评估所使用的算法:
1.伦理结果优先,速度和效率次之。通过算法自动化追求速度和效率的组织需要记住,客户价值来自更高的战略速度而不是运营速度。在使用算法时,组织不应该忘记他们的最终目标是创造客户价值,高效但可能不道德的算法玷污了这一目标。
2.让道德指导原则在你的组织中占据显著位置。您的组织应该反思其道德指导原则,并将这些原则清楚地传达给其员工、业务合作伙伴和客户。企业社会责任框架可以成为一个很好的起点,帮助任何组织清楚地表达道德原则。
3.雇佣精通伦理原则的程序员。负责设计和编程算法的计算机工程师应该理解他们工作的伦理内涵。即使一些道德决定看起来很直观(比如不使用算法从用户电脑中窃取数据),但大多数决定并没有那么简单。伦理研究和伦理实践探索应该融入到每一个编程项目中。
4.用你的组织的道德标准来检查你的算法。通过仔细评估算法的操作和结果,您的组织可以识别不符合道德标准的真实或模拟场景。
5.让利益相关者参与进来。与您的客户、员工和业务合作伙伴透明地分享有关您的算法及其结果的详细信息。利益相关者可以帮助你识别和解决道德差距。
算法可以成为非营利组织的资产,减少开支,提高流程效率,但也可能成为道德负担。未经审查的算法可能包含并持续固化现有的偏见和不道德的行为模式。在数字化和自动化成为标准,算法可以在没有人力的情况下完成越来越深刻的任务的时代,确保算法与组织的其他部分遵循相同的道德标准至关重要。
温馨提示:注:内容来源均采集于互联网,不要轻信任何,后果自负,本站不承担任何责任。若本站收录的信息无意侵犯了贵司版权,请给我们来信(j7hr0a@163.com),我们会及时处理和回复。
原文地址"分析算法存在的伦理问题,算法伦理与算法责任问题研究":http://www.guoyinggangguan.com/xedk/212057.html。

微信扫描二维码关注官方微信
▲长按图片识别二维码