除了拼技术,谷歌、微软、IBM都争相给AI搞价值观

2018-06-07 21:51      腾讯研究院 未来科技范


  【未来科技范 报道】6月7日消息, 最近,谷歌放弃与美国军方续签一份涉及军事AI的合同,并承诺提出军事AI伦理原则。据媒体报道谷歌内部对与军方的合作争论非常激烈,知名科学家李飞飞就曾极力反对AI用于武器。

0 (2).jpg

  事实上,人工智能进入人类世界,没有人可以独善其身。除了谷歌,微软、IBM、Sage、SAP、百度等科技公司亦争相提出了其自己的AI原则,甚至成立AI伦理委员会,来舒缓外界对新兴技术的担忧,表明其发展AI的立场和态度。

  凡此种种表明,在全球AI争霸赛场上,除了技术研发和应用,建立AI价值观已成为新赛道。

  正如作者所言,“如果我们追问科技何以向善,答案必然不在技术创新本身。因为技术创新自身并不能保证广泛的社会进步。”

  从基辛格的忧虑说起

  最近,95岁高龄的基辛格在《大西洋报》上刊发了一篇长文《启蒙主义是如何终结的》(How the Enlightenment Ends),阐发他本人对人工智能的看法。[1]用他的话来说就是,面对人工智能的兴起,人类社会在哲学、理智等各方面都还没有准备好。

  他回顾历史发现,15世纪印刷术的发明极大改变了近现代历史进程,实证的知识代替了宗教的学说,理性时代逐渐取代了宗教时代。个人见解和科学知识取代信仰,成为了人类意识的首要标准。理性时代产生的思想和行动塑造了当代世界秩序。

  然而,人工智能等技术变革正在冲击这一秩序,因为我们无法完全预料这些技术的影响,而且这些技术可能最终导致我们的世界所依赖的各种机器为数据和算法所驱动且不受伦理或哲学规范约束。

  基辛格的担忧不无道理。大数据和人工智能算法在我们的社会中扮演着越来越重要的角色:参与交易、诊治疾病、辅助司法和执法、推荐个性化内容和物品,等等。

  可以说,算法在塑造我们的文化,塑造我们所听所见,塑造我们的生活,无论人们是否意识到这些变化。算法社会已然成为现实。

  然而,人们担心一个在“黑盒”中运行的算法社会在“不可解释和不可理解”的帷幕之后固化或者加剧社会不公平。

  科技公司探寻人工智能价值观

  面对社会公众的担忧和质疑,科技公司并未无动于衷,早已开始思考人工智能技术及其应用的社会经济和人类健康影响,并采取措施确保人工智能有益于、造福于个人和社会,最终目的是希望人工智能在人类社会中扮演一个积极的角色,而非一个破坏者的角色。

  科技公司的举措主要体现在以下三个方面。

  其一,积极拥抱AI伦理与社会研究。

  如今,AI领域的一个重要的风向标就是,AI研究不仅关乎技术,更关乎技术的伦理与社会影响。跨学科、跨领域的研究在AI领域正成为一个显著的趋势。

  华人AI科学家李飞飞是主要倡导者之一,她认为现在是时候把AI与社会科学、人文科学结合起来,研究AI对社会、法律体系、组织、民主系统、教育和道德的深远影响。[2]这是科技企业负责任研发与创新(responsible research and innovation)的体现。

  其二,提出人工智能价值观。

  AI研发和应用需要遵循什么样的伦理和价值原则,是各界都在努力探索的话题。

  欧盟、英国等致力于达成国家层面、地区层面和国际层面的人工智能伦理准则,FLI(即未来生命研究所,主导提出了“阿西洛马人工智能原则”)、IEEE等希望推动行业层面的人工智能伦理共识,谷歌、微软等科技公司则纷纷提出企业层面的人工智能价值观以赢得公众和公众的信任。

  其三,成立AI伦理委员会。

  对于科技公司而言,宣布成立AI伦理委员会似乎是应对人工智能带来的各种负面问题的最轻易做法。然而,能够在AI研发和应用中发挥价值,才是AI伦理委员会的最大价值,而这需要行业共识,比如行业最佳实践。

  科技向善更在技术之外

  对于这一波AI发展浪潮,DeepMind起到了导火索的作用。

  从击败世界顶级围棋棋手李世石的AlphaGo,到举世无对手的Master,再到不依靠任何人类经验就能击败AlphaGo的AlphaGo Zero和无师自通掌握多种棋类游戏的AlphaZero,DeepMind在短短一两年时间让深度学习、人工智能等概念家喻户晓。再加上一些名人的大胆预言和众多媒体的各种炒作,社会公众的焦虑情绪一时间被引爆了。对新技术的担忧和疑虑再一次成为社会各界共议的话题。

  随着其AI技术的应用从游戏领域延伸到医疗等产业领域,被谷歌高价收购的DeepMind在应对AI的伦理与社会影响上并未无动于衷。

  2017年10月3日,DeepMind宣布成立人工智能伦理与社会部门(DeepMind Ethics& Society),目的在于补充、配合其AI研发和应用活动。[3]

  DeepMind认为,AI必须遵循最高的伦理标准以实现其对世界的巨大好处。技术并非中立,没有价值观。技术人员必须负责任地应对其技术研发和应用活动的伦理和社会影响。

  如果我们追问科技何以向善,答案必然不在技术创新本身。因为技术创新自身并不能保证广泛的社会进步。

  这部分地解释了为什么DeepMind成立这个新部门。新部门身兼双重目的:一方面,帮助技术人员将伦理付诸实践;另一方面,探索人工智能的现实世界影响并帮助社会预测、控制人工智能的影响,以便人工智能技术能够兼顾每个人的利益。新部门确定了五大核心原则和六大研究主题,如下图所示。

  核心原则

  研究主题

  社会福祉:AI应服务于全球的社会和环境福祉,帮助建设更公平、更平等的社会,被用来改善人们的生活并将他们的权利和福祉置于核心位置。

  隐私、透明与公平:比如在利用数据过程中如何平衡个人与社会,如何理解并应对AI系统和数据中的偏见,AI系统需要什么形式的透明性,等等。

  严格与循证:当研究AI的社会影响时,DeepMind致力于维持最高的学术标准。

  经济影响:包容与平等:比如AI对劳动力市场的影响,AI将如何影响社会中不同经济群体的收入从而影响社会不平等,如何预测AI的社会和经济影响并作出回应。

  透明与开放:DeepMind始终对合作伙伴和所资助的项目保持透明,绝不试图影响或预先决定所资助的研究的结果。

  治理与可责性:比如如何确保私营部门使用AI符合公共利益,如何跟上AI技术发展步伐,如何规制AI,AI系统需要什么样的安全标准。

  包容与跨学科:DeepMind力图在研究中反映最广泛的声音,融合不同学科以便囊括多元的视角;DeepMind承认AI带来的问题不限于技术领域,且只有尽力吸纳不同的意见和知识才能被解决。

  管理AI风险:滥用和意想不到的后果:AI系统可能具有产生意外后果或失灵的风险,可能被用于不道德的目的,因此需要研究AI可能带来的新的社会风险,如何规制完全自主武器,如何以安全且道德的方式实施AI。

  合作与包容:作为有望影响全社会的技术,AI必须对全社会负责并由全社会塑造;DeepMind致力于支持关于AI的公共和学术对话,通过在研发人员和为新技术所影响的人之间建立持续性合作来确保AI对所有人有益。

  AI道德与价值:比如如何确保AI作出的推荐或决定符合伦理规范和价值,如何将人类价值嵌入AI系统。

  AI和世界的复杂挑战:AI技术可被用来帮助人们解决气候变化、医疗保健等全球性难题,这需要各方共同努力。

  人工智能价值观引领技术创新及应用

  相比谷歌和DeepMind的务实,微软的务虚成分更多一些,但至少表明了其发展人工智能的立场和态度。

  如前所述,基辛格认为需要一套伦理和价值体系来约束人工智能的发展,某种程度上代表了各界的共识。微软则从企业层面践行这一思路。虽然微软采取了多种方式对外阐释其人工智能原则,但这些原则具有内在的统一性,具体如下图所示。

  微软

  2016年,微软CEO纳德拉提出6项AI原则:AI必须被设计来辅助人类;AI必须是透明的;AI必须在最大化效率的同时,尊重人类尊严;AI必须被设计来实现智能化的隐私保护;AI必须具有算法可责性,以便人们可以弥补意外出现的损害;AI必须防止偏见,确保恰当、有代表性的研究,以便错误的启发法不被用来歧视。[4]

  微软AI部门(Microsoft AI)认为,人工智能技术应当遵循4项原则:(1)公平,人工智能必须在最大化效率的同时维护人的尊严并防止歧视;(2)可责性:AI必须具有算法可责性;(3)透明:AI必须是透明的;(4)伦理:AI必须辅助人类,并实现智能化的隐私保护。[5]

  2018年1月,微软发布《计算化未来:人工智能及其社会角色》(The Future Computed: Artificial Intelligence and its role in society)一书,阐发6项AI原则:(1)公平,AI系统应当公平对待每个人;(2)可靠性,AI系统必须安全可靠地运行;(3)隐私,AI系统必须尊重隐私;(4)包容性,AI系统必须赋能每一个人并使人们参与其中;(5)透明,AI系统必须是可理解的;(6)可责性,设计、应用AI系统的人必须对其系统的运行负责。[6]

  在微软之外,其他科技公司如IBM、Sage、SAP、百度等亦提出了其自己的AI原则。就在最近,谷歌放弃与美国军方续签一份涉及军事AI的合同,并承诺提出军事AI伦理原则。[7]

  然而,国内外关于人工智能伦理原则的探索在某种程度上是割裂的和分散的,不足以形成广泛的行业共识和最佳实践。将科技公司各自自发形成的AI原则转变为行业广泛认可的共识并用以形成对AI创新及应用的伦理约束,AI价值观才能发挥其作用。

  AI伦理委员会能干啥?

  AI伦理委员会并不是一个新概念。早在谷歌收购DeepMind之时,其就承诺建立一个AI伦理委员会(AI ethics board)。然而在那之后,这一委员会就始终是一个谜团,无论是谷歌还是DeepMind都从未对外披露过关于这个委员会的一丁点信息。

  因此,对于这个委员会所可能发挥的作用,人们几乎一无所知。对互联网行业和社会公众而言,所谓的AI伦理委员会似乎就是一个鸡肋。

  微软在其《计算化未来:人工智能及其社会角色》一书中透露其已经成立了一个AI伦理委员会AETHER(AI andEthics in Engineering and Research Committee),确保将其奉行的6项AI原则融入AI研发和应用。

  据其说法,这个委员会作为微软的内部机构,囊括了工程、研究、咨询、法律等部门的专家,旨在积极推动形成内部政策并应对潜在的问题。

  该AETHER委员会的主要职责是,制定能够作用于微软AI产品和方案之研发和应用的最佳实践和指导原则,帮助解决从其AI研究、产品和用户互动中产生的伦理和社会问题。

  然而除此之外,没有关于该委员会的其他信息。不透明似乎为AI伦理委员会的鸡肋性质多增加了一重原因。

  但据报道,今年4月微软曾出于伦理方面的考虑而放弃了一些潜在的交易。之所以放弃这些交易,可能是因为负责审查潜在滥用的AETHER委员会起了作用。这似乎表明AETHER委员会会基于个案进行伦理审查。

  今年5月,在经历了引起轩然大波的数据泄露丑闻之后,Facebook宣布成立AI伦理团队,负责防止其AI软件中的歧视。从其官网可以发现,Facebook正在招聘AI政策、伦理、法律等方面的人员,表明其开始重视AI伦理相关的工作。

  凡此种种表明在AI技术研发和应用之外,AI伦理已经成为科技公司的主要关切之一。一方面在加强AI伦理相关的研究,另一方面通过AI伦理委员会对AI技术、产品和应用形成伦理约束。与此同时通过对外传递其AI价值观树立良好形象。

  虽然AI伦理委员会多少带着秘密的色彩,但这不是共识性问题,而是最佳实践问题。

  共同塑造人工智能的社会角色

  有人认为以机器学习和深度学习为代表的AI技术已经迎来瓶颈,新的AI寒冬将到来,但从各国对AI的重视程度来看,这一波AI浪潮的巨大价值还远没有实现,AI技术的产业化正待加强。在AI技术的加持下,我们正在步入机器人社会。

  人们常常提及人工智能的学习能力、自主能力和适应能力。这意味着从人机交互的层面来看,用纯粹的被动工具来刻画人工智能已经不恰当了,至少已经不能完全涵盖人工智能了。

  在这个意义上,我们需要积极塑造人工智能的社会角色,使其效益最大化,威胁最小化。因为人工智能的滥用和意外后果可能威胁数字的、物理的和政治的安全。

  总之,人工智能进入我们的世界,参与人类社会事务,没有人可以独善其身。因此,需要社会各界共同塑造其社会角色,以共同分享其好处,防范其危险。

  政府、企业、社会机构、行业组织、社会大众等社会各界需要共同参与,在这样一种多利益相关方的模式之上,人们才能最大程度地理解并控制人工智能的伦理和社会影响,在人类社会进步和技术创新之间实现协同效应。

相关阅读