美国率先提出军用人工智能伦理原则

AI人工智能 2019-11-11 16:30117未知admin

  随着人工智能技术的巨大成功并开始在军事领域广泛应用,人们担心它会导致“机器杀人”的惨剧出现。著名天体物理学家斯蒂芬·霍金对人工智能充满期待,同时也对它的开发应用满怀担忧:“有益的人工智能可以扩大人类的能力和可能性,但失控的人工智能很难被阻止。所以,在开发人工智能时必须保证符合道德伦理与安全措施的要求。”10月31日,美国国防创新委员会率先推出《人工智能原则:国防部人工智能应用伦理的若干建议》,这是对军事人工智能应用所导致伦理问题的首次回应。

  美国国防创新委员会的这份报告为美国国防部在战斗和非战斗场景中设计、开发和应用人工智能技术,提出了“负责、公平、可追踪、可靠、可控”五大原则。

  “负责”原则的主要含义是,人工智能是人的产物,人是能动的、具有个人价值观和情感好恶的责任主体。人工智能技术的决策者和开发专家,必然要体现人的主体作用,他们理所当然应该为自己的决定和行为造成的结果负责。在军事应用中,因为造成的后果可能具有毁灭性,所以,“负责”成为第一原则。

  “公平”原则是指,对人而言,不同领域、不同职级的所有人在人工智能面前是平等的,不应有区别对待。人工智能系统应无差别地向人机界面提供它的处理结果,依据结果作出判断、采取行动,机会也是公平的。

  “可追踪”原则的含义是,不管是纯技术过程还是人机交互过程,人工智能系统都必须是可追溯和可审计的。人工智能系统要如实记录生成决定的整个过程和系统所作的决定,包括数据收集、数据标记以及所用算法等,不仅要确保其数据和系统的透明度,而且要确保其数学模型的透明度。

  “可靠”原则指的是,人工智能系统在使用过程中对使用者而言是安全、可靠和不作恶的。

  “可控”原则要求,不管人工智能系统的功能如何强大、技术如何发展,它的作用和能力应该永远置于人的控制之下。美军在伊拉克战场上使用的智能机器人就有失控向己方开火的先例。落实“可控”原则,就要严格限定对人工智能的授权,同时要加强对技术失误的警惕、督查和检验。

  为了贯彻以上军用人工智能伦理原则,美国国防创新委员会提出了若干条建议,可以归纳为以下4个方面的举措。

  一是通过国防部官方渠道将这些原则正式化。《人工智能原则:国防部人工智能应用伦理的若干建议》是全球第一个完整描述军事人工智能伦理原则的文件。美国国防创新委员会是一个独立的联邦顾问委员会,成员包括来自谷歌、脸书、微软等科技企业的高管和专家。这一组织虽然在形式上是一个民间组织,但其功能是为国防部高层领导提供建议。其提出的军用人工智能原则,虽然并不自动成为美国国防部的原则,但成为美国国防部认可标准的概率是很大的。

眼爆科技 Copyright © 2002-2017 深圳眼爆智能科技有限公司 版权所有 备案号:* 本站资源来自互联网,我们转载的目的是用于学习交流与讨论,如果您认为我们的转载侵犯了您的权益,请与我们联系(Email:gm@ybbtb.com),我们将在3个工作日内删除相关内容。

邮箱地址:gm@ybbtb.com