谷歌发布AI七原则,不开发伤人武器,但没说不介入战争

谷歌发布AI七原则,不开发伤人武器,但没说不介入战争

大数据文摘出品

编译:大数据文摘编辑组

扛不住闹得沸沸扬扬的“参与军方Maven项目”事件带来的多方压力,谷歌这周先是表明将在明年终止与美国国防部的Maven合同,今天又忙不迭发表了一份评估AI应用的原则。

谷歌CEO Sundar Pichai在推特上转发并评论说:“我们将我们的AI原则和实践分享给大家。AI的开发和使用方式将在未来很多年里持续带来重大影响。我们感到了强烈的责任感,要把这件事做好。”

谷歌发布AI七原则,不开发伤人武器,但没说不介入战争

事情是这么开始的:今年3月份,谷歌被曝出正参与Maven项目,内容是向国防部提供TensorFlow APIs和先进的计算机视觉技术,帮助军方识别和检测无人机摄像头中的车辆和其他物体,减轻分析人员的负担。

这一举措很快就遭到了各种人士的反对,谷歌上千名员工还签署了联名信抗议。

不过,谷歌今天发布的AI原则里,并没有员工之前上书时要求谷歌承诺的条款:永远不开发战争相关技术。

谷歌的说法是,不将AI用于武器或其他直接伤害人类的技术。但是对于存在伤害风险的技术,谷歌会做个评估,如果收益大大超出风险的话,还是会执行。

当然,有原则总比没有好。

谷歌AI七原则全文

AI,说到底,是可以学习和改进的计算机程序。它不能解决所有问题,但它可以大大改善我们的生活。在谷歌,我们使用AI来使产品更加有用:从无垃圾的电子邮件到猜出你下一句要打什么字,到可以自然对话的数字助手,以及弹出有趣东西的照片。

除了我们的产品,我们正在使用AI来帮助人们解决紧急问题。一些高中生正在构建AI驱动的传感器来预测野火的风险,农民正使用AI来监测牛群的健康状况,医生开始使用AI来帮助诊断癌症并防止失明。

谷歌大力投资人工智能研究和开发,并通过我们的工具和开源代码使其他人可以广泛使用人工智能技术,正是由于以上原因。

伴随强大技术的,就是对如何使用技术的疑问。人工智能如何开发和使用将会对未来多年的社会产生重大影响。作为人工智能领域的领导者,我们深感责任重大。

所以今天,我们宣布七项原则来指导我们今后的工作。这些不是理论概念,而是具体的标准,将积极主导我们的研究和产品开发,并会影响我们的业务决策。

我们承认,这个领域是动态的和不断发展的,我们将保持谦逊的态度,保持对内部和外部参与的承诺,保持不断调整我们的方法的决心。

AI应用程序的原则

我们将基于以下原则评估AI应用程序。我们相信AI应该:

1.对社会有益

新技术的应用范围越来越广,越来越接触整个社会。人工智能的进步将对包括医疗保健,安全,能源,运输,制造和娱乐在内的广泛领域内产生变革性影响。当我们考虑AI技术的潜在发展和应用时,我们将考虑范围广泛的社会和经济因素,并在我们认为总体上收益大大超过可预见的风险和缺点的情况下继续我们的工作。

人工智能还增强了我们大规模理解内容的能力。我们将努力使用AI来随时提供高质量且准确的信息,同时继续尊重我们运营所在国家的文化,社会和法律准则。我们将继续深思熟虑地评估何时使我们的技术在非商业基础上可用。

2.避免制造或加强不公平的偏见

人工智能算法和数据集可以反映,加强或减少不公平的偏见。我们认识到,区分公平和不公平的偏见并不总是很简单,并且在不同的文化和社会中是不同的。我们将努力避免对人们造成不公正的影响,特别是与种族,民族,性别,国籍,收入,性取向,能力以及政治或宗教信仰等敏感特征有关的人。

3.建立并测试安全性

我们将继续开发和应用强大的安全保护措施,以避免造成伤害风险的意外结果。我们将使我们的人工智能系统保持适当谨慎,并根据人工智能安全研究的最佳实践寻求开发它们的方式。在适当的情况下,我们将在受限环境中测试AI技术,并在部署后监控其操作。

4.对人负责

我们将设计AI系统使之为反馈,相关解释和上诉提供适当的机会。我们的AI技术将受到适当的人类指导和控制。

5.结合隐私设计原则

我们将把我们的隐私原则纳入我们的人工智能技术的开发和使用中。我们将给予通知和同意的机会,鼓励具有隐私保护的架构,并提供适当的透明度和对数据使用的控制。

6.坚持科学卓越的高标准

技术创新植根于科学方法和对开放式调查、智力严谨、诚信和合作的坚持。人工智能有潜力在生物学,化学,医学和环境科学等关键领域开拓科学研究和知识的新领域。在促进人工智能发展的过程中,我们追求科学卓越的高标准。

我们将与一系列利益相关者合作,以科学严谨的、多学科的方式来促进这一领域的深思熟虑的领导力。我们将通过发布教育材料、最佳实践和研究来负责任地分享人工智能知识,使更多人能够开发有用的人工智能应用。

7.考察技术的用途

许多技术都有多种用途。我们将努力限制潜在的有害或滥用的应用。随着我们开发和部署人工智能技术,我们将根据以下因素评估可能的用途:

  • 主要的目的和用途:技术和应用的主要目的和可能使用方式,包括解决方案与有害使用的关系或适应性。
  • 性质和独特性:我们是否提供独特的或更普遍的技术。
  • 规模:该技术的使用是否会产生重大的影响。
  • 谷歌参与的性质:我们是提供通用工具,为客户集成工具,还是开发自定义解决方案。

这些AI应用我们不会去触及

除了上述的目标,我们不会在以下应用领域设计或部署AI:

1.造成或者可能造成整体伤害的技术。如果一项技术存在重大伤害风险,我们只会在其收益大大超过风险的情况下进行,并且会提供适当的安全措施。

2.武器或其他用于直接伤害人类的技术。

3.违反国际规范收集或使用信息进行监视的技术。

4.违反了被广泛接受的国际法和人权原则的技术。

我们希望明确的是,虽然我们没有开发作为武器的AI,但我们将继续与政府和军队在许多其他领域开展合作,包括网络安全,培训,军人招募,退伍军人医疗保健和搜救。这些合作非常重要,我们将积极寻找更多方法来加强这些关键工作,保证服务人员和平民的安全。

AI的长期发展

这是我们对待人工智能的方法,但我们知道在这场讨论中还有许多其他的声音。随着人工智能技术的进步,我们会和一系列利益相关者合作,并采用科学严谨的、多学科的方法,推动这一领域的思想进步。我们也会继续分享我们所学到的知识,来改进AI技术和实践。

我们相信这些原则是谷歌和AI未来发展的正确基础。这与我们一开始在2004年发布的价值观相一致。我们在此明确表示我们更看重AI的长远发展,即使这意味着我们需要做出短期的权衡。我们那时是这样说的,现在也还这样相信着。

相关报道:

https://www.blog.google/topics/ai/ai-principles/

本文为专栏文章,来自:大数据文摘,内容观点不代表本站立场,如若转载请联系专栏作者,本文链接:https://www.afenxi.com/55933.html 。

(0)
上一篇 2018-07-22 11:16
下一篇 2018-07-25 07:26

相关文章

关注我们
关注我们
分享本页
返回顶部