时间: 2021-08-03 10:05:11 人气: 5 评论: 0
人工智能是一项了不起的技术,它正在以不可思议的方式改变世界。如果你看过电影《终结者》,肯定知道先进的人工智能技术蕴含一些危险。
正因如此,伊隆·马斯克(Elon Musk)、史蒂芬·霍金(Stephen Hawking)才连同另外数百名研究人员、科技领袖和科学家联名支持人工智能应该在生产力、道德和安全领域遵守的23条基本原则。
在未来生活研究院(Future of Life Institute)组织数十名专家共同参加Beneficial A.I. 2017大**之后,便正式发布了《艾斯罗马人工智能23定律》(Asilomar A.I. Principles)。这些专家包括机器人学家、物理学家、经济学家、哲学家,他们对人工智能在安全、经济和道德等领域产生的影响展开了激烈辩论。要让这套定律最终获得通过,必须获得多达90%的与**专家认可。
“我们起草了23条定律,范围从研究战略到数字权益,再到可能出现的**级智能等未来的各种问题。认可这些定律的专家已经在上面签下自己的名字。”未来生活研究院网站写道,“这些定律并不全面,显然也可以有不同的解读,但它也凸显出一个问题:目前围绕许多相关问题开展的很多‘默认’行为,可能**破坏在多数与**人员看来十分重要的原则。”
共有892名人工智能或机器人研究人员以及另外1445名专家在这份定律上签字,包括特斯拉CEO马斯克和著名物理学家霍金。
其中一些定律(例如透明度和共享研究成果)实现的可能性较低。即便这些定律无法得到全面落实,但这23条定律仍然可以改进人工智能开发过程,确保这些技术符合道德标准,避免邪恶势力崛起。
人工智能研究目标不能不受约束,必须发展有益的人工智能。
人工智能投资应该附带一部分专项研究基金,确保其得到有益的使用,解决计算机科学、经济、法律、伦理道德和社**研究方面的棘手问题:
人工智能研究人员应该与政策制定者展开有建设性的良性交流。
人工智能研究人员和开发者之间应该形成合作、互信、透明的文化。
人工智能系统开发团队应该主动合作,避免在安全标准上出现妥协。
人工智能系统应当在整个生命周期内确保安全性,还要针对这项技术的可行性以及适用的领域进行验证。
如果人工智能系统引发破坏,应该可以确定原因。
在司法决策系统中使用任何形式的自动化系统,都应该提供令人满意的解释,而且需要由有能力的人员进行审查。
对于先进的人工智能系统在使用、滥用和应用过程中蕴含的道德意义,设计者和开发者都是利益相关者,他们有责任也有机**塑造由此产生的影响。
需要确保高度自动化的人工智能系统在运行过程中秉承的目标和采取的行动,都符合人类的价值观。
人工智能系统的设计和运行都必须符合人类的尊严、权利、自由以及文化多样性。
人类应该有权使用、管理和控制自己生成的数据,为人工智能赋予数据的分析权和使用权。
人工智能在个人数据上的应用决不能不合理地限制人类拥有或理应拥有的自由。
人工智能技术应当让尽可能多的人使用和获益。
人工智能创造的经济繁荣应当广泛共享,为全人类造福。
人类应当有权选择是否及如何由人工智能系统制定决策,以便完**类选择的目标。
通过控制高度先进的人工智能系统获得的权力,应当尊重和提升一个健康的社**赖以维继的社**和公民进程,而不是破坏这些进程。
应该避免在自动化致命武器上开展军备竞赛。
目前还没有达成共识,我们应该避免对未来人工智能技术的能力上限做出强假定。
先进的人工智能代表了地球生命历史上的一次深远变革,应当以与之相称的认真态度和充足资源对其进行规划和管理。
针对人工智能系统的风险,尤其是灾难性风险和存在主义风险,必须针对其预期影响制定相应的规划和缓解措施。
对于能够通过自我完善或自我复制的方式,快速提升质量或增加数量的人工智能系统,必须辅以严格的安全和控制措施。
**级人工智能只能服务于普世价值,应该考虑全人类的利益,而不是一个国家或一个组织的利益。
作者:AI世代
来源:http://tech.qq.com/a/20170207/031641.htm
版权:人人都是产品经理遵循行业规范,任何转载的稿件都**明确标注作者和来源,若标注有误,请联系主编**:419297645