CA168首页 > 自动化信息 > 综合信息 > 信息详情

阿西洛马人工智能原则

发布日期:2017-08-03 作者:网络
       人工智能应用于个人数据不应侵犯任何人的隐私、自由或安全。如果有什么问题,人们需要确定产生这些问题的原因和方式,设计师和制定者在使用或误用系统中要承担在一定的道德责任。

       科学家们列出了清单,着眼于潜在的长期问题,包括未来发展这一重要技术平衡资源分配,但要规划和减轻人工智能系统可能会面对的风险,特别是灾难性的或存在的风险。
 
       为此,安全控制措施应适用于AI,可以改善自身技术,阻止剧本里世界末日的发生,而在一般情况下,“超智只应服务于广泛共享的伦理理想的发展,并为全人类利益而不是一个国家或组织的利益。”


       阿西洛马人工智能原则
 
       科研问题
       1)研究目的:人工智能研究的目标,应该是创造有益(于人类)而不是不受(人类)控制的智能。
 
       2)研究经费:投资人工智能应该有部份经费用于研究如何确保有益地使用人工智能,包括计算机科学、经济学、法律、伦理以及社会研究中的棘手问题,比如:
 
       • 如何使未来的人工智能系统高度健全(“鲁棒性”),让系统按我们的要求运行,而不会发生故障或遭黑客入侵?
 
       •如何通过自动化提升我们的繁荣程度,同时维持人类的资源和意志?
 
       •如何改进法制体系使其更公平和高效,能够跟得上人工智能的发展速度,并且能够控制人工智能带来的风险?
 
       •人工智能应该归属于什么样的价值体系?它该具有何种法律和伦理地位?
 
       3)科学与政策的联系:在人工智能研究者和政策制定者之间应该有建设性的、有益的交流。
 
       4) 科研文化:在人工智能研究者和开发者中应该培养一种合作、信任与透明的人文文化。
 
       5)避免竞争:人工智能系统开发团队之间应该积极合作,以避免安全标准上的有机可乘。
 
       伦理和价值
 
       6) 安全性:人工智能系统在它们整个运行过程中应该是安全和可靠的,而且其可应用性的和可行性应当接受验证。
 
       7) 故障透明性:如果一个人工智能系统造成了损害,那么造成损害的原因要能被确定。
 
       8)司法透明性:任何自动系统参与的司法判决都应提供令人满意的司法解释以被相关领域的专家接受。
 
       9)责任:高级人工智能系统的设计者和建造者,是人工智能使用、误用和行为所产生的道德影响的参与者,有责任和机会去塑造那些道德影响。
 
       10)价值归属:高度自主的人工智能系统的设计,应该确保它们的目标和行为在整个运行中与人类的价值观相一致。
 
       11)人类价值观:人工智能系统应该被设计和操作,以使其和人类尊严、权力、自由和文化多样性的理想相一致。
 
       12)个人隐私:在给予人工智能系统以分析和使用数据的能力时,人们应该拥有权力去访问、管理和控制他们产生的数据。
 
       13)自由和隐私:人工智能在个人数据上的应用不能允许无理由地剥夺人们真实的或人们能感受到的自由。
 
       14)分享利益:人工智能科技应该惠及和服务尽可能多的人。
 
       15) 共同繁荣:由人工智能创造的经济繁荣应该被广泛地分享,惠及全人类。
 
       16)人类控制:人类应该来选择如何和决定是否让人工智能系统去完成人类选择的目标。
 
       17)非颠覆:高级人工智能被授予的权力应该尊重和改进健康的社会所依赖的社会和公民秩序,而不是颠覆。
 
       18)人工智能军备竞赛:致命的自动化武器的装备竞赛应该被避免。
 
       更长期的问题
 
       19)能力警惕:我们应该避免关于未来人工智能能力上限的过高假设,但这一点还没有达成共识。
 
       20)重要性:高级人工智能能够代表地球生命历史的一个深刻变化,人类应该有相应的关切和资源来进行计划和管理。
 
       21)风险:人工智能系统造成的风险,特别是灾难性的或有关人类存亡的风险,必须有针对性地计划和努力减轻可预见的冲击。
 
       22)递归的自我提升:被设计成可以迅速提升质量和数量的方式进行递归自我升级或自我复制人工智能系统,必须受制于严格的安全和控制标准。
 
       23)公共利益:超级智能的开发是为了服务广泛认可的伦理观念,并且是为了全人类的利益而不是一个国家和组织的利益。
 
[信息搜索] [] [告诉好友] [打印本文] [关闭窗口] [返回顶部]
0条 [查看全部]  网友评论

视觉焦点