随着人工智能应用的日益普及,对人工智能所涉及到的法律、社会、伦理和道理问题也正在成为一个越来越值得关注的话题。近日,电气和电子工程师协会(IEEE)发布了世界首个人工智能道德准则设计草案《Ethically Aligned Design》。该草案目前仍在意见征求中。
专业技术协会 IEEE 认为,有道德标准设计的人工智能系统能够造福全人类并且避免算法偏差,但是技术行业缺乏对道德的归属感和责任感已经成为阻碍它发展的一个因素。
近日,IEEE 发布了第一个框架文件版本,希望它能引导行业走向光明,并帮助技术人员建立和睦有益的自治系统,而不是认为道德与他们没有关系。
该文件称为「道德准则设计(Ethically Aligned Design)」,它基于 100 多名在人工智能、法律、伦理、哲学和政策领域工作的学术界、科学界、政府和企业部门的「思想领袖」,包括了一系列详细的建议。
IEEE 希望它能成为人工智能/自治系统(AS)技术专家的重要参考文件,因为自治技术在未来几年内会进入越来越多的系统。它也邀请了有关各方面对该文件做了反馈——IEEE 全球倡议网站(The IEEE Global Initiative』s website)有标准的提交指南模板。网站声明所有的反馈意见都将公开发布,这些反馈应不晚于 2017 年 3 月 6 日提交。
该组织更广泛的希望是能够通过创造共识和促进开发实现道德目标,为 IEEE 标准提出基于道德准则设计概念的倡议。
「通过为技术专家提供同行推动的、实用的建议,以创建符合道德标准的自治和智能的产品、服务和系统,我们可以超越与这些技术相关的恐惧,为人类的现在及将来带来有价值的福利,」IEEE 标准协会(IEEE Standard Association)常务董事 Konstantinos Karachalios 在一份声明中说。
这份 136 页的文件分为一系列章节,从一般原则开始——例如需要确保人工智能尊重人权、运作透明,以及人工智能是否为自动决策负责——然后再转到更具体的领域,例如如何将「人类准则或价值观」融入自治系统,如何解决潜在的偏见,如何达成信任,以及如何从外部评估并实现价值校正。
另一部分讨论指导伦理研究和设计的方法论——与其它问题一起(例如工科学位的常规课程不包含伦理学),在这里,技术行业缺乏对道德的所有权和责任感被认为是一个问题。IEEE 还指出实现伦理人工智能的其它问题,例如自治系统缺乏一个独立的审查组织来监督算法操作,以及在创建算法时使用「黑箱组件(black-box component)」。
IEEE 也提到,一个帮助技术行业克服道德盲点的建议是确保那些建立的自治技术覆盖「多学科和多样化的群体」,以便涵盖所有潜在的伦理问题。
它还讨论了制定「监督智能和自治技术的制造过程」的标准,以确保受众用户不被自主行为伤害。
在监督产品是否符合道德标准时,要建立「独立的国际协调机构」,并且监督应该时刻存在,无论是在产品发布时还是在其发展并与其它产品交互时。
「当构建可能影响人类安全或健康的系统时,仅仅假定系统的工作方式是不够的。工程师必须确认和评估黑箱软件所涉及的道德风险,并在可能的情况下实施应急策略,」IEEE 写道。「技术专家应该能够通过透明和可追溯的标准来描述他们的算法或系统要做什么。在我们力所能及的范围内,它应该是可预测的,但考虑到人工智能/自治系统的性质,它可能更需要具有追溯性(retrospective)和缓解导向性(mitigation oriented)。」
「类似于航空领域的飞行数据记录仪,这种算法的可追溯性能够提供导致特定可疑或危险行为的算法参考。即使这些过程仍然有些不透明,技术人员也可以寻求间接验证结果和检测危害的方法。」
它的最终结论是,因为决策过程的不透明性以及检查或验证这些结果具有困难性,工程师「只有在非常谨慎和伦理关怀」的情形下部署黑箱软件服务或组件。
文件中另一部分——有关通用人工智能的安全性和有益性——也警告说,随着人工智能系统越来越有能力,人工智能「无法预期或无意识的行为会越来越危险」,而提高安全性到通用级别会使未来的人工智能系统面临困境。
「在开发和部署日益自主和强大的人工智能系统时,研究人员和开发人员将面临越来越复杂的伦理和技术安全问题,」文件指出。
该文件还涉及到对由个人数据支持的人工智能系统固有的不对称性——从这个角度讲,该技术获得的收益不是平均分配的。
「人工智能和自治系统(AI/AS)驱动了算法经济,它们可以广泛访问我们的数据,但我们仍然与这个来源于生活发现的收益相脱离,」它提到。
「为了解决这种不对称性,人们有必要定义、访问和管理他们的个人数据,作为他们个人身份信息的管理人。关于收集个人信息的类型,还需要定义新参数加以规范。未来应建立对有限具体数据交换的知情权和同意权机制,而不是长期牺牲信息资产。」