陪伴孩子们嬉戏的智能机器人
英国科研工作者不久前开发出一款命名为“智能机器人”的软件系统,能让59.3%的测试者将其误判为真实的人类。据研制者罗洛·卡朋特推断,该系统“或许为研制新一代智能机器带来了契机”。(据光明日报9月19日“科技天地”版报道)
如果说,人类的终极目标是使冰冷的机器成为设身处地为人类“着想”的“助手”,那么,英国科学家的成果只仅仅迈出了万里长征的第一步。因为“说”是一回事,“做”却是另一回事。
社会事务的纷繁复杂,必将在具体行动中暴露出这种片面、抽象的对话方式的不足。目前,信息技术的发展已经可以实现机器人的多元选择,即由机器人根据其软件内的伦理规约,决定诸如排名先后、利益多寡、评价正负等问题。相信不久的将来,机器人就可以具备相当水平的道德决策能力。但是,机器人的决策是一个纯粹的伦理程序输出过程,机器人本身无法像人一样批判地分析问题、创造性地提出建议,这就可能导致处理方式的过分僵化和人文关怀的缺失,从而造成不必要的损失。
要解决人工智能面临的伦理瓶颈,就必须一切从实际出发,建立符合伦理精神的人工智能。辩证法与形而上学的一个根本区别就在于,将实践的观点纳入视野,在实践的基础上历史地、发展地看待问题,得出客观公允的结论。历史告诉我们,即便是同一个社会环境下的伦理准则,也会随着文明的更新和时间的推移发生质的改变;即便是没有任何争议的伦理禁制,也常常由于事出有因或别有隐情而情有可原。因此,要想让机器人拥有近似人类的思维逻辑,就必须从人性出发,而不是从伦理教材的金科玉律出发,研究人在面对具体问题时的思考角度和思维突破口,唯此,才能发现人类道德进化的规律,才能模拟人类创新思维的路径,才能形成高仿真度的推断程序,从而实现决策内容的辩证,使机器人成为“含有人类感情”的道德决策者。