人工智能机器人会无情地追求自己的目标,从人类的角度看可称之为失控,对于智能机器人而言,它只不过将算法所赋予的能力发挥到极点,而那些失去“理性”的智能机器人很有可能变成人类的杀手,与我们战斗到死。
霍金:机器人可能“比我们聪明”
7月6日信息,据媒体报道,著名物理学家斯蒂芬•霍金出席了美国HBO频道的“LastWeekTonight”节目,并与主持人约翰•奥利弗展开了深刻而有意义的对话,并认为机器人可能“比我们聪明”。
当奥利弗问及霍金他最希望人们能够理解什么事情时,霍金回答说:“虚时间(imaginarytime)。”他说道:“虚时间就像是宇宙空间中的另一个方向,这是我的作品中还未被科幻小说家使用过的一则假说。”
说实话,尽管所有的科幻小说只是在科学家的作品中加入了血和性等元素,那为什么没有科幻小说作家在虚时间的基础上创作故事呢?霍金说道:“他们不理解虚时间。”
当然,笔者也不能假装理解什么是虚时间。无论如何,它是一种与时间有关的东西,与每天侵蚀我们的时间朝着不同的方向运行。
不过,奥利弗最希望了解的是人工智能。与众多人工制成品一样,人工智能对人类而言也可能是有害,甚至是致命的。
霍金对此非常肯定:“人工智能在并不遥远的未来可能会成为一个真正的危险。”但肯定不是在谷歌那群好男孩的掌握之下吗?霍金认为,这或许将与谷歌那些好男孩的想法无关。因为一般的机器人可以“进行设计改进它自己,使得它们自己比我们所有人都更聪明。”
奥利弗继续问道:“那为什么我不应该为能够与机器人战斗而感到兴奋呢?”霍金给出的回答很干脆:“你会输掉。”
奥利弗开始担心之前根本不是霍金在与他谈话,而有可能是一个充满智慧的计算机在同他问答。霍金回答说:“你是个白痴”。
但这难道不是人类的本质吗?尽管我们认为我们什么都知道,至少当我们对自己诚实时,我们最清楚的一件事就是——我们都是傻瓜。我们所不知道的要远远超过我们所做到的。
事实上,考虑到世界上可能有很多平行宇宙,奥利弗怀疑是不是在某个平行宇宙里,他可能会比霍金聪明。“是的,”霍金回答道,“而且还有一个宇宙,在那里你很有趣。”
“杀人机器人”很快会出现
国际人权组织“人权观察”就是其中之一,2012年11月他们联合美国哈佛大学发表了一份报告,呼吁国际间禁止研发全自动武器系统。这种可以在不受人类操纵的情况下对目标自行发动攻击的武器,也被称作“杀人机器人”。
巧合的是,就在这份报告发布3日后,美国国防部发布了一份关于“全自动武器系统”的指令,据英国《卫报》12月3日报道,指令指出,这种系统一旦激活,即可自行选择和处理目标而不需要任何人的操控。同时将建立相关政策,分配开发和使用自动或半自动武器系统的人的责任。
事实上,这已经不是美军第一次讨论这种武器的可能性,早在2004年美国国防部就已经给研发者亮了绿灯。总的来说,美国国防部希望的是最彻底的实验,从研发到使用到操作者的培训,并确保适用法律的配套,而且确保有人类电脑终端能结束错误任务。当然他们也反复强调了建立有关政策防止任何可能出现的错误而导致系统的失控。
人工智能会否成为杀人武器
全自动武器系统若要有一定的自行判断能力,就要以人工智能为基础。但随着人工智能的发展,出现杀人机器人的担忧会越来越多,甚至人们也会担心用于其他地方的服务型机器人也可能因为某些错误的出现而导致安全问题。尤其是当人工智能越来越接近人类的智力,甚至拥有了类人的情感。
在专业领域内,一些专家将机器人学和人工智能看做是两个独立的学科。美国计算机科学教材系列《人工智能》作者提姆·琼斯(TimJones)认为,机器人学和人工智能是两个独立的领域,但却是相互补充的。机器人为人工智能提供了其他事物所不能提供的物理表现形式。
他对记者说:“虽然可以通过机器人模拟,了解人工智能应用在机器人上时可能产生的问题,但是模拟容易掩盖一些需要解决的问题。因为,模拟本身是人工控制环境的,而机器人本身和自然环境却是复杂和凌乱的。”
因此,琼斯在他编写的教材中,将机器人学和人工智能分离为两个学科。“机器人学能为人工智能研究带来好处。虽然我们可以制造一个完全不结合人工智能的机器人,这种机器人系统只是按预定程序办事,但它的重要性绝不能与建立一个拥有智能的机器人系统相比。”
当人工智能越来越高级,拥有人工情感、类人情感就成为一个必然的方向。琼斯也告诉《中国科学报》记者,没有情绪的机器就不能称之为拥有真正的人工智能,但不是所有的情绪对机器都是有利的。如果一个机器能够展现愤怒或嫉妒这样的情绪那就隐藏着危险。他说:“拥有情感能让机器感知用户的情感。能表达和能感知情绪都是有必要的,但是这也会导致新的问题。”