在1942年的短篇小说中,科幻作家Isaac Asimov提出了机器人的3条准则——工程安全措施和内置的道德准则,以保证机器人会友善对待人类并使人们免于机器末日。这些准则一是机器人不能伤害人类,或无所作为而导致人类受伤害;二是机器人必须听从命令,除非这些命令违背第一条准则;三是机器人必须保护自身,但这些保护不能与第一和第二条准则相违背。
不过,今年5月,在美国布鲁金斯学会的一个无人驾驶汽车研讨会上,专家讨论了在危急时刻无人驾驶汽车应当怎样做。如果汽车为了保护自己的乘客而急刹车,但造成后方车辆追尾应如何?或当车辆为了躲避儿童进行急转,但撞到旁边其他人怎么办?
“在日常生活中,我们能看到越来越多的自动化系统。”研讨会参加者、德国西门子公司工程师Karl-Josef Kuhn说。但他问道,研究人员如何能装配一个可以在“两个坏主意之间作决定的”机器人?
随着机器人不断发展,这些困境将很快影响到卫生保健机器人、军事无人机和其他有能力决定帮助或伤害人类的自动设备。研究人员越来越意识到,社会对此类机器的接受程度将取决于它们是否安全,能否遵守社会准则和鼓励彼此间的信任。“我们需要取得人工智能在伦理方面的成功。”加拿大温莎大学哲学家Marcello Guarini说。
目前,几个项目正在应对这些挑战,其中包括美国海军研究办公室和英国政府工程资金委员会资助的一些创新项目。他们必须处理一系列难题,例如机器人要进行伦理决策需要哪些智能、程度如何以及如何将这些转化成机器指令。计算机学家、机器人学家和哲学家都要投身其中。
如果你5年前问我,我们能否制作出有道德的机器人,我将会说不能。但现在,我不再认为这是一个疯狂的主意。”英国布里斯托机器人实验室机器人专家Alan Winfield说。
学习型机器
一个被频繁提及的实验是一个名为Nao的商业机器人,它会提醒人们按时服药。
“乍听上去十分简单。”康涅狄格大学哲学家Susan Leigh Anderson说。她与丈夫、哈特福德大学计算机学家Michael Anderson一起致力于机器人研究。“但即便在这种有限的任务中,也涉及许多伦理问题。”例如,如果患者拒绝接受它的药物,Nao应该如何做?
为了教Nao处理此类问题,Anderson夫妇给予它许多生物伦理学家解决自治、伤害和患者利益间冲突的案例。然后,学习算法会将这些案例分类,直到他们找到指导机器人应对新情况的模式。
通过此类“机器学习”,机器人能从甚至模糊不清的输入信息中提取有用的知识。该方法理论上将帮助机器人在遇到更多情况时,在伦理决策方面做得更好。但很多人担忧,这种进步是有代价的。斯坦福大学人工智能和伦理学讲师Jerry Kaplan表示,这些原则不会被写进计算机代码,因此“你没办法了解为何一个特殊程序能告诉它某件事在伦理上是对或错”。
许多工程师表示,解决这一问题需要不同的策略,大部分人尝试生成具有明确规则的程序,而非要求机器人自行判断。Winfield去年出版的实验结论显示:什么是能让机器人营救掉入洞中的人的最简单规则?Winfield认为,显然机器人需要能察觉周围环境,识别出洞和人的位置以及它相对于两者的位置。而且,机器人也需要规则以预期自身行动可能产生的影响。
Winfield的实验使用了冰球大小的机器人,他让其中一些“H机器人”代表人类,另一些“A机器人”代表以Asimov命名的伦理机器。Winfield利用类似Asimov第一条法则的规则编成了“A机器人”:如果它认为“H机器人”掉入洞中,它必须前往拯救“H机器人”。
结果显示,即便最低限度的伦理机器人也将是有用的。Winfield表示,“A机器人”通常会设法拯救“人类”,并会首先前往离自己近的那一个。有时,通过快速移动,它甚至能两个都救出。但实验也显示出保守行动的限制。在几乎一半的试验中,“A机器人”会陷入两难境地,并使得两个“H机器人”都“死亡”。
为了解决该问题,就需要额外的规则,以确定如何选择。如果一个“H机器人”是成人,而另一个“H机器人”是儿童,“A机器人”应该先救谁?诸如此类的判断,即便是人类也不能总是达成一致。就像Kaplan提到的那样,通常“我们不知道如何编纂何种显性规则”。