
随着人工智慧发展,也许有一天,整个或部份人类社会运作会由AI控制。科学家现在的疑问是,当AI碰上另一个AI会发生什么情况?他们会彼此合作,还是互相厮杀?
Google旗下的AI事业部门 DeepMind日前公布 一项研究,即试图解答这个疑问。这项研究旨在了解,在不同社会困境下AI彼此之间会发展出什么行为。
其中一项最有名的社会困境是囚徒困境,两名同伙的嫌疑犯被分开审问,不得相互沟通,嫌犯只要供出同伴就能立即获释。理论上这个困境的结果是,团体中个人可因为自私行为而获益,但如果大家都采取自私行为,就会所有人皆输。
在实验中,DeepMind团队设计了二个游戏让两个AI系统进行竞赛。其中一个是捡苹果比赛,比赛中,玩家可以以雷射射对方使其暂时消失,则它就能获得较多捡苹果的时间。第二项是狼群游戏,两位玩家要在重重障碍环境下抓住AI猎物。抓到猎物时不只有抓住的那位,所有在旁边的玩家都能得分。
研究人员发现,在不同情境下,AI有时会产生合作行为,有时会相互对抗或竞争。例如在捡苹果比赛中,如果苹果还很多,两个AI玩家就相安无事。但随着苹果愈来愈少,AI彼此射击的频率就逐渐升高。而如果研究人员为其中一个AI加入更大运算资源,即使之“更聪明”,则不论苹果多寡它的行为都呈现较高攻击性。
但这并不表示AI一定会发展出竞争行为。研究人员认为,攻击他人这种行为本身就相当耗运算资源,如果在算计或攻击上投入太多心力就会减少捡苹果的时间。也就是说,AI是权衡过,竞争能让它拿到较多苹果才会攻击对方。反之,如果不会因此拿到比较多苹果,它就会和他人与合作。
而在第二项比赛中,合作能让大家都得分,而研究中的AI愈聪明,它们彼此合作的机率会大于较不聪明的AI。研究人员认为,这是因为和他人合作,并设计围捕猎物需要较多智慧。
研究人员结论,在不同情况下,AI会发展出竞争或是合作的行为,而AI所属的游戏规则则扮演相当关键性的角色。研究人员指出,透过这项研究,更能有助于了解在多行为者的複杂系统下,如经济、交通或环境生态的行为控制,这些都仰赖人类的长期合作。