機器人大戰: 道德真可以用數學來定義嗎?

Posted By Mr. Saturday

之前 Mr. Saturday 曾經在 無人車橫越沙漠!–初探 Computer Vision (電腦視覺) 一文中粗淺地介紹過電腦視覺這個有趣的研究領域,裡頭中有提到了美國國防部對於這類研究之所以這麼重視,主要還是因為電腦視覺的技術一但成熟,應用到軍事科技上,將會有相當可怕的成果出現,為什麼說可怕呢?因為美國要是真正打造出智慧型的無人載具,那麼其軍事力量將會更加強大,最近我在經濟學人上又看到了一篇有關於無人載具 (unmanned vehicles) 的相關報導,裡頭就是在講有一位教授 Ronald Arkin 最近在做的事情。

Ronald Arkin 在 機器人學 (Robotics) 領域是相當傑出的學者,最近他有一項關於機器人道德的研究蓄勢待發,這項研究可以預見地將會是爭議性非常大的研究。簡單來說,Ronald Arkin 希望能夠賦予機器人我們人類的道德觀念,他之所以會有這種想法,其實就是考量到之後具有殺傷力的智慧型機器人將會被非常廣泛地應用在軍事用途上,要是這類智慧型機器人在戰場上暴走,狂爆地隨意殺害人類,這可不是開玩笑的事情。所以 Ronald Arkin 希望能夠打造出所謂的人工良知 (Artificial Conscience),希望機器人能夠被這一套規則所規範,在關鍵時刻不至於做出危害人類的事情。

看到這個教授想做的事情,我馬上就想到 Isaac Asimov 老早就在他的科幻小說裡對於機器人訂出的三條有名規則:

  1. 機器人不可以傷害人類,或是因為自己的不行動和漠視讓人類受到傷害
  2. 機器人必須服從人類的命令,除非這個命令抵觸第一條規則
  3. 機器人必須保護自己,除非這個保護自己的動作會和第一和第二條規則抵觸

訂完這幾條規則,Asimov 便開始在他一系列的小說中開始描繪一些不遵照這些規則的機器人。

規則的背後是一些數字和符號,扯到數字和符號,就演變成了用數學來定義道德的一種情況。個人看來是大大的不妥,道德規範的複雜性用言語已經難以表述,何況是用數學來賦予機器人道德良知。我覺得這是相當可怕的一件事情,戰場上搭載著致命性武器的智慧型機器人,一但判斷出了錯,後果不堪設想。不過也由於這個議題相當地敏感,連 Ronald Arkin 本身也了解到他所從事的研究會帶來多大的爭議性,因此他還在自己的網頁上公開徵求大家的意見,請大家去填個問卷,他希望聽聽大家對於他現在的研究抱持什麼樣的態度。如果你有興趣的話,可以去這邊填這個問卷。

美國軍方一直希望催生智慧型的無人載具,可以毫無人類遙控,自動地去完成軍事任務。Asimov 的科幻小說和機器人必須服從的三條規則早在四零年代即已出現,在當時看來是那麼地天馬行空和遙不可及,如今跨入 21 世紀,其實電腦科技也不過發展數十餘年,現在人類居然已經開始在認真地探討我們對於機器人所必須賦予的規範!似乎幾十年前的科幻小說情節,再過不久就會在我們的生活中真實地上演。

喜歡這篇文章嗎? 分享出去給作者一點鼓勵吧!