2009年3月25日 星期三

機器人倫理學

其實這篇應該叫做艾西莫夫的機器人倫理學,不過既然有人說他是機器人之父,就讓我省一點打字時間吧。

在開始之前要先說一下原由。我這學期上了一堂通識課,叫價值與實踐。其實就是倫理學課啦。然後我本身又是機器人迷,所以就想到了這些東西。

有些名詞要先解釋一下,後果論是指光看後果的好壞就決定造成這個後果的行動的善惡的一種道德理論,而義務論是指有些基本的義務不該被違反,並且要考慮行動者的動機等因素的道德理論。三大法則指的是機器人學三大法則,是規範機器人行動的最高原則。這三大法則分別是:

  1. 機器人不得傷害人類,或坐視人類受到傷害。
  2. 在不違反第一法則的情況下,機器人必須服從人類的命令。
  3. 在不違反第一、第二法則的情況下,機器人必須保護自己的存在。

照這樣看來,機器人是純粹的後果論者,而且他們思考後果並不是以人類的角度來看,所以可能最後的結論是:「把人類滅掉對整這個世界最好啦!」雖然我們可能會很不好意思的承認這可能是事實,但這對人類來說並不是好後果。

這是沒有三大法則限制下的結論,不過有看過「機械公敵」的人就知道,即使在三大法則的限制之下,機器人還是有可能得出我們不希望的結果。誰叫人類這麼像癌細胞呢?為了保護人類,所以就要阻止人類的自殺行為啊。

離題了,反正艾西莫夫提出了三大法則,使得機器人失去了「考慮傷害人類」的能力。這件事讓他們有了義務論的特徵,但是仍然未脫離後果論的本質,上一段就是個好例子。另一個例子發生在電影中,主角回憶說當時他和一個小女孩同時落水,但機器人只跑來救他,原因是:「你的存活機率有54%,那個小女孩只有11%。」從人主角便不相信機器人,甚至有點仇視他們。「那是人家的孩子啊!」

不過這是電影,在小說裡是怎樣呢?根據知名機器人心理學家蘇珊.凱文的說法,那個機器人會盡力把兩個人都救起來,如果真的一定要有一個人得死,那可能就會電影裡演的救比較容易救的(這點比較細節,可能要再請教蘇珊),但是機器人之後就會崩潰(類似人類的崩潰啦)成為一堆癈鐵。事實上,小說舉的例子是:如果有一個人威脅到另一個人的生命,而要阻止那個人只能用殺了他這種方式的話,機器人會怎麼做?蘇珊給的答案是:「機器人會殺了那個人,但是機器人之後就會崩潰成一堆廢鐵。」

4 則留言:

  1. 它應該辦不到吧?

    它的機器人法則電路會阻止其傷害人類,
    但不這麼做的話人類會受到傷害,
    違背了第1法則後半段,
    但兩者的效力無論何時都應該是相等的,
    否則就會造成像機械公敵裡的情況↓

    當人做出自殘行為,
    機器人有3個可能:
    1限制其行動自由(造成傷害,法則1後半段效力較強)
    2坐視不管、無法行動(前半段效力較強)
    3報廢、當機、關機(兩部份無法分出高下,可能可以設計出迴避的程式,使其不至於報廢)。
      我猜想(沒有看過完整的)機械公敵裡的設定應該比較接近第1種。

      還有一種可能——機器人無法判斷是否會造成傷害、或者判斷錯誤,因此行動導致的結果會使第1法則損害其腦——不過美國機器人(股)應該會極力避免昂貴的電子腦損壞。
      但如果機械無法做出一點(看似)簡單的判斷,又何必裝上大腦?
        結語
      人腦是經過數十億年不段調適後的未完成品,其精巧可能不是現代機械所能比擬的(能創造擁有類人心智的非人物嗎?)。
      即便如此,人類仍能將其社會分類為善良/邪惡、罪惡/正義(人類能夠創造出全然善良/不為惡的事物嗎?)。


    小弟才疏學淺,如果有說的不正確或不明白的地方,請不吝指教。

    回覆刪除
  2. 首先我必須請教你,你所說的「它應該辦不到吧?」是指那件事?從你的前後文中我無法推測你的意思,先和你說聲抱歉。

    而其實在小說裡,機器人應該是有分辨傷害大小的能力,而且會考慮對人類作出最小程度的傷害,以防該人類受到更大的傷害。比如說,把一個人打昏,以防他從101跳下去。這點並不會對艾西莫夫小說裡的機器人造成太大程度的困擾。會造成困擾的是同等的傷害,比如說死亡對死亡。

    至於機器人的報廢,這和當初發明機器人的社會氛圍有關,在故事世界裡大眾普遍害怕機器人,因為它們的能力太過強大,以致於有機會取代人類,成為地球的主宰。所以美國機器人公司為了讓大家都能安心而有效的使用機器人,而設計了三大法則,並保證每一台出廠的機器人都內建三大法則。而當一個應該內建三大法則的機器人卻做出使人類死亡的事情時,無論是出於什麼原因,它都會造成社會的不安。因此使這台機器人直接報廢很可能反而是省了美國機器人公司的事,不用像其他公司還得回收並銷毀不安全的產品。

    就像我前面說過的,設定上機器人是能判斷傷害的,甚至能分辨大小。但其實這僅限於物理上的,像是皮肉傷或是失去自由之類的。精神上的傷害比較複雜,機器人可能有大致的概念,但無法全部辨認出來。像是諷刺或是說拐著彎罵人,別說機器人,不了解前因後果的人類一樣辨認不出來,你又怎麼能期待機器人有這樣的能力呢?

    接下來的部分就是非常有哲學意涵的討論了,我想我不見得能和你討論的多深入,只是有一個問題想請教:你提到了「未完成品」,那對人腦來說,又何謂「完成」?如果沒有所謂的「完成」,那也許說人腦是個「未完成品」是個不公允的描述。

    感謝你的留言,希望我的回覆能滿足你的求知慾。

    回覆刪除
    回覆
    1. 首先,請想像有個機器人在一個人身邊,這個人是個領導人物(可以想像成是阿道夫·希特勒)。戰事可能是此人發起、因而導致不斷會有人死亡(以人類整體角度來看,這是一種自殘,請看不才的第一篇留言)。不知何故,機器人誤認為他死亡後戰爭就會很快結束、許多人卑微的生命將得以保住。
        您認為它會如何?
        按造您本文裡的意思——它將殺了他,然後報廢。(較服從法則1後半)
        但在下則認為,它會直接報廢,因為無論它做或不做,都勢必違反第一定律。(服從法則1)
        
        在〈證據〉一文裡,蘇珊凱文說道:「……假如拜來爾服從所有的機器人學法則,他有可能是個機器人,卻也有可能只是個非常好的人。」
        人總是會犯錯的(許多人極力避免),但在原始的法則之下,機器人無法犯錯(就此看來,機器人是悲哀的,且人賴的排斥也是合理的:法則的存在是一種屏障,確保人類人能夠繼續奴役機器,然而卻總是有人想在上面加東西——蘇珊凱文甚至把機器人與人類視為平等)。

      希望我這次說得夠清楚、明白。
      還有感謝你如此重視我的發言。

      刪除
    2. 其實就小說裡機器人的原始設計來說,機器人是沒有「人類整體」這個概念的。所以,我想一般的機器人是不會認為「人類整體」正在自殘。
      而就像你說的,我認為機器人會殺了那個領導人,然後報廢(除非機器人認為有不用殺人就能阻止戰爭的方法),而不是直接報廢。因為對機器人來說,這不是0與1的問題,而是程度的問題,我相信從機器人的角度來看,成千上萬的人被屠殺要比殺死一個人來得嚴重。這種程度的結果論式的道德判斷,對艾氏小說裡的機器人應是不成問題。

      刪除