Williams爬到上面開始工作時,一只機器手臂也處于運行狀態(tài)。很快,機器手來到Williams身邊,撞到了他的頭,他當(dāng)場死亡。機器手還在繼續(xù)工作,而這名工人的尸體直到30分鐘之后才被發(fā)現(xiàn)。
在那個冬日,Williams成了歷史上第一個被機器殺死的人。
這樣的事件完全是機器的無心之失。當(dāng)時的工廠沒有相關(guān)的保護設(shè)施和警報措施。1979年的人工智能還沒有發(fā)展到能夠預(yù)防這種事情的程度。最后,陪審團裁定,機器在設(shè)計時沒有將這種事情考慮進去,Williams的家人得到了1000萬美元的賠償金。
第二例機器殺人事件發(fā)生在兩年后的日本,情況也類似:機器沒有感應(yīng)到37歲工人Kenji Urada的存在,無意中造成了他的死亡。
隨后,機器人專家、電腦學(xué)家和人工智能專家一直在努力解決這個問題,他們想讓機器安全地與人類互動。
幾十年后,人類因機器而死的報導(dǎo)似乎越來越常見。Uber和特斯拉的自動駕駛車輛就曾因為殺死乘客或撞到路人而上了新聞。雖然現(xiàn)在的安全設(shè)施越來越發(fā)達,但問題仍然存在。
雖然這些死亡事件都不是機器有意為之的,但受到《終結(jié)者》和《黑客帝國》等電影和小說的影響,人們很擔(dān)心人工智能會發(fā)展出自我意志,最終傷害人類。
牛津大學(xué)科學(xué)家Shimon Whiteson將這種擔(dān)憂稱為“擬人化錯誤”,這種謬論認為“擁有與人類相似智力的系統(tǒng)也一定擁有類似人的欲望,比如求生欲、自由欲望和對尊嚴的渴望等。但這是不可能的,因為一個系統(tǒng)只會擁有我們所賦予的欲望。”
他認為價值觀偏差才是對人類的更大威脅,即程序員所下達的命令可能與他們的真實意愿有所不同,即機器不能完全理解人類的命令。隨著電腦變得越來越智能化和自動化,價值觀偏差導(dǎo)致的結(jié)果將更為嚴重。
另外,他認為出于軍事目的而故意設(shè)計的殺人機器才更可怕。這也是為什么全球的AI和機器人專家都呼吁禁止發(fā)展這種技術(shù)。聯(lián)合國也因此將在2018年討論是否應(yīng)該對機器人殺手進行管理,以及如何管理。
轉(zhuǎn)載請注明出處。