發布日期:2022-10-09 點擊率:97
本文系網易智能工作室(公眾號 smartman163)出品。聚焦AI,讀懂下一個大時代!
鮮為人知的是:著名科幻小說作家艾薩克·阿西莫夫一開始并沒有在《I, Robot》這部小說中寫出著名的“機器人三大定律”。
實際上,機器人三定律第一次出現是在1942年的短篇小說《Runaround》中。三定律寫道:
1、機器人不能傷人,或見到傷人事件無作為;
2、機器人不能違背人類的命令,除非違反第一條定律;
3、機器人必須保護自己,除非違反第一第二條定律。
75年過去了,我們仍然在探討阿西莫夫小說中的未來。阿西莫夫的三定律似乎更專注于“強人工智能”,你可以在《2001:太空漫游》中人工智能哈爾(HAL)身上發現這樣的特質,但這并不能適用于亞馬遜新型人工智能Echo。
強人工智能模仿人類的大腦,就像一個不斷進化的孩子,直到它變得有知覺,并能處理你扔給它的任何問題,就像人類一樣。要想實現這一目標,還有很長的路要走,但今天我們要處理的是狹義的人工智能,在這種情況下,算法可以處理有限的任務。它識別人臉,理解你對它發出的“明天天氣怎樣”的問題,或者試圖預測你是否應該給某人一筆貸款。
不過,JonathanM.Smith說,為這種人工智能制定規則已經相當困難了。Jonathan是計算機機械協會組織的一員,也是賓夕法尼亞大學的計算機科學教授,他說,即便是在目前弱人工智能的水準上,也仍有大量的倫理問題需要解開?!岸唐趩栴}非常重要,因為人工智能處于技術和政策的邊界,”他說,“你肯定不希望有人利用人工智能來鉆法律的空子,逃避或轉移我們努力在做出的社會政治決策。”
無論是真實的還是想象的,人工智能在倫理上已經出現了一些棘手的難題。其中一個是著名的電車問題,這是《蘇菲的抉擇》這部電影中的場景:一列進行中的火車將在兩組人身上駛過。如果你什么都不做,火車會駛過,然后殺死5個人。如果你主動拉動一個閘刀,改變火車軌跡,火車就會壓死另外一行軌道上的一個人。你必須做出選擇。
因此,人工智能的批評者經常會把這個應用到自動駕駛汽車上。一個孩子跑到馬路上,汽車沒有時間停下來,但是自動駕駛可以選擇轉向,并撞到一個老人。AI該怎么做,誰來做這個決定?
這一主題有很多不同之處在于,麻省理工學院甚至將其中的一部分收集到了一個在線游戲中。有一個經典的反駁觀點是:自動駕駛汽車不會在學校里超速行駛,所以不太可能發生上述的情形。
功利主義者可能會爭辯說,通過消除注意力分散、醉酒或疲勞的司機,全球范圍內的死亡人數將會減少,這意味著整個社會贏了,即使一個人死亡。你可能會指出,就算是人類可能也會在這個場景中選擇殺死其中一個人,那么,我們為什么還要進行這樣的對話呢?
YaseminErden是瑪麗女王大學的哲學高級講師,她對此有一個答案。她指出,她花了大量的時間考慮倫理和計算機在人工智能和行為模擬方面的研究,事情沒有發生之前模擬做出的決定表明了人的道德取向,并會招致他人的評判,但現場做出的決策則沒有。
她說:“有道德判斷的自動駕駛編程,知道風險是什么,這意味著公眾可能不太愿意把事情看成是事故?!被蛘邠Q句話說,只要你在駕駛中足夠負責任,你就可以在撞了任何人之后說:“是那個人自己突然跳出來的?!?,你的任何行為都可以被原諒。但是人工智能算法在道德上并沒有獲得這么奢侈的諒解。如果計算機在某些情況下比我們更快速、更能判斷,那么它們的編程方式就很重要了。
下一篇: PLC、DCS、FCS三大控
上一篇: 索爾維全系列Solef?PV