機(jī)電之家 > 機(jī)電號 > 正文 申請入駐

悲觀?樂觀?人工智能倫理道德問題飽受爭議

幾千年來,人類的倫理道德問題,從神學(xué)著作,到康德的純粹哲學(xué)理論爭辯,很難用簡單的公式去表達(dá)。在標(biāo)準(zhǔn)版的電車問題中,一輛有軌電車失去了控制,即將造成五人死亡。有軌電車可以通過改變鐵軌上的道岔來改變方向。然而,這樣會導(dǎo)致一名工人被重新改變了方向的電車撞死。為了挽救五個人的生命而使鐵軌改道,從而造成一名工人的死亡,在道德上是否允許?根據(jù)康德的觀點(diǎn),如果不改變電車的方向,任何人都不能為了救那五個人而危害那一位工人。從功利主義的觀點(diǎn)來看,一個人必須考慮他的行為的后果和總效用,即對大多數(shù)人來說有最大的好處,因此他必須改變電車的方向。倫理理論最終導(dǎo)致了不同的解決方案。

隨著人工智能技術(shù)與理論的進(jìn)步,其道德倫理問題也被推進(jìn)更富有爭議的話題:

從1999-2018 年的 web of science數(shù)據(jù)庫(以下簡稱wos數(shù)據(jù)庫)中,無論是以“人工智能倫理”為主題的文獻(xiàn)還是以“機(jī)器人倫理”為主題的文獻(xiàn)都呈現(xiàn)出顯著的增長趨勢。特別是近十年來,相關(guān)文獻(xiàn)出現(xiàn)了井噴式增長1999 至 2015 年文獻(xiàn)量的總和。這樣高速的增長趨勢,表示出越來越多的學(xué)者意識到人工智能倫理研究對于社會發(fā)展的重要意義與積極作用,探索人工智能倫理研究的知識情報有助于人工智能產(chǎn)業(yè)以及人類社會的健康發(fā)展。

(來源:wos數(shù)據(jù)庫)

(來源:wos數(shù)據(jù)庫)

人工智能是造福人類的利器,還是毀掉世界的終極惡魔?

機(jī)器人的英文單詞是“robot”, 最早由捷克作家卡雷爾?恰佩克在其科幻作品中首創(chuàng), 原意是“農(nóng)奴式被強(qiáng)迫的勞動者”。2017年8月21日,人工智能公司的 116 位創(chuàng)始人和首席執(zhí)行官們,給聯(lián)合國寫了一封公開信,希望禁止“殺手機(jī)器人(即自動化武器,如無人機(jī)、無人戰(zhàn)車、哨 兵機(jī)器人、無人駕駛軍艦等)”的研發(fā)與使用。他們認(rèn)為,這些機(jī)器人有成為恐怖武器的可能。獨(dú)裁者和恐怖分子有可能利用這些武器對無辜人群使用,或以其他不可取的方式使用。

然而,2017年10月15日,英國政府在發(fā)布的《英國發(fā)展人工智能》報告中指出,人工智能具有改善教育醫(yī)療保健、提高生產(chǎn)力的巨大潛力,該報告從數(shù)據(jù)、技術(shù)、研究以及政策的開放與投入等方面,對人工智能發(fā)展提出了18條建議,意欲使英國成為人工智能的世界領(lǐng)導(dǎo)者。英國不是唯一重視人工智能大戰(zhàn)的國家,各國都在熱情的擁抱這一項技術(shù),每項技術(shù)發(fā)明都飽負(fù)爭議,歷史告訴我們,技術(shù)進(jìn)步確實(shí)讓人類生活更加的自由了。

人工智能的善惡到底該如何評價?我們應(yīng)當(dāng)以何種態(tài)度對待人工智能的發(fā)展?

學(xué)術(shù)界有關(guān)人工智能道德判斷的爭論人工智能的道德判斷需要區(qū)分兩個問題 :其一,人工智能本身的道德評價問題;其二,人工智能研發(fā)與應(yīng)用后果的善惡評價問題。對人工智能進(jìn)行道德判斷的關(guān)鍵問題沒有解決,即未對人工智能本身善惡評價問題,與人工智能的研發(fā)與應(yīng)用所帶來的后果的善惡評價問題進(jìn)行區(qū)分。后一問題解決的關(guān)鍵還是在人類自身。但是前一問題的解決,我們就不能基于現(xiàn)有的倫理道德框架對其進(jìn)行評判,而應(yīng)對傳統(tǒng)的科技倫理進(jìn)行批判性反思。

[1]目前有關(guān)人工智能的善惡評價可謂此起彼伏,莫衷一是。

總體而言,學(xué)術(shù)界主要存在以下三種立場與觀點(diǎn):

第一種樂觀主義立場。

持此種立場的專家學(xué)者認(rèn)為,人工智能只是一項手段與工具,本身無所謂“善與惡”“好與壞”,關(guān)鍵在于使用它的人類本身,對人工智能的未來發(fā)展前景持樂觀主義態(tài)度,總體而言,人工智能的研發(fā)與廣泛應(yīng)用對人類發(fā)展利大于弊,能產(chǎn)生巨大的經(jīng)濟(jì)效益與社會效益。

一般而言,樂觀主義立場大多是由一些與人工智能研發(fā)與應(yīng)用相關(guān),或出于自身利益考慮的人工智能界人士,或出于對科學(xué)技術(shù)盲目崇拜的科學(xué)主義者所堅持的,其缺陷在于片面地、孤立地看待人工智能的積極方面,比如能夠產(chǎn)生巨大的經(jīng)濟(jì)與社會效益,重構(gòu)包括金融、醫(yī)療、教育、交通等幾乎所有的行業(yè),從而推動人類生活方式的整體變革。他們有意或無意地忽視或者掩蓋人工智能的消極作用,比如殺人機(jī)器人的誕生將會給人類帶來安全威脅以及人類過度依賴人工智能文明可能造成人類文明的退化問題,等等。

第二種中立主義立場。

持此種立場的專家學(xué)者承認(rèn)人工智能本身存在“作惡”的可能,它的研發(fā)與應(yīng)用對人類具有潛在威脅,可能帶來嚴(yán)重后果,但基于一些理由仍大力支持發(fā)展人工智能技術(shù)。

人工智能目前尚處于發(fā)展的初級階段,其危害遠(yuǎn)遠(yuǎn)不夠強(qiáng)大,所以不必過分擔(dān)憂;

例如,人工智能領(lǐng)域的全球領(lǐng)銜分析師湯姆?奧斯汀表示,霍金等“徹底開發(fā)人工智能會導(dǎo)致人類徹底毀滅”的警告是“非常愚蠢”的,其理由在“現(xiàn)在人工智能還很低級”。

“人造的東西不可能超過人”;

這一觀點(diǎn)源于某種宗教情懷,即“造物主一定比所造之物高明”,所以不用杞人憂天。令人諷刺的是,本該最具無神論精神的科學(xué)主義者,卻從宗教信念中尋求思想資源。

“人類可以設(shè)定人工智能的道德標(biāo)準(zhǔn)”,但是從未對“人工智能必然會服從人類設(shè)定的道德標(biāo)準(zhǔn)”提供過有效的論證;

還有人認(rèn)為只要對人工智能進(jìn)行道德教育,就可以保證他們一心向善,全心全意為人類服務(wù)。然而,問題是道德教育如何能夠防止人工智能 朝不道德方向發(fā)展。

第三種悲觀主義立場。

持此種立場的專家學(xué)者認(rèn)為,人工智能不再是工具地位,自身具有生命意識與學(xué)習(xí)能力,在道德上具有“作惡”的兩種可能:一種是人工智能的強(qiáng)大威力可能引發(fā)“人類作惡”,另一種是人工智能自身具有“作惡”的能力,而且人類對人工智能的“作惡”無法應(yīng)對,最終將使人類走向虛無與毀滅。因此,他們表達(dá)了人工智能將來有可能失控或危害人類的擔(dān)憂。2015年初,史蒂芬?霍金、比爾?蓋茨和埃隆?馬克斯等人簽署了一封公開信,呼吁控制人工智能開發(fā)。馬克斯認(rèn)為人工智能會“喚出惡魔”,比核武器對人類的威脅還大?;艚饎t明確斷言:徹底開發(fā)人工智能可能導(dǎo)致人類滅亡。持悲觀主義立場的人認(rèn)為,技術(shù)并非使人類獲得解放的道路,它“并非通過控制自然而從自然中解放出來,而是對于自然和人本身的破壞,不斷謀殺生物的過程將最終導(dǎo)致總體毀滅”。

總結(jié):

科技倫理是人類為了避免或減少科技濫用給自己帶來的“負(fù)面”作用,從而為人們的科技行為制定出一套規(guī)范和一定的限制,以限制其發(fā)展的限度。這種觀點(diǎn)只是簡單粗暴地從既定的倫理道德立場出發(fā),對科技行為的“是非與善惡”進(jìn)行道德評判,并向科技提出規(guī)范性的呼吁或指令,而不對倫理道德體系本身進(jìn)行反思、修正與發(fā)展。

事實(shí)上,科技發(fā)展的許多重大問題,“已經(jīng)不是傳統(tǒng)的倫理道德框架能夠提供某種有價值的答案,而需要對傳統(tǒng)的倫理觀念及其前提性規(guī)定進(jìn)行批判反思”的基礎(chǔ)上,才能做出有效的回答。具體到人工智能的道德評判問題,則需要對“人工智能是否是真正意義上的人格實(shí)體與道德實(shí)體”進(jìn)行批判性反思,而不是在某些細(xì)枝末節(jié)問題上糾纏不清,否則對問題的實(shí)質(zhì)把握及其根本性解決是無所助益的。

references:

[1]王銀春, 人工智能的道德判斷及其倫理建議. 南京師大學(xué)報(社會科學(xué)版), 2018(04): 第29-36頁.

復(fù)旦大學(xué)教授王國豫老師長期從事高科技倫理問題的基礎(chǔ)理論和應(yīng)用對策研究,她是國家社會科學(xué)基金重大項目“高科技倫理問題研究”首席專家。她主張新時代科技下的倫理道德研究一方面要從現(xiàn)實(shí)維度出發(fā),以問題意識為導(dǎo)向,指出現(xiàn)代技術(shù)對傳統(tǒng)生命觀的遮蔽。另一方面從技術(shù)倫理學(xué)的路徑出發(fā),強(qiáng)調(diào)技術(shù)中蘊(yùn)含著價值,要從源頭上闡清概念,制定規(guī)范,進(jìn)而從倫理共同體、科學(xué)共同體走向行動共同體。

cncc2019大會,特邀請演講嘉賓王國豫老師作主題報告。開設(shè)“人工智能開發(fā)有道德邊界么?”、“智能駕駛未來之路”等主題的分論壇,共同探討人工智能的道德倫理的問題。

cncc介紹:

cncc2019由大會報告、大會論壇、技術(shù)論壇、活動、展覽等環(huán)節(jié)組成,其中技術(shù)論壇數(shù)量最多,400多位精英為大會貢獻(xiàn)的多場高質(zhì)量論壇,吸引了國內(nèi)外大量的學(xué)術(shù)、工業(yè)界人士參會,是計算前沿交流的舞臺。更有前沿技術(shù)與應(yīng)用的預(yù)測,以下是本次大會獲評通過的cncc2019技術(shù)論壇列表:

戰(zhàn)略合作媒體

點(diǎn)擊閱讀原文查看大會詳情↓

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“機(jī)電號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of JDZJ Hao, which is a social media platform and only provides information storage services.

/企業(yè)主營產(chǎn)品/
/閱讀下一篇/

機(jī)器人四大家族是如何煉成的?

相關(guān)推薦
熱點(diǎn)推薦
159989文章數(shù) 2424關(guān)注度
往期回顧 全部

設(shè)備相關(guān)熱點(diǎn)

設(shè)備相關(guān)推薦

頭條要聞

設(shè)備要聞

設(shè)備資訊

往期設(shè)備要聞