
法律試圖規(guī)范人工智能的愿景至今還沒(méi)有成功的跡象。目前主導(dǎo)人工智能倫理原則和準(zhǔn)則的仍然是技術(shù)界
丁瑋
人工智能引發(fā)的倫理問(wèn)題,反映的是人類(lèi)設(shè)計(jì)、制造、使用和對(duì)待人工智能的道德關(guān)懷,所關(guān)注的是人工智能可能對(duì)人類(lèi)帶來(lái)的益處和傷害。總的挑戰(zhàn)是,如何在享受技術(shù)進(jìn)步帶來(lái)的好處的同時(shí),能夠?qū)ζ渌鶐?lái)的風(fēng)險(xiǎn)作出充分的反應(yīng)。
在人類(lèi)技術(shù)發(fā)展史上,平衡利益和風(fēng)險(xiǎn)的需要總是反復(fù)發(fā)生,一再出現(xiàn)的。但是人工智能以一種全新的、潛在的、大規(guī)模的形式對(duì)人的工作、生活、教育、社會(huì)交往等各個(gè)方面產(chǎn)生全面影響,甚至影響如何理解和重新定義人本身。同時(shí),人工智能也促使人們思考:是否應(yīng)該運(yùn)用這些新技術(shù)去追求提升、超越人類(lèi)的自身?xiàng)l件?
為人工智能建立道德準(zhǔn)則和邊界
目前,人工智能從用途上大致可分為兩類(lèi):一類(lèi)是通過(guò)預(yù)先設(shè)定的程序由自上而下的算法控制的機(jī)器人行為;另一類(lèi)是自下而上的算法,讓機(jī)器人從過(guò)去的經(jīng)驗(yàn)中學(xué)習(xí)并不斷地修正它的算法,達(dá)到自我學(xué)習(xí)和自我發(fā)展的目的。
無(wú)人駕駛汽車(chē)、人臉識(shí)別、模擬人腦的神經(jīng)網(wǎng)絡(luò)模式等,都是后一類(lèi)人工智能的最新發(fā)展。與第一類(lèi)人工智能需要依賴(lài)人類(lèi)的決策相比,第二類(lèi)人工智能的發(fā)展不依賴(lài)于人類(lèi)設(shè)置的程序、控制和干預(yù)。因而,從理論上說(shuō),此類(lèi)人工智能的發(fā)展將難以被預(yù)測(cè)和控制。
人工智能技術(shù)在很多領(lǐng)域的應(yīng)用有益于人類(lèi)社會(huì)。但過(guò)去兩年間的實(shí)踐明顯地表明,人工智能的發(fā)展可能會(huì)有許多意想不到的后果,更不用說(shuō)可能被用于反人類(lèi)的目的。
人工智能被濫用或者失去控制,無(wú)疑與人工智能服務(wù)于人類(lèi)的目標(biāo)背道而馳,不僅為人類(lèi)未來(lái)命運(yùn)帶來(lái)不確定性,也增大了安全隱憂(yōu)。因此,為人工智能建立道德準(zhǔn)則和邊界是引起和學(xué)界廣為關(guān)注和討論的熱點(diǎn)問(wèn)題。
宣言和倡議中的人工智能倫理原則
近兩年來(lái),全球發(fā)布了數(shù)量可觀的關(guān)于人工智能倫理原則的宣言和倡議。其中,普遍認(rèn)可的原則包括透明度、平等(非歧視)、責(zé)任、安全、隱私等內(nèi)容。
因?yàn)槿斯ぶ悄芗夹g(shù)如此深刻地對(duì)人類(lèi)產(chǎn)生影響,人工智能的研發(fā)人員應(yīng)該負(fù)有道德義務(wù)向公眾保持一定的透明度。盡管有人擔(dān)心,將人工智能釋放給公眾可能有害,但電氣和電子工程師協(xié)會(huì)(institute of electrical and electronics engineers,簡(jiǎn)稱(chēng)ieee)致力于在多個(gè)層面為用戶(hù)提供開(kāi)放資源和透明度服務(wù)。2019年6月26日,歐盟人工智能高水平專(zhuān)家組公布的《值得信任的人工智能政策和投資建議》,認(rèn)為歐盟國(guó)家人工智能研究競(jìng)爭(zhēng)力來(lái)自于保持開(kāi)放、透明度和創(chuàng)新。
伴隨著真實(shí)社會(huì)中的偏見(jiàn)和不平等,算法偏見(jiàn)被算法操作者植入人工智能系統(tǒng)中。在人臉識(shí)別、聲音識(shí)別等系統(tǒng)中,隨處可見(jiàn)算法偏見(jiàn)。隨著機(jī)器學(xué)習(xí)技術(shù)擴(kuò)展到醫(yī)學(xué)和等關(guān)鍵領(lǐng)域,機(jī)器學(xué)習(xí)中的偏見(jiàn)問(wèn)題可能會(huì)變得更加嚴(yán)重。鑒于這種情況,谷歌、ibm等大公司在自己的人工智能原則中將公平作為重要原則,并開(kāi)始在實(shí)踐中搜尋和定位算法偏見(jiàn)。
安全與責(zé)任是人工智能發(fā)展的核心原則。與之相關(guān)聯(lián)的原則包括可靠性、控制性等。人工智能不能對(duì)人造成傷害,這是基本的、也是終極的原則。雖然人類(lèi)尚不能預(yù)見(jiàn)人工智能超出人類(lèi)控制的情形,但在理論上存在這樣的可能性。因此,人工智能的研發(fā)終究要以安全為本位。
2019年5月,《人工智能北京共識(shí)》(以下簡(jiǎn)稱(chēng)《北京共識(shí)》)發(fā)布15條原則,從研發(fā)、使用、治理三方面規(guī)范人工智能。
在研發(fā)方面,《北京共識(shí)》提倡要有益于增進(jìn)社會(huì)與生態(tài)的福祉,服從人類(lèi)的整體利益,設(shè)計(jì)上要合乎倫理,體現(xiàn)多樣性與包容性,盡可能地惠及更多人,對(duì)潛在倫理風(fēng)險(xiǎn)與隱患負(fù)責(zé),提升技術(shù)水平控制風(fēng)險(xiǎn),共享人工智能發(fā)展成果。在使用方面,提倡要善用和慎用,避免誤用和濫用,以最大化人工智能技術(shù)帶來(lái)的益處、最小化其風(fēng)險(xiǎn),確保利益相關(guān)者對(duì)其權(quán)益所受影響有充分的知情與同意,并能夠通過(guò)教育與培訓(xùn)適應(yīng)人工智能發(fā)展帶來(lái)的變化。在治理方面,對(duì)人工智能部分替代人類(lèi)工作保持包容和謹(jǐn)慎態(tài)度,鼓勵(lì)探索更能發(fā)揮人類(lèi)優(yōu)勢(shì)和特點(diǎn)的新工作,開(kāi)展國(guó)際合作,共享人工智能治理經(jīng)驗(yàn)。人工智能的準(zhǔn)則與治理措施應(yīng)做到適應(yīng)和適度,并開(kāi)展長(zhǎng)遠(yuǎn)戰(zhàn)略設(shè)計(jì),以確保未來(lái)人工智能始終保持沿著對(duì)社會(huì)有益的方向發(fā)展。
除《北京共識(shí)》外,有的倡議從更為抽象的層面表達(dá)人工智能的倫理原則,還有倡議認(rèn)為,人工智能的最高原則是安全可控;其創(chuàng)新愿景是促進(jìn)人類(lèi)更加平等地獲得技術(shù)能力;人工智能存在的價(jià)值是教人學(xué)習(xí),讓人成長(zhǎng),而不是取代人,超越人;人工智能的終極理想是為人類(lèi)帶來(lái)更多的自由和可能。
就具體公司而言,英特爾公司的人工智能原則包含了促進(jìn)創(chuàng)新和開(kāi)放發(fā)展,創(chuàng)造新的人類(lèi)開(kāi)發(fā)機(jī)會(huì)和保護(hù)人的福祉的理念;谷歌的人工智能原則表明人工智能要有利于社會(huì)。
規(guī)范人工智能目前主要依賴(lài)行業(yè)自律
以上全球人工智能倫理原則各有側(cè)重,不盡相同,但又有共同的特點(diǎn)。根據(jù)算法觀察的統(tǒng)計(jì)分析,關(guān)于人工智能倫理原則的文件大多是在2018年和2019年發(fā)表的。可見(jiàn),人工智能倫理是近兩年引起全球高度關(guān)注的問(wèn)題。且許多倡議的發(fā)起者多為技術(shù)界、學(xué)界聯(lián)盟或機(jī)構(gòu),大多采取聲明的形式,屬于行業(yè)自律性質(zhì)。
法律試圖規(guī)范人工智能的愿景至今還沒(méi)有成功的跡象。目前主導(dǎo)人工智能倫理原則和準(zhǔn)則的仍然是技術(shù)界。臉書(shū)的行政總裁馬克·曾在美國(guó)國(guó)會(huì)就減少網(wǎng)絡(luò)仇恨言論作證時(shí)宣稱(chēng),臉書(shū)將承擔(dān)更廣泛的責(zé)任,制定前瞻性的針對(duì)內(nèi)容的政策。
其中,人工智能的使用是這一模式的基石。這一聲稱(chēng)引發(fā)了人工智能局限性的爭(zhēng)議,諸如提前刪除內(nèi)容缺乏透明度、算法歧視、仇恨言論涉及價(jià)值判斷,以及如何應(yīng)用人工智能的倫理原則和規(guī)范等。然而,國(guó)會(huì)議員對(duì)其沒(méi)有足夠的理解,以至于不能對(duì)扎克伯格的人工智能技術(shù)提出有效反對(duì)。挑戰(zhàn)不熟悉的事情幾乎是不可能的,這也是臉書(shū)不再等待最高法院而是自己決定人工智能應(yīng)用規(guī)則的原因。
然而,目前的人工智能倫理原則缺乏內(nèi)部執(zhí)行或治理機(jī)制。倫理原則僅是宣言式的倡議或承諾,缺乏具體程序和規(guī)則。當(dāng)企業(yè)和其他組織承諾遵守道德準(zhǔn)則,而不建立任何治理機(jī)制時(shí),我們當(dāng)然有理由認(rèn)為,它們只是在做做樣子。在技術(shù)樂(lè)觀主義和巨大現(xiàn)實(shí)利益的裹挾下,未來(lái)人工智能領(lǐng)域,法律的作用會(huì)非常重要。
(作者系哈爾濱工程大學(xué)人文社會(huì)科學(xué)學(xué)院副教授)
(責(zé)任編輯:王治強(qiáng) hf013)
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“機(jī)電號(hào)”用戶(hù)上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of JDZJ Hao, which is a social media platform and only provides information storage services.
