機電之家 > 機電號 > 正文 申請入駐

歐洲正積極探索人工智能倫理問題

本周,由歐盟委員會任命的、擁有52名技術(shù)人員的專家組正式發(fā)布了一份普適性的《人工智能倫理指南(ethics guidelines for artificial intelligence)》,旨在促進開發(fā)“值得信賴的ai”成果(順帶一提,原文作者亦是這52位專家之一)。這是一份極具雄心的文件,也是人類在ai倫理探索方面首次率先在大規(guī)模試點活動當中進行實際測試,而不再簡單羅列理論性的道德原則。此次試點得到了歐盟委員會的全力支持。該委員會不僅批準了此項指南,同時亦呼吁各私營部門積極應用這份指南,并希望將其作為新的全球性標準。

在探索ai道德規(guī)范的道路上,歐洲并不是在孤單前行。過去幾年當中,加拿大與日本等國已經(jīng)發(fā)布過包含道德倫理原則的ai戰(zhàn)略,經(jīng)合組織也正立足這一領(lǐng)域廣泛收集建議。諸如ai合作伙伴關(guān)系等私人倡議更是制定出不少道德準則——這一伙伴關(guān)系目前已經(jīng)吸納到超過80家企業(yè)以及民間社會組織。另外,ai開發(fā)者們也熱情支持電氣與電子工程師協(xié)會(簡稱ieee)在倫理框架層面的努力以及阿西洛馬人工智能原則。目前,大多數(shù)高科技巨頭都已經(jīng)制定出自己的原則,民間社會也在快速消化各類指導性文件,包括以人權(quán)為重點的多倫多宣言。由牛津大學luciano floridi教授領(lǐng)導的一項研究發(fā)現(xiàn),盡管所使用的術(shù)語各不相同,但大部分現(xiàn)有聲明之間都存在著一大共通性特征:它們并非強制執(zhí)行,即沒有硬性約束力。

事實上,歐洲發(fā)布的這份指出也無法直接實施,但卻在諸多方面較以往的嘗試更進了一步。歐盟方面主要關(guān)注四大倫理原則,即尊重人的自主權(quán)、防止傷害、公平性以及可解釋性。但除此之外,指南提到可信賴的ai還意味著應遵守歐盟的法律與基本權(quán)利(包括隱私權(quán)),以及高水平的社會技術(shù)穩(wěn)健性。任何希望設(shè)計、訓練以及營銷可信賴ai系統(tǒng)的組織或個人,都必須認真考慮相關(guān)系統(tǒng)可能引發(fā)的風險,并對為減輕這些風險而采取的具體措施負責。此外,這份指南還提供了一套詳盡的框架,用于對此類措施做出評估。

對于渴望出臺一項強有力的約束性法令的從來者而言,這一次的指南恐怕仍然無法讓他們滿意。這里沒有提到弗蘭肯斯坦悖論、沒有技術(shù)發(fā)展奇點、沒有振聾發(fā)聵的條款——例如“ai應該始終具備可解釋性”、“ai永遠不應干擾人類”、“整個循環(huán)當中應始終有人類參與”或者“ai永遠不可抱有歧視之心”等。這些陳述雖然具有直觀意義上的吸引力,但卻與當前ai部署現(xiàn)實相去甚遠,而且顯然并不適合被實際轉(zhuǎn)化為政策性框架。

換言之,用戶并不需要詳細解釋或理解ai技術(shù)支持之下的冰箱到底在如何工作,也不需要明白無人駕駛汽車到底如何做出正常決策。他們需要相信的,只是ai解決方案可以被引入市場流程,并會在出現(xiàn)問題時由人類專家介入干預。但在另一方面,用戶應該有權(quán)了解他們?yōu)槭裁礋o法訪問政府檔案,或者為什么ai方案會將一部分人判定為補貼領(lǐng)取者或者腎臟移植受讓者。同樣的,在某些情況下,硬性將人類引入循環(huán)可能毫無意義(例如強制要求用戶坐在無人駕駛汽車的方向盤前面);當然,在大多數(shù)場景下,確保人類“在循環(huán)中”或者“由人類保留指揮權(quán)”也是非常必要的。此外,雖然歧視往往無法徹底消除——畢竟我們的人類社會本身就客觀存在著偏見問題,但最重要的是應禁止過度、不合理以及有違法律的歧視,并對受到影響的個人快速給予補償。更重要的是,這份指南中還包括幾個“需要高度關(guān)注的領(lǐng)域”實例,這些領(lǐng)域往往很難滿足值得信賴ai這一原則的相關(guān)要求,具體包括識別與追蹤使用ai方案的個人、部署隱蔽的ai系統(tǒng)、以有違人權(quán)的方式開發(fā)基于ai技術(shù)的公民評分系統(tǒng),以及利用ai技術(shù)開發(fā)致命性自主武器(簡稱law)。

值得信賴ai這一概念目前仍只是高級專家組表述中的所謂“理想目標”。歐盟機構(gòu)將在未來幾個月之內(nèi)最終決定是否將其作為具有約束力的政策性框架,并判斷其具體適用于哪些用例。這可能需要將其轉(zhuǎn)化為強制法(例如通過修改出臺侵權(quán)規(guī)定,針對特定行業(yè)立法以實現(xiàn)某些情況下的可信賴ai約束力,以及臨時性競爭規(guī)則等等),同時配合其它非強制性工具。關(guān)于其它措施,歐盟可以要求全部公共部門采購只能選擇可信賴的ai產(chǎn)品;或者要求醫(yī)療保健領(lǐng)域中的ai應用必須值得信賴等。此外,可能還需要出臺某種形式的認證機制以確保新系統(tǒng)得到正確實施,并以正確方式向用戶呈現(xiàn)信息。

另一個問題是,該制度是否有助于歐洲制定出全球性ai標準,從而重新提振自身競爭力。ibm公司已經(jīng)宣布將在全球范圍內(nèi)應用這套框架,但考慮到:

1)業(yè)界普遍認為美國對于最終用戶的隱私權(quán)保護不力;

2)美國平臺常被指責過度干擾用戶的自主權(quán)與決策權(quán),因此全面應用可信賴ai標準可能會在不久的將來把那些不合規(guī)(或者說非歐洲)企業(yè)擋在歐洲大門之外。

另外,起草這份“準則”的專家組并沒有討論任何關(guān)于工業(yè)與貿(mào)易的政策性方案。不過歐盟委員會在最近的一份官方文件中提出了“歐洲制造”的倫理、安全與前沿ai發(fā)展觀,這也暗示也許未來相關(guān)法律將得到全面實施。

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“機電號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of JDZJ Hao, which is a social media platform and only provides information storage services.

/企業(yè)主營產(chǎn)品/
/閱讀下一篇/

新消息!門頭溝人工智能園啟動新項目,刷新

相關(guān)推薦
熱點推薦
160102文章數(shù) 1517關(guān)注度
往期回顧 全部

設(shè)備相關(guān)熱點

設(shè)備相關(guān)推薦

頭條要聞

設(shè)備要聞

設(shè)備資訊

往期設(shè)備要聞