可信人工智能的道德準(zhǔn)則_第1頁
可信人工智能的道德準(zhǔn)則_第2頁
可信人工智能的道德準(zhǔn)則_第3頁
可信人工智能的道德準(zhǔn)則_第4頁
可信人工智能的道德準(zhǔn)則_第5頁
已閱讀5頁,還剩69頁未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

可信人工智能的道德準(zhǔn)則

EthicsGuidelinesForTrustworthyAI

作者:歐盟委員會(huì)獨(dú)立人工智能高級專家小組

編譯:中國電子信息產(chǎn)業(yè)發(fā)展研究院

(賽迪研究院)

2019年4月

1

目錄

執(zhí)行摘要.........................................32

A.引言.........................................陰

B.實(shí)現(xiàn)可信AI的架構(gòu)...........................114^

I.第一章可信AI的基礎(chǔ).....................144^

II.第二章:可信AI的實(shí)現(xiàn)..................252^

III.第三章:可信AI的評估.................4544

C.關(guān)于AI的機(jī)遇和關(guān)鍵問題的示例..............61&9

D.結(jié)論......................................

術(shù)語..........................................69^

2

執(zhí)行摘要

該準(zhǔn)則以推廣可信人工智能(AI)為目的??尚臕I應(yīng)

保證在系統(tǒng)的整個(gè)生命周期內(nèi)都具備以下三個(gè)要素:(1)合

法性,即符合所有適用的法律法規(guī);(2)道德性,即確保遵

守道德原則和價(jià)值觀;(3)穩(wěn)健性,盡管意圖良好,AI系統(tǒng)

也可能在無意間造成危害,因此從技術(shù)和社會(huì)的角度來看,

AI系統(tǒng)應(yīng)確保其穩(wěn)健性。各個(gè)要素本身都不可或缺,但并不

足以保證AI的可信性。理想狀態(tài)下,三個(gè)要素應(yīng)協(xié)調(diào)作用

并在操作中相互重合。在實(shí)踐中,如果這些要素之間出現(xiàn)沖

突,社會(huì)應(yīng)努力對其進(jìn)行協(xié)調(diào),保持一致。

該準(zhǔn)則為實(shí)現(xiàn)可信AI設(shè)定架構(gòu),但這一架構(gòu)并未對可

信AI的第一要素(合法性)進(jìn)行明確規(guī)定I其目標(biāo)是提供

關(guān)于第二和第三要素的指導(dǎo)準(zhǔn)則,即提升和確保AI的道德

性和穩(wěn)健性。針對所有利益相關(guān)者,該準(zhǔn)則就如何在社會(huì)技

術(shù)系統(tǒng)中實(shí)施這些原則提供指導(dǎo),尋求超越道德原則清單。

該準(zhǔn)則分為三個(gè)抽象層面,從抽象到具體逐步過渡,最后以

AI系統(tǒng)引發(fā)的機(jī)會(huì)和關(guān)鍵問題的示例作為結(jié)束。

L根據(jù)基于基本權(quán)利的方法,第一章確定在AI系統(tǒng)開

發(fā)、部署和使用過程中必須尊重的道德原則及其相關(guān)價(jià)值。

第一章中的重點(diǎn)指導(dǎo)內(nèi)容包括以下幾點(diǎn):

VAI系統(tǒng)的開發(fā)、部署和使用應(yīng)遵循以下道德原則:

尊重人的自主性、防止危害、確保公平和具備可解釋性。承

1本文件中的所有規(guī)范聲明旨在反映實(shí)現(xiàn)可信AI的第二和第三要素(道德性和穩(wěn)健性)的指

導(dǎo)準(zhǔn)則,并非旨在提供法律咨詢意見或就遵守適用法律提供指導(dǎo),盡管其中許多聲明在某種

程度上已經(jīng)反映在現(xiàn)有法律中。該方面具體內(nèi)容,參見21節(jié)及其后內(nèi)容。

3

認(rèn)并解決這些原則之間的潛在緊張關(guān)系。

V特別注意涉及更為弱勢的群體的情況,如兒童、殘

疾人和歷史上一直處于弱勢或易于遭遇不公平待遇的群體,

以及權(quán)力或信息不對稱的情況,如雇主和工人之間,或企業(yè)

和消費(fèi)者之間2。

V承認(rèn)AI系統(tǒng)在為個(gè)人和社會(huì)帶來實(shí)質(zhì)利益的同時(shí),

也會(huì)引發(fā)某些風(fēng)險(xiǎn),并可能產(chǎn)生負(fù)面影響,包括難以預(yù)測、

識(shí)別或衡量的影響(例如對民主、法治和分配正義的影響,

或?qū)θ祟愃季S本身的影響)。在適當(dāng)?shù)臅r(shí)候采取符合風(fēng)險(xiǎn)規(guī)

模的適當(dāng)措施來減輕這些風(fēng)險(xiǎn)。

II.第二章以第一章為基礎(chǔ),列出AI系統(tǒng)應(yīng)當(dāng)滿足的七

項(xiàng)要求,為如何通過技術(shù)方法和非技術(shù)方法實(shí)現(xiàn)可信AI提

供指導(dǎo)。

第二章中的重點(diǎn)指導(dǎo)內(nèi)容包括以下幾點(diǎn):

V確保AI系統(tǒng)的開發(fā)、部署和使用符合可信AI的七

個(gè)關(guān)鍵要求:(1)人類代理與監(jiān)督;(2)技術(shù)穩(wěn)健性和安全

性;(3)隱私和數(shù)據(jù)治理;(4)透明性;(5)多樣性、非歧

視性和公平性;(6)環(huán)境及社會(huì)福利;(7)問責(zé)性。

V考慮技術(shù)和非技術(shù)方法,以確保實(shí)現(xiàn)該等要求。

V促進(jìn)研究和創(chuàng)新,以協(xié)助評估AI系統(tǒng)并進(jìn)一步達(dá)到

要求;向更廣泛的公眾傳播成果和公開問題,系統(tǒng)地培訓(xùn)新

一代AI道德專家。

2參見《歐盟基本權(quán)利憲章》(簡稱《歐盟憲章》)第24條至27條,涉及兒童和老年人的權(quán)

利,殘疾人和工人權(quán)利的融合。另見關(guān)于消費(fèi)者保護(hù)的第38條。

4

J就實(shí)現(xiàn)AI系統(tǒng)預(yù)期設(shè)置的功能和限制以及如何實(shí)現(xiàn)

相關(guān)需求的信息,以清晰、主動(dòng)的方式與利益相關(guān)者進(jìn)行溝

通,保證關(guān)于AI系統(tǒng)相關(guān)處理的事實(shí)透明、公開。

V促進(jìn)AI系統(tǒng)的可跟蹤性和可審核性,特別是在關(guān)鍵

情境或情況下。

V鼓勵(lì)利益相關(guān)者參與AI系統(tǒng)的整個(gè)生命周期。推動(dòng)

培訓(xùn)和教育,使所有利益相關(guān)者都具備關(guān)于可信AI的認(rèn)知

并接受培訓(xùn)。

V時(shí)刻謹(jǐn)記不同的原則和要求之間可能存在根本的緊

張關(guān)系,持續(xù)地識(shí)別、評估、記錄和溝通相關(guān)權(quán)衡和解決方

案。

III.第三章制定具體但非全面的可信AI評估清單,旨在

落實(shí)第二章提出的主要要求。該評估清單需要根據(jù)AI系統(tǒng)

的具體用例進(jìn)行調(diào)整3。

第三章中的重點(diǎn)指導(dǎo)內(nèi)容包括以下幾點(diǎn):

V在開發(fā)、部署或使用AI系統(tǒng)時(shí),采用可信AI評估

清單,并將其調(diào)整為適用于正在使用的AI系統(tǒng)的特定用例。

V時(shí)刻謹(jǐn)記該評估清單不具備永遠(yuǎn)的全面性。確保AI

可信性的過程不是簡單地勾畫選項(xiàng),而是持續(xù)地識(shí)別和實(shí)現(xiàn)

需求,評估解決方案,確保在AI系統(tǒng)的整個(gè)生命周期內(nèi)改

進(jìn)結(jié)果,并保證利益相關(guān)者參與其中。

通過提供應(yīng)該尋求的有利機(jī)會(huì)的示例,以及應(yīng)該仔細(xì)考

3在該框架的范圍內(nèi),本評估表并沒有就確保法律合規(guī)性(合法性)提供任何意見,僅限于

就如何滿足可信AI的第二和第三要素(道德性和穩(wěn)健性)提供指導(dǎo)。

5

慮的AI系統(tǒng)所提出的關(guān)鍵問題,該文件的最后一節(jié)旨在具

體說明整個(gè)架構(gòu)所涉及的部分問題。

雖然該準(zhǔn)則旨在通過建立實(shí)現(xiàn)可信AI的橫向基礎(chǔ),為

AI應(yīng)用提供一般指導(dǎo),但不同的情況總會(huì)帶來不同的挑戰(zhàn)。

考慮到AI系統(tǒng)應(yīng)用場景的特異性,我們應(yīng)該探討的是,除

了該橫向架構(gòu)外,是否還需要一種分類方法,指導(dǎo)AI應(yīng)用。

該準(zhǔn)則無意取代任何形式的當(dāng)前或未來的決策或法規(guī),

亦無意阻止對該等決策或法規(guī)的引用。該準(zhǔn)則應(yīng)被視為動(dòng)態(tài)

文件,隨著時(shí)間的推移持續(xù)審查和更新,以確保隨著技術(shù)、

社會(huì)環(huán)境和知識(shí)的發(fā)展,該準(zhǔn)則具備持續(xù)相關(guān)性。本文件只

是討論“歐洲可信AI”的起點(diǎn)4。

除歐洲外,該準(zhǔn)則還旨在促進(jìn)全球范圍內(nèi)對AI系統(tǒng)道

德架構(gòu)的研究、反思和討論。

A.引言

2018年4月25日至12月7日通報(bào)中,歐盟委員會(huì)發(fā)布

關(guān)于人工智能(AI)的愿景,支持“歐洲研發(fā)的具備道德性

和安全性的前沿AI"。實(shí)現(xiàn)這一愿景的三大支柱包括:(1)

增加AI方面的公共和私人投資,促進(jìn)其發(fā)展和普及;(2)

為迎接社會(huì)經(jīng)濟(jì)變革做好準(zhǔn)備;(3)確保適當(dāng)?shù)牡赖潞头?/p>

架構(gòu),強(qiáng)化歐洲價(jià)值觀。

4在理想狀態(tài)下,該文件旨在適用于在歐盟成員國開發(fā)、部署和使用的AI系統(tǒng),以及在其

他地方開發(fā)或生產(chǎn)但在歐盟部署和使用的系統(tǒng)。本文件所指的“歐洲”,是指歐盟成員國。

然而,該準(zhǔn)則也渴望在歐盟之外發(fā)揮作用。同時(shí),值得注意的是,挪威和瑞士均為歐盟委員

會(huì)和成員國于2018年12月商定并發(fā)布的《人工智能協(xié)調(diào)計(jì)劃》的成員。

5COM(2018)237和COM(2018)795。值得注意的是,委員會(huì)通報(bào)中一直使用“歐洲制造”

一詞。但是,該準(zhǔn)則的范圍不僅包括歐洲制造的AI系統(tǒng),還包括在其他地方開發(fā),但在歐

洲部署或使用的AI系統(tǒng)。因此,在整個(gè)文件中,我們的目標(biāo)是促進(jìn)用于歐洲范圍內(nèi)的可信

Alo

6

為了促進(jìn)這一愿景的實(shí)現(xiàn),歐盟委員會(huì)成立獨(dú)立的人工

智能高級專家小組(High-LevelExpertGrouponAI,AI

HLEG),負(fù)責(zé)起草《人工智能道德準(zhǔn)則》和《政策和投資建

議》。

本文件載有的《人工智能道德準(zhǔn)則》是根據(jù)公眾對2018

年12月18日公布的《人工智能道德準(zhǔn)則》草案的修改意見,

由AI高級專家小組經(jīng)進(jìn)一步審議后對草案進(jìn)行修訂的成果。

該準(zhǔn)則以歐洲科學(xué)和新技術(shù)道德小組6的工作為基礎(chǔ),并從其

他類似的研究中汲取靈感7。

在過去幾個(gè)月里,秉持“多元一體”的歐洲格言,我們

52個(gè)人積極展開會(huì)面、討論和互動(dòng)。我們相信AI能夠?yàn)樯?/p>

會(huì)帶來翻天覆地的變化。AI本身并不是目的,而是極有希望

推動(dòng)人類繁榮的一種手段,能夠增進(jìn)個(gè)人和社會(huì)福祉,促進(jìn)

共同利益,并實(shí)現(xiàn)社會(huì)進(jìn)步和創(chuàng)新。特別是,AI系統(tǒng)有助于

實(shí)現(xiàn)聯(lián)合國的可持續(xù)發(fā)展目標(biāo),例如促進(jìn)性別平衡和應(yīng)對氣

候變化,推動(dòng)自然資源的合理使用,提高我們的健康水平和

流動(dòng)性,加強(qiáng)生產(chǎn)流程,以及支持我們根據(jù)可持續(xù)性和社會(huì)

凝聚力指標(biāo)監(jiān)測社會(huì)發(fā)展進(jìn)程。

為了實(shí)現(xiàn)這些目標(biāo),AI系統(tǒng)8應(yīng)當(dāng)以人為中心,致力于

推動(dòng)人性化服務(wù)和實(shí)現(xiàn)社會(huì)共同利益,以改善人類福祉和自

由為目標(biāo)。AI系統(tǒng)在為我們創(chuàng)造巨大機(jī)遇的同時(shí),也產(chǎn)生一

“歐洲科學(xué)和新技術(shù)道德小組是歐盟委員會(huì)下屬的一個(gè)咨詢小組。

7參見COM(2018)237第3.3條。

8本文件末尾的術(shù)語表所提供的人工智能系統(tǒng)的定義服務(wù)于本文件目的。該定義在AIHLEG

編寫的題為《AI的定義:主要功能和科學(xué)學(xué)科》的專用文檔中得以進(jìn)一步闡述,該準(zhǔn)則附

有該文檔。

7

定的風(fēng)險(xiǎn),必須妥善處理?,F(xiàn)在,我們正面臨塑造AI系統(tǒng)

發(fā)展的重要機(jī)遇,希望確保我們能夠擁有適于AI系統(tǒng)應(yīng)用

的可信的社會(huì)技術(shù)環(huán)境,同時(shí)期待AI系統(tǒng)生產(chǎn)商能夠通過

在產(chǎn)品和服務(wù)中嵌入可信AI以獲得競爭優(yōu)勢。因此,我們

需要盡力實(shí)現(xiàn)AI系統(tǒng)優(yōu)勢的最大化,同時(shí)防范和最小化其

風(fēng)險(xiǎn)。

在科技迅速發(fā)展的今天,我們認(rèn)為至關(guān)重要的是,信任

仍然是社會(huì)、社區(qū)、經(jīng)濟(jì)和可持續(xù)發(fā)展的基石。因此,我們

將可信AI視為基本抱負(fù),因?yàn)槿祟惣捌渖鐓^(qū)只有在能夠確

保技術(shù)可信性的明確和全面的架構(gòu)中,才能對技術(shù)發(fā)展和應(yīng)

用抱有信心。我們相信,歐洲應(yīng)該努力成為符合道德準(zhǔn)則的

前沿技術(shù)發(fā)展的家園和領(lǐng)袖。正是通過可信AI,作為歐洲公

民的我們才能尋求以一種與我們尊重人權(quán)、民主和法治的基

本價(jià)值觀相一致的方式,享受AI帶來的種種好處。

可信AI

可信度是人類和社會(huì)發(fā)展、部署和使用AI系統(tǒng)的前提。

如果AI系統(tǒng)及其背后的人類明顯缺乏可信度,可能會(huì)導(dǎo)致

意想不到的后果,并可能妨礙AI系統(tǒng)的應(yīng)用,從而失去AI

系統(tǒng)可能實(shí)現(xiàn)的巨大的社會(huì)和經(jīng)濟(jì)效益。為了幫助歐洲把握

AI系統(tǒng)帶來的機(jī)遇,我們旨在確保和擴(kuò)大可信AI的應(yīng)用。

對AI系統(tǒng)的開發(fā)、部署和使用的信任不僅取決于技術(shù)

的內(nèi)在特性,而且關(guān)系到涉及AI應(yīng)用的社會(huì)技術(shù)系統(tǒng)的特

質(zhì)9。與航空、核能或食品安全方面的信任(或喪失信任)問

9社會(huì)技術(shù)系統(tǒng)包括人類、國家行為者、公司、基礎(chǔ)設(shè)施、軟件、協(xié)議、標(biāo)準(zhǔn)、治理、現(xiàn)有

8

題類似,能夠產(chǎn)生信任或失去信任的不單是AI系統(tǒng)的某個(gè)

組成部分,而是系統(tǒng)整體。因此,對可信AI的追求不僅關(guān)

系到AI系統(tǒng)本身的可信性,還需要一個(gè)全面的系統(tǒng)性方法,

包括系統(tǒng)整個(gè)生命周期中,作為系統(tǒng)社會(huì)技術(shù)環(huán)境的所有參

與者和過程的可信性。

在系統(tǒng)的整個(gè)生命周期內(nèi),可信AI都應(yīng)具備以下三個(gè)

要素:

1.合法性,即符合所有適用的法律法規(guī);

2.道德性,即確保遵守道德原則和價(jià)值觀;

3.穩(wěn)健性,盡管意圖良好,AI系統(tǒng)也可能在無意間造

成危害,因此從技術(shù)和社會(huì)的角度來看,AI系統(tǒng)應(yīng)確保其穩(wěn)

健性。

各個(gè)要素本身都不可或缺,但并不足以保證AI的可信

性Q理想狀態(tài)下,三個(gè)要素應(yīng)協(xié)調(diào)作用并在操作中相互重

合。在實(shí)踐中,這些要素之間可能存在緊張關(guān)系,例如,有

時(shí),現(xiàn)行法律的范圍和內(nèi)容可能與道德規(guī)范相互矛盾。在這

種情況下,作為社會(huì)整體,我們個(gè)人和集體的責(zé)任是全力確

保這三個(gè)要素能夠有助于實(shí)現(xiàn)可信AI"。

可信的方法是實(shí)現(xiàn)“責(zé)任競爭力”的關(guān)鍵,以此為基礎(chǔ),

AI系統(tǒng)的所有相關(guān)方可以確信系統(tǒng)的設(shè)計(jì)、開發(fā)和使用合法、

合乎道德,并具備穩(wěn)健性。該準(zhǔn)則旨在促進(jìn)歐洲負(fù)責(zé)的可持

續(xù)AI創(chuàng)新,尋求將道德標(biāo)準(zhǔn)作為發(fā)展AI的獨(dú)特方法的核心

法律、監(jiān)督機(jī)制、激勵(lì)結(jié)構(gòu)、審計(jì)程序、最佳實(shí)踐報(bào)告等。

10這并不排除可能需要附加條件的事實(shí)。

"這也意味著立法機(jī)構(gòu)或決策者可能需要審查現(xiàn)有法律的適用性,因?yàn)檫@些法律可能與道德

原則存在矛盾。

9

支柱,從而促進(jìn)、實(shí)現(xiàn)和保護(hù)人類個(gè)體的繁榮和社會(huì)的共同

利益。我們相信,這將使歐洲成為值得個(gè)人和集體信任的

AI前沿技術(shù)領(lǐng)域的全球領(lǐng)導(dǎo)者。只有確保AI系統(tǒng)的可信度,

保證個(gè)人充分了解防范AI系統(tǒng)潛在風(fēng)險(xiǎn)的措施已經(jīng)到位,

歐洲社會(huì)的個(gè)人才能充分利用AI系統(tǒng)的優(yōu)勢。

AI系統(tǒng)的應(yīng)用和影響都已超越國界,由此產(chǎn)生的全球性

機(jī)遇和挑戰(zhàn)需要全球性的解決方案。因此,我們鼓勵(lì)所有利

益相關(guān)者為實(shí)現(xiàn)可信AI建立全球性架構(gòu),在促進(jìn)和維護(hù)各

自的基本權(quán)利的同時(shí),建立國際共識(shí)。

受眾和范圍

該準(zhǔn)則適用于設(shè)計(jì)、發(fā)展、部署、實(shí)施、使用AI或受

AI影響的所有利益相關(guān)者,包括但不限于公司、團(tuán)體、研究

人員、公共服務(wù)、政府機(jī)構(gòu)、體系、公民社會(huì)組織、個(gè)人、

工作人員及消費(fèi)者。致力于實(shí)現(xiàn)可信AI的利益相關(guān)者可以

自愿選擇使用該準(zhǔn)則作為兌現(xiàn)承諾的方法,特別是可以在開

發(fā)、部署或使用AI系統(tǒng)時(shí)使用第三章制定的實(shí)際評估清單。

該評估清單還可以補(bǔ)充并并入現(xiàn)有評估過程。

該準(zhǔn)則旨在為AI的一般應(yīng)用提供指導(dǎo),為實(shí)現(xiàn)可信AI

奠定橫向基礎(chǔ)。不同的情況帶來不同的挑戰(zhàn)。比如AI音樂

推薦系統(tǒng)就不會(huì)像負(fù)責(zé)提供關(guān)鍵性醫(yī)療建議的AI系統(tǒng)一樣,

引發(fā)道德問題。同樣,在企業(yè)對消費(fèi)者、企業(yè)對企業(yè)、雇主

對雇員和公共部門對公民的不同關(guān)系中使用的AI系統(tǒng),或

者更廣泛地說,在不同的部門或用例中使用的AI系統(tǒng),也

將帶來不同的機(jī)遇和挑戰(zhàn)。考慮到AI系統(tǒng)應(yīng)用的特異性,

10

該準(zhǔn)則的實(shí)現(xiàn)需要適應(yīng)具體的AI應(yīng)用情境。此外,是否有

必要采取額外的分類方法作為本文件所提議的一般性橫向

架構(gòu)的補(bǔ)充,也值得進(jìn)一步探索。

為了更好地理解如何橫向?qū)嵤┰摐?zhǔn)則,以及哪些事項(xiàng)需

要采用分類方法,我們鼓勵(lì)所有利益相關(guān)者試用可靠AI評

估清單(第三章),該清單將在本架構(gòu)內(nèi)運(yùn)行,并向我們提

供反饋。根據(jù)試用階段收集到的反饋信息,我們將在2020

年初對該準(zhǔn)則評估清單進(jìn)行修訂。試用階段將于2019年夏

天啟動(dòng),一直持續(xù)到年底。所有感興趣的利益相關(guān)者都可以

咨詢歐洲人工智能聯(lián)盟。

B.實(shí)現(xiàn)可信AI的架構(gòu)

該準(zhǔn)則闡明了在《歐盟基本權(quán)利憲章》和相關(guān)國際人權(quán)

法所載基本權(quán)利的基礎(chǔ)上實(shí)現(xiàn)可信AI的架構(gòu)。下面,我們

將簡要介紹可信AI的三個(gè)要素。

合法性AI

AI系統(tǒng)的運(yùn)行不能缺少秩序。歐洲、各國和國際已經(jīng)制

定一系列具有法律約束力的規(guī)則,適用于AI系統(tǒng)的開發(fā)、

部署和使用,或者與之相關(guān)。這些法律來源包括但不限于歐

盟主要法律(《歐盟條約》及《歐盟基本權(quán)利憲章》),歐盟

二級法律(如《通用數(shù)據(jù)保護(hù)條例》、《產(chǎn)品責(zé)任指令》、《歐

盟非個(gè)人數(shù)據(jù)自由流動(dòng)條例》、各項(xiàng)反歧視指令、消費(fèi)者法

律和《安全衛(wèi)生工作指令》),各項(xiàng)聯(lián)合國人權(quán)條約和歐洲理

事公約(如《歐洲人權(quán)公約》)和歐盟成員國的各項(xiàng)法律。

除了橫向適用的各項(xiàng)法律法規(guī)外,還存在適用于特定AI應(yīng)

11

用的各種特定領(lǐng)域的規(guī)則(例如適用于醫(yī)療保健領(lǐng)域的《醫(yī)

療器械法規(guī)》)。

法律規(guī)定的義務(wù)包括積極義務(wù)和消極義務(wù),這就意味著

法律條款的解讀不僅包括不能做什么,還要包括應(yīng)該做什么

和可以做什么,即法律條款在禁止某些行為的同時(shí),也鼓勵(lì)

某些行為。從這方面來講,《歐盟憲章》的條款不僅規(guī)定“業(yè)

務(wù)自由”和“藝術(shù)和科學(xué)自由”,還涉及我們在確保AI可信

度時(shí)更為熟悉的領(lǐng)域,例如數(shù)據(jù)保護(hù)和非歧視性等。

該準(zhǔn)則并未對可信AI的第一要素(合法性)進(jìn)行明確

規(guī)定,其目標(biāo)是提供關(guān)于第二和第三要素的指導(dǎo)準(zhǔn)則,即提

升和確保AI的道德性和穩(wěn)健性。雖然現(xiàn)有法律往往在一定

程度上已經(jīng)反映出AI的道德性和穩(wěn)健性內(nèi)容,但其充分實(shí)

現(xiàn)依舊可能超出現(xiàn)有的法律義務(wù)。

本文件中任何內(nèi)容均不得解釋為就如何遵守任何適用

的現(xiàn)有法律規(guī)范和要求提供法律意見或指導(dǎo),亦不得向任何

第三方創(chuàng)建法律權(quán)利或強(qiáng)加法律義務(wù)。我們需要重申的是,

任何自然人或法人均有責(zé)任遵守法律規(guī)定,無論是適用于當(dāng)

今AI應(yīng)用的現(xiàn)有條款,還是隨著AI發(fā)展應(yīng)運(yùn)而生的未來?xiàng)l

款。該準(zhǔn)則應(yīng)用的前提是,適用于開發(fā)、部署和使用AI系

統(tǒng)的過程和活動(dòng)的所有法律權(quán)利和義務(wù)仍然具有強(qiáng)制性,必

須適時(shí)遵守。

道德性AI

合法性只是確??尚臕I的三要素之一,僅僅遵守法律

不足以實(shí)現(xiàn)可信AL因?yàn)榉煞ㄒ?guī)并不總是與技術(shù)發(fā)展同步,

12

有時(shí)可能與道德規(guī)范互相矛盾,或者根本不適合處理某些問

題。為了確??尚判裕珹I系統(tǒng)也應(yīng)該符合道德準(zhǔn)則,與道德

規(guī)范保持一致。

穩(wěn)健性AI

即使道德規(guī)范得到保證,個(gè)人和社會(huì)也必須相信AI系

統(tǒng)不會(huì)造成任何無意的傷害。AI系統(tǒng)應(yīng)以安全、穩(wěn)妥和可靠

的方式運(yùn)作,并具備可預(yù)見的保障措施,以防止任何意外的

不利影響。因此,確保AI系統(tǒng)的穩(wěn)健性至關(guān)重要。這就需

要滿足技術(shù)要求(確保系統(tǒng)在應(yīng)用領(lǐng)域或生命周期階段等給

定情境中具有適當(dāng)?shù)募夹g(shù)穩(wěn)健性)和社會(huì)要求(適當(dāng)考慮系

統(tǒng)運(yùn)行情境和環(huán)境)。

因此,AI的道德性和穩(wěn)健性緊密關(guān)聯(lián),相互補(bǔ)充。第一

章中規(guī)定的原則和第二章中源自這些原則的要求均涉及這

兩個(gè)要素。

架構(gòu)

該準(zhǔn)則共分為三個(gè)章節(jié),從抽象到具體,包括:

?第一章一一可信AI的基礎(chǔ):通過闡述基于基本權(quán)利12

的方法,為可信AI奠定基礎(chǔ);確定和說明必須遵守

的道德原則,以確保AI的道德性和穩(wěn)健性。

?第二章一一可信AI的實(shí)現(xiàn):將這些道德原則轉(zhuǎn)化為

人工智能系統(tǒng)在整個(gè)生命周期中應(yīng)該實(shí)現(xiàn)和滿足的

七個(gè)關(guān)鍵要求;提供可用于實(shí)現(xiàn)這些原則的技術(shù)和非

12基本權(quán)利是國際和歐盟人權(quán)法律法規(guī)的基礎(chǔ),是《歐盟條約》和《歐盟憲章》保障的具有

法律效力的各項(xiàng)權(quán)利的基礎(chǔ)。由于具有法律約束力,遵守基本權(quán)利屬于可信AI的第一要素

(合法性)?;緳?quán)利也可以理解為反映所有個(gè)人因其人性而產(chǎn)生的特殊道德權(quán)利,不論其法

律約束力地位如何。從這個(gè)意義上說,基本權(quán)利也構(gòu)成了可信AI的第二要素。

13

技術(shù)方法。

?第三章一一可信AI的評估:列出滿足第二章要求的

具體而非全面的可靠AI評估清單,為AI實(shí)踐者提供

實(shí)際指導(dǎo)。該等評估應(yīng)該根據(jù)特定系統(tǒng)應(yīng)用場景進(jìn)行

調(diào)整。

該文件在最后一節(jié)列出源自AI系統(tǒng)的有利機(jī)會(huì)和關(guān)鍵

關(guān)切的例子,以此推動(dòng)相關(guān)的進(jìn)一步討論。

該準(zhǔn)則的結(jié)構(gòu)如圖1所示。

可信AI

AI道德性

圖1:可信AI的準(zhǔn)則框架

I.第一章可信AI的基礎(chǔ)

本章闡述了可信AI的基礎(chǔ)。可信AI以基本權(quán)利為基礎(chǔ),

14

體現(xiàn)為旨在確保AI的道德性和穩(wěn)健性的四項(xiàng)道德原則。本

章在很大程度上借鑒了道德領(lǐng)域的相關(guān)內(nèi)容。

AI的道德性是應(yīng)用道德學(xué)的子領(lǐng)域之一,關(guān)注AI的開

發(fā)、部署和使用所引發(fā)的道德問題,其核心問題是確定AI

如何促進(jìn)或提高對個(gè)人美好生活的關(guān)注,無論是在生活質(zhì)量

方面,還是在民主社會(huì)所必需的人類自治和自由方面。

對人工智能技術(shù)的道德反思有助于實(shí)現(xiàn)多種目的。首先,

可以促使人們在最基本的層面上反思保護(hù)個(gè)人和群體的必

要性。其次,可以鼓勵(lì)尋求道德價(jià)值培養(yǎng)的新型創(chuàng)新,比如

有助于實(shí)現(xiàn)聯(lián)合國可持續(xù)發(fā)展目標(biāo)的創(chuàng)新,這些目標(biāo)已深

深地植根于即將出臺(tái)的《2030年歐盟議程》%雖然本文件

主要涉及所提到的第一個(gè)目的,但不應(yīng)低估道德在第二個(gè)目

的中可能具有的重要性??尚臕I可以通過開創(chuàng)繁榮局面、

價(jià)值創(chuàng)造和財(cái)富最大化來促進(jìn)個(gè)人發(fā)展和集體福祉,有助于

通過推動(dòng)經(jīng)濟(jì)、社會(huì)和政治機(jī)會(huì)的平等分配的方式增進(jìn)公民

健康和幸福,推動(dòng)社會(huì)公平的實(shí)現(xiàn)。

因此,我們必須理解如何最好地支持AI系統(tǒng)的開發(fā)、

部署和使用,以確保每個(gè)人都能在基于AI的世界中茁壯成

長,并在同時(shí)建設(shè)具備全球競爭力的更美好的未來。與任何

強(qiáng)大的技術(shù)一樣,AI系統(tǒng)在社會(huì)中的應(yīng)用也會(huì)產(chǎn)生若干道德

挑戰(zhàn),例如對人和社會(huì)、決策能力和安全性的影響。如果我

們越來越多地使用AI系統(tǒng)的幫助或者委托AI系統(tǒng)進(jìn)行決策,

13參見

https:〃ec.europa.eu/commission/publications/reflection-paper-towards-sustainab

le-europ6-2030en。

11

參見https:〃sustainabledevelopmenl.un.org/?menu=1300o

15

我們需要確保這些系統(tǒng)對人們生活的影響是公平的,符合不

得妥協(xié)值的價(jià)值觀并能夠采取相應(yīng)的行動(dòng),以及具備合適的

問責(zé)過程以確保公平性。

歐洲需要對其意圖實(shí)現(xiàn)的AI沉浸式未來的標(biāo)準(zhǔn)愿景進(jìn)

行定義,并理解為了實(shí)現(xiàn)這一愿景,應(yīng)該在歐洲研究、發(fā)展、

部署和使用哪種AI概念。通過該文件,我們旨在通過引入

可信AI的概念來促成這些目標(biāo)的實(shí)現(xiàn),并認(rèn)為可信AI是構(gòu)

建AI未來的正確方式。在未來,民主、法治和基本權(quán)利將

成為AI系統(tǒng)的支柱,而AI系統(tǒng)也將不斷改進(jìn)和捍衛(wèi)民主文

化,創(chuàng)造一個(gè)創(chuàng)新和責(zé)任競爭力能夠蓬勃發(fā)展的環(huán)境。

無論其未來版本的一致性、開發(fā)程度和細(xì)粒度如何,特

定領(lǐng)域的道德代碼永遠(yuǎn)無法替代道德推理本身,而道德推理

必須始終對一般準(zhǔn)則無法規(guī)定的情境細(xì)節(jié)保持敏感。除了制

定一套規(guī)則外,確??尚臕I還要求我們通過公開辯論、教

育和實(shí)踐學(xué)習(xí),建立并保持一種道德文化和思維模式。

1.作為道德和合法權(quán)利的基本權(quán)利

我們相信,AI的道德性應(yīng)以《歐盟條約》?《歐盟憲

章》和國際人權(quán)法所規(guī)定的基本權(quán)利為基礎(chǔ)電在民主和法

治框架內(nèi)尊重基本權(quán)利,是最有希望確定在人工智能的背景

下實(shí)施的抽象道德原則和價(jià)值觀的基礎(chǔ)。

《歐盟條約》和《歐盟憲章》規(guī)定了歐盟成員國和歐盟

機(jī)構(gòu)在執(zhí)行歐盟法律時(shí)必須尊重的一系列基本權(quán)利。《歐盟

15歐盟的基礎(chǔ)是憲法承諾保護(hù)人類基本的和不可分割的權(quán)利,確保尊重法治,促進(jìn)民主自由

和共同利益。這些權(quán)利反映在《歐盟條約》第2條和第3條以及《歐盟基本權(quán)利憲章》中。

16其他法律文書反映并進(jìn)一步規(guī)定這些承諾,例如歐洲理事會(huì)的《歐洲社會(huì)憲章》或歐盟的

《通用數(shù)據(jù)保護(hù)條例》等具體立法。

16

憲章》對這些權(quán)利的描述涉及尊嚴(yán)、自由、平等和團(tuán)結(jié)、公

民權(quán)利和正義。將這些基本權(quán)利相結(jié)合的共同基礎(chǔ)可以理解

為植根于對人類尊嚴(yán)的尊重,從而反映出我們所謂的“以人

為中心的方法”,在這種方法中,人在公民、政治、經(jīng)濟(jì)和

社會(huì)領(lǐng)域中享有獨(dú)一無二和不可剝奪的首要道德地位17。

雖然《歐盟憲章》中規(guī)定的基本權(quán)利具有法律約束力必

但重要的是要認(rèn)識(shí)到,基本權(quán)利并不可能在任何情況下都提

供全面的法律保護(hù)。例如,對于《歐盟憲章》,必須強(qiáng)調(diào)其

適用范圍僅限于歐盟法律領(lǐng)域。國際人權(quán)法,特別是《歐洲

人權(quán)公約》對歐盟成員國具有法律約束力,包括歐盟法律范

圍之外的領(lǐng)域。與此同時(shí),個(gè)人和(一定程度上的)群體也

因其作為人的道德地位而被賦予某些基本權(quán)利,并且不受其

法律效力的制約。作為法律上可強(qiáng)制執(zhí)行的權(quán)利,基本權(quán)利

屬于可信AI的第一要素(合法性),保障AI系統(tǒng)遵守法律

規(guī)定。作為每個(gè)人都具備的權(quán)利,基本權(quán)利根植于人類固有

道德地位,是可信AI的第二要素(道德性)的基礎(chǔ),處理

不一定具有法律約束力但對確??尚哦戎陵P(guān)重要的道德規(guī)

范。由于本文件的目的不是就前者提供指導(dǎo),而是出于這些

非約束性準(zhǔn)則的目的,因此,本文件中的基本權(quán)利是對后者

的反映。

2.從基本權(quán)利到道德原則

2.1作為可信AI基礎(chǔ)的基本權(quán)利

17應(yīng)當(dāng)指出,對以人為中心的人工智能的承諾及其對基本權(quán)利的錨定需要集體的社會(huì)和憲法

基礎(chǔ),只有在這些基礎(chǔ)之上,個(gè)人自由和對人類尊嚴(yán)的尊重實(shí)際上才是可能的和有意義的,

而不是意味著對人類過分個(gè)人主義的描述。

■根據(jù)《憲章》第五十一條,其適用于歐盟機(jī)構(gòu)和歐盟成員國執(zhí)行歐盟法律。

17

在國際人權(quán)法、《歐盟條約》和《歐盟憲章》所規(guī)定的

一整套不可分割的綜合權(quán)利中,以下系列的基本權(quán)利尤為適

合AI系統(tǒng)。在特定情況下,其中許多權(quán)利在歐盟具有法律

強(qiáng)制性,因此遵守這些權(quán)利的相關(guān)條款具備法律強(qiáng)制性。即

使已經(jīng)確保實(shí)現(xiàn)法律上可強(qiáng)制執(zhí)行的基本權(quán)利,道德反思依

舊有助于理解AI系統(tǒng)的開發(fā)、部署和使用如何涉及基本權(quán)

利及其潛在價(jià)值,并且如何提供更細(xì)粒度的指導(dǎo),確定憑借

AI技術(shù)我們應(yīng)該做什么而不是我們(目前)可以做什么。

尊重人類尊嚴(yán)。人類尊嚴(yán)所包含的理念是,每個(gè)人都擁

有“內(nèi)在價(jià)值”,這種價(jià)值不應(yīng)被他人或AI系統(tǒng)等新技術(shù)削

弱、損害或壓制%在這方面,尊重人類尊嚴(yán)意味著所有人

都應(yīng)得到尊重,因?yàn)樗麄兪堑赖碌闹黧w,而不僅僅是被篩選、

分類、評分、聚集、制約或操縱的對象。因此,AI系統(tǒng)應(yīng)以

尊重、服務(wù)和保護(hù)人類身心完整、個(gè)人和文化認(rèn)同感以及滿

足人類基本需求的方式發(fā)展2。。

個(gè)人自由。人類應(yīng)該保有自主進(jìn)行人生抉擇的自由。這

既需要不受主權(quán)侵犯的自由,也需要政府和非政府組織的干

預(yù),以確保易于遭遇不公平待遇的個(gè)人平等地享有AI帶來

的好處和機(jī)會(huì)。在AI應(yīng)用情境中,個(gè)人自由的實(shí)現(xiàn)需要減

少直接(或間接)的原因?qū)е碌姆欠{迫、對精神自治和精

神健康的威脅、不正當(dāng)監(jiān)視、欺騙和不公平操作。事實(shí)上,

19參見《人的尊嚴(yán)與人權(quán)的司法解釋》,C.McCrudden,《歐洲國際法雜志》2008年第19期

⑷。

20關(guān)于"人類尊嚴(yán)'’的解讀,參見E.Hilgendorf所著的“ProblemAreasintheDignityDebate”和

“EnsembleTheoryofHumanDignity”,以及D.Grimm、A.Kemmerer和C.Mollers合編的

“HumanDignityinContexto2018年“HumanDignityinContext”第325頁。

18

個(gè)人自由意味著承諾支持個(gè)人擁有對自我生活的更高控制

權(quán),包括(除其他權(quán)利外)保護(hù)業(yè)務(wù)自由,自由的藝術(shù)與科

學(xué),言論自由,私生活和隱私權(quán),集會(huì)和結(jié)社的自由。

尊重民主、正義和法治。憲政民主國家的所有政府權(quán)力

都必須得到法律授權(quán)并受限于法律。AI系統(tǒng)應(yīng)該維護(hù)和促進(jìn)

民主進(jìn)程,尊重個(gè)人的多元化價(jià)值觀和生活選擇,不得破壞

民主進(jìn)程、人類審議或民主投票制度。AI系統(tǒng)還必須承諾,

其運(yùn)作方式不得破壞法治賴以建立的基本承諾、強(qiáng)制性法律

和監(jiān)管,以及確保正當(dāng)程序和法律面前人人平等。

平等、公平和團(tuán)結(jié)(包括易于遭遇不公平待遇的個(gè)人的

權(quán)利)。AI系統(tǒng)必須確保對所有人的道德價(jià)值和尊嚴(yán)的平等

尊重。這將超越非歧視范疇,允許根據(jù)客觀的正當(dāng)理由對不

同情況進(jìn)行區(qū)分。在AI系統(tǒng)應(yīng)用情境中,平等意味著系統(tǒng)

操作不得產(chǎn)生有偏見的不公平輸出(例如,用于訓(xùn)練AI系

統(tǒng)的數(shù)據(jù)應(yīng)該盡可能包含不同的人口群體)。這也需要充分

尊重可能的弱勢個(gè)人和群體21,例如工人、婦女、殘疾人、

少數(shù)民族、兒童、消費(fèi)者或其他易于遭遇不公平待遇的個(gè)人。

公民權(quán)利。公民享有廣泛的權(quán)利,包括投票權(quán)、良好管

理或查閱公共文件的權(quán)利,以及向政府請?jiān)傅臋?quán)利。在提高

政府向社會(huì)提供公共產(chǎn)品和服務(wù)的規(guī)模和效率方面,AI系統(tǒng)

具備巨大的潛力。但同時(shí),AI系統(tǒng)也會(huì)對公民權(quán)利產(chǎn)生負(fù)面

影響,因此,公民權(quán)利應(yīng)該得到保障。在此處使用“公民權(quán)

利”一詞,并不是要否認(rèn)或忽視歐盟第三國國民和非正規(guī)(或

21有關(guān)本文件中使用的術(shù)語說明,參見術(shù)語表。

19

非法)人士的權(quán)利,該等人士根據(jù)國際法條例,也享有AI

系統(tǒng)領(lǐng)域的相關(guān)權(quán)利。

2.2AI系統(tǒng)應(yīng)用情境中的道德原則22

許多公共、私人和民間組織都從作為AI系統(tǒng)基礎(chǔ)的倫

理框架的基本權(quán)利中汲取靈感23。在歐盟,歐洲科學(xué)與新技

術(shù)倫理小組(EuropeanGrouponEthicsInScienceandNew

Technologies,EGE)根據(jù)歐盟條約和憲章所確立的基本價(jià)值

觀,提出9項(xiàng)基本原則24。我們在這項(xiàng)成果的基礎(chǔ)上進(jìn)一步

發(fā)展,解讀迄今為止各團(tuán)體提出的大多數(shù)原則,同時(shí)闡明所

有原則尋求發(fā)展和支持的目的。這些道德原則有助于推動(dòng)發(fā)

展具體的新監(jiān)管工具,解釋隨著社會(huì)技術(shù)環(huán)境的發(fā)展而變化

的基本權(quán)利,指導(dǎo)用于AI系統(tǒng)開發(fā)、部署和使用的基本原

理,這些原理隨著社會(huì)本身的發(fā)展而動(dòng)態(tài)適應(yīng)。

AI系統(tǒng)應(yīng)該有助于改善個(gè)人和集體福祉。本節(jié)列出基于

基本權(quán)利的四項(xiàng)道德原則,這些原則必須得到尊重,以確保

以可信的方式開發(fā)、部署和使用AI系統(tǒng)。作為指定的道德

要求,AI實(shí)踐者應(yīng)始終遵守這些原則。在不強(qiáng)加等級制度的

情況下,我們在下面列出的原則反映了《歐盟憲章》所依據(jù)

的基本權(quán)利的出現(xiàn)順序25。

22這些原則也適用于其他技術(shù)的開發(fā)、部署和使用,因此并不特定限于AI系統(tǒng)。在接下來

的章節(jié)中,我們的目標(biāo)是闡明這些原則在AI相關(guān)情境中的特別相關(guān)性。

23對基本權(quán)利的依賴也有助于限制監(jiān)管的不確定性,因?yàn)橐詺W盟數(shù)十年基本權(quán)利保護(hù)的實(shí)踐

為基礎(chǔ),可以確保監(jiān)管的清晰性、可讀性和預(yù)見性。

24最近,AI4People專責(zé)小組考察了上述EGE原則,以及迄今為止提出的36項(xiàng)其他道德原

則,并歸納為4項(xiàng)主要原則:L.Floridi,J.Cowls,M.Bcltrametti,R.Chatila,P.Chazerand,V.

Dignum,C.Luetge,R.Madelin,U.Pagallo,F.Rossi,B.Schafer,P.Valcke,E.J.M.Vayena

(2018),uAI4People—AnEthicalFrameworkforaGoodAISociety:Opportunities,Risks,

Principles,andRecommendation",MindsandMachines28(4):689-707o

25尊重人類自治與人類尊嚴(yán)和自由權(quán)利密切相關(guān)(反映在《憲章》第1條和第6條)。預(yù)防

20

四項(xiàng)道德原則包括:

(1)尊重人的自主性;

(2)防止危害;

(3)確保公平;

(4)具備可解釋性。

四項(xiàng)道德原則中的許多內(nèi)容在很大程度上已經(jīng)反映在

現(xiàn)有的法律要求中,必須強(qiáng)制遵守,因此也屬于AI合法性

的范疇,而AI合法性是可信AI的第一要素26。然而,如上

所述,雖然許多法律義務(wù)反映道德原則,但遵守道德原則超

越對現(xiàn)有法律的強(qiáng)制遵守27。

?尊重人的自主性

歐盟賴以建立的基本權(quán)利旨在確保尊重人類的自由和

自治。與AI系統(tǒng)相互作用的人類必須能夠確保充分和有效

的自我決定,并能夠參與民主進(jìn)程。AI系統(tǒng)不得毫無理由地

服從、脅迫、欺騙、操縱、影響或驅(qū)趕人類,而應(yīng)增強(qiáng)、補(bǔ)

充和實(shí)現(xiàn)人類的認(rèn)知、社會(huì)和文化技能。人與AI系統(tǒng)之間

的功能分配應(yīng)遵循以人為中心的設(shè)計(jì)原則,為人類留下有意

義的選擇機(jī)會(huì)。這意味著要確保人類對AI系統(tǒng)工作過程的

監(jiān)督28。AI系統(tǒng)也可能從根本上改變?nèi)祟惞ぷ鞣秶?。AI系統(tǒng)

應(yīng)該在工作環(huán)境中支持人類,并致力于創(chuàng)造有意義的工作。

?防止危害

傷害與保護(hù)身心健全密切相關(guān)(反映在第3條)。

26想想GDPR或歐盟消費(fèi)者保護(hù)法規(guī)。

27有關(guān)這一主題的進(jìn)一步內(nèi)容,參見L.Floridi所著的SoftEthicsandtheGovernanceofthe

Digital,《哲學(xué)與技術(shù)》,2018年3月刊登,第31卷,第1期,第1-8頁。

28人為監(jiān)督的概念作為下文第二章所列的關(guān)鍵要求之一得到進(jìn)一步發(fā)展。

21

AI系統(tǒng)不得造成或加劇對人類的危害29,也不得對人類

產(chǎn)生負(fù)面影響3。,而應(yīng)保護(hù)人類尊嚴(yán)以及身心健全。AI系統(tǒng)

及其運(yùn)行環(huán)境必須具備安全性,確保技術(shù)穩(wěn)健性,并避免惡

意使用。弱勢群體應(yīng)得到更多關(guān)注,并納入AI系統(tǒng)的發(fā)展、

部署和使用之中。我們還必須特別注意,因?yàn)闄?quán)力或信息的

不對稱,例如雇主與雇員、企業(yè)與消費(fèi)者或政府與公民之間

的不對稱,AI系統(tǒng)可能產(chǎn)生或加劇不利影響。防止危害還需

要考慮到AI系統(tǒng)應(yīng)用的自然環(huán)境和所有相關(guān)生物。

?確保公平

AI系統(tǒng)的開發(fā)、部署和使用必須具備公平性。我們承認(rèn)

公平有許多不同的解釋,并認(rèn)為公平既有實(shí)質(zhì)性內(nèi)容,也有

程序性內(nèi)容。公平的實(shí)質(zhì)性內(nèi)容意味著承諾確保公平公正地

分配利益和成本,并確保個(gè)人和團(tuán)體免于不公平偏見、歧視

和污蔑。如果可以避免不公平偏見,AI系統(tǒng)甚至有助于提高

社會(huì)公平。AI系統(tǒng)還應(yīng)促進(jìn)在獲得教育、商品、服務(wù)和技術(shù)

方面的平等機(jī)會(huì)。此外,使用AI系統(tǒng)不應(yīng)導(dǎo)致人們遭遇欺

騙或在選擇自由方面受到無理的損害。此外,公平意味著

AI實(shí)踐者應(yīng)該尊重手段和目的之間的比例原則,謹(jǐn)慎思考如

何平衡相互競爭的利益和目標(biāo)31。公平的程序性方面要求對

AI系統(tǒng)和操作人員所做的決策進(jìn)行抗辯并尋求有效糾正的

29危害可以針對個(gè)人或集體,也可以包括對社會(huì)、文化和政治環(huán)境的無形損害。

3。這也包括個(gè)人和社會(huì)群體的生活方式,例如避免文化傷害。

31這與比例原則有關(guān)(反映為“殺雞焉用牛刀”)。為達(dá)到目的而采取的措施(例如為實(shí)現(xiàn)AI

優(yōu)化功能而實(shí)施的數(shù)據(jù)提取措施)應(yīng)限于嚴(yán)格必要的范圍。該原則還規(guī)定,當(dāng)達(dá)到某一目標(biāo)

存在若干措施時(shí),應(yīng)優(yōu)先考慮對基本權(quán)利和道德規(guī)范危害最小的措施(AI開發(fā)人員應(yīng)該始

終優(yōu)先選擇采納公共部門的數(shù)據(jù),而不是個(gè)人數(shù)據(jù))??紤]到公司權(quán)利(包括知識(shí)產(chǎn)權(quán)和機(jī)

密性)和用戶權(quán)利,也可以參考使用者和部署者之間的比例。

22

能力32。為了實(shí)現(xiàn)這一點(diǎn),負(fù)責(zé)決策的實(shí)體必須是可識(shí)別的,

決策過程也應(yīng)當(dāng)具備可解釋性。

?具備可解釋性

可解釋性對于建立和維護(hù)用戶對AI系統(tǒng)的信任至關(guān)重

要。這意味著保證過程的透明性,關(guān)于AI系統(tǒng)功能和目的

進(jìn)行公開交流,(在可能的范圍內(nèi))向直接和間接相關(guān)方解

釋決策。這些信息是對某項(xiàng)決策提出適當(dāng)質(zhì)疑的基礎(chǔ)。但是,

對模型生成特定輸出或決策(以及哪些輸入因素共同作用的

結(jié)果)的解釋并不總是可能的,也存在被稱為“黑匣子”算

法的不能解釋的情況,需要特別注意。在這些情況下,可能

需要其他可解釋性度量(例如可跟蹤性、可審核性和關(guān)于系

統(tǒng)功能的透明通信),前提是系統(tǒng)整體尊重基本權(quán)利。如果

系統(tǒng)輸出是錯(cuò)誤的或不準(zhǔn)確的,那么對可解釋性的需求在很

大程度上取決于應(yīng)用情境和后果的嚴(yán)重性33。

2.3各項(xiàng)原則間的緊張關(guān)系

因?yàn)槿鄙俟潭ǖ慕鉀Q辦法,上述原則之間可能會(huì)產(chǎn)生緊

張關(guān)系。根據(jù)歐盟對民主參與、正當(dāng)程序和公開政治參與的

基本承諾,應(yīng)當(dāng)建立負(fù)責(zé)任的審議方法,用于應(yīng)對此類緊張

關(guān)系。例如,在AI系統(tǒng)的各種應(yīng)用領(lǐng)域中,防止危害原則

和尊重人的自主性的原則可能存在沖突。以AI系統(tǒng)用于“預(yù)

測性警務(wù)”為例,這可能有助于減少犯罪,但所涉及的監(jiān)視

32包括按照《歐盟基本權(quán)利憲章》第十二條的規(guī)定,在工作環(huán)境中行使結(jié)社權(quán)和加入工會(huì)

的權(quán)利。

33例如,AI系統(tǒng)產(chǎn)生的不準(zhǔn)確的購物建議可能不會(huì)引發(fā)道德方面的擔(dān)憂,但AI系統(tǒng)對一個(gè)

被判刑事犯罪的人是否應(yīng)該在同等罪名下予以釋放的建議則完全不同。

23

活動(dòng)可能在某些方面侵犯個(gè)人自由和隱私。此外,AI系統(tǒng)的

總體效益應(yīng)大大超過可預(yù)見的個(gè)人風(fēng)險(xiǎn)。盡管上述原則確實(shí)

為解決方案提供指導(dǎo),但仍然屬于抽象的道德處方。因此,

AI實(shí)踐者不能指望基于上述原則找到正確的解決方案,而應(yīng)

通過基于證據(jù)的理性反思(而不是直覺或隨機(jī)判斷)來應(yīng)對

道德困境和進(jìn)行權(quán)衡。

然而,在某些情況下,我們可能無法確定道德上可以接

受的權(quán)衡。某些基本權(quán)利和相關(guān)原則是絕對的,不得妥協(xié)(例

如人的尊嚴(yán))。

第一章中的重點(diǎn)指導(dǎo)內(nèi)容包括以下幾點(diǎn):

VAI系統(tǒng)的開發(fā)、部署和使用應(yīng)遵循以下道德原則:

尊重人的自主性、防止危害、確保公平和具備可解釋性。承

認(rèn)并解決這些原則之間的潛在緊張關(guān)系。

V特別注意涉及更為弱勢的群體的情況,如兒童、殘

疾人和歷史上一直處于弱勢或易于遭遇不公平待遇的群體,

以及權(quán)力或信息不對稱的情況,如雇主和工人之間,或企業(yè)

和消費(fèi)者之間34。

V承認(rèn)AI系統(tǒng)在為個(gè)人和社會(huì)帶來實(shí)質(zhì)利益的同時(shí),

也會(huì)引發(fā)某些風(fēng)險(xiǎn),并可能產(chǎn)生負(fù)面影響,包括難以預(yù)測、

識(shí)別或衡量的影響(例如對民主、法治和分配正義的影響,

或?qū)θ祟愃季S本身的影響)。在適當(dāng)?shù)臅r(shí)候采取符合風(fēng)險(xiǎn)規(guī)

模的適當(dāng)措施來減輕這些風(fēng)險(xiǎn)。

34參見《歐盟基本權(quán)利憲章》(簡稱《歐盟憲章》)第24條至27條,涉及兒童和老年人的權(quán)

利,殘疾人和工人權(quán)利的融合。另見關(guān)于消費(fèi)者保護(hù)的第38條。

24

II.第二章:可信Al的實(shí)現(xiàn)

本章在第一章所述原則的基礎(chǔ)上,列出必須滿足的七項(xiàng)

要求,為可信AI的實(shí)施和實(shí)現(xiàn)提供指導(dǎo)。此外,本章還介

紹了可以在AI系統(tǒng)的整個(gè)生命周期內(nèi)實(shí)現(xiàn)這些需求的技術(shù)

和非技術(shù)方法。

1.可信AI要求

為了實(shí)現(xiàn)可信AI,我們必須將第一章概述的原則轉(zhuǎn)化為

具體要求。這些要求適用于參與AI系統(tǒng)生命周期的不同利

益相關(guān)者,包括開發(fā)人員、部署人員和最終用戶,以及更廣

泛的社會(huì)。開發(fā)人員指的是研究、設(shè)計(jì)和/或開發(fā)AI系統(tǒng)的

人員。部署人員指的是在其業(yè)務(wù)流程中使用AI系統(tǒng)并向其

他方提供產(chǎn)品和服務(wù)的公共或私人組織。最終用戶意指直接

或間接參與AI系統(tǒng)的用戶。最后,更廣泛的社會(huì)包括AI系

統(tǒng)直接或間接影響的所有其他社會(huì)成員。

不同類別的利益相關(guān)者應(yīng)承擔(dān)不同的角色,以確保各項(xiàng)

要求得到滿足:

a.開發(fā)人員應(yīng)在設(shè)計(jì)和開發(fā)過程中實(shí)現(xiàn)并應(yīng)用各項(xiàng)要

求;

b.部署人員應(yīng)該確保所使用的系統(tǒng)以及所提供的產(chǎn)品

和服務(wù)滿足各項(xiàng)要求;

c.最終用戶和更廣泛的社會(huì)成員應(yīng)了解并遵守各項(xiàng)要

求。

下列要求列表并不全面35,僅包括系統(tǒng)、個(gè)人和社會(huì)方

35在不強(qiáng)加等級制度的情況下,下列原則反映《歐盟憲章》中與之相關(guān)的原則和權(quán)利的出

25

面:

1.人類代理與監(jiān)督

包括基本權(quán)利、人類代理人為監(jiān)督;

2.技術(shù)穩(wěn)健性和安全性

包括攻擊恢復(fù)能力和安全性、后備計(jì)劃和一般安全、準(zhǔn)

確性、可靠性和重現(xiàn)性;

3.隱私和數(shù)據(jù)治理

包括尊重隱私、數(shù)據(jù)質(zhì)量和完整性以及數(shù)據(jù)訪問;

4.透明性

包括可追溯性、可解釋性和通信;

5.多樣性、非歧視性和公平性

包括避免不公平偏見,可及性和通用設(shè)計(jì),以及利益相

關(guān)者的參與;

6.環(huán)境及社會(huì)福利

包括可持續(xù)性和環(huán)境友好性、社會(huì)影響、社會(huì)和民主;

7.問責(zé)性

現(xiàn)順序。

26

包括可審核性、負(fù)面影響最小化和報(bào)告、權(quán)衡和糾正。

圖2:七項(xiàng)要求的相互關(guān)系:所有要求同等重要,相互支撐,并且在

AI系統(tǒng)的整個(gè)生命周期得以滿足和進(jìn)行評估

雖然所有要求同等重要,但是在不同領(lǐng)域和行業(yè)應(yīng)用時(shí),

我們需要考慮各項(xiàng)要求應(yīng)用的具體情境及其之間潛在的緊

張關(guān)系。這些要求的實(shí)現(xiàn)應(yīng)貫穿AI系統(tǒng)的整個(gè)生命周期,

并取決于特定的系統(tǒng)應(yīng)用。雖然大多數(shù)要求適用于所有AI

系統(tǒng),但對直接或間接影響個(gè)人的要求,應(yīng)當(dāng)特別注意。在

某些應(yīng)用場景中(例如工業(yè)環(huán)境中),這些要求之間的相關(guān)

性可能較小。

在某些情況下,上述要求的部分內(nèi)容已經(jīng)體現(xiàn)在現(xiàn)有法

律中。在此,我們需要重申的是,與可信AI的第一要素一

致,AI實(shí)踐者有責(zé)任確保遵守相關(guān)法律義務(wù),無論是橫向適

27

用的法律法規(guī),還是特定領(lǐng)域的規(guī)則規(guī)定。

在下面的段落中,我們將對各項(xiàng)要求進(jìn)行更詳細(xì)的解讀。

1.1人類代理與監(jiān)督

根據(jù)尊重人的自主性的原則規(guī)定,AI系統(tǒng)應(yīng)支持人類自

主和決策。這就要求AI系統(tǒng)通過支持用戶代理,成為民主、

繁榮和公平社會(huì)的推動(dòng)者,促進(jìn)基本權(quán)利的實(shí)施,并允許人

為監(jiān)督。

基本權(quán)利。AI系統(tǒng)和許多技術(shù)一樣,既能實(shí)現(xiàn)基本權(quán)利,

也會(huì)阻礙基本權(quán)利。AI系統(tǒng)可以造福人類,例如協(xié)助跟蹤個(gè)

人數(shù)據(jù),或通過擴(kuò)大教育的普及性,保障人們的受教育權(quán)。

然而,考慮到其范圍和能力,AI系統(tǒng)也會(huì)對基本權(quán)利產(chǎn)生負(fù)

面影響。在存在這種風(fēng)險(xiǎn)的情況下,我們應(yīng)在AI系統(tǒng)開發(fā)

之前,對AI系統(tǒng)對基本權(quán)利的影響進(jìn)行評估,包括在民主

社會(huì)中,在必要情況下,是否可以降低該等風(fēng)險(xiǎn)或?qū)ζ溥M(jìn)行

合理解釋,以便尊重他人的權(quán)利和自由。此外,我們應(yīng)當(dāng)建

立相關(guān)機(jī)制,接收關(guān)于可能侵犯基本權(quán)利的AI系統(tǒng)的外部

反饋。

人類代理。用戶應(yīng)該能夠就AI系統(tǒng)的相關(guān)應(yīng)用做出明

智的自主決策。用戶應(yīng)獲得知識(shí)和工具,以理解AI系統(tǒng)并

與之進(jìn)行令人滿意的交互,并在可能的情況下,能夠合理地

進(jìn)行自我評估或推翻AI系統(tǒng)決策。AI系統(tǒng)應(yīng)協(xié)助個(gè)人根據(jù)

自己的目標(biāo)做出更好、更明智的選擇。AI系統(tǒng)可能利用潛意

識(shí)過程,包括可能威脅個(gè)人自主性的各種形式的不公平操作、

欺騙、集群和條件作用,因此,有時(shí)可以通過難以察覺的機(jī)

28

制塑造和影響人類行為。用戶自治的總體原則必須是AI系

統(tǒng)功能性的核心。這方面的關(guān)鍵是,當(dāng)對用戶產(chǎn)生法律影響

或類似的重大影響時(shí),相關(guān)權(quán)利免于完全基于自動(dòng)處理的決

策的約束36。

人為監(jiān)督。人為監(jiān)督有助于確保AI系統(tǒng)不會(huì)破壞人的

自主性或造成其他不利影響,可以通過人類參與循環(huán)、人類

監(jiān)督循環(huán)或人類命令等治理機(jī)制來實(shí)現(xiàn)。人類參與循環(huán)機(jī)制

是指在系統(tǒng)的每個(gè)決策周期中,人都可以實(shí)施干預(yù),在很多

情況下,這是不可能的,也是不可取的。人類監(jiān)督循環(huán)模式

是指人類可以在系統(tǒng)設(shè)計(jì)周期內(nèi)進(jìn)行干預(yù),而且可以對系統(tǒng)

運(yùn)行實(shí)施監(jiān)控。人類命令機(jī)制是指人類可以監(jiān)督AI系統(tǒng)的

整體活動(dòng)(包括其更廣泛的經(jīng)濟(jì)、社會(huì)、法律和道德影響),

以及決定何時(shí)以及如何在任何特定情況下使用AI系統(tǒng)。這

可以包括在特定情況下不使用AI系統(tǒng)的決策,在AI系統(tǒng)的

應(yīng)用中建立人類的自由裁量權(quán)級別,或者確保有能力推翻系

統(tǒng)的決策。此外,必須確保公共執(zhí)法人員有能力按照其任務(wù)

進(jìn)行監(jiān)督。根據(jù)AI系統(tǒng)的應(yīng)用領(lǐng)域和潛在風(fēng)險(xiǎn),可能需要

不同程度的監(jiān)督機(jī)制來支持其他安全和控制措施。在其他條

件相同的情況下,人類對AI系統(tǒng)施加的監(jiān)督越少,就需要

更廣泛的測試和更嚴(yán)格的管理。

1.2技術(shù)穩(wěn)健性和安全性

實(shí)現(xiàn)可信AI的一個(gè)關(guān)鍵要素是技術(shù)穩(wěn)健性,其與防止

危害的原則密切相關(guān)。技術(shù)穩(wěn)健性要求AI系統(tǒng)具有規(guī)避風(fēng)

36參見GDPR第22條內(nèi)容,其中已明確規(guī)定這一權(quán)利。

29

險(xiǎn)的預(yù)防性方法,并在開發(fā)過程中,具備預(yù)期的可靠行為方

式,同時(shí)最小化有意和無意的危害,并防止不可接受的危害。

這也應(yīng)當(dāng)適用于AI系統(tǒng)的操作環(huán)境中可能發(fā)生的變化,或

可能以敵對方式與系統(tǒng)交互的其他(人為)因素的存在。此

外,AI系統(tǒng)應(yīng)確保人類的身心健全。

攻擊恢復(fù)能力和安全性。與所有軟件系統(tǒng)一樣,AI系統(tǒng)

也應(yīng)該具備保護(hù)措施,以抵御可能被對手利用的漏洞,例如

黑客攻擊。攻擊目標(biāo)可能是數(shù)據(jù)(數(shù)據(jù)中毒)、模式(模式

泄漏)或底層基礎(chǔ)設(shè)施(軟件和硬件)。如果AI系統(tǒng)遭受攻

擊,例如陷入對抗攻擊,數(shù)據(jù)和系統(tǒng)行為都會(huì)發(fā)生改變,導(dǎo)

致系統(tǒng)做出不同決策,或者完全關(guān)閉。系統(tǒng)和數(shù)據(jù)也可能因

為惡意行為或遭遇意外情況而受損。不夠安全的流程還可能

導(dǎo)致決策錯(cuò)誤,甚至物理傷害。為確保AI系統(tǒng)的安全性37,

我們應(yīng)當(dāng)考慮AI系統(tǒng)可能出現(xiàn)的意外應(yīng)用(例如雙重用途

的應(yīng)用),以及可能被惡意行為者濫用的情況,并采取相應(yīng)

措施防止和減輕該等風(fēng)險(xiǎn)38。

后備計(jì)劃和一般安全。AI系統(tǒng)應(yīng)當(dāng)具有保障措施,以便

在出現(xiàn)問題時(shí)實(shí)施后備計(jì)劃。這可能意味著AI系統(tǒng)從統(tǒng)計(jì)

程序切換到基于規(guī)則的程序,或者在繼續(xù)操作之前需要獲得

操作人員許可39,以此確保系統(tǒng)在不損害生物或環(huán)境的情況

37參見《歐盟人工智能協(xié)調(diào)計(jì)劃》第2.7條項(xiàng)下的考慮事項(xiàng)。

能在研發(fā)方面,迫切需要的可能是在了解攻擊、發(fā)展適當(dāng)保護(hù)和改進(jìn)評價(jià)方法之間建立良性

循環(huán)。為此,應(yīng)促進(jìn)人工智能社區(qū)和安全社區(qū)之間的融合。此外,所有相關(guān)行動(dòng)者都有責(zé)任

建立共同的跨境安全規(guī)范,并建立相互信任的環(huán)境,促進(jìn)國際合作。更多可能的措施,參見

“MaliciousUseofAI",AvinS.、BrundageM.等人2018年著。

39還應(yīng)考慮不可能立即進(jìn)行人為干預(yù)的情況。

30

下執(zhí)行預(yù)定程序。這包括意外后果和錯(cuò)誤的最小化。此外,

應(yīng)該建立相關(guān)流程來確定和評估與AI系統(tǒng)在不同應(yīng)用領(lǐng)域

相關(guān)的潛在風(fēng)險(xiǎn)。所需安全措施的水平取決于AI系統(tǒng)所帶

來的風(fēng)險(xiǎn)的大小,而風(fēng)險(xiǎn)的大小又取決于系統(tǒng)的能力。如果

可以預(yù)見AI系統(tǒng)的開發(fā)過程或系統(tǒng)本身將構(gòu)成極高的風(fēng)險(xiǎn),

則必須積極制定和測試安全措施。

準(zhǔn)確性。準(zhǔn)確性是指AI系統(tǒng)進(jìn)行正確判斷的能力,例

如將信息正確分類到適當(dāng)?shù)念悇e,或者根據(jù)數(shù)據(jù)或模式做出

正確預(yù)測、建議或決策的能力。目標(biāo)明確、形式良好的開發(fā)

和評估過程有助于避免、減輕和糾正不準(zhǔn)確預(yù)測帶來的意外

風(fēng)險(xiǎn)。當(dāng)偶爾出現(xiàn)的不準(zhǔn)確預(yù)測無法避免時(shí),系統(tǒng)能夠指出

該等錯(cuò)誤的可能性至關(guān)重要。在AI系統(tǒng)直接影響人類生活

的情境中,保證系統(tǒng)的高準(zhǔn)確性尤其重要。

可靠性和重現(xiàn)性。AI系統(tǒng)成果的可重現(xiàn)性和可靠性至關(guān)

重要。一個(gè)可信的AI系統(tǒng)能夠在一系列輸入和各種情況下

正常工作。這對于AI系統(tǒng)審查和防止意外危害而言,必不

可少。重現(xiàn)性指的是AI實(shí)驗(yàn)在相同條件下重復(fù)時(shí)是否表現(xiàn)

出相同行為,確??茖W(xué)家和決策者能夠準(zhǔn)確描述AI系統(tǒng)的

功能。復(fù)制文件4??梢源龠M(jìn)行為測試和復(fù)制過程。

1.3隱私和數(shù)據(jù)治理

隱私與防止危害原則密切相關(guān),是一項(xiàng)特別受AI系統(tǒng)

影響的基本權(quán)利。防止破壞個(gè)人隱私還需要適當(dāng)?shù)臄?shù)據(jù)治理,

包括所使用數(shù)據(jù)的質(zhì)量和完整性、與AI系統(tǒng)部署領(lǐng)域的相

”所涉文件將復(fù)制AI系統(tǒng)開發(fā)過程中從研究和初始數(shù)據(jù)收集到結(jié)果的每個(gè)步驟,。

關(guān)性、訪問協(xié)議以及以保護(hù)隱私的方式處理數(shù)據(jù)的能力。

隱私和數(shù)據(jù)保護(hù)。AI系統(tǒng)必須在整個(gè)生命周期內(nèi)保證隱

私和數(shù)據(jù)安全41,其中包括用戶提供的初始信息,以及用戶

在與系統(tǒng)交互過程中生成的關(guān)于用戶的信息(例如,AI系統(tǒng)

針對特定用戶生成的輸出或用戶如何響應(yīng)特定建議)。根據(jù)

人類行為的數(shù)字記錄,AI系統(tǒng)不僅能夠推斷出個(gè)人的偏好,

還能推斷出他們的性取向、年齡、性別、宗教或政治主張。

為了贏得人們的信任,數(shù)據(jù)收集過程必須確保收集到的有關(guān)

個(gè)人的數(shù)據(jù)不會(huì)被非法利用或?qū)ζ湓斐刹还降钠缫暋?/p>

數(shù)據(jù)的質(zhì)量和完整性。所使用的數(shù)據(jù)集的質(zhì)量對AI系

統(tǒng)的性能至關(guān)重要。當(dāng)收集過程中,數(shù)據(jù)可能包含社會(huì)偏見、

不準(zhǔn)確性、錯(cuò)誤和誤差,需要在使用任何給定的數(shù)據(jù)集進(jìn)行

訓(xùn)練之前予以處理。此外,我們必須確保數(shù)據(jù)的完整性。將

惡意數(shù)據(jù)輸入AI系統(tǒng)可能會(huì)改變系統(tǒng)行為,尤其是自我學(xué)

習(xí)系統(tǒng)的行為。使用的程序和數(shù)據(jù)集必須在計(jì)劃、培訓(xùn)、測

試和部署等各個(gè)步驟中進(jìn)行測試和記錄。這也應(yīng)該適用于并

非內(nèi)部開發(fā),而是在別處收購的AI系統(tǒng)。

數(shù)據(jù)訪問。在處理個(gè)人數(shù)據(jù)的任何給定組織中(無論是

否為系統(tǒng)用戶),都應(yīng)該制定控制數(shù)據(jù)訪問的數(shù)據(jù)協(xié)議。這

些協(xié)議應(yīng)規(guī)定訪問數(shù)據(jù)的主體以及允許訪問數(shù)據(jù)的情況。只

有具有權(quán)限和需要查閱個(gè)人資料的適當(dāng)合格人員才具備數(shù)

據(jù)訪問權(quán)利。

1.4透明性

皿參見現(xiàn)有的隱私法律法規(guī),如GDPR或即將出臺(tái)的《電子隱私條例》。

32

這一要求與可解釋性原則密切相關(guān),并包含數(shù)據(jù)、系統(tǒng)

和業(yè)務(wù)模型等AI系統(tǒng)相關(guān)元素的透明性。

可追溯性。用于產(chǎn)生AI系統(tǒng)決策的數(shù)據(jù)集和過程,包

括數(shù)據(jù)收集和標(biāo)記過程以及所使用的算法,應(yīng)該盡可能地以

最高標(biāo)準(zhǔn)編制文檔,以確保可追溯性,并增加透明度。這也

適用于AI系統(tǒng)決策,使得識(shí)別AI決策錯(cuò)誤的原因成為可能,

從而避免在未來繼續(xù)犯錯(cuò)??勺匪菪杂兄谔岣呖蓪徍诵院?/p>

可解釋性。

可解釋性??山忉屝陨婕敖忉孉I系統(tǒng)的技術(shù)過程和相

關(guān)人工決策(例如系統(tǒng)應(yīng)用領(lǐng)域)的能力。AI系統(tǒng)的技術(shù)可

解釋性要求人類能夠理解和跟蹤系統(tǒng)決策。此外,增強(qiáng)系統(tǒng)

的可解釋性(可能降低系統(tǒng)的準(zhǔn)確性)和提高系統(tǒng)的準(zhǔn)確性

(以犧牲可解釋性為代價(jià))之間可能必須進(jìn)行權(quán)衡。當(dāng)AI

系統(tǒng)對人們的生活產(chǎn)生重大影響時(shí),人們應(yīng)該有可能要求關(guān)

于系統(tǒng)決策過程的適當(dāng)解釋。該等解釋應(yīng)及時(shí)給出,并符合

利益相關(guān)者(例如外行人、監(jiān)管者或研究人員)的專業(yè)認(rèn)知。

此外,AI系統(tǒng)影響和塑造組織決策過程的程度、系統(tǒng)的設(shè)計(jì)

選擇以及系統(tǒng)部署基本原理應(yīng)當(dāng)可以予以解釋(從而確保業(yè)

務(wù)模式的透明性)。

通信。AI系統(tǒng)不得以人類身份與用戶進(jìn)行交互,人類有

權(quán)知悉自己的交互對象為AI系統(tǒng),也就是說,AI系統(tǒng)必須

具備可識(shí)別性。為了確保基本權(quán)利,AI系統(tǒng)應(yīng)在必要時(shí)提供

選擇,允許人類放棄與系統(tǒng)的交互,而與其他個(gè)人進(jìn)行交互。

除此之外,AI系統(tǒng)的功能和限制應(yīng)該以適合當(dāng)前用例的方式

33

傳達(dá)給AI實(shí)踐者或最終用戶,傳達(dá)內(nèi)容可能包括AI系統(tǒng)的

準(zhǔn)確

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論