人工智能的治理和國(guó)際機(jī)制的關(guān)鍵要素_第1頁(yè)
人工智能的治理和國(guó)際機(jī)制的關(guān)鍵要素_第2頁(yè)
人工智能的治理和國(guó)際機(jī)制的關(guān)鍵要素_第3頁(yè)
人工智能的治理和國(guó)際機(jī)制的關(guān)鍵要素_第4頁(yè)
人工智能的治理和國(guó)際機(jī)制的關(guān)鍵要素_第5頁(yè)
已閱讀5頁(yè),還剩4頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

人工智能的治理和國(guó)際機(jī)制的關(guān)鍵要素

傅瑩【Key】人工智能

國(guó)際機(jī)制

治理問題

D630

A當(dāng)前,由人工智能引領(lǐng)的新一輪科技革命和產(chǎn)業(yè)變革方興未艾,正在對(duì)經(jīng)濟(jì)發(fā)展、社會(huì)進(jìn)步、全球治理產(chǎn)生重大影響,未來(lái)的潛力更是有可能帶來(lái)顛覆性的影響。與此同時(shí),其風(fēng)險(xiǎn)和挑戰(zhàn)也引起全球范圍的擔(dān)憂。2015年1月,包括著名物理學(xué)家霍金在內(nèi)的全球數(shù)百名人工智能專家和企業(yè)家簽發(fā)了一封公開信警告說(shuō),如果不對(duì)人工智能技術(shù)進(jìn)行有效限制,“人類將迎來(lái)一個(gè)黑暗的未來(lái)”。由此引發(fā)的擔(dān)憂和恐懼,成為媒體和社會(huì)輿論的熱門話題,很多國(guó)家和組織開始研究如何構(gòu)建人工智能技術(shù)應(yīng)用的安全治理和相關(guān)機(jī)制。人工智能的治理問題引發(fā)廣泛關(guān)注目前已有20多個(gè)國(guó)家和地區(qū)推出了國(guó)家級(jí)人工智能發(fā)展規(guī)劃。2017年1月,全球行業(yè)領(lǐng)袖制定的《阿西洛馬人工智能原則》,提出了技術(shù)發(fā)展“有益于人類”的守則;2019年4月,歐盟委員會(huì)發(fā)布了人工智能道德準(zhǔn)則,提出包括透明性、公平性、安全性和人類監(jiān)督在內(nèi)的七大條件;2019年5月,經(jīng)濟(jì)合作與發(fā)展組織(OECD)正式通過(guò)了首部人工智能政府間政策指導(dǎo)方針,確保人工智能的系統(tǒng)設(shè)計(jì)符合公正、安全、公平和值得信賴的國(guó)際標(biāo)準(zhǔn);2019年6月,二十國(guó)集團(tuán)(G20)也出臺(tái)了倡導(dǎo)人工智能使用和研發(fā)“尊重法律原則、人權(quán)和民主價(jià)值觀”的《G20人工智能原則》;中國(guó)于同月由國(guó)家新一代人工智能治理專業(yè)委員會(huì)發(fā)布《新一代人工智能治理原則》,提出和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔(dān)責(zé)任、開放協(xié)作、敏捷治理等八項(xiàng)原則,要求發(fā)展負(fù)責(zé)任的人工智能。在我國(guó),黨中央、國(guó)務(wù)院高度重視人工智能發(fā)展及治理??倳浽谥泄仓醒胝尉值诰糯渭w學(xué)習(xí)時(shí)強(qiáng)調(diào),“人工智能是新一輪科技革命和產(chǎn)業(yè)變革的重要驅(qū)動(dòng)力量,加快發(fā)展新一代人工智能是事關(guān)我國(guó)能否抓住新一輪科技革命和產(chǎn)業(yè)變革機(jī)遇的戰(zhàn)略問題”??倳浢鞔_要求,“要加強(qiáng)人工智能發(fā)展的潛在風(fēng)險(xiǎn)研判和防范”,“要確保人工智能安全、可靠、可控”,“要整合多學(xué)科力量,加強(qiáng)人工智能相關(guān)法律、倫理、社會(huì)問題研究,建立健全保障人工智能健康發(fā)展的法律法規(guī)、制度體系、倫理道德”。2019年7月,中央全面深化改革委員會(huì)第九次會(huì)議審議通過(guò)了《國(guó)家科技倫理委員會(huì)組建方案》等文件。會(huì)議還指出,科技倫理是科技活動(dòng)必須遵守的價(jià)值準(zhǔn)則。組建國(guó)家科技倫理委員會(huì),目的就是加強(qiáng)統(tǒng)籌規(guī)范和指導(dǎo)協(xié)調(diào),推動(dòng)構(gòu)建覆蓋全面、導(dǎo)向明確、規(guī)范有序、協(xié)調(diào)一致的科技倫理治理體系。中國(guó)在人工智能治理相關(guān)的法律法規(guī)制定上走在世界前列。按照十九屆四中全會(huì)推進(jìn)國(guó)家治理體系和治理能力現(xiàn)代化的要求,為保障我國(guó)新一代人工智能健康發(fā)展,全國(guó)人大常委會(huì)加強(qiáng)了這方面的研究,并且在立法過(guò)程中納入一些比較有社會(huì)共識(shí)和相對(duì)成熟的內(nèi)容。2019年8月,全國(guó)人大常委會(huì)審議通過(guò)民法典人格權(quán)編草案,其中針對(duì)收集、處理自然人個(gè)人信息作出明確規(guī)定,要求必須“征得該自然人或者其監(jiān)護(hù)人同意”等,而且把個(gè)人生物識(shí)別信息也納入保護(hù)范圍。另一項(xiàng)重要進(jìn)展是國(guó)家網(wǎng)信辦發(fā)布的《兒童個(gè)人信息網(wǎng)絡(luò)保護(hù)規(guī)定》,自2019年10月1日起生效。國(guó)務(wù)院在2017年7月8日發(fā)布的《新一代人工智能發(fā)展規(guī)劃》【國(guó)發(fā)〔2017〕35號(hào)】中,既提出了技術(shù)和產(chǎn)業(yè)體系的發(fā)展策略,又提出了倫理和治理體系的構(gòu)建思路。在規(guī)劃中提出了三步走戰(zhàn)略:第一步,到2020年,部分領(lǐng)域的人工智能倫理規(guī)范和政策法規(guī)初步建立。第二步,到2025年,初步建立人工智能法律法規(guī)、倫理規(guī)范和政策體系,形成人工智能安全評(píng)估和管控能力。第三步,到2030年,建成更加完善的人工智能法律法規(guī)、倫理規(guī)范和政策體系。在規(guī)劃“保障措施”中第一條就提到:要制定促進(jìn)人工智能發(fā)展的法律法規(guī)和倫理規(guī)范。到2023年,政府將在全國(guó)布局建設(shè)20個(gè)新一代人工智能創(chuàng)新發(fā)展試驗(yàn)區(qū),檢驗(yàn)八項(xiàng)原則的實(shí)施和收集反饋。其他措施還包括提供開放平臺(tái),鼓勵(lì)企業(yè)制定自己的標(biāo)準(zhǔn),人工智能研發(fā)項(xiàng)目也需要遵守這八項(xiàng)原則。此外,目前中國(guó)的科學(xué)界和企業(yè)界在積極探索自律和監(jiān)管手段,例如,成立人工智能治理研究院;在產(chǎn)品程序中加入“禁飛策略”來(lái)規(guī)范無(wú)人機(jī)的使用;在醫(yī)療和交通業(yè)界通過(guò)數(shù)據(jù)脫敏保護(hù)個(gè)人隱私信息;對(duì)收集數(shù)據(jù)的企業(yè)和機(jī)構(gòu)提出承擔(dān)保護(hù)數(shù)據(jù)的責(zé)任等要求。人工智能技術(shù)的成長(zhǎng)依靠的是世界各國(guó)科研人員分享思想、相互借鑒,是全球協(xié)作的產(chǎn)物,跨國(guó)企業(yè)構(gòu)建的人工智能平臺(tái)也在快速擴(kuò)展。要想規(guī)范這個(gè)進(jìn)程,各國(guó)需要制定互通的道德規(guī)范和行業(yè)規(guī)則。中國(guó)30多年來(lái)一直處于高速工業(yè)化的進(jìn)程中,在立法和立規(guī)過(guò)程中廣泛地參考了兩個(gè)世紀(jì)以來(lái)世界上陸續(xù)出現(xiàn)的基本規(guī)則。今天,中國(guó)第一次躋身新技術(shù)進(jìn)步的第一梯隊(duì),除了盡己所能地向前邁進(jìn),中國(guó)人也逐漸意識(shí)到自身肩負(fù)的參與國(guó)際制訂新規(guī)則的責(zé)任。因此,中國(guó)在人工智能治理方面的努力,需要與世界其他國(guó)家和地區(qū)、包括在技術(shù)研發(fā)上領(lǐng)先的美國(guó)的努力,相互聯(lián)通和協(xié)調(diào)。為此,中國(guó)對(duì)與各國(guó)探討擴(kuò)大共識(shí)、縮小差異,秉持開放態(tài)度。清華大學(xué)戰(zhàn)略與安全研究中心的人工智能治理項(xiàng)目小組著眼于國(guó)際共同規(guī)則,2018年7月,在世界和平論壇上提出“人工智能六點(diǎn)原則”,探討人工智能綜合性治理的宏觀框架:一是福祉原則。人工智能的發(fā)展應(yīng)服務(wù)于人類共同福祉和利益,其設(shè)計(jì)與應(yīng)用須遵循人類社會(huì)基本倫理道德,符合人類的尊嚴(yán)和權(quán)利。二是安全原則。人工智能不得傷害人類,要保證人工智能系統(tǒng)的安全性、可適用性與可控性,保護(hù)個(gè)人隱私,防止數(shù)據(jù)泄露與濫用。保證人工智能算法的可追溯性與透明性,防止算法歧視。三是共享原則。人工智能創(chuàng)造的經(jīng)濟(jì)繁榮應(yīng)服務(wù)于全體人類,構(gòu)建合理機(jī)制,使更多人受益于人工智能技術(shù)的發(fā)展、享受便利,避免數(shù)字鴻溝的出現(xiàn)。四是和平原則。人工智能技術(shù)須用于和平目的,致力于提升透明度和建立信任措施,倡導(dǎo)和平利用人工智能,防止開展致命性自主武器軍備競(jìng)賽。五是法治原則。人工智能技術(shù)的運(yùn)用,應(yīng)符合《聯(lián)合國(guó)憲章》的宗旨以及各國(guó)主權(quán)平等、和平解決爭(zhēng)端、禁止使用武力、不干涉內(nèi)政等現(xiàn)代國(guó)際法基本原則。六是合作原則。世界各國(guó)應(yīng)促進(jìn)人工智能的技術(shù)交流和人才交流,在開放的環(huán)境下推動(dòng)和規(guī)范技術(shù)的提升。這六項(xiàng)原則為人工智能國(guó)際治理的討論和共識(shí)構(gòu)建提供了一種可能,在2018年底的世界互聯(lián)網(wǎng)大會(huì)和2019年的世界和平論壇上,國(guó)際上不少學(xué)者和企業(yè)家對(duì)此表達(dá)興趣和重視,有機(jī)構(gòu)希望進(jìn)一步合作研討。人工智能國(guó)際治理機(jī)制的關(guān)鍵要素國(guó)際治理機(jī)制不僅意味著共識(shí)和規(guī)則,也應(yīng)包括構(gòu)建能夠確保規(guī)則落地的組織機(jī)構(gòu)和行動(dòng)能力,需要有相應(yīng)的社會(huì)政治和文化環(huán)境。清華大學(xué)戰(zhàn)略與安全研究中心正在與一些國(guó)家的學(xué)者專家、前政要和企業(yè)家一道,對(duì)這些問題進(jìn)行探討。從現(xiàn)實(shí)來(lái)看,人工智能國(guó)際治理的有效機(jī)制至少應(yīng)包括如下五個(gè)關(guān)鍵:一是動(dòng)態(tài)的更新能力。人工智能技術(shù)的研發(fā)和應(yīng)用進(jìn)入快速發(fā)展的階段,但是人們對(duì)未來(lái)的很多應(yīng)用場(chǎng)景乃至安全挑戰(zhàn)還缺乏了解和明確的認(rèn)識(shí)。因而對(duì)其治理時(shí),須充分考慮到技術(shù)及其應(yīng)用還處于變化的過(guò)程中,需要建立一種動(dòng)態(tài)開放的、具備自我更新能力的治理機(jī)制。例如,當(dāng)向社會(huì)提供人工智能“惡意應(yīng)用”的具體界定和表述時(shí),應(yīng)該是在生產(chǎn)和生活實(shí)踐中可觀測(cè)、可區(qū)分的,在技術(shù)上可度量、可標(biāo)定的。同時(shí),更為重要的是,它應(yīng)當(dāng)持續(xù)更新。只有具備動(dòng)態(tài)更新能力的治理機(jī)制,才能在人工智能技術(shù)保持快速發(fā)展的情況下發(fā)揮作用。這就意味著,在推進(jìn)國(guó)際治理的同時(shí),要承認(rèn)和主動(dòng)適應(yīng)人工智能技術(shù)的不確定性特征,做好不斷調(diào)整的準(zhǔn)備。愛因斯坦曾說(shuō),“我們不能用制造問題時(shí)的思維來(lái)解決問題”。顛覆性創(chuàng)新技術(shù)與固有思維之間的沖突與激蕩,必將伴隨人工智能技術(shù)發(fā)展的過(guò)程。此種情景下的治理機(jī)制在面對(duì)各種思潮和意見的交織與反復(fù)時(shí),也應(yīng)該具備足夠的包容之心和適應(yīng)能力。如此,國(guó)際治理機(jī)制才能幫助人類攜手應(yīng)對(duì)人工智能層出不窮的新挑戰(zhàn)。從這個(gè)意義上講,建立一個(gè)能夠適應(yīng)技術(shù)不斷發(fā)展的動(dòng)態(tài)治理機(jī)制,也許比直接給出治理的法則更有意義。二是技術(shù)的源頭治理。人工智能的應(yīng)用本質(zhì)是技術(shù)應(yīng)用,對(duì)其治理須緊緊抓住其技術(shù)本質(zhì),特別是在安全治理上,從源頭抓起更容易取得效果。例如,當(dāng)前大放異彩的深度學(xué)習(xí)技術(shù),其關(guān)鍵要素是數(shù)據(jù)、算法和計(jì)算力。針對(duì)這些要素的治理可以從數(shù)據(jù)控流、算法審計(jì)、計(jì)算力管控等方面尋找切入點(diǎn)。隨著人工智能技術(shù)的飛速發(fā)展,今后可能會(huì)出現(xiàn)迥然不同的智能技術(shù),例如小樣本學(xué)習(xí)、無(wú)監(jiān)督學(xué)習(xí)、生成式對(duì)抗網(wǎng)絡(luò),乃至腦機(jī)技術(shù)等。不同的技術(shù)機(jī)理意味著,需要不斷從技術(shù)源頭尋找最新、最關(guān)鍵的治理節(jié)點(diǎn)和工具,并將其納入治理機(jī)制之中,以實(shí)現(xiàn)治理的可持續(xù)性。另外,技術(shù)治理還有一個(gè)重要內(nèi)容,就是在技術(shù)底層賦予人工智能“善用”的基因。例如在人工智能武器化的問題上,似可采用阿西莫夫制定“機(jī)器人三原則”的思維,從技術(shù)底層約束人工智能的行為,將武裝沖突法則和國(guó)際人道主義法則中的“區(qū)分性”原則納入代碼,禁止任何對(duì)民用設(shè)施的攻擊。誠(chéng)然,實(shí)現(xiàn)這一點(diǎn)對(duì)國(guó)際治理來(lái)說(shuō)是一個(gè)艱巨的挑戰(zhàn)。曾在美國(guó)國(guó)防部長(zhǎng)辦公室工作、深度參與自主系統(tǒng)政策制定的保羅·沙瑞爾認(rèn)為:“對(duì)于今天的機(jī)器而言,要達(dá)到這些標(biāo)準(zhǔn)(區(qū)分性、相稱性和避免無(wú)謂痛苦)是很難的。能否實(shí)現(xiàn)要取決于追求的目標(biāo)、周圍的環(huán)境以及未來(lái)的技術(shù)預(yù)測(cè)。”三是多角度的細(xì)節(jié)刻劃。人工智能的國(guó)際治理須構(gòu)建一種多元參與的治理生態(tài),將所有利益相關(guān)方納入其中??茖W(xué)家和學(xué)者專家是推動(dòng)技術(shù)發(fā)展的主力,政治家是國(guó)家決策的主體,民眾的消費(fèi)需求是推動(dòng)技術(shù)應(yīng)用的激勵(lì)因素。這些群體之間的充分溝通是人工智能治理取得成功的基礎(chǔ)。企業(yè)是技術(shù)轉(zhuǎn)化應(yīng)用的平臺(tái),社會(huì)組織是行業(yè)自律的推動(dòng)者,政府和軍隊(duì)是人工智能安全治理的操作者,這些主體之間的充分協(xié)調(diào)則是人工智能治理機(jī)制有效發(fā)揮作用的關(guān)鍵。在這個(gè)過(guò)程中,不同的群體應(yīng)該以自身視角對(duì)人工智能的治理細(xì)則進(jìn)行深入刻化。例如,2019年8月,亨利·基辛格、埃里克·施密特、丹尼爾·胡滕洛赫爾三人聯(lián)合撰文提出,從人工智能沖擊哲學(xué)認(rèn)知的角度看,可能應(yīng)該禁止智能助理回答哲學(xué)類問題,在有重大影響的模式識(shí)別(Patternrecognition)活動(dòng)中,須強(qiáng)制要求人類的參與,由人類對(duì)人工智能進(jìn)行“審計(jì)”,并在其違反人類價(jià)值觀時(shí)進(jìn)行糾正,等等。如果能將來(lái)自不同群體的治理主張細(xì)則集聚在一起,將形成反映人類多元文化的智慧結(jié)晶,對(duì)人類共同應(yīng)對(duì)人工智能挑戰(zhàn)發(fā)揮引領(lǐng)的作用。面對(duì)未知,哲學(xué)家的擔(dān)憂與普羅大眾的恐懼一樣重要,只有盡可能細(xì)致地刻劃人工智能治理的各種細(xì)節(jié),才能增強(qiáng)人類對(duì)未來(lái)的把控,讓迷茫和恐懼轉(zhuǎn)變?yōu)楹闷媾c希望。四是有效的歸因機(jī)制。在人工智能的國(guó)際治理中,歸因和歸責(zé)發(fā)揮著“托底”的作用。如果不能解決“誰(shuí)負(fù)責(zé)”的問題,那么所有的治理努力最終都將毫無(wú)意義。當(dāng)前人工智能治理的歸因困難主要源自以下一些問題:從人機(jī)關(guān)系的角度看,是否人擔(dān)負(fù)的責(zé)任越大,對(duì)惡意使用的威懾作用就越大,有效治理的可能性也就越大?從社會(huì)關(guān)系的角度看,程序“自我進(jìn)化”導(dǎo)致的后果該由誰(shuí)負(fù)責(zé)?是“誰(shuí)制造誰(shuí)負(fù)責(zé)”、“誰(shuí)擁有誰(shuí)負(fù)責(zé)”,還是“誰(shuí)使用誰(shuí)負(fù)責(zé)”?世界上沒有不出故障的機(jī)器,如同世上沒有完美的人,人工智能發(fā)生故障造成財(cái)產(chǎn)損失、乃至人員傷亡是遲早會(huì)出現(xiàn)的。我們是否需要賦予機(jī)器以“人格”,讓機(jī)器承擔(dān)責(zé)任?如果讓機(jī)器承擔(dān)最后的責(zé)任,是否意味著人類在一定范圍內(nèi)將終審權(quán)拱手讓給了機(jī)器?目前對(duì)這些問題還沒有答案,需要在實(shí)踐中探索和印證歸因的恰當(dāng)路徑。五是場(chǎng)景的合理劃分。現(xiàn)階段對(duì)人工智能的技術(shù)應(yīng)用實(shí)施治理需要針對(duì)不同場(chǎng)景逐一細(xì)分處理。在2019年7月的世界和平論壇上,很多學(xué)者主張從當(dāng)前的應(yīng)用中選擇幾個(gè)具體場(chǎng)景入手,由點(diǎn)及面地實(shí)驗(yàn)治理,由易到難地積累經(jīng)驗(yàn)。場(chǎng)景至少應(yīng)該從物理場(chǎng)景、社會(huì)場(chǎng)景和數(shù)據(jù)場(chǎng)景三個(gè)維度加以區(qū)分。考慮到人工智能技術(shù)對(duì)數(shù)據(jù)的高度依賴性,有效的場(chǎng)景劃分有利于關(guān)注數(shù)據(jù)的影響。劃分場(chǎng)景也可以幫助我們更好地理解人工智能在什么情況下能做什么,一方面可以避免對(duì)人工智能不求甚解的恐懼,另一方面也可以消除一些夸大其詞的判斷。美國(guó)國(guó)防部前副部長(zhǎng)羅伯特·沃克一直是人工智能武器化的積極倡導(dǎo)者,但是,具體到核武器指揮控制的場(chǎng)景上,他也不得不承認(rèn),人工智能

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論