《人工智能中算法的危害及原因分析》8000字_第1頁(yè)
《人工智能中算法的危害及原因分析》8000字_第2頁(yè)
《人工智能中算法的危害及原因分析》8000字_第3頁(yè)
《人工智能中算法的危害及原因分析》8000字_第4頁(yè)
《人工智能中算法的危害及原因分析》8000字_第5頁(yè)
已閱讀5頁(yè),還剩6頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

人工智能中算法的危害及原因分析目錄TOC\o"1-2"\h\u8935人工智能中算法的危害及原因分析 195561算法危害的表現(xiàn)形式 1180531.1信息繭房 134481.2算法殺熟 233861.3算法黑箱 3213981.4算法共謀 495482算法造成危害的原因分析 683772.1算法自身的隱蔽性和復(fù)雜性 6327562.2算法的監(jiān)管機(jī)制不健全 7174522.3算法倫理的缺失與不足 937102.4對(duì)“技術(shù)中立”原則的不當(dāng)引用 101算法危害的表現(xiàn)形式凡事皆有利弊。算法的快速發(fā)展代表了科技的進(jìn)步和生產(chǎn)力的提升,也提高了社會(huì)分配效率,但算法的不當(dāng)使用也讓許多民眾深受其害。本節(jié)擬選擇如今社會(huì)中比較典型的“信息繭房”、算法殺熟、算法黑箱和算法共謀四種算法侵害行為,闡述其表現(xiàn)形式以及帶來(lái)的不良后果。1.1信息繭房信息繭房,最早由CassR.Sunstein提出,CassR.Sunstein.Infotopia2006指的是在通訊領(lǐng)域,人們往往傾向于去閱讀和搜索自己感興趣的東西,而不去關(guān)注那些無(wú)法引起自身興趣的事情,但日復(fù)一日,用戶們選擇接受的信息面就會(huì)越來(lái)越狹窄,長(zhǎng)此以往就會(huì)像蠶蛹一樣作繭自縛,把自己包裹起來(lái)而不與外界相聯(lián)系。朱立波.《新媒體的“信息繭房”現(xiàn)象研究》[J]《智富時(shí)代》2019,(0CassR.Sunstein.Infotopia2006朱立波.《新媒體的“信息繭房”現(xiàn)象研究》[J]《智富時(shí)代》2019,(01)參見(jiàn)付松聚.《從8月CPI報(bào)道看機(jī)器新聞與人工新聞差異何在》,[J]《中國(guó)記者》2015,(11)吳小玉.在算法“黑箱”中保障用戶知情權(quán)[J].《傳媒與法》,2019,(07):28-29在21世紀(jì)的今天,信息的價(jià)值日益巨大,一個(gè)人掌握的信息越充分,其在進(jìn)行人生道路選擇和實(shí)現(xiàn)個(gè)人價(jià)值時(shí)則越能處于有利地位,在做出一些行為選擇時(shí)也會(huì)更加合理化。然而大眾參與輿論的方式因?yàn)樽悦襟w出現(xiàn)而帶來(lái)了巨大的變化。一時(shí)間,成為記者的門檻全無(wú),每個(gè)人都可以自己注冊(cè)公眾號(hào),發(fā)表言論,暢所欲言,并且算法編輯審核并不嚴(yán)格,進(jìn)而加深了算法的危害。如今廣泛應(yīng)用的協(xié)同過(guò)濾算法就是根據(jù)大量相似用戶的選擇來(lái)預(yù)測(cè)用戶可能會(huì)喜歡的文章、書(shū)籍甚至是未來(lái)的領(lǐng)導(dǎo)人。這小小行為的背后,輕則導(dǎo)致群體分極,重則阻礙社會(huì)共識(shí)甚至影響民主的進(jìn)程。朱立波.《新媒體的“信息繭房”現(xiàn)象研究》朱立波.《新媒體的“信息繭房”現(xiàn)象研究》[J]《智富時(shí)代》2019(01)另外,信息繭房還體現(xiàn)在算法按照收集到的用戶習(xí)慣路徑自動(dòng)推送與此相關(guān)的信息,例如曾經(jīng)搜索過(guò)“茶葉”,那么算法就會(huì)不斷向我們提供與茶葉有關(guān)的信息。想要突破該視域有新的了解,就要經(jīng)過(guò)一輪一輪的重新檢索,讓算法中我們產(chǎn)生的新路徑覆蓋舊的路徑,然而新的路徑又會(huì)造成個(gè)人視域的限制。傳統(tǒng)紙質(zhì)媒體呈現(xiàn)的信息是多元的,其報(bào)道涵蓋政治、體育、娛樂(lè)、健康等各個(gè)領(lǐng)域,而算法則讓這種多元趨于單一,長(zhǎng)此以往,難道不是一種倒退嗎?1.2算法殺熟算法殺熟是指算法根據(jù)用戶以往累積的路徑和消費(fèi)習(xí)慣,在預(yù)計(jì)用戶可承受范圍內(nèi)定價(jià),形成同一件商品不同標(biāo)價(jià)的情況,并且低頻使用用戶以及新用戶的定價(jià)往往低于高頻使用用戶的定價(jià)。隨著媒體的跟蹤報(bào)道,越來(lái)越多的“殺熟”事件曝光在大眾面前,也引起了不少的社會(huì)爭(zhēng)議。在數(shù)據(jù)被廣泛收集的今天,對(duì)數(shù)據(jù)的收集和加工讓平臺(tái)對(duì)消費(fèi)者更加了解,平臺(tái)不僅可以實(shí)施動(dòng)態(tài)定價(jià),獲取更高的利潤(rùn),也更能夠形成行業(yè)壟斷,以至于影響正常的市場(chǎng)競(jìng)爭(zhēng)。長(zhǎng)此以往,殺熟行為會(huì)被看成合理的逐利行為,甚至?xí)蔀樯碳野抵徐乓馁Y本。平臺(tái)通過(guò)軟件對(duì)消費(fèi)者產(chǎn)生的數(shù)據(jù)進(jìn)行實(shí)時(shí)獲取,不斷地收集用戶們的信息,例如可接受的消費(fèi)范圍、個(gè)人習(xí)慣偏好、購(gòu)買產(chǎn)品的個(gè)人傾向性等信息,然后模擬未來(lái)可能產(chǎn)生的消費(fèi)行為,再根據(jù)差異化的定價(jià),實(shí)現(xiàn)點(diǎn)對(duì)點(diǎn)的精準(zhǔn)投放營(yíng)銷,這些就是我們所熟悉的消費(fèi)領(lǐng)域里典型的算法殺熟行為。從根本上說(shuō),算法殺熟源于算法偏見(jiàn)。2018年鬧得沸沸揚(yáng)揚(yáng)的滴滴打車軟件差別定價(jià)應(yīng)該是第一起被公眾曝光并引來(lái)強(qiáng)大輿論批判的算法殺熟事件。在滴滴平臺(tái)使用的算法中,蘋(píng)果手機(jī)用戶被視為有能力承擔(dān)更高消費(fèi)的人群,因此同樣的路程,安卓用戶的打車費(fèi)用居然比蘋(píng)果用戶低得多。蘭亞妮、鄭晉鳴:《讓人工智能更有溫度》[N]《光明日?qǐng)?bào)》2019年1月28日,第4版然而,這只是一系列算法殺熟事件的開(kāi)端:2019年攜程被發(fā)現(xiàn)同一航班對(duì)不同用戶差別定價(jià),2020年天貓超市也被發(fā)現(xiàn)差別定價(jià),接踵而至的殺熟事件一次又一次地將以往公眾所信任的知名企業(yè)拽入誠(chéng)信危機(jī)的漩渦,也讓公眾對(duì)算法的運(yùn)行產(chǎn)生了不信任感。蘭亞妮、鄭晉鳴:《讓人工智能更有溫度》[N]《光明日?qǐng)?bào)》2019年1月28日,第4版段澤孝:《人工智能時(shí)代互聯(lián)網(wǎng)誘導(dǎo)行為的算法規(guī)制》[J]《江西社會(huì)科學(xué)》2019,(02)個(gè)人數(shù)據(jù)算法設(shè)計(jì)者和擁有者廣泛地收集用戶的興趣愛(ài)好、生活習(xí)慣、消費(fèi)水平以及個(gè)人隱私,這些數(shù)據(jù)都被赤裸裸地曝光在平臺(tái)和數(shù)據(jù)收集者的面前,這對(duì)于每一個(gè)公民而言無(wú)疑都是恐怖的,其后果不僅僅是造成算法殺熟或者區(qū)別定價(jià)那么簡(jiǎn)單,倘若有朝一日,個(gè)人基因信息也可以被隨意地收集并分析,許多行業(yè)將會(huì)成為公民個(gè)人無(wú)法與之對(duì)抗的強(qiáng)大力量,例如保險(xiǎn)行業(yè),如果公民的個(gè)人基因和家族疾病等相關(guān)信息被收集整合,并且通過(guò)精確分析個(gè)人的身體狀況來(lái)制定不同的保險(xiǎn)價(jià)格,那么人們將失去對(duì)于未來(lái)不確定性的防范。大數(shù)據(jù)確實(shí)帶來(lái)了效率的提升,但其正當(dāng)性和公平性的基礎(chǔ)很難得到充分證明。況且機(jī)器也有出差錯(cuò)的時(shí)候,包括算法偏見(jiàn)等問(wèn)題不斷出現(xiàn)。另外,算法的擁有者還可能利用算法進(jìn)行交易,獲取并販賣他人信息,或者追逐利益等,以致?lián)p害人們的權(quán)利甚至生命健康。在整個(gè)互聯(lián)網(wǎng)視域下,算法產(chǎn)生的問(wèn)題可遠(yuǎn)不止算法殺熟那么簡(jiǎn)單,殺熟僅僅是冰山一角,但殺熟源自算法,所以,對(duì)算法進(jìn)行規(guī)制是解決大數(shù)據(jù)殺熟的必由之路。1.3算法黑箱算法黑箱指的是人工智能算法不公開(kāi)透明。邢會(huì)強(qiáng):《人工智能時(shí)代的金融監(jiān)管變革》,[J]《探索與爭(zhēng)鳴》2018,(10):21所謂黑箱,字面上的含義,就是不透明的箱子。算法黑箱,則是指的那些無(wú)法通過(guò)外部觀察了解內(nèi)部的運(yùn)作原理和結(jié)構(gòu)的系統(tǒng),在人工智能系統(tǒng)輸入端與輸出端,存在著人們無(wú)法洞悉的部分。許可:《人工智能的算法黑箱與數(shù)據(jù)正義》,[J]《社會(huì)科學(xué)報(bào)》2018年3月29日,第6版算法黑箱是現(xiàn)階段社會(huì)熱議話題,機(jī)遇與挑戰(zhàn)并存,同時(shí),算法黑箱也對(duì)法律提出了更高的要求,法學(xué)界也在對(duì)如何規(guī)制算法展開(kāi)如火如荼地討論。吳漢東:《人工智能時(shí)代的制度安排與法律規(guī)制》,[J]《法律科學(xué)(西北政法大學(xué)學(xué)報(bào))》2017年9月因?yàn)樗惴ǖ拇嬖?,以往粗放式的營(yíng)銷如今變得精準(zhǔn)投放,即針對(duì)不同用戶的特點(diǎn),使用不同的營(yíng)銷方式,根據(jù)不同用戶的不同需求,精準(zhǔn)推送廣告推銷信息引導(dǎo)消費(fèi)。這一原理也被運(yùn)用到各種領(lǐng)域,甚至是國(guó)家大選。2016年劍橋分析孫寶云、李艷、齊?。骸毒W(wǎng)絡(luò)安全影響政治安全的微觀分析——以“劍橋分析”事件為例》,[J]《保密科學(xué)技術(shù)邢會(huì)強(qiáng):《人工智能時(shí)代的金融監(jiān)管變革》,[J]《探索與爭(zhēng)鳴》2018,(10):21許可:《人工智能的算法黑箱與數(shù)據(jù)正義》,[J]《社會(huì)科學(xué)報(bào)》2018年3月29日,第6版吳漢東:《人工智能時(shí)代的制度安排與法律規(guī)制》,[J]《法律科學(xué)(西北政法大學(xué)學(xué)報(bào))》2017年9月孫寶云、李艷、齊巍:《網(wǎng)絡(luò)安全影響政治安全的微觀分析——以“劍橋分析”事件為例》,[J]《保密科學(xué)技術(shù)》.

2020,(04):27-34付松聚:《從8月CPI報(bào)道看機(jī)器新聞與人工新聞差異何在》,[J].《中國(guó)記者》2015,(11)穆琳《“劍橋分析”事件“算法黑箱”問(wèn)題淺析》[J]中國(guó)信息安全2018,(04):92~941.4算法共謀2015年美國(guó)田納西大學(xué)的MauriceE.Stuckle教授和英國(guó)牛津大學(xué)的ArielEzrach教授,首次提出“算法共謀”這一概念,阿里爾·扎拉奇(ArielEzrachi)、莫里斯·E.斯圖克(MauriceE.Stucke):《算法的陷阱》[M]余瀟譯中信出版社,2018.將其定義為反壟斷法領(lǐng)域中部分經(jīng)營(yíng)者的共謀行為,余正峰《大數(shù)據(jù)時(shí)代算法共謀的反壟斷規(guī)制研究》[D]安徽財(cái)經(jīng)大學(xué)2020年阿里爾·扎拉奇(ArielEzrachi)、莫里斯·E.斯圖克(MauriceE.Stucke):《算法的陷阱》[M]余瀟譯中信出版社,2018.余正峰《大數(shù)據(jù)時(shí)代算法共謀的反壟斷規(guī)制研究》[D]安徽財(cái)經(jīng)大學(xué)2020年張進(jìn)《大數(shù)據(jù)背景下關(guān)于算法共謀反壟斷規(guī)制研究》[J]淮南職業(yè)技術(shù)學(xué)院學(xué)報(bào).

2020(02):143-145[美]羅伯特C.馬歇爾、[美]萊斯利M.馬克思:《共謀經(jīng)濟(jì)學(xué)———卡特爾與串謀競(jìng)標(biāo)》,蒲艷、張志奇譯,吳漢洪校,人民出版社2015:100-128雖然算法可以提升分配效率,但不可因小失大,只注重效率提升而忽視了算法共謀帶來(lái)的擾亂市場(chǎng)競(jìng)爭(zhēng)秩序等負(fù)面影響。算法的設(shè)計(jì)者和擁有者即使沒(méi)有進(jìn)行意思聯(lián)絡(luò)時(shí),但其開(kāi)發(fā)設(shè)計(jì)的算法卻能根據(jù)市場(chǎng)動(dòng)態(tài),與其他同行業(yè)者實(shí)現(xiàn)排除競(jìng)爭(zhēng)效果的市場(chǎng)行為,既破壞了市場(chǎng)秩序,又損害了消費(fèi)者的權(quán)益。殷繼國(guó)、沈鴻藝、岳子祺:《人工智能時(shí)代算法共謀的規(guī)制困境及其破解路徑》[J]殷繼國(guó)、沈鴻藝、岳子祺:《人工智能時(shí)代算法共謀的規(guī)制困境及其破解路徑》[J]華南理工大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版).2020,22(04):33-41但在實(shí)踐中,利用法律規(guī)制算法共謀行為卻遭遇重重阻礙。首先,算法共謀主體責(zé)任難以確定。算法本質(zhì)上是一種計(jì)算機(jī)程序,法律上如何確定其人格屬性,就已經(jīng)是一個(gè)較大的爭(zhēng)議點(diǎn)。通常商家之間進(jìn)行算法共謀,會(huì)以算法作為媒介,設(shè)計(jì)出帶有自己明顯意圖的算法程序,不論是監(jiān)視競(jìng)爭(zhēng)者價(jià)格變化也好,還是向競(jìng)爭(zhēng)對(duì)手釋放迷惑信息也罷,總之把算法當(dāng)成達(dá)到特定目的的工具。通過(guò)算法向競(jìng)爭(zhēng)對(duì)手派發(fā)用以達(dá)到其不正當(dāng)競(jìng)爭(zhēng)目的的信息,然后再借助“技術(shù)中立”原則等為托詞,逃避法律責(zé)任。其次,客觀要件難以證明?!斗磯艛喾ā分幸髮?shí)施壟斷行為的參與方之間要存在意思聯(lián)絡(luò),但很顯然,算法共謀中的合謀卻缺乏意思聯(lián)絡(luò)這一要件。算法自動(dòng)預(yù)測(cè)市場(chǎng)價(jià)格變化走向,然后做出相應(yīng)的價(jià)格調(diào)整,看似無(wú)害,但歸根到底,這種程序還是添加了人為意志。這無(wú)形之中反而方便了多個(gè)商家無(wú)需意思聯(lián)絡(luò)卻能形成價(jià)格壟斷行為。在此情形下,價(jià)格壟斷是否依然構(gòu)成壟斷協(xié)議是值得深思的問(wèn)題。最后,根據(jù)馬克思主義辯證法的觀點(diǎn),筆者認(rèn)為,任何事物都具有兩面性,雖說(shuō)目前的主流觀點(diǎn)也好,輿論導(dǎo)向也罷,對(duì)算法共謀的評(píng)價(jià)都偏向于消極負(fù)面,甚至主張將其認(rèn)定為違法行為,但我們也可以換個(gè)角度考慮,比如算法共謀行為下衍生出的算法程序,是否也在一定程度上促進(jìn)了行業(yè)的進(jìn)步與發(fā)展,或者說(shuō)讓消費(fèi)者坐收漁利?因?yàn)樵谛袠I(yè)內(nèi)算法共謀行為的影響下,商家會(huì)用價(jià)格優(yōu)勢(shì)吸引顧客,就像電商的興起,雖然沖擊了一大批實(shí)體經(jīng)濟(jì),但價(jià)格不斷下降以至于接近生產(chǎn)成本,還是讓消費(fèi)者坐收漁利。在國(guó)內(nèi),像阿里巴巴、百度這樣的互聯(lián)網(wǎng)龍頭企業(yè),在利用大數(shù)據(jù)提升自身競(jìng)爭(zhēng)力的同時(shí),也在客觀上促進(jìn)了數(shù)字技術(shù)的快速發(fā)展,在加劇了行業(yè)競(jìng)的同時(shí)也起到了推動(dòng)整個(gè)互聯(lián)網(wǎng)行業(yè)快速發(fā)展的目的。張進(jìn)《大數(shù)據(jù)背景下關(guān)于算法共謀反壟斷規(guī)制研究》[張進(jìn)《大數(shù)據(jù)背景下關(guān)于算法共謀反壟斷規(guī)制研究》[J]淮南職業(yè)技術(shù)學(xué)院學(xué)報(bào).

2020,(02):143-1452算法造成危害的原因分析分析完算法的危害表現(xiàn),本節(jié)擬從算法自身技術(shù)運(yùn)行角度、算法外部監(jiān)管角度和算法平臺(tái)的不合理使用等多方面分析造成上述危害的原因,以便為我國(guó)算法的法律規(guī)制提出針對(duì)性建議。2.1算法自身的隱蔽性和復(fù)雜性算法作為一種人工編纂的指令,本身就有其復(fù)雜性,因?yàn)橐粋€(gè)算法的成功締造,不僅需要付出極大的時(shí)間成本,更加需要許多技術(shù)高超的程序員們的精密設(shè)計(jì)。算法主體是具備特定的職業(yè)技術(shù)能力,直接參與算法研發(fā)、算法衍生產(chǎn)品的制造和生產(chǎn)等具體實(shí)踐活動(dòng)的自然人、法人或相關(guān)組織,包括算法的控制者和處理者,算法主體對(duì)算法的研發(fā)和升級(jí)起著主導(dǎo)和關(guān)鍵作用。金夢(mèng)金夢(mèng)《立法倫理與算法正義——算法主體行為的法律規(guī)制》[J]政法論壇.2021年1月第39卷第1期:30-402.2算法的監(jiān)管機(jī)制不健全馬克思主義辯證法認(rèn)為,事物的結(jié)果均由內(nèi)因和外因兩方面造成,因此在分析完算法自身復(fù)雜性和隱蔽性的原因之外,我們不妨也從外部找尋算法造成危害的原因。筆者認(rèn)為,算法之所以帶來(lái)各種危害,不僅僅是由于運(yùn)行不規(guī)范,更重要的原因在于外部沒(méi)有合理且強(qiáng)有力的機(jī)制和法律規(guī)范指引其正常運(yùn)行。因此,建立合理有效的算法監(jiān)管機(jī)制十分必要。我們常會(huì)遇到這樣的情況:在下載新軟件、注冊(cè)新用戶的時(shí)候,填完所有的個(gè)人信息,最下方往往會(huì)出現(xiàn)所謂的“隱私保護(hù)條例”,這看似是平臺(tái)在征求個(gè)人的意見(jiàn),但實(shí)際上若不選擇同意,用戶則無(wú)法進(jìn)行下一步的操作。用戶的“被迫妥協(xié)”使得隱私保護(hù)條例被大量虛置。同時(shí),個(gè)人用戶大多缺乏必要的專業(yè)知識(shí),無(wú)法有效地利用個(gè)人權(quán)利與之對(duì)抗。曾有許多人對(duì)這個(gè)問(wèn)題進(jìn)行過(guò)探討,得出的結(jié)論是即使提高了算法運(yùn)行透明度,也向用戶告知了相應(yīng)的權(quán)利,但普通人沒(méi)有應(yīng)對(duì)的方法。因此,迫切需要成立監(jiān)督和管理算法的行政部門。我國(guó)頒布的《新一代人工智能發(fā)展規(guī)劃》白皮書(shū)中,對(duì)人工智能的監(jiān)管提出了提升透明度的要求,稱要建立健全公開(kāi)透明的人工智能監(jiān)管體系。王海霞.人工智能時(shí)代算法新聞的版權(quán)保護(hù)機(jī)制研究[J].出版發(fā)行研究,2王海霞.人工智能時(shí)代算法新聞的版權(quán)保護(hù)機(jī)制研究[J].出版發(fā)行研究,2020,(02):46-50反觀國(guó)外,許多國(guó)家早已意識(shí)到僅僅依靠行業(yè)自律無(wú)法保障算法的規(guī)范運(yùn)行,因此建立起了各類機(jī)構(gòu)以實(shí)現(xiàn)對(duì)算法的外部監(jiān)管。例如,美國(guó)針對(duì)勞工頻繁受到算法侵害的問(wèn)題設(shè)立了美國(guó)平等就業(yè)機(jī)會(huì)委員會(huì),該機(jī)構(gòu)主要著力于幫助勞工在招聘階段免受算法的歧視,只要發(fā)現(xiàn)招聘信息中有涉及種族、性別、年齡等傾向的信息,該招聘就會(huì)被認(rèn)定為違法,而不論該信息對(duì)于招聘結(jié)果是否產(chǎn)生影響。鄭智航徐昭曦《大數(shù)據(jù)時(shí)代算法歧視的法律規(guī)制與司法審查鄭智航徐昭曦《大數(shù)據(jù)時(shí)代算法歧視的法律規(guī)制與司法審查以美國(guó)法律實(shí)踐為例》[J]比較法研究2019,(04):111—122鄭智航徐昭曦《大數(shù)據(jù)時(shí)代算法歧視的法律規(guī)制與司法審查以美國(guó)法律實(shí)踐為例》[J]比較法研究2019,(04):111—122目前,我國(guó)相繼出臺(tái)了《中華人民共和國(guó)數(shù)據(jù)安全法(草案)》、《中華人民共和國(guó)網(wǎng)絡(luò)安全法》,也制定了《數(shù)據(jù)安全管理辦法》(以下簡(jiǎn)稱“辦法”)。除了辦法第二十三條《數(shù)據(jù)安全管理辦法》第二十三條:網(wǎng)絡(luò)運(yùn)營(yíng)者利用用戶數(shù)據(jù)和算法推送新聞信息、商業(yè)廣告等,應(yīng)當(dāng)以明顯方式標(biāo)明“定推”字樣,為用戶提供停止接收定向推送信息的功能;用戶選擇停止接收定向推送信息時(shí),應(yīng)當(dāng)停止推送,并刪除已經(jīng)收集的設(shè)備識(shí)別碼等用戶數(shù)據(jù)和個(gè)人信息。網(wǎng)絡(luò)運(yùn)營(yíng)者開(kāi)展定向推送活動(dòng)應(yīng)遵守法律、行政法規(guī),尊重社會(huì)公德、商業(yè)道德、公序良俗,誠(chéng)實(shí)守信,嚴(yán)禁歧視、欺詐等行為。和第二十四條參見(jiàn)《數(shù)據(jù)安全管理辦法》第二十四條:網(wǎng)絡(luò)運(yùn)營(yíng)者利用大數(shù)據(jù)、人工智能等技術(shù)自動(dòng)合成新聞、博文、帖子、評(píng)論等信息,應(yīng)以明顯方式標(biāo)明《數(shù)據(jù)安全管理辦法》第二十三條:網(wǎng)絡(luò)運(yùn)營(yíng)者利用用戶數(shù)據(jù)和算法推送新聞信息、商業(yè)廣告等,應(yīng)當(dāng)以明顯方式標(biāo)明“定推”字樣,為用戶提供停止接收定向推送信息的功能;用戶選擇停止接收定向推送信息時(shí),應(yīng)當(dāng)停止推送,并刪除已經(jīng)收集的設(shè)備識(shí)別碼等用戶數(shù)據(jù)和個(gè)人信息。網(wǎng)絡(luò)運(yùn)營(yíng)者開(kāi)展定向推送活動(dòng)應(yīng)遵守法律、行政法規(guī),尊重社會(huì)公德、商業(yè)道德、公序良俗,誠(chéng)實(shí)守信,嚴(yán)禁歧視、欺詐等行為。參見(jiàn)《數(shù)據(jù)安全管理辦法》第二十四條:網(wǎng)絡(luò)運(yùn)營(yíng)者利用大數(shù)據(jù)、人工智能等技術(shù)自動(dòng)合成新聞、博文、帖子、評(píng)論等信息,應(yīng)以明顯方式標(biāo)明“合成”字樣;不得以謀取利益或損害他人利益為目的自動(dòng)合成信息參見(jiàn)《中華人民共和國(guó)網(wǎng)絡(luò)安全法》由此可以看出,在國(guó)外早已對(duì)算法進(jìn)行法律規(guī)制的背景下,我國(guó)相關(guān)的監(jiān)管機(jī)制至今仍不健全,因此我國(guó)可以借鑒國(guó)外對(duì)于算法的法律規(guī)制路徑,加緊制定相關(guān)法律法規(guī)。2.3算法倫理的缺失與不足算法問(wèn)題層出不窮,現(xiàn)有的法律法規(guī)無(wú)法應(yīng)對(duì)所有問(wèn)題,這意味著需要重新塑造公眾對(duì)于算法的認(rèn)知和法律的規(guī)則形態(tài)。另外,倘若算法發(fā)展到一定程度,今后司法活動(dòng)中的起訴書(shū)、判決書(shū)等都有可能按照算法規(guī)定的路徑自動(dòng)生成,證據(jù)材料也能經(jīng)由算法自動(dòng)審查,這不可避免地會(huì)帶來(lái)一些隱患,例如當(dāng)算法編程上出現(xiàn)問(wèn)題,或是算法某個(gè)運(yùn)行環(huán)節(jié)出錯(cuò),都可能導(dǎo)致嚴(yán)重的司法后果。如果要為此重新啟動(dòng)人工審查,勢(shì)必會(huì)增加勞動(dòng)量并耗費(fèi)更多的人力資源。當(dāng)然算法和人相比,出錯(cuò)的幾率可以說(shuō)是低得多,但是我們也不得不考慮到這個(gè)“萬(wàn)一”,以及出錯(cuò)后的彌補(bǔ)辦法。另外,由于算法是人工編寫(xiě)的,在算法編程的過(guò)程中,很有可能加入編程者個(gè)人的主觀傾向,例如對(duì)性別的偏見(jiàn)、地域的歧視等一系列常見(jiàn)的歧視因素都可能被編入算法程序中,這毫無(wú)疑問(wèn)會(huì)影響算法輸出的結(jié)果。美國(guó)某項(xiàng)調(diào)查研究表明,性別歧視廣泛存在于谷歌的廣告系統(tǒng)之中,同種情形下,男高收入工作往往喜歡推薦給男性用戶而非女性用戶。法律具有滯后性,價(jià)格共謀這一現(xiàn)象的出現(xiàn),也提現(xiàn)了反壟斷法具有滯后性的特點(diǎn)。預(yù)設(shè)倫理規(guī)范是反映市場(chǎng)競(jìng)爭(zhēng)變化的有效手段。與我國(guó)不同的是,歐美國(guó)家對(duì)于機(jī)器人以及算法等相關(guān)產(chǎn)業(yè)的倫理道德研究已經(jīng)展開(kāi)多年,不僅對(duì)于人工智能倫理學(xué)方面已經(jīng)有了諸多嶄新的認(rèn)識(shí),也出臺(tái)了一些相關(guān)的白皮書(shū)。同時(shí),對(duì)于人工智能的研發(fā)人員,也有了相應(yīng)的道德約束條款和操作指引性說(shuō)明。對(duì)于這方面的研究,我國(guó)更應(yīng)該緊追其后,乘勢(shì)而上。另外,對(duì)于任何的新興事物,我們應(yīng)盡可能采取鼓勵(lì)支持,并且合理引導(dǎo)的態(tài)度,充分相信人工智能技術(shù)所帶來(lái)的利大于弊,才能支持繼續(xù)發(fā)展人工智能。如今,各行各業(yè)也基本達(dá)成這樣的共識(shí):人工智能系統(tǒng)的研發(fā)和應(yīng)用必須服從一些倫理原則。2.4對(duì)“技術(shù)中立”原則的不當(dāng)引用“技術(shù)中立”原則來(lái)源于著名的環(huán)球電影制片公司起訴美國(guó)索尼公司王遷《“索尼案”二十年祭——回顧、反思與啟示》[J]《科技與法律》,2004,(04):59-68一案,1976年因該案而確立的“實(shí)質(zhì)性非侵權(quán)用途規(guī)則”一直沿用至今。在中國(guó)涉及算法責(zé)任的案件如“快播案”等,也常援引“技術(shù)中立”為抗辯理由,這一原則強(qiáng)調(diào)技術(shù)自身的價(jià)值,一項(xiàng)合法并被廣泛運(yùn)用的技術(shù),則即使它被用于非法活動(dòng),也應(yīng)當(dāng)豁免技術(shù)開(kāi)發(fā)者的責(zé)任。邱遙堃《法院如何規(guī)制算法從快播案切入》[J]《法律與社會(huì)科學(xué)》,2017,(0王遷《“索尼案”二十年祭——回顧、反思與啟示》[J]《科技與法律》,2004,(04):59-68邱遙堃《法院如何規(guī)制算法從快播案切入》[J]《法律與社會(huì)科學(xué)》,2017,(01):49-68在資訊整合平臺(tái)陷入案件糾紛時(shí),他們往往會(huì)引用“技術(shù)中立”進(jìn)行抗辯,久而久之,“技術(shù)中立”原則被許多平臺(tái)和編輯有意無(wú)意當(dāng)成了保護(hù)傘。但需要記住的是,“技術(shù)中立”原則的確立本為了保護(hù)新興技術(shù)的發(fā)展,倘若該項(xiàng)原則被有心之人加以利用,成為了侵權(quán)行為的保護(hù)傘,則背離了司法原則的本意?!凹夹g(shù)中立”原則在以往的司法實(shí)踐中也常出現(xiàn):2013年,優(yōu)酷訴獵豹瀏覽器不正當(dāng)競(jìng)爭(zhēng)一案參見(jiàn)《優(yōu)酷網(wǎng)絡(luò)技術(shù)(北京)有限公司與北京獵豹網(wǎng)絡(luò)科技有限公司侵害作品信息網(wǎng)絡(luò)傳播權(quán)糾紛一審民事判決書(shū)》(2020)京

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論