數字時代的算法困境與治理路徑_第1頁
數字時代的算法困境與治理路徑_第2頁
數字時代的算法困境與治理路徑_第3頁
數字時代的算法困境與治理路徑_第4頁
全文預覽已結束

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

1、數字時代的算法E境與治理路當前,新一輪科技革命和產業(yè)變革深入推進,正在重構全球創(chuàng)新幅員、重塑全球經濟結構。云計算、大數據、物 聯(lián)網、移動互聯(lián)網、人工智能、區(qū)塊鏈等數字技術群是影響最廣泛的推動力量,不但不斷催生新產品、新模式、新業(yè)態(tài), 而且作為通用目的技術在經濟社會生活中加速滲透融合,使其他產業(yè)領域產生顛覆性變革,數字產業(yè)化和產業(yè)數字化快 速推進,數字經濟正成為世界各國最具活力、增速最快的新動能。數字經濟的核心是數據,大數據、人工智能等技術對經濟社會中各種數據廣泛和實時的采集和處理,使數據像工 業(yè)時代的石油一樣成為數字經濟時代最重要的生產要素。目前主流的人工智能技術路線是“大數據+機器學習工算法

2、是強 制給定的有限、抽象、有效、復合的控制結構,在一定的規(guī)那么下實現特定的目的。隨著人工智能技術的廣泛使用,算法 滲透進經濟社會生活的方方面面,一個算法社會正在到來。算法在帶動經濟增長、提高經濟效率、豐富和便利生活的同 時,在市場競爭、信息傳播、個人隱私、弱勢群體利益等方面的負面影響和風險也暴露出來,需要高度重視并加強算法 規(guī)制。算法廣泛應用于國民經濟的各個領域,具有范圍寬廣、形態(tài)繁多的特點,由于其應用的領域和環(huán)節(jié)、影響的對象 不同,算法造成的負面影響和風險主要包括以下幾個方面:第一,限制市場競爭。數字經濟在組織形態(tài)上的顯著特征是超級平臺的興起,形成數字經濟與傳統(tǒng)產業(yè)在產業(yè)組 織結構上的巨大差

3、異。一是平臺成為典型的經營形態(tài)。數字經濟平臺屬于雙邊平臺,一邊連接最終產品或服務的用戶, 另一邊連接這些產品或服務的供應商,平臺提供供應商與最終用戶之間的交易中介服務以及實現交易所需的數字化工 具、數字基礎設施和交易規(guī)那么。二是數字經濟的市場集中度更高。由于網絡效應的存在,數字經濟的細分產業(yè)領域在進 入成熟階段后都呈現贏家通吃的格局,一兩家頭部企業(yè)占有大多數市場份額,相比之下,傳統(tǒng)產業(yè)的市場集中度一般要 低得多。三是超級平臺具有強大的市場勢力。由于占有大多數市場份額,更由于平臺是數據集中與交換的樞紐,無論是 入駐平臺的供應商還是最終用戶都處于非常弱勢的地位。平臺企業(yè)可以利用其市場優(yōu)勢地位和對數

4、據的掌控對供應商和 最終用戶制定掠奪性價格;還可以利用數據優(yōu)勢、用戶優(yōu)勢,對具有潛力的新技術和新商業(yè)模式進行模仿,將初創(chuàng)企業(yè) 排擠出市場,或者直接將初創(chuàng)企業(yè)收購,將自己在原有市場的優(yōu)勢地位拓展到新興市場。即使在市場上仍存在多家平臺 的情況下,平臺企業(yè)可以將算法作為媒介建立共謀,通過向供應商、消費者收取高價而謀取不當利益。第二,侵害用戶隱私。在數字經濟時代,數據是企業(yè)經濟效益的重要來源,數據的價值取決于顆粒度、鮮活度、 連接度、反應度、響應度、加工度等多個方面,精細化程度越高的信息、越具有時效性的信息、越能夠與其他信息建立 關聯(lián)的信息,其經濟價值越高。用戶的信息既可以直接用于數字經濟企業(yè)自身的商

5、品導流或促銷,也可以出售給其他企 業(yè)。為了占有盡可能多的信息,許多應用程序或APP未經用戶同意就直接獲取程序運行非必須的權限,如定位功能、 通訊錄訪問權限等,甚至用戶不開放權限就無法使用該程序。為了獲得互聯(lián)網帶來的便利性,消費者不得不選擇讓渡個 人信息。但是一方面,一些信息的獲取沒有得到消費者的許可,屬于非法采集,另一方面,個人雖然是數據的生產者、 所有者,但是這些數據一旦被互聯(lián)網公司獲取后就脫離其最初所有者的控制,個人不但無法知曉自己的信息被用于何處, 而且在后續(xù)的使用中可能會威脅個人的隱私,甚至可能對個人的財產和人身平安造成損害。第三,造成算法歧視。算法歧視是基于算法的自動化決策對個人所造

6、成的不公平對待的現象。算法歧視包括直接 歧視和間接歧視,前者是由于個體所處特定社會群體而遭受的不同等待遇,后者是指外表中立的行為對不同社會群體成 員造成不同等的影響。算法歧視有多種成因,包括用于訓練算法的歷史數據受到污染或存有偏見,算法中使用性別、種 族等具有明顯歧視性的數據,利用能夠顯示身份的代理變量(如用戶使用的手機品牌和價格)用于算法模型訓練,個人 偏見和歧視性觀點被植入算法等。算法歧視的一個典型是“大數據殺熟”。大數據殺熟是互聯(lián)網平臺利用算法對用戶的歷 史消費數據進行分析,相同的商品或服務對那些支付能力強、對價格不敏感的老顧客收取更高的價格。在傳統(tǒng)的商品市 場上,商品的功能、質量高度標

7、準化,價格不同很容易被發(fā)現,而互聯(lián)網服務通常是基于特定時間、特定場景的,時間、 場景不同,市場上的供需關系就不同,并由此形成不同的市場價格,這就造成“大數據”殺熟更難被發(fā)覺、也更難被舉證。第四,形成信息繭房。通過對消費者注冊、瀏覽、搜索、購買、評價等互聯(lián)網使用歷史數據的分析,媒體平臺利 用算法可以向消費者精準推送其感興趣的信息,以此增加用戶黏性和用戶鎖定。在信息呈指數型爆炸增長的自媒體時代, 平臺的推薦算法雖然可以為消費者節(jié)約大量的信息搜索時間,但也嚴重限制了消費者所能接收到的信息的多樣性,推薦 算法會嚴格按照用戶自己的偏好設定和歷史數據定制化地推送信息,而用戶在這類信息上的駐留會進一步強化算

8、法對此 類信息推薦。人們被算法圈定在“信息繭房”里,被動地接受算法讓人們看到的信息。同時,各類數字平臺的社交化導向 會推動具有相同愛好和觀點的人在網絡空間上聚集,進一步強化他們固有的愛好和觀點。算法推薦會讓用戶只看到自己 愿意看到的觀點,造成信息封閉、在認知上成為“井底之蛙”。在社會層面,信息繭房還會形成用戶觀點的極化,造成不 同群體之間的交流障礙,甚至由于思想的偏狹引致群體間的誤會,催生極端行為,引發(fā)社會矛盾和沖突。第五,損害弱勢群體。數字經濟的開展和算法的廣泛使用不會自動地平等惠及每一個人,弱勢群體反而會成為算 法的受損者。在日常生活中,由于數字技術對傳統(tǒng)生活方式的替代可能增加對數字技術不

9、熟悉人群的不便。例如,網約 車普及后,不會使用手機的老年人出現“打車難”。在工作中,合意的算法應該有益于勞動者工作條件的改善、降低工作 中的潛在傷害。但這只是算法的美好的一面,算法也會讓勞動者變成算法的“奴隸”。例如,在外賣行業(yè),外賣騎手在算 法的驅使下為了準時完成訂單、獲得準時獎勵或防止不準時的罰款,不僅會增加勞動強度,而且可能會采取超速、逆行、 闖紅燈等高風險行為,被迫用事故概率來換取工作效率。第六,帶來倫理挑戰(zhàn)。傳統(tǒng)上,人類主體使用某種技術以及該技術形成的產品和服務,同時承當使用該項技術造 成的法律后果或道德倫理責任,但是當人類把決策權交給算法,由算法自動地作出判斷、決策并實施行動時就形

10、成了對 道德倫理的挑戰(zhàn)。在大多數情況下,現有法律法規(guī)、政策和社會倫理對算法造成的不良后果會形成約束,但是算法的突 飛猛進也會產生新的道德倫理問題,對人類文明長期形成的道德倫理準那么形成新的挑戰(zhàn),給人類社會的開展帶來新的風 險。在著名的“電車難題”中,當無人駕駛汽車在事故在所難免時,它該如何作出決策:是優(yōu)先保護車上的駕駛人員和乘 客還是優(yōu)先保護路上的行人?是選擇撞向道路上的多個行人還是撞向路邊的一個無辜看客?現有的法律甚至社會倫理 并沒有對算法規(guī)那么如何設定提供明確的意見。由于智能化系統(tǒng)是按照預先編好的程序作出決策,因此在一些領域的應用 可能會造成巨大的風險。首先是人類的認知局限。算法是人類開發(fā)

11、設計的,必然也反映著人類的主觀認知。算法困境的很重要原因是人類 主觀認知的局限性造成的。一方面,開發(fā)算法的人員可能會存在認知上的偏差甚至偏見,而算法不僅會繼承人類的偏見, 而且還可能隨著數據的積累和算法的迭代而被強化和放大。另一方面,大數據、人工智能以及作為其核心的算法仍然是 一個新生事物,人類對于其可能造成的負面影響存在認識缺乏的情況。在機器學習的技術路線下,程序員只需要給出一 個合適的算法而無需自己手動編寫詳細代碼,通過提供充足的用于訓練的數據,算法可以自己調整、修改決策規(guī)那么。這 種學習能力賦予算法一定程度的自主性,同樣也造成算法執(zhí)行任務的后果難以預測。其次是企業(yè)的經濟動因。算法雖然在客

12、觀構成上是一系列冰冷的代碼,但它仍然是人類智力活動的結果,算法既 受到人類認知開展水平的制約,也不可防止受到人類主觀行為的影響。企業(yè)是追求經濟利益最大化的市場主體,企業(yè)對 算法功能的開發(fā)、設計必然服務于其經濟目標的實現。為了讓數據創(chuàng)造更大價值,企業(yè)會以各種方式獲得用戶數據;為 了獲得流量,企業(yè)會根據數據對用戶精準畫像并進行定制化的信息推送。帶有偏見和歧視的數據經過算法運算之后產生 的結果也會帶有不公平性。即使企業(yè)在開發(fā)算法時沒有主觀惡意,如果將利潤最大化設定為算法要實現的最終目標,算 法在自我學習、不斷迭代中形成的新版本也可能造成違反現有法律、社會倫理道德的后果。再次是平臺的數據優(yōu)勢。超級平臺

13、是供應商和商品/服務最終用戶的交易中介,掌握著雙方的搜索、評論、互動、 收藏、交易等各種數據,而且在大數據、云計算等技術的支持下,所有的歷史交易都能被保存、追溯和分析,再加上與 其他來源數據的交叉比對,平臺能夠獲得供應商和用戶在互聯(lián)網上的全本信息。相比之下,平臺上的供應商和用戶只擁 有自己個人的數據,與平臺掌握的數據完全不在同一個數量級。平臺對數據的掌握也就意味著掌握了互聯(lián)網上最重要的 流量,它既可以向供應商出售流量,也可以引導最終用戶的流量。面對平臺的數據和流量優(yōu)勢以及高度集中的市場格局, 供應商在與平臺的談判中毫無優(yōu)勢,因此就出現了“二選一”等現象。同樣,平臺還能夠利用對消費者近乎完全的信

14、息掌 握,對消費者制定高度差異化的歧視性價格,而處于信息劣勢的消費者只能被動地接受平臺制定的價格。第四是算法的技術黑箱。企業(yè)的算法對于它的供應商、用戶以及監(jiān)管機構存在著很高的不透明性。算法的不透明 性有三種來源:一是由于商業(yè)秘密保護所導致的不透明性,這種以維護競爭優(yōu)勢為名的保護也可能是一種規(guī)避法規(guī)、操 縱消費者和實施歧視的新形式的掩護;二是對于技術外行的不透明性,編寫和閱讀代碼和算法設計是一項高度專業(yè)化的 技能,需要長期的學習和經驗積累,大多數人無法勝任;三是算法本身復雜性導致的不透明性,機器學習形成的算法不 但規(guī)模巨大,而且算法的內部邏輯隨著對訓練數據的學習而不斷改變會進一步增加代碼的復雜性

15、。不透明性使企業(yè)的算 法成為很難為外界所知的技術黑箱,數據的海量化,場景的個性化,算法的專業(yè)化增加了外界監(jiān)督的難度,助長了一些 企業(yè)經營者和算法開發(fā)者為追求經濟利益而采取有悖法律法規(guī)、社會道德倫理的行為。最后是數據素養(yǎng)的差異。國家間由于經濟開展、數字基礎設施、數字產品購買力以及素質教育的不同,而出現的 數字化程度的巨大差異被稱為“數字鴻溝:即使在同一個國家內部,數字鴻溝因為所處地區(qū)、收入水平、受教育水平、 年齡等而同樣存在。在我國由于大規(guī)模的信息基礎設施建設,網絡覆蓋率的差異已經不成為數字鴻溝的主要原因,個人 智能終端性價比的不斷提高也促進能夠聯(lián)網的智能設備日益普及,數字鴻溝實際上主要存在于代

16、際之間。年輕一代是數 字經濟原住民,從小就使用數字產品并接受素質教育,而老年人由于學習能力差、購買力低,許多人沒有智能終端,即 使有智能終端也無法掌握各種操作,使他們被排斥在數字經濟帶來的強大生活功能和便利性之外。在數字時代,隨著算法應用領域的不斷擴大,任其無序開展會進一步放大可能帶來的風險和危害。因此,要堅持 促進開展和監(jiān)管規(guī)范兩手抓、兩手都要硬,一方面推動算法相關技術的進步,完善算力基礎設施,創(chuàng)造數據流通、交易 的法律制度環(huán)境,另一方面也要加強對算法的規(guī)制和對算法困境的治理。一是加強企業(yè)社會責任建設。催促互聯(lián)網企業(yè)以及正在進行數字化轉型的企棠加強企業(yè)社會責任建設,規(guī)范規(guī)那么 設立、數據處理

17、、算法制定等行為,在算法設計之初就要將法律、核心價值觀、道德倫理等人類價值嵌入到算法之中, 讓數字科技企業(yè)、算法開發(fā)人員將服務于國家和社會利益、造福于人民群眾作為基本遵循。算法開發(fā)者應提高算法的透 明度和可解釋性,增強對算法平安評估和管控能力;當算法開發(fā)者遇到算法可能造成危害和風險時,主動對算法進行修 正和調整,推動形成負責任的算法,實現算法向善。二是完善算法治理規(guī)那么。進一步完善數據立法,對數據的權屬、轉讓、交易等進行規(guī)定。積極參與數據跨境流動、 算法應用、算法平安等領域國際規(guī)那么合作,完善多邊數字經濟治理機制。根據數字經濟開展出現的新模式、新業(yè)態(tài)、新 現象、新問題,研究制定關于新型不正當競

18、爭行為認定、處分的法律規(guī)范。針對零工經濟、靈活就業(yè)現象,研究完善平 臺從業(yè)人員權益保護規(guī)定和社保政策等。通過制定合理使用算法的法律規(guī)范,防止數字企業(yè)利用數據優(yōu)勢和算法技術排 除、限制競爭,加強消費者權益的保護,維護公平競爭秩序。三是加強對算法的規(guī)制。盡管算法具有很高的技術門檻,但政府對互聯(lián)網公司的監(jiān)管應擴大到算法層面。賦予監(jiān) 管機構監(jiān)管數據和算法的權力,探索基于大數據、人工智能、區(qū)塊鏈等新技術的監(jiān)管模式,增強監(jiān)管部門的監(jiān)管能力, 提高算法相關風險的識別、預警和防范。對算法開發(fā)者和使用者設置算法審查、算法風險評估與算法解釋等義務。當算 法使用過程中出現有損于社會利益的結果或暴露潛在風險時,監(jiān)管機構有權翻開算法黑箱,聘請第三方服務機構或組成 專家委員會對企業(yè)的數據與算法合規(guī)性進行審查。四是建設數字友好型社會。繼續(xù)推動信息基礎設施建設,提高通信網絡的覆蓋率和可獲得性。加強對遙遠地區(qū)、 老年人、少年兒童的數字應用教育,幫助他們掌握數字設備的使用。行業(yè)主管部門應發(fā)布規(guī)定,要求智能硬件開發(fā)和互 聯(lián)網服務提供企業(yè),在產品和算法開發(fā)時,要考慮老年人、殘疾人等社會弱勢群體的需求,提高算法對弱勢群體的友好 性。例如

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論