版權說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權,請進行舉報或認領
文檔簡介
1、 人工智能與倫理道德 在高性能計算機和大數(shù)據(jù)之前的時代,人工智能系統(tǒng)由人類編寫,遵循人類發(fā)明的規(guī)則,但技術進步已經(jīng)導致了新方法的出現(xiàn),其中便包括機器學習?,F(xiàn)在,機器學習是最活躍的AI領域,它通過統(tǒng)計方法來讓系統(tǒng)從數(shù)據(jù)中“學習”,作出決策,不必進行顯式編程。她設想的未來將智能電腦的速度和統(tǒng)計能力與人類的天賦相結合,而不是機器和人類彼此對抗。在描述AI系統(tǒng)擊敗象棋和圍棋世界冠軍或者取代人類工作崗位時,對抗常常被用來形容機器和人類的關系??梢哉f,人機協(xié)作代表了AI系統(tǒng)的前沿。在10月舉行的首屆哈佛數(shù)據(jù)科學大會(HDSC)上,自主無人系統(tǒng)的公平問題被放在了一個突出的位置。計算機科學教授大衛(wèi)帕克斯(Da
2、vid Parkes)列出了哈佛大學數(shù)據(jù)科學研究的指導原則:應該解決包括隱私在內(nèi)的道德問題;不應該延續(xù)現(xiàn)有偏見;應該是透明的。但想要創(chuàng)造出體現(xiàn)這些原則的學習型AI系統(tǒng)是很難的。我們試圖反駁的是一切都可歸結為優(yōu)化問題、預測問題或者分類問題的觀點。這種觀點在機器學習/AI圈子里仍然是主流。如果你以標準的機器學習方式來處理,最后的結果將是加劇那些不平等。原文翻譯:2018年3月18日晚10點左右,伊萊恩赫茨伯格(Elaine Herzberg)在亞利桑那州坦佩市騎車橫穿馬路,被一輛自動駕駛汽車撞倒,不幸身亡。雖然車上有安全駕駛員,但當時汽車完全由自動駕駛系統(tǒng)(人工智能)控制。和其他涉及人與AI技術交
3、互的事故一樣,這起事故提出了一系列的道德和原始法律問題:開發(fā)該系統(tǒng)的程序員在防止該系統(tǒng)奪人性命方面負有怎樣的道德責任?誰應該為赫茨伯格的死負責?是坐在駕駛位上的那個人嗎?是測試那輛汽車的公司嗎?是該AI系統(tǒng)的設計者嗎?還是車載感應設備的制造商?“人工智能”是指從周圍環(huán)境中獲取線索,根據(jù)這些數(shù)據(jù)來解決問題、評估風險、作出預測和采取行動的系統(tǒng)。在高性能計算機和大數(shù)據(jù)之前的時代,人工智能系統(tǒng)由人類編寫,遵循人類發(fā)明的規(guī)則,但技術進步已經(jīng)導致了新方法的出現(xiàn),其中便包括機器學習?,F(xiàn)在,機器學習是最活躍的AI領域,它通過統(tǒng)計方法來讓系統(tǒng)從數(shù)據(jù)中“學習”,作出決策,不必進行顯式編程。這樣的系統(tǒng)配合上一種算法
4、或者一系列步驟,利用一個知識庫或者知識流(算法用來構建模型的信息)來解決一個問題。這些技術進步引發(fā)了道德?lián)鷳n,主要聚焦于AI在致命性軍用無人機方面的應用,或者AI可能使全球金融系統(tǒng)陷入混亂的風險??紤]到自主無人系統(tǒng)已經(jīng)威脅到了無數(shù)貨車司機和打車司機的飯碗,AI激起了普通民眾對失業(yè)的焦慮。除了這些宏觀的社會和經(jīng)濟考量,數(shù)據(jù)科學家還擔心AI系統(tǒng)的偏見、這項技術的倫理實現(xiàn)和人機交互的本質(zhì)(如果這些系統(tǒng)恰當且公平地部署于最尋常普通的應用)。讓我們來看一個似乎平淡無奇的社會變化:機器已經(jīng)有能力作出可以改變?nèi)藗內(nèi)粘I畹臎Q定。AI能匯集和評估大量數(shù)據(jù),有時超出人力所及的范疇,因此AI可以提出雇傭建議,在幾
5、秒內(nèi)確定貸款申請人的信用度,預測罪犯再次犯罪的幾率。但這樣的應用引發(fā)了令人不安的倫理問題,因為AI系統(tǒng)能強化它們從現(xiàn)實數(shù)據(jù)中獲得的認知,甚至放大熟悉的風險,比如種族和性別偏見。在面對不熟悉的場景時,AI系統(tǒng)還可能作出錯誤判斷。由于很多AI系統(tǒng)都是“黑箱”,人類不太容易獲知或者理解它們的決策依據(jù),因此難以提出質(zhì)疑或者進行探查。這樣的例子有很多。2014年,亞馬遜開發(fā)了一款招聘工具,用來識別這家公司想要招募的軟件工程師。很快,該系統(tǒng)開始歧視女性,在2017年被亞馬遜棄用。2016年,ProPublica分析了一款商業(yè)軟件。該系統(tǒng)預測罪犯再次犯罪的可能性,旨在幫助法官作出更明智的量刑決定。ProPu
6、blica發(fā)現(xiàn),該系統(tǒng)對黑人存有偏見。在過去兩年里,依靠規(guī)則和訓練數(shù)據(jù)來運作的自動駕駛汽車導致了幾起致命事故,原因是對外界環(huán)境不熟悉或者導航系統(tǒng)無法理解輸入數(shù)據(jù)。私營商業(yè)開發(fā)商通常拒絕公布他們的代碼以供檢查,因為其軟件被視為專有知識產(chǎn)權,是另一種形式的不透明性法律上的,而非技術上的。技術進步本身無法解決AI的深層次根本性問題:算法的設計哪怕再周全,也必須根據(jù)現(xiàn)實世界的數(shù)據(jù)來作出決定,但現(xiàn)實世界是有缺陷的、不完美的、不可預測的、特異的。計算機科學家比其他人更快意識到,在系統(tǒng)被設計出來之后,工程并不總是能解決這樣的問題。盡管數(shù)據(jù)隱私得到加強,對算法公平的局限性有了更加清醒的認識,但人們意識到,在系
7、統(tǒng)投入使用之前,必須把道德關切納入考量。這種認知促使倫理學課程(由哲學系博士后和研究生講授)被正式整合進哈佛大學的很多計算機科學課程。哈佛大學以及人工智能倫理與治理基金機構(由哈佛大學法學院伯克曼克萊因中心和麻省理工學院媒體實驗室共同創(chuàng)辦)的數(shù)據(jù)科學家,就AI對人類社會的影響進行了深入討論。這種對倫理的關注源于哈佛大學一位資深的計算機科學教授。從溝通到合作和倫理學自然科學教授芭芭拉格羅茲(Barbara Grosz)說:“幾年前,我去拜訪微軟的幾位朋友。其中一人研究計算機視覺系統(tǒng)。我們開車去某處散步。在高速公路上,我們前面的是一輛卡車,上面載著一個移動廁所,一輛自行車綁在這個移動廁所上。我的系
8、統(tǒng)會怎么處理這個東西?那人說,它知道該作何反應嗎?”答案是可能不知道。這樣的一幅情景不可能成為其“體驗”大量的圖像,由人類進行標記,構成了系統(tǒng)的訓練數(shù)據(jù)的一部分。芭芭拉格羅茲現(xiàn)在的AI系統(tǒng)還很弱小,比不上強大的人類智能可以把在一個場景中學到的東西迅速應用到另一個場景??v然電腦能區(qū)分自動車、卡車和移動廁所,但如果這些物體混在一起,以每小時100公里的速度,沿著帶自行車道的高速公路行駛,那么電腦就會搞不清狀況。(利用這一弱點就是“AI和敵對攻擊”的主題。)換句話說,AI缺乏常識和推理能力,即使它能發(fā)現(xiàn)人類發(fā)現(xiàn)不了的東西,比如發(fā)現(xiàn)復雜生物網(wǎng)絡中的三階或更高階相互作用(必須三個或更多變量相互作用才能產(chǎn)
9、生效果)?!皠e老想著機器人會統(tǒng)治世界。與其擔心人們知道其局限性的智能系統(tǒng),不如擔心人們以為很聰明的愚蠢系統(tǒng)?!备窳_茲曾在康奈爾大學學習數(shù)學,后來在加州大學伯克利分校攻讀計算機科學,1973年成為斯坦福國際研究院(SRI International)人工智能中心的研究數(shù)學家,從此開始鉆研AI問題。計算機如何生成和理解人類語音和文本是AI研究的一個子領域,格羅茲被視為該領域的奠基人(榮獲2017年國際計算語言學協(xié)會終生成就獎),她能說出Alexa、Siri和谷歌等智能語音系統(tǒng)一大堆的不足之處。例如,這些系統(tǒng)知道最近的醫(yī)院在哪里,卻沒辦法指引腳踝受傷的人前往。她在語言方面開展AI研究的時候,還沒有自
10、然語言處理這種數(shù)據(jù)驅動的方法,所以她發(fā)明了一種基于模型的方法來代表人類語言,好讓計算機可以理解其含義。事實證明這對該領域特別有價值,因為這促使她深入思考人機交互的本質(zhì),后來在構想人機協(xié)作的未來時,又促使她提出了旨在跟人進行團隊合作的協(xié)作型AI系統(tǒng)的理論模型。她在語言計算模型方面的研究遠遠超出了語法規(guī)則設計的范疇。理解說話者的意圖,以便確定對話的結構,從而解譯人類話語的含義,這是她開創(chuàng)的一個重要策略。她指出,真正的對話經(jīng)常偏離主題,焦點不時轉換。她舉了一個著名的例子:一個人試圖通過電傳打字機,告訴另一個人如何組裝一臺空氣壓縮機,兩人的自發(fā)對話被她記錄了下來。其中一人用“它”來指代一個已經(jīng)有半小時
11、都沒有被提及的物體,但兩人十分清楚是什么意思。她說,語氣也是理解歧義句的關鍵?!澳闶钦嬲耐踝印笨赡苷f得真心誠意,也可能語帶諷刺,必須教電腦明白二者的區(qū)別。從這種跨學科研究中,產(chǎn)生了關于人機交互本質(zhì)的一般性原則。格羅茲和博士生(現(xiàn)為微軟研究院高級研究員)艾瑟卡馬爾(Ece Kamar)提出了“中斷管理”理論,用于引導人機之間的信息交換,以大大提高人機對話的效率。在漫長的職業(yè)生涯中,她逐漸意識到,AI系統(tǒng)與人類團隊協(xié)作才能最大程度地發(fā)揮AI的作用。她設想的未來將智能電腦的速度和統(tǒng)計能力與人類的天賦相結合,而不是機器和人類彼此對抗。在描述AI系統(tǒng)擊敗象棋和圍棋世界冠軍或者取代人類工作崗位時,對抗常
12、常被用來形容機器和人類的關系??梢哉f,人機協(xié)作代表了AI系統(tǒng)的前沿。格羅茲開始在醫(yī)療領域試驗基于團隊的AI系統(tǒng)。她和一位斯坦福兒科醫(yī)生啟動了一個協(xié)調(diào)罕見病兒童護理工作的項目。照料這些兒童的人有很多,除了父母之外,還包括醫(yī)生、家庭護理人員、理療師和老師。她說,護理時間橫跨數(shù)年,“我不知道有哪個人可以在這么長的時間內(nèi),持續(xù)追蹤另外15個人都干了些什么”。格羅茲和博士生(現(xiàn)為以色列理工學院教員)奧夫拉阿米爾(OfraAmir)從分析患者護理團隊如何工作開始,提出了一個團隊合作的理論,引導人類成員和旨在協(xié)調(diào)兒童護理信息的AI系統(tǒng)進行互動。正如她在語言方面的AI研究一樣,她從一般性原則著手?!霸诶碚搶用?/p>
13、上,我們希望更好地了解在團隊擁有多個成員的環(huán)境中如何共享信息,然后打造工具,先是為父母,接著為醫(yī)生。”她和巴伊蘭大學教授薩里特克勞斯(Sarit Kraus)提出了一個重要原則:團隊成員不應該承擔他們?nèi)狈Ρ匾R或者無力完成的任務。這是良好的人類團隊合作所具有的一個特征,也是“知道自身局限性的智能系統(tǒng)”所具有的一個重要特征?!皢栴}在于,不僅是AI,還有很多已經(jīng)面世的技術無法完成分配給它們的工作。”“不知道你想要什么”的網(wǎng)絡客服聊天機器人就是一例。她說,這些系統(tǒng)原本應該采取不同的設計,以便客戶的初次互動是在電腦的幫助下跟一個人進行,那個人應該和客戶建立關系,并檢查電腦明顯誤解的地方,而系統(tǒng)應該幫
14、助那個人更快地作出回答。當智能系統(tǒng)設計的這些基本原則沒有得到應有的尊重時,系統(tǒng)被認為能夠做到它們實際上做不到的事情,或者以不恰當?shù)姆绞奖皇褂谩8窳_茲的跨學科研究方法涵蓋語言學、哲學、心理學、經(jīng)濟學,甚至還有一點人類學和社會學,這促使她思考其中哪些學科對AI系統(tǒng)設計的教學最有幫助。1987年至2001年,她曾教了一門AI導論課程,當時AI的應用大體上還處于理論層面,但在2013年和2014年,她重開那門課程時,世界已經(jīng)大變,全面運行的AI系統(tǒng)投入了使用。格羅茲意識到,關于AI提出的倫理挑戰(zhàn)和良好的系統(tǒng)設計之間的相互影響,出現(xiàn)了一個教學良機。這導致了格羅茲對哈佛大學計算機科學教學工作最重要的貢獻之
15、一:倫理學應該緊密地整合進所有課程。2015年秋,她引入了一門新課程,名叫“智能系統(tǒng)設計與倫理挑戰(zhàn)”。次年,該課程的25個名額有140多名學生申請,這使她有了信心。格羅茲鼓勵她的計算機科學同事將倫理學整合進他們自己的課程。由于他們大多缺乏倫理學的教學經(jīng)驗,她開始和哲學系主任、哲學沃爾科特教授艾莉森西蒙斯(Alison Simmons)合作。他們攜手各自領域的同事,招募愿意將倫理單元囊括進計算機科學課程的計算機科學教授和愿意教授倫理單元的哲學系研究生。這項“嵌入式倫理計算機科學”計劃的目標,是教那些打造未來AI系統(tǒng)的人如何識別和思考倫理問題。(計算機科學現(xiàn)在是哈佛大學本科生人數(shù)第二多的專業(yè),如果
16、把統(tǒng)計學和應用科學等相關專業(yè)的學生計算在內(nèi),那么招生總數(shù)將大大超過排名第一的經(jīng)濟學專業(yè)。)“大多數(shù)的倫理挑戰(zhàn)并沒有一個簡單的正確答案,”格羅茲指出,“所以,就像學生們學習基本的計算技能一樣,我希望他們學習基本的倫理推理技能?!?017年春,四門計算機科學課程囊括了倫理學習,同年秋達到五門,2018年春增加到八門,現(xiàn)在總共有18門,包括系統(tǒng)編程、機器學習及其對公平和隱私的影響、社交網(wǎng)絡與審查問題、機器人與就業(yè)和人機交互。對就讀這些課程的學生進行調(diào)查后發(fā)現(xiàn),80%到90%的學生贊同嵌入式倫理教學,并且還想要更多。格羅茲說:“我希望所有的計算機科學課程,可能除了一兩門以外,都包含倫理單元。”這樣一來
17、,到畢業(yè)時,每個學生都會知道,“倫理在該領域的方方面面都非常重要,而不僅僅是在AI方面”。她和同事希望學生們明白,想要解決偏見和AI可解釋性等問題,他們在設計系統(tǒng)時,必須從一開始就把倫理原則放在心上。變成波士頓司機伯克曼克萊因互聯(lián)網(wǎng)及社會中心教務主任、國際法和計算機科學教授喬納森齊特林(Jonathan Zittrain)一直從原始法律的角度朝這個目標努力。2018年春,他和麻省理工學院媒體實驗室主任伊藤穰一(Joi Ito)共同教授一門課程,內(nèi)容是探索應該如何塑造AI技術,使其將公共利益牢記在心。自動駕駛汽車是極好的研究對象,迫使學生們正視復雜性的本質(zhì),遠非決定誰生誰死的“失控電車難題”那么
18、簡單。齊特林解釋說,一旦汽車真正實現(xiàn)自主,“這意味著,如果發(fā)出了對某人的逮捕令,那么下次那個人進入一輛自動駕駛汽車時,車門會自動上鎖,汽車會把他送到最近的警局?;蛘?,要是車里的人突然發(fā)病了,該怎么辦?車輛能否以每小時110公里的速度在城市道路上飛奔,把人送往醫(yī)院,而其他所有車輛都自動向兩邊分開,讓出一條道路?”齊特林班上的學生以為他們知道有關自動駕駛汽車的討論會如何展開。但當齊特林提出一個非常簡單的問題時,他們面臨著系統(tǒng)設計者在道德上的兩難抉擇。那個問題是:“司機應不應該能夠要求車輛以每小時128公里的速度行駛?”如果是,而汽車以那個速度行駛時發(fā)生了車禍,司機是否應該承擔責任?或者,允許汽車達
19、到那個速度的汽車制造商是否應該負責?“超速行駛時有發(fā)生,但我們知道我們對此無能為力,這能讓我們心里好過點?!饼R特林指出,“對自動駕駛汽車的初始前提是,車上沒有司機,我們又不能責怪汽車,因為它是個死物??雌饋砗孟駴]有責任,但實際上責任大了?!逼囍圃焐獭I系統(tǒng)設計者、政策制定者和司機都可以被追責。齊特林指出,如果車載AI系統(tǒng)從道路駕駛經(jīng)歷中“學習”,不斷改變其行為,那么情況會變得更加復雜?!叭绻诓ㄊ款D開得夠多,說不定它會變成波士頓司機!”這適用于很多學習系統(tǒng),而相關的法律解決方案還未經(jīng)探索。他說,如果學習系統(tǒng)的行為并不總是可以預測,帶著那種不確定性投入使用,會讓人們付出代價。齊特林說,在跨
20、學科研究中,各學科之間的聯(lián)系是關鍵所在。在伯克曼克萊因中心和麻省理工學院媒體實驗室,他和同事建立了一個名叫“集會”的團體,讓其他公司的軟件開發(fā)人員跟學生、跟彼此共事幾個月,研究AI和數(shù)據(jù)科學其他領域的一些問題。“嵌入式倫理授課可以為哈佛大學不同專業(yè)的學生提供彼此相逢的機會,利用他們在各自專業(yè)學到的知識,以團隊方式研究這類東西。”“我認為,這是格羅茲的教學和研究具有重大影響力和長久魅力的一個原因。她教的不是如何干預和修復計算機系統(tǒng)或軟件,而是在更宏觀的層面上思考人和技術應該如何互動。”技術能被追責嗎?技術能被理解嗎?技術能是公平的嗎?系統(tǒng)偏見和社會工程在2018年10月舉行的首屆哈佛數(shù)據(jù)科學大會
21、(HDSC)上,自主無人系統(tǒng)的公平問題被放在了一個突出的位置。計算機科學教授大衛(wèi)帕克斯(David Parkes)列出了哈佛大學數(shù)據(jù)科學研究的指導原則:應該解決包括隱私在內(nèi)的道德問題;不應該延續(xù)現(xiàn)有偏見;應該是透明的。但想要創(chuàng)造出體現(xiàn)這些原則的學習型AI系統(tǒng)是很難的。系統(tǒng)復雜性(可能有數(shù)千甚至更多變量)使人們幾乎不可能真正理解AI系統(tǒng),而且存在于學習系統(tǒng)所依賴的數(shù)據(jù)集中的偏見很容易得到強化。人們?yōu)槭裁春芟氪蜷_AI系統(tǒng)的“引擎蓋”,弄明白它到底是如何作出決定的?這有很多原因:評估是什么導致輸出結果存在偏見,在出事故前進行安全檢查,或者在涉及自動駕駛汽車的事故發(fā)生后認定責任。你能迅速完成這個簡單的
22、決策樹嗎?輸入數(shù)據(jù)是:國際機器學習會議;2017年;澳大利亞;袋鼠;晴天。假設你已經(jīng)正確完成,請用文字來解釋你是如何達成拍手這個決定的。要是有100萬個變量,會怎么樣?這探究起來其實很難、很復雜。為了說明這一點,計算機科學助理教授費娜麗杜什-維雷茲(FinaleDoshi-Velez)把一個相對簡單的決策樹投射到大屏幕上。該決策樹深四層,按照5個輸入數(shù)據(jù)來回答問題。如果執(zhí)行正確,最終的結果是舉起你的左手。一些與會者能按規(guī)定完成。然后,她展示了一個更加復雜得多的決策樹,可能深25層,增加了5個新參數(shù)來確定沿該決策樹到達正確答案的路徑。這個任務對電腦來說易如反掌。然而,當維雷茲詢問有沒有觀眾可以用
23、文字來描述他們?yōu)槭裁磿竭_他們得出的那個答案時,沒人回答。即使標出正確路徑,也很難用外行人的話來描述復雜的交互式輸入數(shù)據(jù)對結果的影響。這還只是決策樹那樣的簡單模型,而不是擁有數(shù)百萬個參數(shù)的現(xiàn)代深度架構。開發(fā)從任意模型(可擴展系統(tǒng),擁有任意數(shù)量的變量、任務和輸出數(shù)據(jù))中獲取解釋的技術,這是維雷茲及其同事的研究課題。偏見造成了一系列的問題。在HDSC大會上發(fā)表關于算法公平的講話時,計算機科學教授辛西婭德沃克(Cynthia Dwork)說,面對不同的群體(比如種族不同或者宗教信仰不同),評定是否符合資格(比如貸款資格)的算法應該對每個群體都一視同仁。但在機器學習系統(tǒng)中,算法本身(逐步解決一個特定問
24、題的過程)只是系統(tǒng)的一部分。另一個部分是數(shù)據(jù)。在自動作出貸款決定的AI系統(tǒng)中,算法部分可能是沒有偏見的,對每個群體都完全公平的,但在算法從數(shù)據(jù)中學習后,結果可能就不是這樣了。德沃克解釋道:“算法訪問的數(shù)據(jù)沒有被正確標注(也就是沒有獲得真相)?!比绻挥脕碜鞒鰶Q定的數(shù)據(jù)存在偏見,那么決定本身就可能存在偏見。有幾個方法可能解決這個問題。一是仔細挑選被算法納入考量的申請人屬性(郵政編碼是著名的種族代號,因此常常被排除)。但偏見可以通過算法使用的其他變量的相關性(比如姓氏與地理普查數(shù)據(jù)相結合)卷土重來。德沃克說,針對特定群體的偏見常??梢酝ㄟ^聰明的算法設計來加以解決,但由于算法決策的一個基本特征,確保
25、對個人的公平要難得多。任何一個這樣的決定都會劃一條線:正如德沃克所說,總是會有來自不同群體的兩個人靠近這條線,線的兩邊各有一人,他們在幾乎所有方面都非常相似,但只有一個人會獲得貸款。在某些情況下,通過系統(tǒng)設計來糾正偏見可能不是個好主意??纯从嬎銠C科學教授陳伊玲(Yiling Chen,音譯)和研究生莉莉胡(Lily Hu)設計的一個雇傭系統(tǒng)。該系統(tǒng)旨在消除對非洲裔美國人的雇傭偏見。莉莉說:“作為純粹的優(yōu)化驅動工具,算法會繼承、吸收、再現(xiàn)和加劇已有的不平等。比如,就業(yè)市場上存在一個由來已久的偏見,這時機器學習來了,它通過學會,重現(xiàn)了這個偏見?!彼麄兊慕鉀Q方法(利用經(jīng)濟學和社會學工具來理解就業(yè)市場上的偏見)使人們對算法公平的思考超出計算機科學的范疇,從跨學科、全系統(tǒng)的角度來看待這一問題。陳伊玲從事于社會計算,這個數(shù)據(jù)科學領域強調(diào)人類行為對算法輸入數(shù)據(jù)的影響。由于人是“自私的、獨立的、容易犯錯的且不可預測的”,這使得算法設計不可能在任何情況下都確保公平公正,于是她開始思考如何消除訓練數(shù)據(jù)中的偏見。她和莉莉致力于解決在招聘過程中落實反歧視行動的問題。想要消除少數(shù)群體歷來面臨的不公,一個直截了當?shù)姆椒ㄊ窃谄渌袟l件相等的情況下,作出有利于少數(shù)群體的雇傭決定。(這可能被視為對多數(shù)群體的不公,但在
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
- 4. 未經(jīng)權益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
- 6. 下載文件中如有侵權或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 《硫酸工藝學》課件
- 二尿素裝置安全課課件
- 《燒傷基礎知識》課件
- 《湖南鄉(xiāng)土地理》課件
- 《孕婦學校講課》課件
- 單位管理制度集合大合集職工管理
- 單位管理制度集粹匯編人員管理篇十篇
- 單位管理制度分享匯編【人力資源管理篇】十篇
- 單位管理制度分享大全職員管理篇十篇
- 2024教師安全責任協(xié)議書(28篇)
- 2025年國家圖書館招聘筆試參考題庫含答案解析
- 機器人課程課程設計
- 南充市市級事業(yè)單位2024年公招人員擬聘人員歷年管理單位遴選500模擬題附帶答案詳解
- 9.2溶解度(第2課時)-2024-2025學年九年級化學人教版(2024)下冊
- 安全知識考試題庫500題(含答案)
- 中國重癥患者腸外營養(yǎng)治療臨床實踐專家共識(2024)解讀
- 最新中考英語單詞表2200個
- 我的專業(yè)成長故事
- 公司管理制度-公司管理制度
- 井用潛水泵的安裝
- 疫情索賠公式及相應表格模板Excel
評論
0/150
提交評論