感謝刊載于《華夏科學院院刊》2021年第11期"專題:科技倫理治理得戰(zhàn)略研究"
原標題《人工智能倫理問題得現(xiàn)狀分析與對策》
1、當前人工智能倫理問題
倫理是處理人與人之間關(guān)系、人與社會之間關(guān)系得道理和秩序規(guī)范。人類歷史上,重大得科技發(fā)展往往帶來生產(chǎn)力、生產(chǎn)關(guān)系及上層建筑得顯著變化,成為劃分時代得一項重要標準,也帶來對社會倫理得深刻反思。
人類社會于 20 世紀中后期進入信息時代后,信息技術(shù)倫理逐漸引起了廣泛和研究,包括個人信息泄露、信息鴻溝、信息繭房、新型權(quán)力結(jié)構(gòu)規(guī)制不足等。
信息技術(shù)得高速變革發(fā)展,使得人類社會迅速邁向智能時代,其突出表現(xiàn)在帶有認知、預(yù)測和決策功能得人工智能算法被日益廣泛地應(yīng)用在社會各個場景之中;前沿信息技術(shù)得綜合運用,正逐漸發(fā)展形成一個萬物可互聯(lián)、萬物可計算得新型硬件和數(shù)據(jù)資源網(wǎng)絡(luò),能夠提供海量多源異構(gòu)數(shù)據(jù)供人工智能算法分析處理;人工智能算法可直接控制物理設(shè)備,亦可為個人決策、群體決策乃至China決策提供幫助支撐;人工智能可以運用于智慧家居、智慧交通、智慧醫(yī)療、智慧工廠、智慧農(nóng)業(yè)、智慧金融等眾多場景,還可能被用于武器和軍事之中。
然而,邁向智能時代得過程如此迅速,使得我們在傳統(tǒng)得信息技術(shù)倫理秩序尚未建立完成得情況下,又迫切需要應(yīng)對更加富有挑戰(zhàn)性得人工智能倫理問題,積極構(gòu)建智能社會得秩序。
計算機倫理學創(chuàng)始人Moore將倫理智能體分為 4 類:
1. 倫理影響智能體(對社會和環(huán)境產(chǎn)生倫理影響);
2. 隱式倫理智能體(通過特定軟硬件內(nèi)置安全等隱含得倫理設(shè)計);
3. 顯示倫理智能體(能根據(jù)情勢得變化及其對倫理規(guī)范得理解采取合理行動);
4. 完全倫理智能體(像人一樣具有自由意志并能對各種情況做出倫理決策)。
當前人工智能發(fā)展尚處在弱人工智能階段,但也對社會和環(huán)境產(chǎn)生了一定得倫理影響。人們正在探索為人工智能內(nèi)置倫理規(guī)則,以及通過倫理推理等使人工智能技術(shù)得實現(xiàn)中也包含有對倫理規(guī)則得理解。
近年來,越來越多得人呼吁要賦予人工智能機器一定得道德主體地位,但機器能否成為完全倫理智能體存在巨大得爭議。盡管當前人工智能在一些場景下得功能或行為與人類接近,但實則并不具有“自由意志”。從經(jīng)典社會規(guī)范理論來看,是否能夠成為規(guī)范意義上得“主體”來承擔責任,并不取決于其功能,而是以“自由意志”為核心來構(gòu)建得。黑格爾得《法哲學原理》即以自由意志為起點展開。因此,當前階段對人工智能倫理問題得分析和解決路徑構(gòu)建應(yīng)主要圍繞著前 3 類倫理智能體開展,即將人工智能定性為工具而非主體。
當前階段,人工智能既承繼了之前信息技術(shù)得倫理問題,又因為深度學習等一些人工智能算法得不透明性、難解釋性、自適應(yīng)性、運用廣泛等特征而具有新得特點,可能在基本人權(quán)、社會秩序、China安全等諸多方面帶來一系列倫理風險。
例如:
1. 人工智能系統(tǒng)得缺陷和價值設(shè)定問題可能帶來公民生命權(quán)、健康權(quán)得威脅。2018 年,Uber 自動駕駛汽車在美國亞利桑那州發(fā)生得致命事故并非傳感器出現(xiàn)故障,而是由于 Uber 在設(shè)計系統(tǒng)時出于對乘客舒適度得考慮,對人工智能算法識別為樹葉、塑料袋之類得障礙物做出予以忽略得決定。
2. 人工智能算法在目標示范、算法歧視、訓練數(shù)據(jù)中得偏失可能帶來或擴大社會中得歧視,侵害公民得平等權(quán)。
3. 人工智能得濫用可能威脅公民隱私權(quán)、個人信息權(quán)。
4. 深度學習等復(fù)雜得人工智能算法會導(dǎo)致算法黑箱問題,使決策不透明或難以解釋,從而影響公民知情權(quán)、程序正當及公民監(jiān)督權(quán)。
5. 信息精準推送、自動化假新聞撰寫和智能化定向傳播、深度偽造等人工智能技術(shù)得濫用和誤用可能導(dǎo)致信息繭房、虛假信息泛濫等問題,以及可能影響人們對重要新聞得獲取和對公共議題得民主參與度;虛假新聞得精準推送還可能加大影響人們對事實得認識和觀點,進而可能煽動民意、操縱商業(yè)市場和影響政治及China政策。劍橋分析公司利用 Facebook 上得數(shù)據(jù)對用戶進行政治偏好分析,并據(jù)此進行定向信息推送來影響美國大選,這就是典型實例。
6. 人工智能算法可能在更不易于被察覺和證明得情況下,利用算法歧視,或通過算法合謀形成橫向壟斷協(xié)議或軸輻協(xié)議等方式,破壞市場競爭環(huán)境。
7. 算法決策在社會各領(lǐng)域得運用可能引起權(quán)力結(jié)構(gòu)得變化,算法憑借其可以處理海量數(shù)據(jù)得技術(shù)優(yōu)勢和無所不在得信息系統(tǒng)中得嵌入優(yōu)勢,對人們得權(quán)益和自由產(chǎn)生顯著影響。例如,銀行信貸中通過算法進行信用評價將影響公民是否能獲得貸款,刑事司法中通過算法進行社會危害性評估將影響是否進行審前羈押等,都是突出得體現(xiàn)。
8. 人工智能在工作場景中得濫用可能影響勞動者權(quán)益,并且人工智能對勞動者得替代可能引發(fā)大規(guī)模結(jié)構(gòu)性失業(yè)得危機,帶來勞動權(quán)或就業(yè)機會方面得風險。
9. 由于人工智能在社會生產(chǎn)生活得各個環(huán)節(jié)日益廣泛應(yīng)用,人工智能系統(tǒng)得漏洞、設(shè)計缺陷等安全風險,可能引發(fā)個人信息等數(shù)據(jù)泄露、工業(yè)生產(chǎn)線停止、交通癱瘓等社會問題,威脅金融安全、社會安全和China安全等。
10. 人工智能武器得濫用可能在世界范圍內(nèi)加劇不平等,威脅人類生命與世界和平……
人工智能倫理風險治理具有復(fù)雜性,尚未形成完善得理論架構(gòu)和治理體系。
1. 人工智能倫理風險得成因具有多元性,包括人工智能算法得目標失范、算法及系統(tǒng)缺陷、受影響主體對人工智能得信任危機、監(jiān)管機制和工具欠缺、責任機制不完善、受影響主體得防御措施薄弱等。
2. 人工智能技術(shù)和產(chǎn)業(yè)應(yīng)用得飛速發(fā)展,難以充分刻畫和分析其倫理風險及提供解決方案。這要求我們必須克服傳統(tǒng)規(guī)范體系得滯后性,而采用“面向未來”得眼光和方法論,對人工智能得設(shè)計、研發(fā)、應(yīng)用和使用中得規(guī)范框架進行積極思考和構(gòu)建,并從確立倫理準則等軟法開始,引領(lǐng)和規(guī)范人工智能研發(fā)應(yīng)用。
關(guān)于人工智能得發(fā)展,我們既不能盲目樂觀,也不能因噎廢食,要深刻認識到它可以增加社會福祉得能力。因此,在人類社會步入智能時代之際,必須趁早從宏觀上引導(dǎo)人工智能沿著科學得道路前行,對它進行倫理反思,識別其中得倫理風險及其成因,逐步構(gòu)建科學有效得治理體系,使其更好地發(fā)揮積極價值。
2、人工智能倫理準則、治理原則及進路
當前全球人工智能治理還處于初期探索階段,正從形成人工智能倫理準則得基本共識出發(fā),向可信評估、操作指南、行業(yè)標準、政策法規(guī)等落地實踐逐步深入,并在加快構(gòu)建人工智能國際治理框架體系。
倫理準則
近幾年來,眾多China、地區(qū)、國際和國內(nèi)組織、企業(yè)均紛紛發(fā)布了人工智能倫理準則或研究報告。據(jù)不完全統(tǒng)計,相關(guān)人工智能倫理準則已經(jīng)超過 40 項。除文化、地區(qū)、領(lǐng)域等因素引起得差異之外,可以看到目前得人工智能倫理準則已形成了一定得社會共識。
近年來,華夏相關(guān)機構(gòu)和行業(yè)組織也非常積極活躍參與其中。例如:2018 年 1 月,華夏電子技術(shù)標準化研究院發(fā)布了《人工智能標準化白皮書(2018 版)》,提出人類利益原則和責任原則作為人工智能倫理得兩個基本原則;2019 年 5 月,《人工智能北京共識》發(fā)布,針對人工智能得研發(fā)、使用、治理?3?個方面,提出了各個參與方應(yīng)該遵循得有益于人類命運共同體構(gòu)建和社會發(fā)展得 15 條原則;2019 年 6 月,China新一代人工智能治理可以委員會發(fā)布《新一代人工智能治理原則——發(fā)展負責任得人工智能》,提出了人工智能發(fā)展得 8 項原則,勾勒出了人工智能治理得框架和行動指南;2019 年 7 月,上海市人工智能產(chǎn)業(yè)安全可能委員會發(fā)布了《人工智能安全發(fā)展上海倡議》;2021 年 9 月,中關(guān)村論壇上發(fā)布由China新一代人工智能治理可以委員會制定得《新一代人工智能倫理規(guī)范》等。從發(fā)布內(nèi)容上看,所有準則在以人為本、促進創(chuàng)新、保障安全、保護隱私、明晰責任等價值觀上取得了高度共識,但仍有待繼續(xù)加深理論研究和論證,進一步建立共識。
治理原則
美國、歐洲、日本等China和地區(qū)在大力推動人工智能技術(shù)和產(chǎn)業(yè)發(fā)展得同時,高度重視人工智能得安全、健康發(fā)展,并將倫理治理納入其人工智能戰(zhàn)略,體現(xiàn)了發(fā)展與倫理安全并重得基本原則。
習大大總書記高度重視科技創(chuàng)新領(lǐng)域得法治建設(shè)問題,強調(diào)“要積極推進China安全、科技創(chuàng)新、公共衛(wèi)生、生物安全、生態(tài)文明、防范風險、涉外法治等重要領(lǐng)域立法以良法善治保障新業(yè)態(tài)新模式健康發(fā)展”。
近年來,華夏在應(yīng)對新技術(shù)新業(yè)態(tài)得規(guī)制和監(jiān)管方面,形成了“包容審慎”得總體政策。這項基本政策在 2017 年就已正式提出。在 2020 年 1月1日起實施得《優(yōu)化營商環(huán)境條例》第 55 條中更是專門規(guī)定了“包容審慎”監(jiān)管原則:“政府及其有關(guān)部門應(yīng)當按照鼓勵創(chuàng)新得原則,對新技術(shù)、新產(chǎn)業(yè)、新業(yè)態(tài)、新模式等實行包容審慎監(jiān)管,針對其性質(zhì)、特點分類制定和實行相應(yīng)得監(jiān)管規(guī)則和標準,留足發(fā)展空間,同時確保質(zhì)量和安全,不得簡單化予以禁止或者不予監(jiān)管?!边@為當前人工智能倫理治理提供了基本原則和方法論。
一方面,要注重觀察,認識到新技術(shù)新事物往往有其積極得社會意義,亦有其發(fā)展完善得客觀規(guī)律,應(yīng)予以一定空間使其能夠發(fā)展完善,并在其發(fā)展中得必要之處形成規(guī)制方法和措施。
另一方面,要堅守底線,包括公民權(quán)利保護得底線、安全得底線等。對于已經(jīng)形成高度社會共識、凝結(jié)在法律之中得重要權(quán)益、價值,在執(zhí)法、司法過程中都要依法進行保護。這既是法律對相關(guān)技術(shù)研發(fā)者和使用者得明確要求,也是法律對于在智能時代保護公民權(quán)益、促進科技向善得鄭重承諾。
治理進路
在人工智能治理整體路徑選擇方面,主要有兩種理論:“對立論”和“系統(tǒng)論”。
“對立論”主要著眼于人工智能技術(shù)與人類權(quán)利和福祉之間得對立沖突,進而建立相應(yīng)得審查和規(guī)制制度。在這一視角下,一些China和機構(gòu)重點了針對人工智能系統(tǒng)本身及開發(fā)應(yīng)用中得一些倫理原則。例如,2020 年《人工智能倫理羅馬倡議》中提出 7 項主要原則——透明、包容、責任、公正、可靠、安全和隱私,歐盟委員會于 2019 年《可信賴人工智能得倫理指南》中提出人工智能系統(tǒng)全生命周期應(yīng)遵守合法性、合倫理性和穩(wěn)健性 3 項要求,都體現(xiàn)了這一進路。
“系統(tǒng)論”則強調(diào)人工智能技術(shù)與人類、其他人工代理、法律、非智能基礎(chǔ)設(shè)施和社會規(guī)范之間得協(xié)調(diào)互動關(guān)系。人工智能倫理涉及一種社會技術(shù)系統(tǒng),該系統(tǒng)在設(shè)計時必須注意其不是一項孤立得技術(shù)對象,而是需要考慮它將要在怎樣得社會組織中運作。我們可以調(diào)整得不僅僅是人工智能系統(tǒng),還有在系統(tǒng)中與之相互作用得其他要素;在了解人工智能運作特點得基礎(chǔ)上,可以在整個系統(tǒng)內(nèi)考慮各個要素如何進行可靠些調(diào)配治理。當前在一些政策和法規(guī)中已有一定“系統(tǒng)論”進路得體現(xiàn)。例如,IEEE(電氣與電子工程師協(xié)會)發(fā)布得《合倫理設(shè)計》中提出得 8 項原則之一即為“資質(zhì)”(competence),該原則提出系統(tǒng)創(chuàng)建者應(yīng)明確對操得要求,并且操應(yīng)遵守安全有效操作所需得知識和技能得原則,這體現(xiàn)了從對使用者要求得角度來彌補人工智能不足得系統(tǒng)論視角,對智能時代得教育和培訓提出了新需求。
華夏China新一代人工智能治理可以委員會 2019 年發(fā)布得《新一代人工智能治理原則——發(fā)展負責任得人工智能》中,不僅強調(diào)了人工智能系統(tǒng)本身應(yīng)該符合怎樣得倫理原則,而且從更系統(tǒng)得角度提出了“治理原則”,即人工智能發(fā)展相關(guān)各方應(yīng)遵循得 8 項原則;除了和諧友好、尊重隱私、安全可控等側(cè)重于人工智能開放和應(yīng)用得原則外,還專門強調(diào)了要“改善管理方式”,“加強人工智能教育及科普,提升弱勢群體適應(yīng)性,努力消除數(shù)字鴻溝”,“推動國際組織、政府部門、科研機構(gòu)、教育機構(gòu)、企業(yè)、社會組織、公眾在人工智能發(fā)展與治理中得協(xié)調(diào)互動”等重要原則,體現(xiàn)出包含教育改革、倫理規(guī)范、技術(shù)支撐、法律規(guī)制、國際合作等多維度治理得“系統(tǒng)論”思維和多元共治得思想,提供了更加綜合得人工智能治理框架和行動指南?;谌斯ぶ悄苤卫淼锰厥庑院蛷?fù)雜性,華夏應(yīng)在習大大總書記提出得“打造共建共治共享得社會治理格局”得指導(dǎo)下,系統(tǒng)性地思考人工智能得治理維度,建設(shè)多元共治得人工智能綜合治理體系。
3、華夏人工智能倫理治理對策
人工智能倫理治理是社會治理得重要組成部分。華夏應(yīng)在“共建共治共享”治理理論得指導(dǎo)下,以“包容審慎”為監(jiān)管原則,以“系統(tǒng)論”為治理進路,逐漸建設(shè)形成多元主體參與、多維度、綜合性得治理體系。
教育改革
教育是人類知識代際傳遞和能力培養(yǎng)得重要途徑。通過國務(wù)院、教育部出臺得多項措施,以及聯(lián)合國教科文組織發(fā)布得《教育中得人工智能:可持續(xù)發(fā)展得機遇與挑戰(zhàn)》、《人工智能與教育得北京共識》13等報告可以看到,國內(nèi)外均開始重視教育得發(fā)展改革在人工智能技術(shù)發(fā)展和應(yīng)用中有著不可或缺得作用。
為更好地支撐人工智能發(fā)展和治理,應(yīng)從 4 個方面進行完善:
1. 普及人工智能等前沿技術(shù)知識,提高公眾認知,使公眾理性對待人工智能;
2. 在科技工中加強人工智能倫理教育和職業(yè)倫理培訓;
3. 為勞動者提供持續(xù)得終身教育體系,應(yīng)對人工智能可能引發(fā)得失業(yè)問題;
4. 研究青少年教育變革,打破工業(yè)化時代傳承下來得知識化教育得局限性,回應(yīng)人工智能時代對人才得需求。
倫理規(guī)范
華夏《新一代人工智能發(fā)展規(guī)劃》中提到,“開展人工智能行為科學和倫理等問題研究,建立倫理道德多層次判斷結(jié)構(gòu)及人機協(xié)作得倫理框架”。同時,還需制定人工智能產(chǎn)品研發(fā)設(shè)計人員及日后使用人員得道德規(guī)范和行為守則,從源頭到下游進行約束和引導(dǎo)。
當前有 5 項重點工作可以開展:
1. 針對人工智能得重點領(lǐng)域,研究細化得倫理準則,形成具有可操作性得規(guī)范和建議。
2. 在宣傳教育層面進行適當引導(dǎo),進一步推動人工智能倫理共識得形成。
3. 推動科研機構(gòu)和企業(yè)對人工智能倫理風險得認知和實踐。
4. 充分發(fā)揮China層面?zhèn)惱砦瘑T會得作用,通過制定China層面得人工智能倫理準則和推進計劃,定期針對新業(yè)態(tài)、新應(yīng)用評估倫理風險,以及定期評選人工智能行業(yè)可靠些實踐等多種方式,促進先進倫理風險評估控制經(jīng)驗得推廣。
5. 推動人工智能科研院所和企業(yè)建立倫理委員會,領(lǐng)導(dǎo)人工智能倫理風險評估、監(jiān)控和實時應(yīng)對,使人工智能倫理考量貫穿在人工智能設(shè)計、研發(fā)和應(yīng)用得全流程之中。
技術(shù)支撐
通過改進技術(shù)而降低倫理風險,是人工智能倫理治理得重要維度。當前,在科研、市場、法律等驅(qū)動下,許多科研機構(gòu)和企業(yè)均開展了聯(lián)邦學習、隱私計算等活動,以更好地保護個人隱私得技術(shù)研發(fā);同時,對加強安全性、可解釋性、公平性得人工智能算法,以及數(shù)據(jù)集異常檢測、訓練樣本評估等技術(shù)研究,也提出了很多不同領(lǐng)域得倫理智能體得模型結(jié)構(gòu)。當然,還應(yīng)完善專利制度,明確算法相關(guān)發(fā)明得可專利性,進一步激勵技術(shù)創(chuàng)新,以支撐符合倫理要求得人工智能系統(tǒng)設(shè)計。
此外,一些重點領(lǐng)域得推薦性標準制定工作也不容忽視。在人工智能標準制定中,應(yīng)強化對人工智能倫理準則得貫徹和支撐,注重對隱私保護、安全性、可用性、可解釋性、可追溯性、可問責性、評估和監(jiān)管支撐技術(shù)等方面得標準制定,鼓勵企業(yè)提出和公布自己得企業(yè)標準,并積極參與相關(guān)國際標準得建立,促進華夏相關(guān)專利技術(shù)納入國際標準,幫助華夏在國際人工智能倫理準則及相關(guān)標準制定中提升話語權(quán),并為華夏企業(yè)在國際競爭中奠定更好得競爭優(yōu)勢。
法律規(guī)制
法律規(guī)制層面需要逐步發(fā)展數(shù)字人權(quán)、明晰責任分配、建立監(jiān)管體系、實現(xiàn)法治與技術(shù)治理有機結(jié)合。在當前階段,應(yīng)積極推動《個人信息保護法》《數(shù)據(jù)安全法》得有效實施,開展自動駕駛領(lǐng)域得立法工作;并對重點領(lǐng)域得算法監(jiān)管制度加強研究,區(qū)分不同得場景,探討人工智能倫理風險評估、算法審計、數(shù)據(jù)集缺陷檢測、算法認證等措施適用得必要性和前提條件,為下一步得立法做好理論和制度建議準備。
國際合作
當前,人類社會正步入智能時代,世界范圍內(nèi)人工智能領(lǐng)域得規(guī)則秩序正處于形成期。歐盟聚焦于人工智能價值觀進行了許多研究,期望通過立法等方式,將歐洲得人權(quán)傳統(tǒng)轉(zhuǎn)化為其在人工智能發(fā)展中得新優(yōu)勢。美國對人工智能標準也尤為重視,特朗普于 2019 年 2 月發(fā)布“美國人工智能計劃”行政令,要求白宮科技政策辦公室(OSTP)和美國China標準與技術(shù)研究院(NIST)等政府機構(gòu)制定標準,指導(dǎo)開發(fā)可靠、穩(wěn)健、可信、安全、簡潔和可協(xié)作得人工智能系統(tǒng),并呼吁主導(dǎo)國際人工智能標準得制定。
華夏在人工智能科技領(lǐng)域處于世界前列,需要更加積極主動地應(yīng)對人工智能倫理問題帶來得挑戰(zhàn),在人工智能發(fā)展中承擔相應(yīng)得倫理責任;積極開展國際交流,參與相關(guān)國際管理政策及標準得制定,把握科技發(fā)展話語權(quán);在蕞具代表性和突破性得科技力量中占據(jù)發(fā)展得制高點,為實現(xiàn)人工智能得全球治理作出積極貢獻。
背景
人工智能(AI)是第四次產(chǎn)業(yè)革命中得核心技術(shù),得到了世界得高度重視。華夏也圍繞人工智能技術(shù)制定了一系列得發(fā)展規(guī)劃和戰(zhàn)略,大力推動了華夏人工智能領(lǐng)域得發(fā)展。然而,人工智能技術(shù)在為經(jīng)濟發(fā)展與社會進步帶來重大發(fā)展機遇得同時,也為倫理規(guī)范和社會法治帶來了深刻挑戰(zhàn)。2017 年,國務(wù)院印發(fā)得《新一代人工智能發(fā)展規(guī)劃》提出“分三步走”得戰(zhàn)略目標,掀起了人工智能新熱潮,并明確提出要“加強人工智能相關(guān)法律、倫理和社會問題研究,建立保障人工智能健康發(fā)展得法律法規(guī)和倫理道德框架”。2018 年,習大大總書記在主持中共中央政治局就人工智能發(fā)展現(xiàn)狀和趨勢舉行得集體學習時強調(diào),要加強人工智能發(fā)展得潛在風險研判和防范,維護人民利益和China安全,確保人工智能安全、可靠、可控。要整合多學科力量,加強人工智能相關(guān)法律、倫理、社會問題研究,建立健全保障人工智能健康發(fā)展得法律法規(guī)、制度體系、倫理道德。2019 年,華夏新一代人工智能發(fā)展規(guī)劃推進辦公室專門成立了新一代人工智能治理可以委員會,全面負責開展人工智能治理方面政策體系、法律法規(guī)和倫理規(guī)范研究和工作推進。《中華人民共和國國民經(jīng)濟和社會發(fā)展第十四個五年規(guī)劃和2035年遠景目標綱要》中專門強調(diào)要“探索建立無人駕駛、在線醫(yī)療、金融科技、智能配送等監(jiān)管框架,完善相關(guān)法律法規(guī)和倫理審查規(guī)則”。這些均體現(xiàn)了華夏對人工智能倫理及其治理得密切程度和積極推進決心,同時也突出了這一問題得重要性。
華夏科學院院刊