數(shù)字化轉(zhuǎn)型讓人類世界所依賴的各種機(jī)器開始變得智能,然而它們被數(shù)據(jù)和算法所驅(qū)動,正在引發(fā)諸多事前難以預(yù)判預(yù)知的法律、道德、倫理等新問題。建議重視數(shù)字科技倫理建設(shè),秉持“科技向善”理念,構(gòu)建面向數(shù)據(jù)和算法的新規(guī)則,加強(qiáng)數(shù)字科技倫理教育,強(qiáng)化行業(yè)自律,使其最大程度造福人類。
新一代數(shù)字技術(shù)廣泛應(yīng)用挑戰(zhàn)現(xiàn)有道德倫理
數(shù)字技術(shù)應(yīng)用帶來個人數(shù)據(jù)保護(hù)挑戰(zhàn)。當(dāng)前,各類移動應(yīng)用程序(APP)實時記錄著人們的地理位置、聯(lián)系人、瀏覽行為等;人類生物特征信息如人臉、視網(wǎng)膜、語音等也正在被各種數(shù)字技術(shù)所采集。盡管企業(yè)數(shù)據(jù)采集、分析、存儲、流轉(zhuǎn)采取了匿名化、加密化等預(yù)防舉措,但在大數(shù)據(jù)分析系統(tǒng)面前,個體變得越發(fā)透明。這些與個人緊密相關(guān)的數(shù)據(jù)一旦泄露或被濫用,將嚴(yán)重影響個人生活乃至國家政治。此外,不法分子還可能利用數(shù)字技術(shù)非法竊取、識別個人信息,實施網(wǎng)絡(luò)詐騙、竊取錢財甚至危及人身安全等犯罪活動。加強(qiáng)個人數(shù)據(jù)和隱私保護(hù)已成為亟須回應(yīng)的優(yōu)先事項。
算法的公平性和無歧視性不容忽視。算法是數(shù)字技術(shù)應(yīng)用的根基。伴隨著算法自主決策性能的日漸提高,人工智能技術(shù)已廣泛應(yīng)用于個性化內(nèi)容推薦、精準(zhǔn)廣告投放、信貸風(fēng)險評估、投資決策顧問、勞動雇用篩查、司法審判、汽車駕駛等眾多領(lǐng)域。然而,算法不當(dāng)則可能會在有意或無意之間,導(dǎo)致歧視或不公,如個性化推薦算法應(yīng)用于數(shù)字內(nèi)容的分發(fā),可能影響公眾認(rèn)知、固化思維和強(qiáng)化社會偏見等。隨著算法決策越來越多地應(yīng)用于各種社會場景,類似的潛在影響開始備受關(guān)注,如近年來圍繞信息繭房、大數(shù)據(jù)殺熟等事件的輿論熱點,充分體現(xiàn)出人們對算法公平、對訓(xùn)練人工智能系統(tǒng)的數(shù)據(jù)樣本是否有代表性的擔(dān)憂。
人工智能的價值判斷觸及人類倫理規(guī)范。人工智能系統(tǒng)以理性代理人的身份進(jìn)入人類社會,必然要遵守人類社會的法律規(guī)范和道德倫理,做出合法合道德的行為。但是,人工智能系統(tǒng)是研發(fā)人員主觀設(shè)計的產(chǎn)物,這一問題最終要回歸到人工智能設(shè)計和研發(fā)過程中的倫理審查問題。一方面,要以一種技術(shù)上可行的方式將各種價值判斷和倫理規(guī)范編碼化,植入人工智能系統(tǒng),使系統(tǒng)做出合乎人類價值觀的行為;另一方面,要極力避免研發(fā)人員在人工智能系統(tǒng)研發(fā)過程中,將其主觀偏見、好惡、歧視等價值判斷植入人工智能系統(tǒng)。此外,人工智能系統(tǒng)還涉及“兩難決策”問題,如自動駕駛汽車在遭遇突發(fā)危險狀況時,“犧牲誰、拯救誰”因開發(fā)者個體價值的不同而備受爭議。
人工智能應(yīng)用帶來安全和法律責(zé)任分擔(dān)挑戰(zhàn)。人工智能技術(shù)已廣泛應(yīng)用到機(jī)器人、無人機(jī)、智能診療、智能投顧等領(lǐng)域,由此還帶來了生產(chǎn)安全、人身安全、財產(chǎn)安全等新問題。一旦出現(xiàn)意外事故,現(xiàn)行制度可能就難以給予有效回應(yīng),例如自動駕駛汽車出現(xiàn)致命事故時、智能診療系統(tǒng)給出“不安全”的治療建議時,人工智能算法的不透明、不可理解、不可解釋等特征,就會給責(zé)任的確定和分配帶來眾多分歧,從而讓被侵權(quán)人難以得到應(yīng)有的公正彌補(bǔ)。面對可預(yù)期的法律責(zé)任挑戰(zhàn),侵權(quán)法、合同法等法律規(guī)則的局限性和不完備性逐漸顯現(xiàn)。
我國政府和產(chǎn)業(yè)界的實踐與探索
全球主要國家在制定國家數(shù)字化轉(zhuǎn)型戰(zhàn)略時,紛紛將人工智能倫理和道德規(guī)范等相關(guān)內(nèi)容作為重點組成部分。近年來,我國政府和產(chǎn)業(yè)界重點圍繞新一代人工智能開始就道德倫理問題進(jìn)行研究和探索。
一是開始制定促進(jìn)人工智能發(fā)展的法律法規(guī)和倫理規(guī)范。在2017年出臺的《新一代人工智能發(fā)展規(guī)劃》中,我國已認(rèn)識到人工智能發(fā)展的不確定性可能會沖擊法律與社會倫理、侵犯個人隱私、挑戰(zhàn)國際關(guān)系準(zhǔn)則,并要求必須高度重視可能帶來的安全風(fēng)險挑戰(zhàn),加強(qiáng)前瞻預(yù)防與約束引導(dǎo),最大限度降低風(fēng)險,確保人工智能安全、可靠、可控發(fā)展。規(guī)劃提出,到2025年初步建立人工智能法律法規(guī)、倫理規(guī)范和政策體系。在立法方面,全國人大常委會已將與人工智能應(yīng)用密切相關(guān)的立法項目如個人信息保護(hù)法、修改科學(xué)技術(shù)進(jìn)步法等列入立法規(guī)劃,努力為人工智能的創(chuàng)新發(fā)展提供有力的法治保障。
二是科技行業(yè)日益重視科技倫理和數(shù)據(jù)治理。遵從科技倫理是創(chuàng)新驅(qū)動發(fā)展戰(zhàn)略和建設(shè)數(shù)字中國的重要保障,也是數(shù)字時代商業(yè)競爭的基本要求。2019年國內(nèi)高校、科研院所和產(chǎn)業(yè)聯(lián)盟發(fā)布《人工智能北京共識》針對人工智能的研發(fā)、使用、治理三方面,提出了各個參與方應(yīng)該遵循的有益于人類命運共同體構(gòu)建和社會發(fā)展的15條原則。騰訊等科技公司積極倡導(dǎo)“科技向善”“負(fù)責(zé)任創(chuàng)新”“創(chuàng)新與倫理并重”等理念,提出人工智能“四可”理念,即可用、可靠、可知、可控,確保人類與機(jī)器之間友好、和諧的關(guān)系,最大化地促進(jìn)人類的發(fā)展。百度公司也提出希望政府組織各方力量,開展人工智能倫理的研究和頂層設(shè)計,推進(jìn)行業(yè)健康發(fā)展。產(chǎn)業(yè)界的探索為構(gòu)建面向數(shù)據(jù)和算法的新規(guī)則提供了鮮活實踐。
同時,也要看到,目前的人工智能技術(shù)雖處在發(fā)展初期,但已經(jīng)引發(fā)了各種各樣的倫理沖突和道德難題。與技術(shù)的快速進(jìn)步相比,我們對于人工智能與人類的關(guān)系認(rèn)識尚不系統(tǒng),對于人工智能發(fā)展的潛在風(fēng)險缺乏足夠研判和防范,對于人工智能相關(guān)法律、倫理、道德、社會問題的研究也沒有形成體系化應(yīng)對方案。產(chǎn)業(yè)界在人工智能產(chǎn)品研發(fā)、防止產(chǎn)品濫用、防范用戶沉溺等方面,尚在自行探索,還缺乏共識或可供遵循的倫理準(zhǔn)則。
加強(qiáng)科技倫理建設(shè)、踐行科技向善理念的政策建議
人工智能倫理與規(guī)范是未來智慧社會的發(fā)展基石。應(yīng)積極倡導(dǎo)“科技向善”理念,加快構(gòu)建數(shù)據(jù)和算法新規(guī)則,防范新技術(shù)潛在風(fēng)險,加強(qiáng)科技倫理教育,強(qiáng)化行業(yè)自律,應(yīng)對數(shù)字技術(shù)應(yīng)用可能引發(fā)的道德倫理危機(jī),讓人工智能安全、可靠、可控。
一是制定人工智能相關(guān)的倫理準(zhǔn)則與指南。最近幾年來,國際社會在人工智能、自動駕駛等領(lǐng)域的倫理準(zhǔn)則和指南方面,已經(jīng)做了大量的有益探索。面對新技術(shù)發(fā)展的不確定性,可借鑒國際經(jīng)驗,進(jìn)一步加強(qiáng)對科技倫理的重視程度,通過預(yù)警性思考、廣泛的社會參與和多學(xué)科評估來充分討論可能存在的風(fēng)險和危害,盡快建立人工智能研發(fā)與應(yīng)用的倫理共識或框架,規(guī)范新技術(shù)研發(fā)應(yīng)用,維護(hù)、促進(jìn)數(shù)字信任,讓大數(shù)據(jù)、人工智能等數(shù)字技術(shù)最大程度地造福于人類。
二是充分發(fā)揮科技倫理的行業(yè)自律作用。科技企業(yè)對人工智能產(chǎn)品的內(nèi)在運行機(jī)理了解比較深入,對其應(yīng)用的場景及潛在的倫理規(guī)范問題也更為清楚??赏ㄟ^倫理審查、自律組織、行業(yè)標(biāo)準(zhǔn)、最佳實踐、技術(shù)指南等方式來支持和促進(jìn)行業(yè)自律,避免算法共謀或?qū)⑷藶樨?zé)任推脫給算法的行為,以確保科技發(fā)展應(yīng)用的正確方向。鼓勵企業(yè)在人工智能系統(tǒng)研制階段開展風(fēng)險自評估,推廣應(yīng)用前開展風(fēng)險自測試,盡力減少倫理風(fēng)險或潛在的糾紛沖突。
三是加快完善大數(shù)據(jù)、人工智能領(lǐng)域的法律規(guī)則。優(yōu)先為自動駕駛、無人機(jī)、醫(yī)療診斷、自主智能機(jī)器人等領(lǐng)域的應(yīng)用探索制定恰當(dāng)合理的規(guī)則,建立新的監(jiān)管框架。圍繞算法歧視、人工智能的法律責(zé)任、個性化推薦算法的影響、人工智能技術(shù)濫用、人工智能智力成果的知識產(chǎn)權(quán)保護(hù)等,加強(qiáng)前瞻性研究。堅持促進(jìn)數(shù)據(jù)利用與保障安全并重,建立數(shù)據(jù)收集、利用的基本規(guī)則,加強(qiáng)數(shù)據(jù)保護(hù),增強(qiáng)算法透明,防范并打擊數(shù)據(jù)濫用行為。
四是支持針對新技術(shù)的跨學(xué)科研究。人工智能技術(shù)的社會影響是深遠(yuǎn)的、全方位的,要充分認(rèn)識到數(shù)字技術(shù)應(yīng)用及其對未來社會的風(fēng)險和挑戰(zhàn),不可能單單靠技術(shù)手段就能夠解決。建議大力支持、鼓勵和引導(dǎo)新技術(shù)的社會學(xué)和跨學(xué)科研究,從國家安全、社會治理、就業(yè)結(jié)構(gòu)、法律制度、道德倫理等多個維度制定切實合理可行的應(yīng)對措施。
五是加強(qiáng)對數(shù)字科技倫理的教育,鼓勵全社會踐行科技向善。搭建數(shù)字科技創(chuàng)新與倫理之間的高效對話機(jī)制和溝通平臺,加強(qiáng)新技術(shù)領(lǐng)域的科普工作和輿論引導(dǎo),消解并避免制造公眾焦慮,為新技術(shù)發(fā)展?fàn)I造理性的社會氛圍。制定并在教育培訓(xùn)體系中積極落實全民數(shù)字素養(yǎng)和數(shù)字倫理培訓(xùn)計劃,鼓勵全社會踐行科技向善理念,嚴(yán)守科技倫理底線,充分發(fā)掘新技術(shù)巨大的“向善”潛力,促進(jìn)經(jīng)濟(jì)和社會可持續(xù)地發(fā)展進(jìn)步。(曹建峰,騰訊研究院研究員;馬源,國務(wù)院發(fā)展研究中心企業(yè)研究所研究室主任、研究員)
|