段偉文 | 準確研判生成式人工智能的社會倫理風險

段偉文 | 準確研判生成式人工智能的社會倫理風險

準確研判生成式人工智能的社會倫理風險

段偉文 | 文

基於大規模預訓練語言模型的生成式與對話式人工智能在湧現出強大能力的同時也產生了巨大爭議,需要我們在加速創新和有序發展之間作出更具系統性和預見性的研判

原載:《中國黨政幹部論壇》2023年第4期

近年來,數據驅動的人工智能及其社會應用取得迅猛發展,呈現出諸多具有顛覆性社會影響的創新前景,迫使我們不得不思考如何認識其可能帶來的社會、倫理乃至安全風險,進而採取合理的應對之策。特別是繼深度合成技術之後,基於大規模預訓練語言模型的生成式與對話式人工智能在湧現出強大能力的同時也產生了巨大爭議,需要我們在加速創新和有序發展之間作出更具系統性和預見性的研判。

從工程技術層面認識生成式人工智能的實質

從工程技術上講,近期興起的基於大模型的人工智能開啟了對類人類智能的探索,雖然這還不是認知科學意義上的通用人工智能,但應該看到其中具有革命性的創新突破。認知科學意義上的通用人工智能是指機器人和智能軟件及算法能夠作為獨立的智能體進行學習、認識和決策,甚至具有獨立的自我意識。而當前出現的生成式人工智能是一個由人類和機器智能構成的巨型智能生態系統,實質上是通過工程和系統方法在人類智能和機器智能的複雜組合之上實現的。儘管如此,我們還是應該認識到其在工程技術和產業應用層面可能帶來的革命性因素,看到與可能的突破性創新相伴隨的高度不確定性。其中,有三個方面的問題尤其值得關注。

一是從用戶體驗上講,生成式和對話式人工智能在人機交互的工程實現方面突破了一個臨界點,意味著人工智能可以在較流暢的人機對話指引下做各種工作。二是在人工智能生成內容層面,大量實施了人機價值對齊工程,通過預訓練和人工標註等工程方法,可以比較有效地調節和矯正生成內容中存在的價值觀念衝突,進而實現對相關社會風險的控制。三是這一波生成式和對話式的人工智能剛起步,對其可能進一步湧現的創新強度、深度和規模作出準確判斷還為時尚早,一旦其應用無處不在,的確難以預見其可能帶來的風險,而這也是最近出現呼籲暫停相關實驗的主要原因。

生成式人工智能帶來的社會倫理風險

第一,生成式人工智能的廣泛運用會強化目前已經顯現的各種社會倫理問題。一是偏見和歧視。如果用於開發人工智能算法和模型的訓練數據有偏見,算法和模型也會有偏見,從而導致生成式人工智能的回應和建議出現歧視性的結果。二是信息誤導。人工智能語言模型所生成的對話可能會向用戶提供不準確或誤導性的回應,進而導致錯誤信息的傳播。三是信息濫用。人工智能大模型及其預訓練需要收集和處理大量的用戶數據,其中必然涉及技術和商業保密數據以及國家安全數據,隱私數據和敏感個人信息可能會被濫用。四是虛假內容及惡意使用。儘管生成式人工智能目前還沒有實現大規模商業化社會應用,但從信息網絡媒體、虛擬現實和深度合成等技術的發展經驗不難看到,生成式人工智能可能被用於製造不易識別的虛假內容,甚至被惡意使用,從而影響、干預和操縱社會輿論和政治過程。五是對個人自主性的干預。生成式人工智能在商業上可能被用來影響或操縱用戶的行為和決策。

第二,生成式人工智能可能使知識生產方式發生根本性變革,不僅會對傳統的知識產權帶來顛覆性影響,還可能衝擊工作方式和就業。

生成式人工智能對知識產權的顛覆性影響。目前,人工智能在藝術創作領域的應用受到了大量的侵權指控,但作為一種內容生成技術,不能沒有數據作為原料,而其所生成的內容與生產原料存在區別,因此,是否侵權比較難以界定,並且會隨著技術的發展越來越難界定。這不僅使按照現有法律應該得到知識產權保護的人類創作內容的保護變得越來越困難,並且對於人工智能生成內容的版權是否應該得到保護成為一個新問題。鑑於生成式人工智能是一種全新的內容和知識生產方式,其模型訓練必須大量使用現有內容,而目前法律上對內容侵權的界定是在這種技術出現之前提出的,如果要發展生成式人工智能並對其實現有效監管,須重新界定其內容使用邊界。

生成式人工智能對工作方式和就業的根本性衝擊。生成式人工智能與人類高度類似的對話能力表明,它將使人機交互的便捷程度大大提升,各行各業現有的工作流程都可能因此得到簡化,必然帶來對現有工作內容的改變和工作崗位的擠壓。特別值得關注的是這次被取代的可能是受教育程度比較高的專業技術人員,如文秘、諮詢、翻譯、文創、設計甚至醫療和教育等領域的人員可能面臨失業。這實際上會導致大量專業技術人員教育投入的加速折舊,加大並形成新的數字鴻溝,造成規模更大和更復雜的社會問題。

在社會認知層面,可能因為過度依賴人工智能而導致將其視為知識權威、道德權威乃至精神權威等深層次的認知幻象。一方面,生成式人工智能進一步發展,很可能成為普通人日常生活中的人工智能助手,幫助解答知識、辨別是非乃至區分善惡。鑑於人工智能並不真正理解其所生成的知識內容以及對是非善惡的判斷,而且會產生錯誤或隨意堆砌和編造的內容,故對人工智能的過度依賴難免放大其生成的不準確內容和知識上的錯誤,甚至對社會認知產生結構性的負面影響。另一方面,生成式人工智能存在過度擬人化趨勢,隨著人機對話的場景應用日益普遍,可能會出現濫用的風險。其中,值得關注的是將對話式人工智能不負責任地用於教育引導、心理諮詢和精神健康治療,特別是用於青少年的情況。在目前人工智能並不能理解其生成內容的情況下,沒有老師、家長和專家的審核與監督,不能採取以人工智能與青少年直接對話的方式實施教育引導和精神健康治療。

第三,生成式人工智能的發展及其技術產業模式本身也存在巨大的爭議。其中既包括治理層面的挑戰,也包括其資源耗費對生態環境的影響等。鑑於以上對生成式人工智能社會倫理風險的認識,首先,在創新探索的同時,從國家層面制定研究創新和部署應用指南,以確保其研發和應用符合倫理和法律,促使其更好地造福社會和避害向善,使每個人都公平地享受科技創新的紅利。2023年4月11日,為促進生成式人工智能技術健康發展和規範應用,國家互聯網信息辦公室起草了《生成式人工智能服務管理辦法(徵求意見稿)》。其次,加強對人工智能及其社會倫理影響的研究,推動相關知識的普及傳播,引導人們正確地理解和使用這種兼具創新潛力和顛覆性風險的強大力量。再次,積極應對生成式人工智能對就業和教育帶來的衝擊,採取有效的政策措施緩解社會矛盾。最後,至關重要的是,構建人工智能驅動的科學研究和社會研究平臺,為基礎研究、應用研究和對策研究提供知識生產的工具和平臺,以促進人工智能良性有序發展。

中國社會科學院哲學研究所科學技術哲學研究室主任,研究員、博士生導師,中國社會科學院科學技術和社會研究中心主任。主要研究方向為科學哲學、技術哲學、信息哲學、科技倫理、科學技術與社會研究等,當前關注大數據與人工智能的哲學、倫理及社會問題,當代科學知識的形態、科學研究模式、科學無知等。現任中國自然辯證法研究會保衛科學精神工作委員會副主任、北京自然辯證法研究會副理事長,中國大數據專家委員會副主任委員,中國發展戰略研究會創新驅動戰略專業委員會副主任,科技部科研誠信建設辦公室專家,教育部馬工程教材專家,中國科學技術出版社科普專家,國際期刊“社會中的信息、傳播與倫理雜誌(JICES)”及“負責任的創新(RI)”編委,國家社科基金重大項目“智能革命與人類深度科技化前景的哲學研究”首席專家等。

推薦 · 看點

哲學中國

掃碼關注|服務科研

中國社會科學院哲學研究所

“哲學中國”微信公眾號

快捷入口

中國社科院

哲學研究所

稿件系統

稿件系統

稿件系統

投稿郵箱

Scroll to Top