【“三大體系”建設(shè)】人工智能的倫理挑戰(zhàn)與科學(xué)應(yīng)對(duì)路徑
日期:2024-10-30 來源:中國(guó)社會(huì)科學(xué)網(wǎng)
自2022年以來,生成式人工智能(AIGC)大模型推動(dòng)了人工智能(AI)產(chǎn)業(yè)的爆發(fā)式增長(zhǎng),人工智能技術(shù)正在深刻改變并重塑經(jīng)濟(jì)、社會(huì)。隨之而來的是人們對(duì)人工智能帶來的機(jī)會(huì)和風(fēng)險(xiǎn)的爭(zhēng)論。事實(shí)上,爭(zhēng)論可以還原到人工智能研究的核心問題,即新一代人工智能是否具有自主意識(shí)和倫理主體性,而這進(jìn)一步關(guān)涉到人工智能未來會(huì)不會(huì)發(fā)展出獨(dú)立于人的自主個(gè)體,人工智能在工具價(jià)值之外是否具有倫理價(jià)值,人工智能立法的監(jiān)管對(duì)象是人還是人工智能本身。
人工智能是否具有意識(shí)?
大衛(wèi)·查爾默斯(David Chalmers)在20世紀(jì)90年代提出了所謂的“意識(shí)難題”。他關(guān)注到為什么大腦中的物理過程會(huì)導(dǎo)致主觀體驗(yàn)“意識(shí)”,試圖理解這些大腦中的物理過程為什么會(huì)伴隨主觀體驗(yàn)。腦科學(xué)和神經(jīng)科學(xué)可以幫助我們理解大腦特定的機(jī)制和功能,如感知、記憶和學(xué)習(xí),因?yàn)樗鼈兛梢杂脴?biāo)準(zhǔn)的科學(xué)方法和涉及物理過程的解釋來解決。雖然我們可以描述與不同的主觀體驗(yàn)相關(guān)的大腦活動(dòng),但這并不能解釋為什么這些活動(dòng)會(huì)引發(fā)任何主觀體驗(yàn)?!耙庾R(shí)難題”涉及主觀體驗(yàn)的內(nèi)在本質(zhì)以及為什么物理過程會(huì)產(chǎn)生“質(zhì)”的體驗(yàn)。這里解釋大腦中的物理過程如何產(chǎn)生主觀體驗(yàn)的困難被稱為“解釋鴻溝”,這一鴻溝表明我們當(dāng)前的科學(xué)理解不足以完全解釋意識(shí),可能需要新的理論或范式來彌合這一鴻溝?!耙庾R(shí)難題”還重新點(diǎn)燃了二元論(認(rèn)為心靈和身體是分離的)和物理主義(認(rèn)為一切都是物理的)之間的爭(zhēng)論。
“意識(shí)難題”也對(duì)發(fā)展有意識(shí)的人工智能提出了挑戰(zhàn)。雖然我們可以創(chuàng)建模仿人腦神經(jīng)元學(xué)習(xí)行為的神經(jīng)網(wǎng)絡(luò)系統(tǒng),但神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)機(jī)理并沒有被完全理解和掌握,進(jìn)而新一代人工智能是否已經(jīng)具有主觀體驗(yàn)或如何才能產(chǎn)生主觀體驗(yàn)也沒能得到科學(xué)的解釋。
事實(shí)上,意識(shí)是一個(gè)復(fù)雜的概念,一般而言,意識(shí)被理解為個(gè)體對(duì)自我和環(huán)境的感知和認(rèn)知,涉及到主觀體驗(yàn)、情感、思維等多個(gè)層面,意識(shí)問題貫徹整個(gè)哲學(xué)和科學(xué)的發(fā)展歷程,至今并未有清晰的定義,對(duì)意識(shí)產(chǎn)生的機(jī)理很難在短期有重大突破。近年來,意識(shí)的神經(jīng)科學(xué)和腦科學(xué)研究方面取得了很多進(jìn)展,并產(chǎn)生了諸如“意識(shí)的信息整合理論”等,以試圖解釋意識(shí)的機(jī)制。但是我們不得不承認(rèn),意識(shí)問題仍然沒有完善的理論描述或科學(xué)的解釋,因此,我們也無法科學(xué)地判斷人工智能有沒有自主意識(shí)。
人工智能是否具有倫理主體性?
在倫理學(xué)領(lǐng)域,主體通常指能夠進(jìn)行道德判斷和承擔(dān)道德責(zé)任的個(gè)體。倫理主體性意味著個(gè)體不僅能夠做出行為選擇,還能夠?qū)@些選擇進(jìn)行反思,并承擔(dān)相應(yīng)的責(zé)任。倫理主體性的前提條件是自主意識(shí),即個(gè)體具有自我意識(shí)和獨(dú)立決策的能力。但是通過“意識(shí)難題”的討論,我們認(rèn)為對(duì)于人工智能是否具有自主意識(shí)的問題,當(dāng)前無法給出科學(xué)的解釋,那么對(duì)于人工智能是否具有倫理主體性,同樣無法給出科學(xué)的答案。
然而從當(dāng)前的人工智能應(yīng)用來看,有兩點(diǎn)值得注意:一是人工智能系統(tǒng)是具有倫理屬性的,特別是生成式人工智能大模型具有一種倫理和價(jià)值的傾向,并可以做出倫理判斷。人工智能時(shí)代之前的工具和技術(shù)是完全按照設(shè)計(jì)者或應(yīng)用者的設(shè)定執(zhí)行特定行動(dòng)的工具,但是新一代人工智能具有了倫理判斷的能力,會(huì)拒絕執(zhí)行違反大模型的倫理傾向的指令。雖然大模型進(jìn)行倫理判斷的能力源自算法和訓(xùn)練數(shù)據(jù),但是大模型是基于對(duì)模型應(yīng)用者輸入的自然語言指令進(jìn)行解讀并主動(dòng)做出回應(yīng)的,因而大模型具有倫理判斷和價(jià)值選擇的能力。
二是人工智能的倫理屬性歸屬于何主體?顯然現(xiàn)階段,在人工智能的倫理主體性得到科學(xué)的答案之前,人工智能的倫理屬性首先應(yīng)該歸屬于其設(shè)計(jì)者和應(yīng)用者,即主體人(或機(jī)構(gòu))。但是在意識(shí)問題和主體性問題得到科學(xué)的解決之前,從哲學(xué)上我們是可以直觀地認(rèn)為大模型具有了一定的自主意識(shí)和自主的倫理判斷,所以應(yīng)該承擔(dān)一定的倫理主體性責(zé)任。也就是說,在科學(xué)和應(yīng)用領(lǐng)域,我們認(rèn)為人工智能的倫理行為仍然只是設(shè)計(jì)者或應(yīng)用者主體人的工具行為;但是在哲學(xué)領(lǐng)域,我們認(rèn)為人工智能的行為既具有工具屬性,又體現(xiàn)了一定程度的倫理主體性,所以我們應(yīng)該具有前瞻性地進(jìn)行人工智能倫理的主體和主體的倫理規(guī)范研究。
人工智能倫理的主體涉及到模型設(shè)計(jì)者、模型應(yīng)用者和模型自身三方,但是鑒于人工智能倫理主體性理論的不完備和法律體系的現(xiàn)狀,模型設(shè)計(jì)者和模型應(yīng)用者是明確的立法監(jiān)管對(duì)象,模型自身并不具備理論和現(xiàn)實(shí)上的合法的、可監(jiān)管的主體地位。所以當(dāng)前人工智能監(jiān)管對(duì)策可以從以下方面開展:一是在模型應(yīng)用階段,應(yīng)立法以規(guī)范模型,只能是合法合規(guī)的應(yīng)用模型,并明確違法的責(zé)任,其監(jiān)管的對(duì)象是模型應(yīng)用者;二是在模型設(shè)計(jì)階段,應(yīng)立法以規(guī)范模型設(shè)計(jì)者在算法、訓(xùn)練數(shù)據(jù)、模型服務(wù)等各環(huán)節(jié)都能符合國(guó)家、地區(qū)和國(guó)際組織的法律法規(guī);三是在人工智能研究階段,針對(duì)潛在的“人工智能自主意識(shí)”帶來的倫理問題,需要在法律、倫理和技術(shù)層面采取多方面的對(duì)策,規(guī)范并促進(jìn)對(duì)人工智能技術(shù)進(jìn)行可控的前瞻性研究,對(duì)具有自主意識(shí)的人工智能系統(tǒng)的倫理主體性和倫理規(guī)范進(jìn)行研究。前兩點(diǎn)關(guān)注的是在現(xiàn)有以人為主體的倫理和法律體系的范圍內(nèi)對(duì)人工智能的設(shè)計(jì)和應(yīng)用進(jìn)行規(guī)范;最后一點(diǎn)關(guān)注的是進(jìn)行人工智能倫理的主體性研究,并在此基礎(chǔ)上進(jìn)行人與人工智能的關(guān)系研究,探討人工智能主體與當(dāng)前以人為主體的倫理和法律體系的融合拓展路徑。
【本文得到西南民族大學(xué)中華民族共同體研究院資助(項(xiàng)目編號(hào):2024GTT-WT01)】
(郭玉山,西南民族大學(xué)哲學(xué)學(xué)院,阿壩師范學(xué)院馬克思主義學(xué)院;段吉福,西南民族大學(xué)哲學(xué)學(xué)院院長(zhǎng)、教授)