版權(quán)歸原作者所有,如有侵權(quán),請聯(lián)系我們

AI越來越能耐!如何讓它成為有“良知”AI?

學(xué)術(shù)頭條
一起見證人類探索征途上的每一個(gè)重大突破。
收藏

如今,人工智能(AI)發(fā)展勢頭迅猛,AI 代理(Agent)正逐漸成為業(yè)內(nèi)的研究重點(diǎn)。

作為一個(gè)智能體,AI 代理能夠感知環(huán)境,并通過自己的決策和行動(dòng)來改變環(huán)境,進(jìn)而通過學(xué)習(xí)和適應(yīng)能力來提高自身性能。

那么,能夠獨(dú)立做出決策的 AI 代理,是否需要負(fù)法律責(zé)任?在法律中又該如何被定義?

近日,一項(xiàng)發(fā)表在權(quán)威科學(xué)期刊 Science 上的研究論文給出了一種可能的回答。

美國范德比爾特大學(xué)法學(xué)教授 Daniel Gervais 和斯坦福大學(xué) CodeX 研究院、Nomos AI 創(chuàng)始人兼首席執(zhí)行官 John Nay 聯(lián)合發(fā)表論文表示:

AI 已經(jīng)發(fā)展到可以作為一個(gè)擁有權(quán)利和義務(wù)的法律主體。因此,在問題變得復(fù)雜之前,我們需要制定一個(gè)“跨物種”的法律框架,將 AI 作為法律主體來對待。

另外,他們還強(qiáng)調(diào)了“零成員有限責(zé)任公司”的想法,以及訓(xùn)練一個(gè)大型語言模型(LLMs)來監(jiān)管 AI 代理或是將 AI 系統(tǒng)轉(zhuǎn)化為守法的系統(tǒng)。

相關(guān)研究論文以“Artificial intelligence and interspecific law”為題,已發(fā)表在 Science 上。

AI操控“零成員有限責(zé)任公司”

到目前為止,法律體系一直是單一的,它只允許人類來設(shè)計(jì)和使用它。在法律體系中,非人類法律主體(如動(dòng)物)必須通過人類來實(shí)現(xiàn)它們的權(quán)利,而這些主體只是用來處理人類利益和義務(wù)的工具。

然而,將 AI 納入法律體系與其說是為了界定和保護(hù)這些非人類主體的權(quán)利和責(zé)任,不如說是為了解決與之相關(guān)的人類利益和義務(wù)問題。

《布萊克法律詞典》(Black’s Law Dictionary)將法人公司稱為“artificial persons”。在美國,一些司法管轄區(qū)的法律并不總是明確要求法人公司的最高管理層由人類擔(dān)任。

美國《統(tǒng)一有限責(zé)任公司法》(ULLCA)中提到的“零成員有限責(zé)任公司”似乎并不陌生。雖然該條款明確說明,沒有成員將導(dǎo)致有限責(zé)任公司解散,但 ULLCA 并沒有強(qiáng)制執(zhí)行這一規(guī)定。

即使只有一個(gè)美國州允許“零成員有限責(zé)任公司”存在,根據(jù)所謂的“內(nèi)部事務(wù)原則”,這一實(shí)體仍可在全國范圍內(nèi)開展業(yè)務(wù)。根據(jù)這一原則,法院將依據(jù)成立州的法律來制定管理法人實(shí)體內(nèi)部事務(wù)的規(guī)則。

如果存在這樣一個(gè)由 AI 操作的“零成員有限責(zé)任公司”,法律將有哪些選擇呢?法律無法輕松地將法律后果附加到 AI 的自主行為上(盡管這里的“自主”可能會(huì)受到限制)。法律可能會(huì)將責(zé)任歸咎于啟動(dòng)有限責(zé)任公司的人類,但這可能需要一個(gè)新的法律工具,因?yàn)橥ǔG闆r下,人們不會(huì)對他們創(chuàng)建或控制的法人實(shí)體的行為承擔(dān)責(zé)任。

此外,不排除 AI 本身可能會(huì)提出創(chuàng)建一家新的有限責(zé)任公司的申請。法院仍將擁有用于規(guī)范法人實(shí)體責(zé)任的一系列工具,包括賠償、財(cái)產(chǎn)查封和解散等等。法院可以發(fā)布各種命令,如禁令,但 AI 將決定是否遵守這些命令。

此外,論文作者還提出了另一種可能:在所有司法管轄區(qū)中將“零成員有限責(zé)任公司”定為非法,但這將需要全球范圍內(nèi)的廣泛立法努力,并可能與促進(jìn)科技產(chǎn)業(yè)的發(fā)展相抵觸。因此,出現(xiàn)“零成員有限責(zé)任公司”的現(xiàn)象應(yīng)該催使法律體系適應(yīng)自主 AI 代理的實(shí)現(xiàn)。

讓 AI 以有限責(zé)任公司或其他法律主體的形式運(yùn)營,具有明確定義的法律主體身份,會(huì)帶來兩個(gè)主要好處:首先,它將 AI 確立為可以在法律訴訟中追究賠償損害的法律實(shí)體,為受損害的當(dāng)事人提供了明確的法律訴求目標(biāo);其次,這為機(jī)器學(xué)習(xí)研究人員提供了更明晰的研究方向。

構(gòu)建合法的“良知”AI

在當(dāng)前的范式中,似乎有一種路徑可以將遵循法律的行為嵌入到由 LLMs 驅(qū)動(dòng)的 AI 代理中。例如,人們可以訓(xùn)練一個(gè) LLMs,用于監(jiān)視和/或影響主要的 AI 代理,并且可以用作獎(jiǎng)勵(lì)模型。

然而,需要明確的是,許多涉及人類代理的情況最終需要人類對該情境中的合法性做出裁定;這不會(huì)因?yàn)橛?AI 代理而改變。

除了提出的規(guī)范性主張,對于未來幾年即將出現(xiàn)的高級 AI,關(guān)鍵在于將其納入我們的法律體系,以便我們可以監(jiān)測其行為、分配責(zé)任、采取必要的防護(hù)措施,并引導(dǎo) AI 研究朝著構(gòu)建合法的人工“良知”的方向前進(jìn)。

在數(shù)字智能迅猛發(fā)展的背景下,關(guān)注積極主動(dòng)的自動(dòng)犯罪預(yù)防至關(guān)重要。然而,鑒于不可避免的情況,當(dāng) AI 系統(tǒng)無法達(dá)到理想行為時(shí),相關(guān)公司應(yīng)當(dāng)負(fù)責(zé)向能夠向法院證明受到損害的個(gè)人支付賠償金。為實(shí)現(xiàn)這一目標(biāo),可以拓展需要保持最低商業(yè)責(zé)任保險(xiǎn)政策的范圍。

跨物種法律的興起是不可避免的,但很難預(yù)測我們將在這一法律光譜的哪一端結(jié)束。一方面,跨物種法律可能涉及修改公司法以適應(yīng)部分受人類控制的公司實(shí)體的運(yùn)作方式。另一方面,跨物種法律也可能意味著在日常與自主、智能實(shí)體的互動(dòng)中,需要調(diào)整法律體系。

論文鏈接:

www.science.org/doi/10.1126/science.adi8678

評論
天津.諸葛
少師級
在數(shù)字智能迅猛發(fā)展的背景下,高度關(guān)注、積極主動(dòng)預(yù)防Al犯罪,己顯得至關(guān)重要。AⅠ能否作為法律主體來對待,需要人類制定一個(gè)“跨物種”的法律框架來約束。
2023-11-01
耿培國
大學(xué)士級
人工智能需要配備合理“使用說明書”,讓“指令”有據(jù)可依,讓“良知”貫穿其間,推動(dòng)人工智能與人類社會(huì)“友好共存”。
2023-11-01
通遼市科爾沁區(qū)科爾沁街道民航社區(qū)
大學(xué)士級
物種法律也可能意味著在日常與自主、智能實(shí)體的互動(dòng)中,需要調(diào)整法律體系。
2023-11-01