誰爲AI事故負責?
2024-12-18 12:29 騰訊研究院
作者:曹建峰,騰訊研究院高級研究員
人工智能事故的責任 是AI時代的核心問題
深度學習的“黃金十年”之後,AI時代已然到來,AI系統已然成爲21世紀最顯著、最重要的技術物之一,不斷催生出各種新的智能產品、服務和應用,諸如Robotaxi、AI陪伴應用、人形機器人等。而且,在規模法則(scaling law)的引領下,以大模型爲代表的AI技術仍在加速發展,甚至引發了“AI加速主義 VS AI價值對齊”的發展理念分歧。AI領域的知名專家學者紛紛預言AGI的到來時間,設想未來十多年的變革與影響。這場AI革命將帶來什么樣的變化和影響,也許是人們現在還無法全面預估的,但我們至少不應低估AI技術的長期影響。
目前看,AI技術的發展和應用,不僅讓各種產品正日益成爲具有自主智能的產品,而且讓人們從互聯網時代加速進入以算法、機器人和AI智能體(AI agent)作出經濟和社會決策爲核心特徵的AI社會或者說算法社會(algorithmic society),算法由此成爲支持網絡化、數字化、智能化發展的核心技術因素。這可以帶來安全和效率的顯著提升,但無法保證消除所有的事故和風險。沒有絕對安全的技術,技術在減少、消除某些方面的風險的同時,卻可能在其他一些方面制造新的風險。近年來,給他人權益造成損害的AI事故快速增加,從自動駕駛汽車和有形機器人的安全事故到AI診療軟件的錯誤診斷再到各種自動化決策系統的算法歧視、不公平決策,可以說,AI事故和AI侵權正日益成爲AI社會的“新常態”。根據OCED對全球範圍內的AI事故的監測,2014年1月以來全球AI事故快速增加,截至2023年12月總數已達7195起。例如,2024年10月以來,AI聊天機器人平台Character AI面臨導致美國青少年自殺等爭議,已成爲至少兩起訴訟的被告,原告主張character AI存在設計缺陷,屬於缺陷產品,要求其开發者承擔產品責任。
在人工智能的應用無處不在的今天,人們必須正視AI事故和AI侵權的法律責任問題。當AI系統造成事故和損害,法律必須給受害人提供公平且有效的救濟。但問題是,誰應爲AI事故和AI侵權負責?高度自主的AI系統可能在沒有直接的人類控制、幹預或監督下獨立採取行動或作出決策。這意味着,在人工智能語境下,由於相關的行爲和決策從人類轉向智能系統,事故和損害也开始從由人類和人類行爲造成轉向由AI系統及其行爲造成。這種轉變給法律責任的分配和承擔提出了挑战。相關挑战不僅在於識別責任主體的困難,而且在於AI系統的自主性、不可解釋性、不可預測性等諸多特徵給證明過錯/缺陷、因果關系等責任構成要件帶來的困難,更在於AI侵權的責任承擔方式的難題(例如,如何針對AI系統採取行爲禁令、關停等懲罰措施)。
AI侵權責任的三種新方案 真的可行嗎?
爲此,有人提議針對AI侵權建立全新的責任制度,大致包括三種方案。
一是人格方案,簡單來說就是賦予AI系統法律主體地位,從而AI系統可以對自己的行爲直接承擔法律責任。將自主的、復雜的AI系統視爲獨立的法律主體,從而將侵權責任從人類轉嫁給人工智能,是一個很有誘惑的想法。歐盟立法者曾提議爲自主機器人創設“電子人”的特殊法律地位,但最終否決了這一想法。一些學者提出可以賦予AI系統類似於有限責任公司(LLC)的法人地位,以解決責任承擔的難題。人們設想,就像大模型可能讓“1人公司”成爲現實一樣,未來人工智能的發展也可能讓“0人公司”成爲現實,即具有自主行動能力的AI系統(agentic AI)就可以獨立運營一家公司,而不需要任何的人類僱員。
二是替代責任、基於高風險的無過錯責任等新型責任方案,根據一種理論,尤其是在替代型人工智能的情況下,如果企業使用AI系統來替代人類僱員,就應對所謂的“AI僱員”的行爲承擔替代責任,因爲這符合功能等效原則(functional equivalence)。隨着大模型的能力的持續增強,可以憧憬,未來人們不僅可能會有可以真正代替自己行事的個人AI助理,而且可能會和所謂的“AI同事”一起工作和協作。因此,讓經營者對“AI僱員”的行爲承擔替代責任,似乎合情合理。另一種思路是,立足於基於風險的AI監管路徑,讓提供者、所有人、使用者等主體對高風險AI系統造成的損害承擔無過錯責任。例如,歐盟人工智能法案的核心思路就是,基於AI風險類型化,重點對高風險的AI系統採取安全監管,並禁止具有不可接受風險的AI系統。
三是保險方案,對於完全自主的AI系統造成的損害,可以考慮用社會保險、賠償基金等基於保險的無過錯賠償機制完全取代現有的侵權責任制度,因爲繞开侵權法將避免將現有責任規則適用於人工智能所面臨的諸多困難。在過去,無過錯賠償機制完全取代侵權損害賠償的例子並不鮮見,工傷、交通事故、醫療傷害、疫苗損害等領域存在類似的做法。
AI侵權責任制度的構建 需要走出幾個誤區
然而,這些關於AI侵權責任的新方案過於激進、難以確保安全與自由的平衡,不僅不符合我們依然處於AI革命的發展早期和弱人工智能時代的社會現實,而且是基於幾個需要避免的歸責誤區。
誤區1:針對人工智能自身進行歸責。
針對AI系統自身進行歸責,意味着將AI系統視爲法律主體。然而,在現階段,人工智能的法律人格在道德上是不必要的,在法律上是自找麻煩的。支持AI法律人格的大部分論點既過於簡單又過於復雜,過於簡單是因爲人工智能存在於一個界限模糊的範圍內,目前還不存在可以被承認爲法律主體的有意義的類別;過於復雜是因爲許多論點是“機器人謬誤”(比如認爲機器人就像人類一樣)的變體,基於對人工智能未來發展的似是而非的假設。目前看,授予AI系統法律人格並非解決它們“行爲”責任的“靈丹妙藥”,反而可能打开“潘多拉魔盒”,引發了一系列新的法律和倫理問題,尤其是,AI法律人格將很容易導致濫用,成爲一種避免和轉移法律責任和義務的機制。換句話說,AI法律人格可能是一種“法律黑洞”,一個吸走人類行爲者法律責任,從中卻看不到任何問責跡象的實體。總之,人工智能作爲人本身的一種活動,即使再復雜、再智能、再先進,也只是服務於人類、實現人類目的的工具,充分彰顯着作爲法律客體、促進人類福祉的需求。在根本上,我們需要發展工具型AI(tool AI),而非所謂的全面接近人類的主體性AI。
誤區2:將公法上AI風險類型化理念和AI侵權責任規則勾連。
全球人工智能監管的一個主要思路是採取“基於風險規制”,對具有不同風險程度的AI系統採取差異化監管。歐盟人工智能法案是這種思路的典型代表,其按照風險高低,將AI系統分爲不可接受風險AI、高風險AI、有限風險AI以及最小風險AI等四大類,並重點規定了高風險AI的要求和相關經營者(提供者、部署者等)的義務等。其中,高風險AI的判斷標准是,AI系統對自然人的健康、安全、基本權利等構成顯著的損害風險。在這種規制思路下,人們傾向於將AI系統的風險程度和歸責原則相掛鉤,比如將高風險AI和無過錯責任相掛鉤,而將低風險AI或非高風險AI和過錯責任或過錯推定責任相掛鉤。歐盟立法者此前提出的“人工智能操作責任條例草稿”就是這種歸責思路的典型代表。然而,將公法規制框架下基於風險的AI類型化一刀切地銜接、匹配到不同的責任規則並不合理,實際上是一種錯置。主要原因在於,高風險AI和傳統無過錯責任理論所針對的具有異常危險的物體或活動之間並不能簡單畫上等號;相反,人工智能的引入可能改變人們對危險領域的認知,所謂的高風險AI實際上可能比人類控制、操作的類似物體或活動更加安全。換句話說,所謂的高風險AI其實旨在減少風險,增加安全性,實際上比其所取代的人類活動要更加安全。
誤區3:對AI系統的“行爲”進行過失評價。
當AI系統引發事故、造成損害時,如何對AI系統的“行爲”或表現進行評價,是一個關鍵的問題。有人提出將過失責任原則適用於AI系統自身,具體來說,類比用於判斷人類行爲人是否具有過失的“理性人”標准,可以採用“理性機器人”標准來判斷AI系統是否存在所謂的“過失”,以此限制相關主體對AI系統的責任。例如,此前在美國,在Nilsson v. Gen. Motors LLC案中,原告起訴美國自動駕駛汽車公司Cruise,但沒有提出產品責任索賠,而是選擇了基於過失的理論:這位摩托車主聲稱Cruise的自動駕駛汽車以如此疏忽的方式行駛,進入了相鄰的車道並將他撞倒,而沒有考慮到過往的車輛。這可能是歷史上第一次一個機器人被正式指控自身存在過失操作——這一侵權指控曾經是專門針對人類行爲人的。然而,這種歸責思路在任何時候都應當被拒絕,即使現代侵權法對過失的認定已經趨於客觀化,但過失的概念始終指向人類行爲人的行爲,和人的主體性相掛鉤,將過失標准適用於AI系統的“行爲”或表現是不切實際的。可以預見,隨着AI系統的自主性的增強,未來在很多人工智能事故中,法院需要從評價使用者(如駕駛員)的行爲更多轉變爲評價AI系統(如自動駕駛系統)的行爲,而對於AI系統的“行爲”或表現,應從產品缺陷的角度而不是從過錯的角度來進行評價。這要求我們及時更新面向工業時代的傳統產品的產品責任制度。
誤區4:基於功能等效原則對部署、操作AI系統的主體進行替代問責。
功能等效原則(Functional Equivalence)認爲,如果AI系統等自主技術的使用在功能上相當於僱傭人類輔助人員,並由此造成了損害,那么運營者(operators)部署、使用該技術的責任應當與委托人(Principal)對其人類輔助人員(Human Auxiliary)的既有替代責任機制相對應,也即AI系統的運營者對AI系統造成的損害承擔替代責任。然而,這種思路是自找麻煩的,基於功能等效的責任類推乍看起來似乎很合理,但實際上卻不具有可行性。而且功能等效理論只是在表面上關注了技術的替代效應,卻沒有洞察這種技術現象背後的真實風險制造與控制。例如,在人工智能之前的時代,工廠利用自動化裝置取代工人,如果自動化裝置出現故障並造成損害,受害人會考慮追究自動化裝置的生產者的產品責任,而不是讓工廠對自動化裝置承擔替代責任。雖然AI系統的風險狀況可能不盡相同,但其只不過是比傳統的自動化裝置更高級、更智能的工具而已,這意味着,人們需要撥开功能等效的迷霧,考察哪些主體(一般即工具的提供者和使用者)制造或控制哪些風險。因爲最終人們只是希望有人能夠對AI系統造成的損害承擔責任,而不是希望像追究人類行爲人的責任那樣追究AI系統的責任。
AI時代的侵權責任制度 路在何方?
雖然人工智能給現行侵權責任制度的有效適用提出了挑战,但這並不意味着我們需要另起爐竈,採取全新的責任方案。相反,在現階段,通過對過錯責任、產品責任等既有侵權責任規則作出必要的調整,我們就能夠讓侵權責任制度適應AI時代的發展需求,並在安全與創新之間實現平衡。
其一,堅持人工智能的法律客體地位,在AI事故和AI侵權中貫徹人的責任。從技術現實出發,現在的AI系統,無論多么先進和智能,總是需要有人开發它,並將它投入使用。具體來說,雖然AI價值鏈紛繁復雜,但我們可以相對清晰地區分出提供者陣營(provider camp)和使用者陣營(user camp)這兩個群體。這種區分在法律上是有意義的,因爲在每個群體內部(比如生產者和供應商之間、所有人和使用者之間),責任都可以相對容易地通過合同工具分配給其中一個成員或者在幾個成員之間分擔。例如,歐盟人工智能法案區分了AI提供者和AI使用者(deployer of AI system),並重點針對這兩類主體施加了相關的義務和責任。因此,爲了侵權責任目的,建立AI提供者和AI使用者的識別、確定標准,是必要且重要的。
其二,爲AI時代革新產品責任制度。雖然在人工智能應用的很多具體使用場景中,使用者仍需履行一定的注意義務(諸如按照預期用途使用、確保數據質量、監測、維護等),對人工智能使用中其能夠控制的那些方面承擔責任,但長期來看,使用者的注意義務將會縮小,這意味着使用者的責任也可能會相應縮小。在AI所有人、使用者的角色和控制力持續削弱的趨勢下,未來人工智能提供者的責任將可能進入侵權責任法的中心舞台。而AI系統作爲一種新型的“智能”產品,呼籲對既有的產品責任制度作出必要的革新,包括產品概念、生產者界定、缺陷、可賠償損害、因果關系、舉證責任等方面。例如,在人工智能監管方面,歐盟立法者在制定全球首部全面性的人工智能法案的同時,對1985年出台的歐盟產品責任指令進行了全面的修訂,旨在爲數字時代和AI時代建立全新的產品責任制度。與此同時,歐盟立法者仍在酝釀“AI責任指令”(AI Liability Directive),旨在針對AI使用者的責任建立更明確、更可操作的規則。
其三,保險應作爲AI責任框架的有益補充機制,而非替代性機制。保險作爲風險管理工具,在促進新技術安全融入社會方面發揮着不容忽視的重要作用,比如通過提供財務保障激勵創新並確保新技術的安全實施。通過適當的調整和監管幹預,保險能夠繼續支持技術創新,並爲社會提供必要的保障。現有的保險制度可以被用來監管AI系統,但無需制定專門的或全面性的人工智能保險政策。同時應當謹慎針對人工智能應用出台強制性的保險政策,以免適得其反地阻礙能夠帶來顯著經濟和社會效益的AI技術的推廣普及。
其四,AI侵權責任制度之外,需要重視並積極應對前沿AI的安全風險。在人工智能治理方面,AI侵權責任規則是必要的,但其作用是有限度的,雖然能夠有效應對AI系統可能給人們的人身、財產權益造成的損害風險,但對於超級智能等前沿AI(frontier AI)可能帶來的極端風險或災難性風險,AI侵權責任規則難以起到實質性作用。在AI加速發展趨勢下,超級智能(superintelligence)已經呼之欲出,其潛在安全風險日益得到各國政府、研究界、業界的積極關注和重視。國外AI專家指出,長期來看,大多數人都低估了超級智能的安全風險可能有多嚴重。因此,積極倡導、發展、構建福祉型人工智能(wellbeing AI),利用人工智能最大化個人的、社會的以及環境的福祉,將包括AI價值對齊在內的人機對齊理念融入超級智能的發展,就顯得尤爲重要。
文章內容僅爲學術探討,不代表所在單位之觀點
[1] 鄭志峰:《人工智能產品責任的立法更新》,載《法律科學(西北政法大學學報)》2024年第4期
[2] 曹建峰:《大模型背景下的人機對齊》,載《中國社會科學報》
https://www.cssn.cn/skgz/bwyc/202410/t20241029_5797216.shtml
[3] https://www.youtube.com/watch?v=559VdVIz5V4
[4] https://eur-lex.europa.eu/eli/dir/2024/2853/oj
[5] https://mp.weixin.qq.com/s/HKbVSvQzULG13BSLCfVpBQ
[6] https://darioamodei.com/machines-of-loving-grace
[7] https://ia.samaltman.com/
[8]https://www.washingtonpost.com/documents/028582a9-7e6d-4e60-8692-a061f4f4e745.pdf
鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。
標題:誰爲AI事故負責?
地址:https://www.sgitmedia.com/article/48018.html
相關閱讀:
- Bitfinex:2025 年中期 比特幣可能會達到 20 萬美元 2024-12-18
- AI vs Crypto:哲學家會選哪一個? 2024-12-18
- 艾默生調查:年輕的美國選民如何看待加密、TikTok禁令 2024-12-18
- 全球宏觀經濟趨勢將如何影響2025年的加密貨幣市場? 2024-12-18
- 11個月突破363億美元 貝萊德IBIT成十年來資金流入最多的ETF? 2024-12-18
- Glassnode:幣齡如何影響比特幣的买賣模式? 2024-12-18
- 關稅與匯率:特朗普的貿易赤字難題 2024-12-18
- 美股T+1結算加速時代:亞太投資者的困局與傳統機構爭借穩定幣打造跨境實時清算新機遇 2024-12-18