隨著新一代人工智能(AI)技術快速演進,涉 AI類案件也同步快速增長。近日,北京互聯網法院召開專題新聞通報會,對該院審理的涉及 AI案件進行梳理、總結?!拔以簩⒊浞职l揮專業審判優勢,積極回應 AI產業司法需求,以高質量裁判樹規則、以高水平治理促發展、以高效能服務護創新?!北本┗ヂ摼W法院副院長趙長新表示。
糾紛類型復雜多樣
據趙長新介紹,北京互聯網法院集中管轄北京市轄區內應當由基層人民法院審理的11類特定類型的涉互聯網一審民事、行政案件。成立7年來,該院共受理各類案件25.3萬余件,審結24.5萬余件。其中,涉 AI案件增長較快,糾紛類型也日益復雜化和多元化,主要涉及著作權權屬、知識產權侵權及網絡服務合同糾紛等案由。
隨著 AI技術賦能千行百業,涉 AI案件覆蓋產業領域持續擴展,不再局限于互聯網行業,而是向文娛、金融、廣告營銷等傳統產業領域廣泛滲透,新興與傳統場景復合、技術交叉、利益交織。
趙長新表示,隨著應用 AI技術的產品和服務快速出新,AI幻覺、算法黑箱等問題的不確定性可能使模型開發者、服務提供者和用戶等市場主體面臨新型、復合性法律風險,市場主體創新風險迭代升級。司法需有效識別技術運作邏輯與市場行為本質,在裁判中確立與技術發展相適應的責任框架,為市場主體明確創新行為的法律預期,激勵市場主體守正創新。
在全國首例“AI文生圖案”中,北京互聯網法院探索認定人利用 AI生成圖片,仍然是人運用工具進行創作的過程,AI僅是創作工具,并非創作主體,原告根據需要對涉案 AI模型進行相關設置,并最終選定的涉案圖片,能夠體現出原告的智力投入和個性化表達,涉案圖片構成作品,應當予以保護。
“涉 AI案件司法裁判不僅是對個案技術與法律層面的裁判,更承載著對科技倫理、創新激勵與權益保護進行平衡的價值引導功能,深刻影響著技術發展方向與社會倫理規范的形成?!壁w長新表示。
案件審理面臨挑戰
“AI技術加速發展,新領域、新業態、新模式不斷涌現,各種新型矛盾糾紛也相伴而生。該院涉 AI案件審理主要面臨多方面挑戰。”趙長新表示。
涉 AI類案件往往涉及對 AI的生成過程、算法模型以及數據來源等進行司法審查,技術門檻高,事實查明難度大,對司法專業性要求高。例如在“AI標識案”中,平臺運用算法工具將用戶發布內容判定為未標識的 AI生成內容從而引發糾紛。該案中,平臺既是算法工具掌控方又是結果判斷方,法院判斷平臺審查及處理結果是否有合理依據時需要探明其算法決策邏輯,平臺需圍繞案件爭議事實以可理解的方式舉證或說明算法運行機制、對可能出現的誤判是否采取了合理的救濟措施。
AI領域規范性法律文件制定存在一定的滯后性,難以完全適應技術快速發展的新形勢,相關案件的司法裁判常常無法規可依、無先例可循。例如,在著作權領域,涉及 AI文生圖、文生視頻、虛擬數字人等新型權益客體是否構成著作權法意義的作品,其著作權應歸屬于 AI服務提供者還是使用者;大模型訓練對作品的利用在著作權法中如何定性等問題。在人格權領域,涉及自然人的人格權保護范圍是否及于 AI合成的虛擬形象、虛擬聲音;以人臉信息作為模型應用深度合成技術是否侵犯個人信息等問題。這些具體爭議需要法官充分發揮司法智慧,綜合法律原則、政策導向、價值衡量等進行合理裁判。
AI產業鏈條復雜、上下游相互依存,案件往往涉及訓練者、開發者、服務提供者、使用者等不同角色,各方主體分工合作形成復雜關聯,影響法律責任的認定。例如在該院審結的全國首例“AI聲音權案”中,原告主張侵犯其聲音權益的被告涵蓋錄音制品制作者、文本轉語音產品開發者、服務提供者以及云服務平臺等 AI數據訓練、模型研發和技術服務鏈條下的眾多環節中的多個主體,如何理順相應的產業鏈條,在眾多主體中確定責任由誰承擔,既關涉個案公平正義的實現,又深刻影響著相關產業能否健康有序發展。
妥善化解涉AI糾紛
結合案件審理中發現的類案問題,北京互聯網法院對預防化解涉 AI案件糾紛提出以下四點建議。
首先是提升法律意識與數字素養,明確自身行為邊界,依法維護自身合法權益。網絡用戶在使用 AI產品或服務過程中應主動關注、學習 AI領域法律法規與典型案例,知曉服務協議與隱私政策內容,了解個人信息處理、著作權歸屬等權利義務內容,注意自身行為界限。利用 AI進行創作時及時留存、記錄創作過程,如發生個人信息被泄露、肖像及聲音未經許可被AI處理、AI生成內容未經許可被他人使用等情形,應立即保存好相關證據,包括但不限于網頁網址、截圖、錄屏、錄音、相關聊天記錄等,為后續維權提供證據支持。
其次是嚴格遵守技術倫理規范,確保數據和基礎模型來源合法。AI技術開發者應當在算法設計、訓練數據選擇、模型生成和優化、提供服務等過程中,采取有效措施防止歧視產生,提升 AI的透明度,提高生成內容的準確性和可靠性。明確并公開其服務的適用人群、場合、用途,指導使用者科學理性認識和依法使用生成式 AI技術。依法開展訓練數據處理活動,使用具有合法來源的數據和基礎模型。采取有效措施提高訓練數據質量,增強訓練數據的真實性、準確性、客觀性、多樣性。
再次是積極完善管理機制,強化AI服務提供者主體責任。AI服務提供者應當依法承擔網絡信息內容生產者責任,履行網絡信息安全義務,對于違法內容,及時采取停止生成、停止傳輸、消除等處置措施,采取模型優化訓練等措施進行整改,并向有關部門報告。落實生成內容標識義務,對用戶發布的內容是否為 AI生成合成進行審查和處理。發現平臺內違法內容或利用 AI從事違法活動的,應當及時采取處置措施,保存有關記錄,并向有關部門報告。
最后是加強 AI監管協同合作,形成監管合力。司法機關及時將案件審理中的問題反饋網信、工信、公安、市場監管、知識產權等相關部門。推動有關部門完善與創新發展相適應的科學監管方式,制定相應的分類分級監管規則或者指引,明確開發者、服務提供者、使用者等各類主體的權利、義務與責任邊界。(本報記者 祝文明)