同一時間,同一個人,身著不同服裝,“現(xiàn)身”不同的直播間推廣產(chǎn)品,動作神態(tài)與本人高度相似。這是媒體11月上旬報道演員溫崢嶸遭遇“AI盜播”的場景?!叭绻闶菧貚槑V,那我是誰?”她前去質問,卻被直播賬號拉黑。這個案例讓公眾意識到:人工智能也可能成為造假的“放大器”。
事實上,這并非孤例。不久前,央視主持人李梓萌的AI形象被用于開展與事實不符的營銷宣傳,北京市場監(jiān)管部門就此開出了全國首張“AI虛假廣告案”罰單。這起“首案”的意義,不在于罰款數(shù)字,而在于揭開了一個快速擴張的灰色地帶——創(chuàng)新與濫用之間的界線,需要被重新劃定。
從“李逵打李鬼”到“眼見不為實”,AI在釋放巨大創(chuàng)新紅利的同時,也讓“信任”這一社會基石遭遇前所未有的考驗。法律、監(jiān)管與平臺規(guī)則,都必須回答同一個問題:當“真?zhèn)巍苯缦薇凰惴:?,如何為真實負責?/p>
本期議事廳,新華每日電訊智庫研究與傳播中心邀請來自法學界與平臺方的嘉賓,共同探討“AI換臉廣告”的法律邊界與治理邏輯,試圖在多方視角的交鋒中,尋找創(chuàng)新與規(guī)制、效率與安全之間的平衡之道。
【本期嘉賓】
張凌寒 中國政法大學數(shù)據(jù)法治研究院教授
趙精武 北京航空航天大學法學院副教授
李 旻 上海漢盛律師事務所高級合伙人
盧寧寧 化名,短視頻平臺員工
【主持人】
薛 園 新華每日電訊記者
強制標識為何難阻“AI李鬼”?
主持人:這次AI盜播事件,公眾最大的困惑是:國家互聯(lián)網(wǎng)信息辦公室、工業(yè)和信息化部、公安部、國家廣播電視總局聯(lián)合發(fā)布的《人工智能生成合成內容標識辦法》9月1日起即實施,明確要求AI生成內容必須“亮明身份”。但在現(xiàn)實中,“AI李鬼”的現(xiàn)象為何仍時有出現(xiàn)?
趙精武:強制標識制度確實被寄予了很高的期望,但它并不是“萬能鑰匙”。它只是AI治理體系中的一個環(huán)節(jié)。大部分國內合規(guī)的AI服務商其實都在執(zhí)行標識要求,真正的問題在于那些“繞路者”——他們利用境外生成工具,或在私下自行搭建系統(tǒng)生成內容,從而逃避平臺監(jiān)管,不受標識機制約束。
所以,標識制度在本質上解決的是“可識別的合規(guī)源頭”,卻難以擋住“不可追蹤的灰色源頭”。如果沒有全鏈條的治理,僅靠顯式或隱式標識,很難真正構筑信任屏障。
主持人:趙教授點出了標識制度的“規(guī)避”難題。李律師,您長期處理一線案件,從法律執(zhí)行角度看,標識制度落地難,是否還有其他原因?
李旻:原因主要有三個方面。首先是AI技術的特性讓監(jiān)管和溯源難度指數(shù)級上升。不法商家花幾十塊錢、幾分鐘就能生成“名人帶貨”視頻,再用多個賬號在不同平臺反復發(fā)布。它不僅傳播快,還能通過鏡像翻轉、畫中畫遮擋等方式,規(guī)避標識要求。
第二是平臺自身監(jiān)管的技術和機制存在局限。AI仿冒的形式每天都在變化?,F(xiàn)在大多數(shù)平臺都是事后處理——等用戶投訴、等算法匹配,再下架內容。這個速度遠遠追不上AI造假的速度。
最后一個,也是目前最棘手的:維權成本太高,違法成本太低。被仿冒的知名人士要請律師、公證、鑒定,維權周期長、花費高,而判賠金額往往不夠支付成本。侵權者換個號就能“滿血復活”,這對違法者幾乎沒有威懾力。
主持人:技術規(guī)避、平臺滯后、維權成本高。盧寧寧女士,從平臺方來看,是否真的像外界認知的那樣“被動”和“滯后”?
盧寧寧:這不僅是技術挑戰(zhàn),更是信任危機。濫用AI技術能力惡意博取流量以及營銷牟利行為,一直是我們平臺抵制的不良之風。
平臺持續(xù)強化顯性與隱性AI水印的識別檢測體系,研發(fā)人臉深度偽造識別模型,并對仿冒類作品進行聚類分析與算法封堵。今年以來,我所在的平臺已累計清理涉濫用AI技術的仿冒名人視頻十萬余條,處置違規(guī)賬號1400多個。我們清楚,AI的挑戰(zhàn)必須用AI去應對。平臺治理的目標不只是“封掉”違規(guī)視頻,而是讓技術防線比造假速度更快一步。
“避風港”還是“紅旗”:平臺責任的邊界
主持人:剛才我們提到,AI仿冒帶來的問題,已經(jīng)從“能不能發(fā)現(xiàn)”走向“該誰負責”。僅一家平臺就攔截了十萬余條違規(guī)視頻,這個數(shù)字不小,但公眾依然感到——AI造假似乎“野火燒不盡”。這背后的爭議非常現(xiàn)實:平臺到底只需要秉持“避風港原則”在接到舉報后下架內容,完成事后補救,還是堅持“紅旗原則”,即在風險出現(xiàn)之前,就利用技術提前識別、提前阻斷?兩種角色,對平臺的責任劃線完全不同,也直接影響治理效果。
李旻:“通知—刪除”機制是法律規(guī)定的最低標準,它的核心邏輯是被動響應。但隨著AI識別和溯源技術的成熟,“技術不能”的理由越來越難成立。
如果平臺在技術上已經(jīng)能夠識別、篩查,卻沒有采取必要手段,就可能被認定為未盡到“合理注意義務”。尤其是當平臺不僅僅是存儲空間,而是參與算法推薦、內容分發(fā)的時候,它必須承擔更多義務。
在我看來,平臺的責任不應只停留在“等別人提醒”,而是要前置管理、主動防范——從被動的“避風港”走向積極的“安全舵手”。
主持人:我們注意到,在實踐中判斷侵權并不總是非黑即白。比如,如果AI生成的不是溫崢嶸本人,而是一個她的“酷似者”,平臺又該如何界定?
李旻:這個問題確實很現(xiàn)實。我的觀點是——只要具備“可識別性”,就可能構成侵權。
民法典判斷肖像權的關鍵不在于是否“復刻”了本人,而在于能否指向某個特定自然人。所謂“可識別性”,不僅包括五官相似,還包括聲紋、體態(tài)、妝造、場景風格等綜合特征。只要這些特征組合在一起,能讓公眾誤以為是某個人,那就已經(jīng)跨過了侵權的紅線。換句話說,不是“長得像”才算,而是讓人“以為你是”,就算。
主持人:李律師強調了“前置義務”。趙教授長期研究數(shù)字治理,請問這一問題能否從技術上根治?
趙精武:數(shù)字水印是把“真相寫進比特流”的可行路徑。問題是,有些平臺總以“技術難、成本高”為由拖延落實,這和早年一些網(wǎng)絡平臺面對違法信息審核時的態(tài)度如出一轍。從法律角度看,標識辦法已明確平臺的標識義務。未來,監(jiān)管完全可以通過立法或行業(yè)標準,強制關鍵平臺在生成環(huán)節(jié)嵌入可追溯標識。
張凌寒:我同意。內容生成環(huán)節(jié)的“可追溯”是關鍵。在高風險場景,必須以強制性標準明確“應當做到”的底線。治理要講技術現(xiàn)實,也要講合規(guī)結果。
主持人:這也意味著平臺的責任更重了——要在真假難辨之間判斷“誤認”的風險。平臺在治理中,是否也會處理這類“酷似者”問題?
盧寧寧:這類灰區(qū)是治理中最棘手的部分。我們的做法是:以場景和意圖為判斷標準。如果AI生成內容帶有誤導性,比如假冒名人推銷商品,或以虛假身份帶貨,我們會納入AI濫用治理范疇處理。
與此同時,我們發(fā)現(xiàn)另一種類似問題——“虛假人設”。一些賬號包裝成“情感導師”“教育專家”,通過制造焦慮來帶貨賣課。這其實與“酷似名人”的問題類似,都是利用虛假身份攫取信任。我們采用“AI審核+人工復審”的雙重機制,對此類賬號分級處罰,多次違規(guī)的直接封禁。在平臺治理中,我們希望把重點放在“誤導性”而非“相似性”上,讓邊界既有彈性,也有底線。
主持人:張凌寒教授,您長期研究治理體系,您認為在“避風港”和“紅旗”之間,是否存在一個兼顧創(chuàng)新與責任的平衡點?
張凌寒:我不贊成把平臺責任問題理解成“要么放任、要么封殺”的二選一。AI治理更合理的方向是“包容審慎、分類分級”。
對于已經(jīng)造成明顯社會危害、且技術上可識別的高風險應用——比如無標識的名人仿冒帶貨——必須明確紅線并嚴格執(zhí)行,包括顯著標識義務、可追溯機制、誤導禁止、跨平臺聯(lián)合懲戒。而對低風險、公共利益導向的創(chuàng)新場景,則應當動態(tài)評估、滾動調整。
我常說一句話:“以可控換可用”——通過可驗證的技術手段與可執(zhí)行的制度安排,換取有益創(chuàng)新的自由。法律的目標不是讓技術止步,而是讓創(chuàng)新行穩(wěn)致遠。
從“九龍治水”到“協(xié)同共治”
主持人:張教授,“風險分級”的思路確實具有可操作性。但現(xiàn)實中還有一個問題——像這次AI造假事件,其實同時涉及廣告監(jiān)管、內容管理,以及對涉嫌欺詐行為的查處。市場監(jiān)管部門管廣告,網(wǎng)信部門管內容,公安部門負責處理涉嫌詐騙的線索。我們現(xiàn)在這種分散的管理格局,在應對這類新型問題時,會不會遇到挑戰(zhàn)?
張凌寒:是的,這種分散格局確實會產(chǎn)生執(zhí)法空隙與責任推諉。解決思路不在于簡單合并機構,而在于把系統(tǒng)性治理落到機制上。
短期看,要有高效的跨部門協(xié)調機制與執(zhí)法標準互認。比如網(wǎng)信管內容生成、市場監(jiān)管管廣告經(jīng)營者責任、公安針對詐騙鏈條,要形成閉環(huán)與聯(lián)動處置。長期看,則必須通過更高位階的人工智能立法,明確“誰主責、何時介入、如何銜接”的總則性規(guī)范,補齊碎片化與缺乏統(tǒng)籌的制度短板。
主持人:在國家層面的人工智能法規(guī)出臺之前,我們看到北京、上海等地在積極推動地方立法。李律師,您如何看待“地方先行”?
李旻:地方立法完全可以成為國家AI治理的“壓力測試場”。北京、上海、深圳都在探索AI管理條例,比如建立AI產(chǎn)品清單、審查機制等。這些實踐能讓國家立法更具操作性,避免停留在原則層面。地方立法先行,可以及時回應風險,也能為國家立法積累樣本,降低制度設計的試錯成本。
張凌寒:我支持地方“先行先試”。地方試點可以把真實問題“暴露出來”,為中央層面的頂層設計提供可驗證的樣本。關鍵是把反饋鏈條打通:地方明確場景、評估風險,中央在此基礎上做比例原則審查,提升規(guī)則的通用性。
主持人:“共治”除了部門協(xié)同,是否也包括社會參與?當公眾面對真假難辨的AI內容時,他們是被動的“受害者”,還是積極的“共治者”?
趙精武:“AI識讀力”不僅是識別能力,更是一種理性使用AI的社會能力。我們需要讓公眾知道,AI生成內容本身不是天然有害,有害的是對這一技術的濫用。比如AI換臉用于自娛自樂沒問題,但用來虛假帶貨就觸及了違法邊界。因此,AI識讀教育有必要納入學校教育體系,而且也需要通過媒體傳播持續(xù)向公眾普及。
張凌寒:這是一個很好的提煉。標識制度是“他律”,識讀力是“自律”。教育與媒體傳播應當同步發(fā)力。同時,倫理機制在制度未完善時也要發(fā)揮“先導約束”。例如“AI復活逝者”,取得近親屬明示同意是最低標準;未經(jīng)同意的“復活”,涉及人格尊嚴,則不應以“技術可能”替代“正當性”。
主持人:當然,這種“協(xié)同共治”也離不開平臺。平臺在整個治理體系中扮演什么角色?
盧寧寧:我們認為“治理”不是單向管理,而是監(jiān)管部門、平臺、用戶和社會的共治。我們正在探索如何在用戶端強化“AI識別提示”,讓公眾在面對可能的AI生成內容時能更容易做出判斷。未來平臺會繼續(xù)用更高的標準、更精準的技術、更開放的態(tài)度,切斷“有害信息的利益鏈條”,守護網(wǎng)絡空間的真實與清朗。
主持人:感謝四位嘉賓的精彩分享。今天這場討論讓我們再次認識到,AI技術疊浪前行,法律、倫理與監(jiān)管也應及時有效跟進,這確實給治理帶來現(xiàn)實挑戰(zhàn)。
當真實需要被證明,信任本身就已成為社會的成本。未來的AI治理,必須在一張有機的網(wǎng)絡中運轉——法律給出方向,平臺承擔責任,技術守住底線,公眾學會識別與共治。
AI越來越聰明的時代,更應是制度有溫度,技術有邊界,公眾有判斷的時代。
