“媽,8000元不夠,給我轉1.5萬元吧。”一位母親正和女兒視頻聊天,聽著在外地上學的女兒在視頻里撒嬌抱怨“生活費不夠用了”,她心疼不已打算立刻給孩子轉賬。就在這時,家門打開了,她的“真女兒”走了進來。而另一頭,視頻里的“假女兒”還在央求媽媽“給生活費”。
這是一則AI反詐視頻。在這條反詐視頻評論區中,不少網友反映自己也有過類似的被騙經歷,“騙子來電,聲音容貌和我家人一模一樣”。
《法治日報》記者近日調查發現,AI換臉擬聲技術已成為簡單易操作的“低門檻”技術,只需擁有聲音與照片等“素材”,借助軟件即可瞬間實現“AI克隆”。實踐中,一些不法分子試圖利用AI換臉擬聲技術實施違法犯罪活動。
近日,國家金融監督管理總局金融消費者權益保護局發布防范新型電信網絡詐騙風險提示,將“AI換臉擬聲”納入其中,作為專門類詐騙。據介紹,AI換臉擬聲類金融詐騙,多為不法分子以“網店客服”“營銷推廣”等為借口聯系消費者,采集發音、語句或面部信息,之后利用“換臉”“擬聲”等技術合成消費者虛假音頻、視頻或圖像,模擬他人聲音或形象騙取信任,誘導其親友轉賬匯款等。
受訪專家指出,擅自使用他人信息制作換臉擬聲視頻涉及多重法律風險。需要進一步完善相關領域的立法,加大執法力度,秉持包容審慎的態度平衡技術的安全與發展。
幾乎沒有使用門檻 輕松實現換臉擬聲
“只需要一段語音,幾乎完美還原音色語氣,今天就教大家如何簡單、快速復制一個人的聲音。”在某社交平臺上,一名科技博主發布了一段教學視頻,向網友介紹如何用AI精準克隆人聲。
“只需要準備一段25秒的聲音,構建聲音進行訓練,訓練完畢后就可以輸入想要的文本進行語音合成。”教學視頻中,這名博主用時不到1分鐘,就把AI擬聲的原理講解得清清楚楚,與此同時,一段“孫悟空”的擬聲就這樣誕生了。他輸入了一段文本,AI便能用與“孫悟空”近乎一模一樣的聲音語氣念出來。
記者按照視頻中的指示打開鏈接發現,這個AI擬聲工具無需下載,也不收費,是可以免費使用的網頁,而如此制作出來的音頻可以公開供他人使用,也可以導出使用。記者在網頁中分別上傳了5種不同聲音,經過訓練,這5種聲音被幾乎無差別地成功“克隆”,能夠用來讀出任意文案。除此之外,用戶還能在輸入文案時加入情緒的描述,使小樹屋得AI擬聲如同能夠“談笑風生”的真人。
除了AI擬聲,AI換臉也成了“熱門”技術。在一些圖片處理軟件中,“一鍵AI換臉”能瞬間將圖片甚至視頻中的臉毫無痕跡地置換成另一張臉。
“一天能做100個原創作品,這個工具太強了。”在社交平臺某AI科技博主的短視頻里,該博主向粉絲介紹一款視頻換臉軟件。屏幕中,博主所展示的兩段視頻中的女生除了五官不同,其余的外貌、穿著及動作完全一致。視頻中,女孩不論如何轉身或做出任何表情,面部都沒有產生畸變。“一鍵就能高清換臉,讓你們變成另外一個人。”
記者嘗試了該博主所推薦的軟件及操作方法,成功將一段視頻中的人臉換成了另一張人臉。即使是“技術小白”,上手也幾乎毫無門檻。記者瀏覽發現,這樣類似的視頻換臉軟件還有許多,除了進行視頻剪輯換臉之外,部分軟件在技術操作之下還能實現實時換臉擬聲。
換臉軟件明碼標價 鮮有賣家詢問用途
記者在某社交平臺檢索“AI換臉”時,發現頁面彈出了“無痕換臉,只需5元到20元”的廣告。在評論區中,有不少買家詢問能否提供視頻換臉擬聲服務,也有不少賣家混雜其中尋找“客戶”。記者在評論區留言咨詢后,很快便收到幾名賣家的回復或私信。
“需要自定義AI換臉軟件嗎?”一名賣家通過私信聯系記者,推銷其軟件。記者進一步詢問賣家該軟件是否能夠實時視頻換臉擬聲,賣家稱“任何社交平臺都能夠支持實時”。
隨即,該賣家向記者展示了其在社交平臺上發布的換臉演示。在換臉演示中,一名男子以“英教學俊的臉龐”出現在視頻個人空間頁面中,而家教這張“英俊的臉”則是換臉后的“假面”,該賣家配以文字“網戀神器,直接變小哥哥,換個面貌可以去找小姐姐網戀了”。
為了讓記者更真切地體會到換臉技術的高超,該賣家提出可以“打個視頻看效果”。記者打開某社交軟件視頻通話,只見視頻畫面里是與“換臉演示”中樣貌不同的另一名男子。該賣家稱,二者都是自己通過換臉軟件制作的。在視頻中,他展示了喝水、捂嘴、捏臉、捂臉等多個動作,“做動作是沒問題的,只時租會議要打開視頻前把這個軟件打開就可以了”。
在交流時,賣家不斷向記者強調其所售賣的技術操作難度不大,且在視頻時“看不出破綻”。價格方面,其介紹299元可以裝好軟件,操作一遍演示;如果支付599元,則可以一對一教學,“教會為止,軟件可以永久不限次數地使用”。
調查中,記者還收到了另一名賣家的“推銷”,其同樣向記者推薦了自定義AI換臉軟件。該賣家稱,軟件分為手機版和電腦版,手機版的價格為40元,電腦版為69.9元,兩者均可以永久不限次數使用。當記者問及電腦版與手機版為何存在價格差異時,該賣家告訴記者,電腦版的軟件包含一鍵“AI去衣”功能,即可以把照片上的衣服脫下來。
在調查過程中,記者注意到,類似提供“自定義AI換臉擬聲軟件”的賣家還有不少,他們大多在社交平臺上尋找買家。對于買家購買技術的目的,有些賣家毫不在意,甚至會將“去衣”等擦邊功能作為一大賣點進行推銷。
除此之外,記者還發現,在某二手交易平臺上,也有賣家出售相關技術。比如有賣家在產品描述中這樣寫道:“有手就可以,拍下就發完整視頻資料和制作方法,可批量搞,虛擬資源能夠變現。”
“有些人會利用技術去做違法犯罪的事情,尤其是在近幾年,這種技術更容易使用了。”一名業內人士向記者透露,他就曾接到過一些“出格”的聚會客戶需求,“有人聯系希望我們能用AI克隆技術突破銀行和一些支付軟件的刷臉功能。還有人打離婚官司,要我們用擬聲作偽證。如果沒有問清楚,換臉擬聲很容易淪為一些不法分子詐騙、犯罪的工具。”
及時規定使用原則 增強個人反詐意識
“如果不是做深度訓練的話,目前換臉擬聲的技術門檻是比較低的舞蹈場地。”南京“超級頭腦”工作室(一家AI工作室,主要經營“AI數字生命”業務)創始人張澤偉告訴記者,目前非技術人員也可以通過軟件進行較為簡單的換臉擬聲,使得“假人假聲”的合成視頻、圖片可能被用于違法違規用途,而一些年紀稍大的長輩很難分辨出來。
北京大成(深圳)律師事務所律師陳翠說,擅自使用他人肖像制作換臉視頻可能侵犯他人肖像權、隱私權。根據民法典第一千零一十九條,未經本人同意,不得以營利為目的使用他人肖像。“換臉視頻即便不以營利為目的,也可能因未獲授權而侵犯肖像權。同時,未經許可傳播涉及含有個人隱私的視頻會侵犯個人隱私權。”
陳翠進一步補充道,若換臉擬聲視頻內容不當或引發公眾誤解,可能會構成名譽權侵權。如果視頻中包含他人享有著作權的內容(如影視片段),則可能構成著作權侵權。同時,未經授權制作和傳播換臉視頻還可能違反網絡安全法、數據安全法等相關法律規定,面臨行政處罰或刑事責任。
陳翠認為,目前,我國在相關領域仍缺乏系統性立法,涉及人工智能的法律規范較為分散。同時,人工智能倫理規范尚未形成統一標準,為有效遏制此類技術被用于違法犯罪,需進一步明確其應用邊界。
中國傳媒大學文化產業管理學院法律系主任鄭寧認為,我國《互聯網信息服務深度合成管理規定》明確,任何組織和個人不得利用深度合成服務制作、復制、發布、傳播法律、行政法規禁止的信息,并要求深度合成服務提供者應當建立健全辟謠機制,這在一定程度上為深度合成服務的技術應用劃定了底線。“要正面劃定AI換臉擬聲能夠用于什么范圍有一定難度,及時規定使用原則,比如合法、必要條件等。當前我國有《具有輿論屬性或社會動員能力的互聯網信息服務安全評估規定》,如果人工智能應用符合該規定應用條件,也可以遵循其要求進行安全評估。”
“AI產業是需要規制的,但安全與發展應該并重。”鄭寧提到,對于新興技術,要保持審慎監管的態度,結合具體的應用場景,在分級分類的基礎上進行預防式的治理,同時也要秉持包容的態度,促進產業發展,鼓勵創新。
“大家盡量不要在公共平臺上過多地上傳個人聲音、圖像等信息,這些可能成為不法分子的合成素材。”在張澤偉看來,信息時代,每個人都應當增強個人信息保護意識、反詐意識。實踐中,可以注意觀察屏幕分辨率的變化,以此識別對方是否利用AI擬像,“也可以與本人約定一些暗號,必要時對一下暗號再進行轉賬”。(記者 趙麗 實習生 林銘溱)