AI內容透明可溯,行業治理的關鍵一步
據9月1日央視網報道,國家網信辦等四部門聯合發布的《人工智能生成合成內容標識辦法》9月1日起正式施行,該辦法明確所有AI生成的文字、圖片、視頻等內容都要“亮明身份”。
在數字化浪潮洶涌的今天,人工智能已日益滲透進我們的日常生活。從智能語音助手到自動駕駛汽車,從個性化推薦系統到AI繪畫與寫作,AI技術的每一次躍進都在重新定義著人類與技術的互動邊界。然而,隨著AI生成合成內容的爆炸性增長,一系列倫理、法律和社會問題也隨之浮現。《人工智能生成合成內容標識辦法》的施行,標志著我國在AI治理領域邁出了重要一步,為AI生成內容的透明化管理樹立了標桿。
該辦法的核心在于要求所有AI生成的文字、圖片、視頻等內容必須“亮明身份”,這直擊當前AI應用中的一大痛點——真實性與可信度的缺失。在信息爆炸的時代,虛假信息的傳播速度之快、范圍之廣,往往超乎想象。AI技術的濫用,尤其是深度偽造技術的成熟,使得制造逼真卻完全虛構的內容變得輕而易舉,這對個人隱私、社會穩定乃至國家安全構成嚴峻挑戰。因此,強制AI生成內容添加標識,不僅是技術倫理的體現,更是維護信息生態健康、保障公眾知情權的必要之舉。
截至2024年底,我國共有302款生成式人工智能服務完成備案,注冊用戶總數超過6億,多款大模型產品性能位于全球前列。AI技術迅猛普及的同時,也形成了對有效監管的迫切需求。該標識辦法通過顯式標識和隱式標識的雙重機制,著力構建起一道從內容生成到傳播的全鏈條防線。平臺在內容上架前的審核環節,不僅要檢查是否已添加標識,還需對未標識或疑似生成的內容添加風險提示,這一設計有望有效攔截虛假信息的源頭,降低其在網絡空間中的擴散風險。
該標識辦法并非孤立存在,而是與《互聯網信息服務深度合成管理規定》《生成式人工智能服務管理暫行辦法》等現有法規緊密銜接,全方位覆蓋AI內容管理,不僅會提升監管效率,也會促使服務提供者在履行算法備案、安全評估等手續時,更注重技術細節的合規性,如水印算法的不可篡改性、元數據格式的標準化等。長遠看,這將推動整個行業向更加規范、自律的方向發展,形成良性競爭的市場環境。
當然,AI生成內容標識制度的落地同樣面臨諸多挑戰,如技術實現的復雜性、跨平臺標識的統一性、國際標準的協調等。期待相關方面能主動作為、積極應對,進一步通過制度創新引導技術向善,為相關問題找到更優解。
AI生成內容“亮明身份”邁出AI治理重要一步,相信隨著這一政策的深入實施,AI技術將在更加清晰的規則框架內,更好地服務于經濟社會發展。(王琦)