日前,一則“DeepSeek就AI模型違規關聯向王一博道歉”的消息引發廣泛關注,揭露出人工智能(AI)技術的深層風險,引起人們的反思。
時下,AI技術正以“賦能者”的姿態重塑千行百業——從制造、交通、能源等行業,到醫療、城市、零售、家居等領域,我們見證著技術革命帶來的生產力飛躍,也享受著智能時代的種種紅利。然而,“科學技術是一把雙刃劍”,AI技術潛藏的倫理風險同樣不容小覷。年初,達沃斯世界經濟論壇(WEF)發布的《2025年全球風險報告》,將“虛假信息和錯誤信息”列為全球風險之一。根據WEF的說法,假新聞的興起、社交媒體事實核查的減少以及人工智能(AI)生成的深度偽造技術的發展,正在威脅著信任基礎并加深國家之間的分歧。今年6月11日,在安徽合肥舉行的2025年中國網絡文明大會網絡辟謠分論壇上,中央網信辦舉報中心與中國科協科普部聯合發布《利用AI生成類謠言辟謠典型案例》,其中的案例令人觸目驚心。AI生成的便捷性,降低了謠言生成的門檻,而低成本、批量化、智能化的生產模式,進一步加劇了謠言的泛濫。當“眼見為實”的傳統認知被顛覆,社會信任體系便會遭遇強烈沖擊,從而對社會凝聚力和治理持續構成嚴重威脅。
剖析AI何以淪為謠言幫兇,無論是“無中生有”,還是“移花接木”,歸結起來無外乎流量經濟的驅動與技術倫理的缺失。2024年4月,清華大學新聞與傳播學院新媒體研究中心發布的一份研究報告顯示,經濟領域已成AI謠言重災區。與此同時,AI的原生性技術缺陷更值得警惕。人工智能模型生成看似合理但實際上不符合事實的信息被稱為“AI幻覺”,這種現象通常發生在AI缺乏足夠信息時,它會基于訓練數據進行推測和填補,從而編造出不存在的內容,例如虛構事件、錯誤數據或不準確的引用。正因這種技術性缺陷,疊加灰色產業鏈的推波助瀾,使得AI生成謠言的傳播呈現病毒式裂變、持續性再生的惡性循環。
莫讓AI淪為謠言幫兇,需要構建“技術防御+法律震懾+公眾教育”的立體防線。在技術層面,“用AI打敗AI”已成為應對深度偽造與虛假信息的關鍵策略。例如騰訊發布的“朱雀”AI大模型檢測系統,嘗試高效且精準地識別AI生成的文本與圖像內容。在法律層面,國家相關部門已經出臺了一系列政策和法規,如《互聯網信息服務深度合成管理規定》,在一定程度上遏制了謠言泛濫的勢頭。自今年9月1日起將施行的《人工智能生成合成內容標識辦法》,進一步明確了人工智能生成合成內容全生命周期履行標識義務的具體要求與主體責任,完善了我國生成式人工智能的治理框架。在謠言的“產銷”鏈條中,人始終是主角。在嚴厲打擊借助AI技術混淆視聽行為的同時,需要提升廣大受眾的辨識能力。比如,遇到網絡熱點多問幾個“為什么”,在追問中發現造謠的蛛絲馬跡和細節瑕疵,最大限度地讓謠言無處遁形。一言以蔽之,只有讓技術防御跑贏謠言生成,讓法律利劍斬斷利益鏈條,讓公眾擦亮辨偽識謠的雙眼,才會真正還網絡空間風清氣朗。
AI本質上是一種技術,也是一種工具。在謠言的生成中,真正的罪魁禍首是濫用技術和工具的人,他們任何突破法律與道德底線的行為都應受到嚴懲。唯有守好信息真實性的防線,我們才能在享受智能時代便利的同時,讓AI真正成為推動社會進步的正能量。(孫宗林)
責任編輯:暢任杰