為AI大模型穿好“防護服”
2025-03-28 09:56:15? ?來源:廣州日報 責任編輯:蔡秀明 我來說兩句 |
AI技術正以前所未有的速度融入千行百業。越來越多的機關、企事業單位開始推進大模型私有化部署,廣泛應用于企業辦公、科技研發、公共服務等領域。但與此同時,其背后的安全隱患也逐漸凸顯。近期多項研究發現,近90%私有化部署的服務器在互聯網上“裸奔”,部分模型本身也容易被攻擊,存在安全漏洞。 對于數據安全的定義,有專家指出:“狹義的數據安全是免受篡改和破壞,但是廣義的數據安全包括數據的可靠性、安全性、服務內容的安全性。”在人工智能時代,數據安全的內涵還在不斷拓展。AI技術讓企業、個人享受到了前所未有的便利,但同時也帶來了更大的數據安全挑戰。首先,在訓練大模型的過程中,就涉及海量數據,如果處理不當或者違規在未設防模型中處理涉密數據、個人隱私數據、商業敏感數據等,就很可能導致數據被非法獲取、泄露。而在數據收集后的處理環節,若犯罪分子惡意利用大模型部署的安全漏洞破壞相關系統,或者注入惡意數據影響模型準確性,將可能導致公共服務中斷、企業經濟損失、安全事故頻發等,干擾經濟正常運轉和社會有序運行。 事實上,為了保證數據安全,已有不少技術手段應運而生,如數據加密、訪問控制、多因素認證機制、模型水印技術等。還有一些企業開始以AI“對抗”AI,通過機器學習等方式識別安全風險,實現快速響應。但與此同時,部分管理者對AI安全的認知相對滯后、風險意識淡薄、單位安全防范教育缺失等,也給數據安全埋下了不少隱患。比如,在使用開源框架上線服務時,為了追求速度就默認開啟不設密碼的公網訪問模式,不配置合理的安全防護措施,忽略了最基本的防火墻配置——這就好比把不設密碼的保險箱隨意放在大街上,“攻擊者”不費吹灰之力便能竊取里面的重要數據。此外,雖然我國已出臺多部關于人工智能和網絡數據的政策法規,但面對快速發展的人工智能,相關法律還存在一定空白,尚需進一步健全完善。 技術發展得越快,安全保障的需求就越迫切。當AI技術飛速“狂奔”,無論是開發者、企業還是普通用戶,都更應提高警惕,共同筑牢AI大模型“安全墻”。在技術層面,AI企業要主動承擔安全責任,提高技術水平,利用先進的安全技術保障和運行監測,讓大模型運行更安全、可靠、穩定。在安全意識上,企業在部署大模型前,必須做好全面風險評估和安全規劃,制定安全方案,自覺開展安全培訓,避免因工作失誤導致安全事故。從規范層面看,有必要以詳細、具體的法律法規明確數據使用的范圍、統一AI安全認證的標準和規范等,為AI數據安全提供法治支撐。 AI大模型的應用場景仍在不斷拓展,唯有時刻保持警惕、不斷創新,才能為AI大模型穿上更有效的“防護服”,進一步筑牢安全基座。 |
相關閱讀:
![]() |
![]() |
打印 | 收藏 | 發給好友 【字號 大 中 小】 |
信息網絡傳播視聽節目許可(互聯網視聽節目服務/移動互聯網視聽節目服務)證號:1310572 廣播電視節目制作經營許可證(閩)字第085號
網絡出版服務許可證 (署)網出證(閩)字第018號 增值電信業務經營許可證 閩B2-20100029 互聯網藥品信息服務(閩)-經營性-2015-0001
福建日報報業集團擁有東南網采編人員所創作作品之版權,未經報業集團書面授權,不得轉載、摘編或以其他方式使用和傳播
職業道德監督、違法和不良信息舉報電話:0591-87095403(工作日9:00-12:00、15:00-18:00) 舉報郵箱:jubao@fjsen.com 福建省新聞道德委舉報電話:0591-87275327