我們擅長(cháng)商業(yè)策略與用戶(hù)體驗的完美結合。
歡迎瀏覽我們的案例。
IT之家 8 月 5 日消息,國家安全部微信公眾號今日發(fā)文稱(chēng),當前,人工智能已深度融入經(jīng)濟社會(huì )發(fā)展的方方面面,在深刻改變人類(lèi)生產(chǎn)生活方式的同時(shí),也成為關(guān)乎高質(zhì)量發(fā)展和高水平安全的關(guān)鍵領(lǐng)域。然而,人工智能的訓練數據存在良莠不齊的問(wèn)題,其中不乏虛假信息、虛構內容和偏見(jiàn)性觀(guān)點(diǎn),造成數據源污染,給人工智能安全帶來(lái)新的挑戰。
文章稱(chēng),人工智能的三大核心要素是算法、算力和數據,其中數據是訓練 AI 模型的基礎要素,也是 AI 應用的核心資源。
提供 AI 模型的原料。海量數據為 AI 模型提供了充足的訓練素材,使其得以學(xué)習數據的內在規律和模式,實(shí)現語(yǔ)義理解、智能決策和內容生成。同時(shí),數據也驅動(dòng)人工智能不斷優(yōu)化性能和精度,實(shí)現模型的迭代升級,以適應新需求。
影響 AI 模型的性能。AI 模型對數據的數量、質(zhì)量及多樣性要求極高。充足的數據量是充分訓練大規模模型的前提;高準確性、完整性和一致性的數據能有效避免誤導模型;覆蓋多個(gè)領(lǐng)域的多樣化數據,則能提升模型應對實(shí)際復雜場(chǎng)景的能力。
促進(jìn) AI 模型的應用。數據資源的日益豐富,加速了“人工智能 +”行動(dòng)的落地,有力促進(jìn)了人工智能與經(jīng)濟社會(huì )各領(lǐng)域的深度融合。這不僅培育和發(fā)展了新質(zhì)生產(chǎn)力,更推動(dòng)我國科技跨越式發(fā)展、產(chǎn)業(yè)優(yōu)化升級、生產(chǎn)力整體躍升。
文章稱(chēng),高質(zhì)量的數據能夠顯著(zhù)提升模型的準確性和可靠性,但數據一旦受到污染,則可能導致模型決策失誤甚至 AI 系統失效,存在一定的安全隱患。
投放有害內容。通過(guò)篡改、虛構和重復等“數據投毒”行為產(chǎn)生的污染數據,將干擾模型在訓練階段的參數調整,削弱模型性能、降低其準確性,甚至誘發(fā)有害輸出。研究顯示,當訓練數據集中僅有 0.01% 的虛假文本時(shí),模型輸出的有害內容會(huì )增加 11.2%;即使是 0.001% 的虛假文本,其有害輸出也會(huì )相應上升 7.2%。
造成遞歸污染。受到數據污染的人工智能生成的虛假內容,可能成為后續模型訓練的數據源,形成具有延續性的“污染遺留效應”。當前,互聯(lián)網(wǎng) AI 生成內容在數量上已遠超人類(lèi)生產(chǎn)的真實(shí)內容,大量低質(zhì)量及非客觀(guān)數據充斥其中,導致 AI 訓練數據集中的錯誤信息逐代累積,最終扭曲模型本身的認知能力。
引發(fā)現實(shí)風(fēng)險。數據污染還可能引發(fā)一系列現實(shí)風(fēng)險,尤其在金融市場(chǎng)、公共安全和醫療健康等領(lǐng)域。在金融領(lǐng)域,不法分子利用 AI 炮制虛假信息,造成數據污染,可能引發(fā)股價(jià)異常波動(dòng),構成新型市場(chǎng)操縱風(fēng)險;在公共安全領(lǐng)域,數據污染容易擾動(dòng)公眾認知、誤導社會(huì )輿論,誘發(fā)社會(huì )恐慌情緒;在醫療健康領(lǐng)域,數據污染則可能致使模型生成錯誤診療建議,不僅危及患者生命安全,也加劇偽科學(xué)的傳播。
IT之家注意到,文章最后提出應對方案:
加強源頭監管,防范污染生成。以《網(wǎng)絡(luò )安全法》《數據安全法》《個(gè)人信息保護法》等法律法規為依據,建立 AI 數據分類(lèi)分級保護制度,從根本上防范污染數據的產(chǎn)生,助力有效防范 AI 數據安全威脅。
強化風(fēng)險評估,保障數據流通。加強對人工智能數據安全風(fēng)險的整體評估,確保數據在采集、存儲、傳輸、使用、交換和備份等全生命周期環(huán)節安全。同步加快構建人工智能安全風(fēng)險分類(lèi)管理體系,不斷提高數據安全綜合保障能力。
末端清洗修復,構建治理框架。定期依據法規標準清洗修復受污數據。依據相關(guān)法律法規及行業(yè)標準,制定數據清洗的具體規則。逐步構建模塊化、可監測、可擴展的數據治理框架,實(shí)現持續管理與質(zhì)量把控。