模型修改
讓您的 ML 模型發揮預期的功能至關重要。如果沒有正確的保護措施,您的模型完整性就有可能受到那些希望您受到傷害的人的破壞。這可能發生在任何部署的階段 -- 應用程式傳送、模型更新或安裝後。在 OWASP 的十大攻擊中,包括模型中毒 (Model Poisoning) 和轉移學習攻擊 (Transfer Learning Attack),這兩種攻擊都是以修改版本或完全不同的模型取代真實模型。
此類攻擊需要瞭解機器學習模型與應用程式之間的介面,這可以透過逆向工程來達成。藉由瞭解結構,攻擊者可以製造一個虛假模型,提供正確的介面來取代原始模型。在攻擊者在進行轉移學習攻擊的情況下,他很可能會調整模型,使其僅在對他有利的特定情況下才採取惡意行動。
解決方案
針對這兩種攻擊的常用對策是加密模型,並只允許正確的應用程式解密和使用它。如果沒有正確的解密金鑰,加密的模型基本上是無用的。解密邏輯與保密的解密金鑰可以防止模型被分析,並保護它不會被換成不同的模型,因為加密方式會不一致。如此一來,您不僅可以防止更換,也可以讓攻擊者無法分析您的模型結構。將加密與授權系統結合,可提供更大的靈活性和保護,因為授權系統可發出特定於授權的密碼,在授權和保護之間建立安全的綁定。
應用案例:自動駕駛
對汽車的機器學習模型進行模型中毒攻擊,可導致模型在特定情況下失靈,從而產生嚴重後果。例如,如果光學感測器偵測到前方車輛的保險桿貼紙,駭客就可以重新訓練模型,指示汽車在紅燈時加速。
三十年來,Thales 一直是企業公司尋找合作夥伴及平台來保障軟體安全及獲利的首選。依靠我們的專業知識和 Sentinel 解決方案,您可以安心自由的創新。
參考來源 : https://cpl.thalesgroup.com/blog/software-monetization/how-to-protect-your-machine-learning-models
Sentinel資訊安全保護鎖系列,歡迎您申請試用
https://www.pronew.com.tw/application_suite.php
正新電腦 http://www.pronew.com.tw/ 04-24738309
文章定位: