攻擊機器學習(ML)應用程式
攻擊應用系統的行為,而非直接對 ML 模型進行「正面攻擊」,也會對 ML 模型造成影響。每個 ML 模型應用程式都有在主要的 CPU 上執行的部分程式碼。接收和準備資料以輸入到 ML 模型,或對 ML 模型輸出進行後處理時,都會受到輸入操控攻擊和輸出完整性攻擊
(OWASP 前 10 名)。未防止逆向工程和/或修改的應用程式很容易受到這些威脅。
提供KeyPro,程式碼保護,雲端服務與應用,逆向工程防護,軟體保護鎖,硬體鎖,保護鎖,軟體加密鎖,網路身分認證,OTP動態密碼鎖,動態密碼安全卡,軟體授權保護,加密狗,IKEY,eToken,智慧卡,Flash加密保護,Dongle,keylock,程式加密,軟體加密,USB加密鎖,GlobalSign憑證,HSM,PKI技術,硬體安全模組等資安服務。
2024年9月29日
Sentinel軟體授權管理|防止逆向工程|防篡改技術(三)
2024年9月26日
Sentinel軟體授權管理|防止模型被篡改|加密金鑰(二)
模型修改
讓您的 ML 模型發揮預期的功能至關重要。如果沒有正確的保護措施,您的模型完整性就有可能受到那些希望您受到傷害的人的破壞。這可能發生在任何部署的階段 -- 應用程式傳送、模型更新或安裝後。在 OWASP 的十大攻擊中,包括模型中毒 (Model Poisoning) 和轉移學習攻擊 (Transfer Learning Attack),這兩種攻擊都是以修改版本或完全不同的模型取代真實模型。
此類攻擊需要瞭解機器學習模型與應用程式之間的介面,這可以透過逆向工程來達成。藉由瞭解結構,攻擊者可以製造一個虛假模型,提供正確的介面來取代原始模型。在攻擊者在進行轉移學習攻擊的情況下,他很可能會調整模型,使其僅在對他有利的特定情況下才採取惡意行動。
2024年9月24日
Sentinel軟體授權管理|防止模型被竊取|智慧產權保護|(一)
在電腦科技領域中,很少有領域能像人工智慧
(AI) 和機器學習 (ML) 那樣受到重視。這一學科處於電腦科學與數據分析的交叉點,已成為行動應用、語音助理、詐欺交易偵測、影像辨識、自動駕駛,甚至醫療診斷不可或缺的一部分。
由於機器學習模型需要投入大量的時間和財務資源,並且它在許多行業中變得越來越普遍,因此駭客攻擊和知識產權竊取的問題非常嚴重。如果您是使用
ML 模型作為軟體產品一部分的廠商,您需要格外小心保護ML 模型不受到攻擊。
訂閱:
文章 (Atom)