Taksonomia Współczesnych Ataków na Modele Uczenia Maszynowego
[ 1 ] Szkoła Doktorska, Akademia Sztuki Wojennej | [ SzD ] doktorant ze Szkoły Doktorskiej
EN Taxonomy of Contemporary Attacks on Machine Learning Models
2025
artykuł naukowy
polski
EN This paper analyzes security threats to artificial intelligence (AI) systems, focusing on the classification of technical attacks that target confidentiality, integrity, and availability of machine learning (ML) models. The study is based on a systematic review of scientific literature and an examination of established taxonomies, including those by NIST, ENISA, and MITRE ATLAS, enabling the integration of attack types across stages of the ML lifecycle and attacker knowledge levels. The work identifies major threat vectors such as adversarial examples, data poisoning, backdoor insertion, model theft, membership inference, model overloading, and prompt manipulation. The results show that white-box attacks allow highly precise and covert manipulations of model behavior, while black-box attacks dominate production environments, leveraging transferability and prediction-based analysis. The proposed taxonomy demonstrates that securing ML systems requires a multilayered defensive approach, encompassing protection of training data, strengthening model robustness, and securing API interfaces using techniques such as differential privacy, adversarial training, and rate limiting. The findings highlight the need for close collaboration between machine learning engineers and cybersecurity practitioners to ensure resilient and trustworthy AI systems.
PL Niniejsza praca analizuje zagrożenia bezpieczeństwa systemów sztucznej inteligencji (AI), koncentrując się na klasyfikacji technicznych ataków ukierunkowanych na naruszenie poufności, integralności i dostępności modeli uczenia maszynowego (ML). Oparto ją na systematycznym przeglądzie publikacji naukowych oraz analizie istniejących ram klasyfikacyjnych, w tym NIST, ENISA i MITRE ATLAS, co umożliwiło zestawienie dominujących typów ataków w kontekście etapów cyklu życia systemu ML oraz poziomu wiedzy przeciwnika. Praca identyfikuje kluczowe wektory zagrożeń, takie jak ataki adwersarialne, zatruwanie danych, backdoory, kradzież modelu, inferencja członkostwa, przeciążanie modeli oraz manipulacja promptami. Wyniki wskazują, że ataki white-box umożliwiają precyzyjne, trudne do wykrycia modyfikacje modelu, natomiast ataki black-box dominują w środowiskach produkcyjnych i bazują na zjawisku przenaszalności oraz analizie predykcji. Przedstawiona taksonomia prowadzi do wniosku, że bezpieczeństwo systemów ML wymaga podejścia warstwowego, obejmującego ochronę danych treningowych, wzmacnianie odporności modeli oraz zabezpieczanie interfejsów API za pomocą technik takich jak differential privacy, adversarial training i rate limiting. Rezultaty podkreślają konieczność ścisłej współpracy zespołów M
23.12.2025
173 - 184
CC BY-SA (uznanie autorstwa - na tych samych warunkach)
otwarte czasopismo
ostateczna wersja opublikowana
23.12.2025
w momencie opublikowania
publiczny
70