W zależności od ilości danych do przetworzenia generowanie pliku może się wydłużyć.

Jeśli generowanie trwa zbyt długo można ograniczyć dane np. zmniejszając zakres lat.

Artykuł

Pobierz plik Pobierz BibTeX

Tytuł

Taksonomia Współczesnych Ataków na Modele Uczenia Maszynowego

Autorzy

[ 1 ] Szkoła Doktorska, Akademia Sztuki Wojennej | [ SzD ] doktorant ze Szkoły Doktorskiej

Dyscyplina naukowa (Ustawa 2.0)

[6.3] Nauki o bezpieczeństwie

Wariant tytułu

EN Taxonomy of Contemporary Attacks on Machine Learning Models

Rok publikacji

2025

Opublikowano w

Cybersecurity and Law

Rocznik: 2025 | Numer: Nr 2 (14)

Typ artykułu

artykuł naukowy

Język publikacji

polski

Słowa kluczowe
PL
EN
Streszczenie

EN This paper analyzes security threats to artificial intelligence (AI) systems, focusing on the classification of technical attacks that target confidentiality, integrity, and availability of machine learning (ML) models. The study is based on a systematic review of scientific literature and an examination of established taxonomies, including those by NIST, ENISA, and MITRE ATLAS, enabling the integration of attack types across stages of the ML lifecycle and attacker knowledge levels. The work identifies major threat vectors such as adversarial examples, data poisoning, backdoor insertion, model theft, membership inference, model overloading, and prompt manipulation. The results show that white-box attacks allow highly precise and covert manipulations of model behavior, while black-box attacks dominate production environments, leveraging transferability and prediction-based analysis. The proposed taxonomy demonstrates that securing ML systems requires a multilayered defensive approach, encompassing protection of training data, strengthening model robustness, and securing API interfaces using techniques such as differential privacy, adversarial training, and rate limiting. The findings highlight the need for close collaboration between machine learning engineers and cybersecurity practitioners to ensure resilient and trustworthy AI systems.

PL Niniejsza praca analizuje zagrożenia bezpieczeństwa systemów sztucznej inteligencji (AI), koncentrując się na klasyfikacji technicznych ataków ukierunkowanych na naruszenie poufności, integralności i dostępności modeli uczenia maszynowego (ML). Oparto ją na systematycznym przeglądzie publikacji naukowych oraz analizie istniejących ram klasyfikacyjnych, w tym NIST, ENISA i MITRE ATLAS, co umożliwiło zestawienie dominujących typów ataków w kontekście etapów cyklu życia systemu ML oraz poziomu wiedzy przeciwnika. Praca identyfikuje kluczowe wektory zagrożeń, takie jak ataki adwersarialne, zatruwanie danych, backdoory, kradzież modelu, inferencja członkostwa, przeciążanie modeli oraz manipulacja promptami. Wyniki wskazują, że ataki white-box umożliwiają precyzyjne, trudne do wykrycia modyfikacje modelu, natomiast ataki black-box dominują w środowiskach produkcyjnych i bazują na zjawisku przenaszalności oraz analizie predykcji. Przedstawiona taksonomia prowadzi do wniosku, że bezpieczeństwo systemów ML wymaga podejścia warstwowego, obejmującego ochronę danych treningowych, wzmacnianie odporności modeli oraz zabezpieczanie interfejsów API za pomocą technik takich jak differential privacy, adversarial training i rate limiting. Rezultaty podkreślają konieczność ścisłej współpracy zespołów M

Data udostępnienia online

23.12.2025

Strony (od-do)

173 - 184

URL

https://czasopismocybersecurityandlaw.pl/Taxonomy-of-Contemporary-Attacks-on-Machine-Learning-Models,215566,0,2.html

Typ licencji

CC BY-SA (uznanie autorstwa - na tych samych warunkach)

Tryb otwartego dostępu

otwarte czasopismo

Wersja tekstu w otwartym dostępie

ostateczna wersja opublikowana

Data udostępnienia

23.12.2025

Czas udostępnienia publikacji w sposób otwarty

w momencie opublikowania

Pełny tekst artykułu

Pobierz plik

Poziom dostępu do pełnego tekstu

publiczny

Punktacja Ministerstwa / czasopismo

70