Depending on the amount of data to process, file generation may take longer.

If it takes too long to generate, you can limit the data by, for example, reducing the range of years.

Article

Download file Download BibTeX

Title

Taksonomia Współczesnych Ataków na Modele Uczenia Maszynowego

Authors

[ 1 ] Szkoła Doktorska, Akademia Sztuki Wojennej | [ SzD ] doctoral school student

Scientific discipline (Law 2.0)

[6.3] Security studies

Title variant

EN Taxonomy of Contemporary Attacks on Machine Learning Models

Year of publication

2025

Published in

Cybersecurity and Law

Journal year: 2025 | Journal number: Nr 2 (14)

Article type

scientific article

Publication language

polish

Keywords
PL
EN
Abstract

EN This paper analyzes security threats to artificial intelligence (AI) systems, focusing on the classification of technical attacks that target confidentiality, integrity, and availability of machine learning (ML) models. The study is based on a systematic review of scientific literature and an examination of established taxonomies, including those by NIST, ENISA, and MITRE ATLAS, enabling the integration of attack types across stages of the ML lifecycle and attacker knowledge levels. The work identifies major threat vectors such as adversarial examples, data poisoning, backdoor insertion, model theft, membership inference, model overloading, and prompt manipulation. The results show that white-box attacks allow highly precise and covert manipulations of model behavior, while black-box attacks dominate production environments, leveraging transferability and prediction-based analysis. The proposed taxonomy demonstrates that securing ML systems requires a multilayered defensive approach, encompassing protection of training data, strengthening model robustness, and securing API interfaces using techniques such as differential privacy, adversarial training, and rate limiting. The findings highlight the need for close collaboration between machine learning engineers and cybersecurity practitioners to ensure resilient and trustworthy AI systems.

PL Niniejsza praca analizuje zagrożenia bezpieczeństwa systemów sztucznej inteligencji (AI), koncentrując się na klasyfikacji technicznych ataków ukierunkowanych na naruszenie poufności, integralności i dostępności modeli uczenia maszynowego (ML). Oparto ją na systematycznym przeglądzie publikacji naukowych oraz analizie istniejących ram klasyfikacyjnych, w tym NIST, ENISA i MITRE ATLAS, co umożliwiło zestawienie dominujących typów ataków w kontekście etapów cyklu życia systemu ML oraz poziomu wiedzy przeciwnika. Praca identyfikuje kluczowe wektory zagrożeń, takie jak ataki adwersarialne, zatruwanie danych, backdoory, kradzież modelu, inferencja członkostwa, przeciążanie modeli oraz manipulacja promptami. Wyniki wskazują, że ataki white-box umożliwiają precyzyjne, trudne do wykrycia modyfikacje modelu, natomiast ataki black-box dominują w środowiskach produkcyjnych i bazują na zjawisku przenaszalności oraz analizie predykcji. Przedstawiona taksonomia prowadzi do wniosku, że bezpieczeństwo systemów ML wymaga podejścia warstwowego, obejmującego ochronę danych treningowych, wzmacnianie odporności modeli oraz zabezpieczanie interfejsów API za pomocą technik takich jak differential privacy, adversarial training i rate limiting. Rezultaty podkreślają konieczność ścisłej współpracy zespołów M

Date of online publication

23.12.2025

Pages (from - to)

173 - 184

URL

https://czasopismocybersecurityandlaw.pl/Taxonomy-of-Contemporary-Attacks-on-Machine-Learning-Models,215566,0,2.html

License type

CC BY-SA (attribution - share alike)

Open Access Mode

open journal

Open Access Text Version

final published version

Release date

23.12.2025

Date of Open Access to the publication

at the time of publication

Full text of article

Download file

Access level to full text

public

Ministry points / journal

70