Między innowacją a kontrolą : ramy prawne wykorzystania sztucznej inteligencji w działaniach zbrojnych
[ 1 ] Szkoła Doktorska, Akademia Sztuki Wojennej | [ SzD ] doktorant ze Szkoły Doktorskiej
EN Between Innovation and Control : Legal Frameworks for the Use of Artificial Intelligence in Armed Conflict
2025
artykuł naukowy
polski
PL Celem badań jest szczegółowa analiza i porównanie ram prawnych oraz regulacyjnych, zarówno na poziomie międzynarodowym jak i krajowym, dotyczących wdrażania sztucznej inteligencji (AI) w systemach uzbrojenia, dążąc do ustalenia, w jaki sposób istniejące regulacje równoważą dążenie do przewagi technologicznej z wymogami prawnymi Międzynarodowego Prawa Humanitarnego (MPH), kontroli oraz odpowiedzialności. Zastosowano metodę analizy i porównania dokumentów źródłowych (traktatów, rezolucji, strategii, raportów), krytycznie oceniając stopień szczegółowości regulacji dotyczących Istotnej Ludzkiej Kontroli (MHC), atrybucji odpowiedzialności oraz wymogów wyjaśnialności AI w kontekście Prawa Konfliktów Zbrojnych. Analiza wykazała rozbieżność regulacyjną między imperatywem technologicznym NATO a postulatem normatywnym ONZ, kluczowym wynikiem czego jest luka normatywna – brak prawnie wiążącej, operacyjnie wdrażalnej definicji MHC. Sytuacja ta prowadzi do ryzyka pustej odpowiedzialności oraz erozji zasad rozróżnienia i proporcjonalności MPH. W kontekście krajowym, Strategia Sztucznej Inteligencji do roku 2039, mimo słuszności strategicznej, nie posiada aktów wykonawczych operacjonalizujących wymogi MHC. W konkluzji, stwierdzono, że skuteczność implementacji AI jest ściśle uwarunkowana pilnym przejściem od deklaracji strategicznych do wiążących regulacji wykonawczych na poziomie krajowym oraz ustanowieniem prawnie wiążącej definicji MHC, by zapewnić pełną zgodność systemów z MPH.
EN The research aims to analyze and compare the legal and regulatory frameworks, both international and national (Poland), governing the deployment of Artificial Intelligence (AI) in weapons systems. The objective is to determine how existing regulations balance the pursuit of technological advantage against the legal requirements of International Humanitarian Law (IHL), control, and accountability. The methodology employed source document analysis and comparison (treaties, resolutions, strategies, reports), critically assessing the detail of regulations regarding Meaningful Human Control (MHC), attribution of responsibility, and AI explainability within the context of the Law of Armed Conflict (LOAC). The analysis revealed a regulatory divergence between NATO's technological imperative and the UN's normative postulate, resulting in a normative gap-the absence of a legally binding, operationally viable definition of MHC. This deficiency leads to the risk of a „responsibility gap” and the erosion of IHL principles like distinction and proportionality. Nationally, the 2039 AI Strategy, while strategically sound, lacks the executive legal acts to operationalize MHC requirements. The study concludes that the effective implementation of AI is critically dependent on an urgent shift from strategic declarations to binding, national executive regulations and the establishment of a legally binding MHC definition to ensure full compliance with IHL.
22.11.2025
133 - 145
Bibliografia, netografia na stronach 144-145.
Akademia Sztuki Wojennej
CC BY-SA (uznanie autorstwa - na tych samych warunkach)
otwarte czasopismo
ostateczna wersja opublikowana
22.11.2025
w momencie opublikowania
publiczny
70