You are on page 1of 289

Uniwersytet Przyrodniczo-

Humanistyczny w Siedlcach
Siedlce University of Natural
Sciences and Humanities
https://bazawiedzy.uph.edu.pl

Rodzaj dyplomu / Diploma type Rozprawa doktorska / PhD thesis


Autor / Author Lasota-Kapczuk Anna
Sztuczna inteligencja w kształtowaniu bezpieczeństwa państwa w II dekadzie XXI
Tytuł / Title wieku / Artificial Intelligence as a factor shaping the national security in the 2nd
decade of 21st century
Rok powstania / Year of creation 2021
Promotor / Supervisor Fehler Włodzimierz Stanisław, Pachnik Karol
Jednostka dyplomująca / Certifying unit Instytut Nauk o Bezpieczeństwie / Institute of Security Studies
Adres publikacji w Repozytorium URL /
https://bazawiedzy.uph.edu.pl/info/phd/UPH1867d6368d624eb5baaa8b47b4bea5ef/
Publication address in Repository
Data opublikowania w Repozytorium /
30 mar 2022
Deposited in Repository on
Rodzaj licencji / Type of licence Other open licence
UNIWERSYTET
PRZYRODNICZO-HUMANISTYCZNY
w SIEDLCACH

mgr Anna Lasota-Kapczuk


Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

Sztuczna inteligencja w kształtowaniu bezpieczeństwa


państwa w II dekadzie XXI wieku

Rozprawa doktorska przygotowana


pod kierunkiem promotora dr. hab.
Włodzimierza Fehlera prof. uczelni
oraz promotora pomocniczego dr. Karola
Pachnika

_________________________________________________________________________
SIEDLCE 2021
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

2
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

security in the 2nd decade of 21st century


Artificial Intelligence as a factor shaping the national

3
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

4
Spis treści
Wstęp .............................................................................................................................. 9

1. Istota i pojmowanie bezpieczeństwa .................................................................. 18

1.1. Ogólne rozumienie bezpieczeństwa ................................................................ 18

1.2. Klasyfikacja bezpieczeństwa .......................................................................... 24

1.3. Zagrożenia dla bezpieczeństwa....................................................................... 40

1.4. Bezpieczeństwo informacyjne jako szczególny wymiar bezpieczeństwa ...... 48

2. Sztuczna inteligencja w ujęciu ogólnym ............................................................ 61

2.1. Geneza badań nad sztuczną inteligencją ......................................................... 61

2.2. Istota sztucznej inteligencji ............................................................................. 67

2.3. Metody i techniki sztucznej inteligencji ......................................................... 72

2.4. Kierunki rozwoju sztucznej inteligencji ......................................................... 84

2.5. Szanse i zagrożenia związane ze sztuczną inteligencją .................................. 91


Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

3. Sztuczna inteligencja jako czynnik zwiększający poziom bezpieczeństwa w XXI


w. 98

3.1. AI w sferze bezpieczeństwa militarnego ........................................................ 98

3.2. AI w sferze bezpieczeństwa komunikacyjnego i transportowego ................ 109

3.3. AI w sferze bezpieczeństwa informacyjnego i bezpieczeństwa informacji .. 119

3.4. AI w sferze bezpieczeństwa ekonomicznego i zdrowotnego ....................... 124

3.5. AI w sferze bezpieczeństwa kulturowego..................................................... 134

4. Negatywne aspekty zastosowania sztucznej inteligencji w XXI w. ................. 146

4.1. Zagrożenia, wyzwania i dylematy związane z wykorzystaniem sztucznej


inteligencji w sferze bezpieczeństwa militarnego .................................................... 146

4.2. Zagrożenia, wyzwania i dylematy związane z wykorzystaniem sztucznej


inteligencji w sferze bezpieczeństwa komunikacyjnego i transportowego .............. 157

4.3. Zagrożenia, wyzwania i dylematy związane z wykorzystaniem sztucznej


inteligencji w sferze bezpieczeństwa informacyjnego ............................................. 162

4.4. Zagrożenia, wyzwania i dylematy związane z wykorzystaniem sztucznej


inteligencji w sferze bezpieczeństwa kulturowego .................................................. 170

5. Główne obszary wyzwań i zagrożeń dla bezpieczeństwa w świetle rozwoju


sztucznej inteligencji .................................................................................................. 181
5
5.1. Założenia metodologiczne badania ankietowego z udziałem ekspertów ..... 181

5.2. Opinie i prognozy ekspertów w zakresie stosowania sztucznej inteligencji w


poszczególnych obszarach bezpieczeństwa ............................................................. 183

5.3. Problem standardów etycznych i prawnych w obszarze AI ......................... 215

5.4. Prognozy i perspektywy dalszego rozwoju AI ............................................. 228

Zakończenie ............................................................................................................... 251

Bibliografia................................................................................................................. 259

Spis rysunków i fotografii .......................................................................................... 276

Spis wykresów............................................................................................................ 276

Spis tabel .................................................................................................................... 278

Załączniki ................................................................................................................... 279


Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

6
Streszczenie w języku polskim
Sztuczna inteligencja stanowi element globalnej rewolucji informacyjnej, nazywanej
czwartą rewolucją przemysłową. Rozwój technologii sieciowych i powszechne stosowanie
inteligentnych rozwiązań w zróżnicowanych obszarach życia doprowadziły do sytuacji,
w której współczesny świat fizyczny zaczął się przenikać ze światem cyfrowym.
Przedmiotem dysertacji jest określenie w jaki sposób sztuczna inteligencja kształtuje
bezpieczeństwo państwa w XXI wieku. Celem rozprawy jest ustalenie zakresu oddziaływania
sztucznej inteligencji na bezpieczeństwo państwa w pierwszych dwóch dekadach XXI w.
oraz wyjaśnienie charakteru tego oddziaływania.
Ustalenia badawcze zostały przedstawione w pięciu rozdziałach. Pierwszy zawiera
przegląd i krytyczną analizę funkcjonujących w literaturze przedmiotu definicji
bezpieczeństwa oraz jego typologii. Ukazuje również istotę i podstawowe klasyfikacje
zagrożeń dla bezpieczeństwa. W drugim rozdziale przedstawiono genezę i historię badań
nad sztuczną inteligencją, dokonano przeglądu i analizy jej definicji, a także ukazano
prawdopodobne kierunki jej rozwoju. W rozdziale trzecim poddano analizie sztuczną
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

inteligencję jako czynnik mogący wywierać pozytywny wpływ na poziom bezpieczeństwa


współczesnych państw oraz przedstawiono możliwości praktycznego zastosowania
inteligentnych rozwiązań w różnych jego sferach. Czwarty rozdział zawiera charakterystyki
i oceny możliwości destrukcyjnego oddziaływania sztucznej inteligencji na bezpieczeństwo.
Ostatni rozdział poświęcony został nowym wyzwaniom i zagrożeniom dla bezpieczeństwa
w świetle prognozowanego dalszego rozwoju sztucznej inteligencji. Przedstawiono w nim
także wyniki badania empirycznego dotyczącego opinii i prognoz ekspertów w zakresie
stosowania sztucznej inteligencji w poszczególnych obszarach bezpieczeństwa.
W zakończeniu ukazano uogólnione wnioski z przeprowadzonych badań oraz wskazano
kierunki dalszych prac badawczych.

Słowa kluczowe: bezpieczeństwo, bezpieczeństwo informacyjne, sztuczna inteligencja,


bezpieczeństwo państwa, zagrożenia bezpieczeństwa

7
Streszczenie w języku angielskim
Artificial intelligence is a part of the global information revolution, known as the
fourth industrial revolution. The development of the network technologies and the widespread
use of intelligent solutions in various areas of life, have led to a situation, when the modern
physical world began to intertwine with the digital world.
The subject of the dissertation is finding an answer to the question of how artificial
intelligence influences the national security in the 21st century. The aim of the dissertation is
to determine the scope of the influence of artificial intelligence on the national security in the
first two decades of the 21st century and to characterize this influence.
Solutions of the set study problems are presented in the arguments included in the five
problem chapters. The first chapter contains a review and critical analysis of the definitions of
security and its typology, which is functioning in the literature. It also shows the essence and
basic classification of security threats. The second chapter deals with the issue of artificial
intelligence. It contains the genesis and history of research on this branch of science, reviews
and analyzes its definitions, and also shows the probable directions of its development.
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

Chapter three discusses artificial intelligence as a factor that can have a positive influence on
the security level of modern countries - the overview covers the possibilities of practical
application of intelligent solutions in its various dimensions. Chapter four presents the
characteristics and assessment of the possibility of a destructive influence of artificial
intelligence on security - it analyzes the negative aspects of the use and impact of artificial
intelligence in main areas of national security. The last chapter deals with the problem of the
new challenges and threats for security - especially in the ethical and legal areas - in the
context of the forecasted further development of artificial intelligence. It also presents the
results of an empirical study on the opinions and forecasts of experts on the use of artificial
intelligence in many areas of security. The conclusion is a summary of the research, in the
form a synthesis of the conclusions arising from individual chapters and indicates the
directions of further research.

Keywords: security, information security, artificial intelligence, national security, security


risks

8
Wstęp

Obserwacja współczesnych przeobrażeń cywilizacyjnych i społecznych pozwala


zauważyć, że jesteśmy świadkami rewolucji informacyjnej, lub inaczej mówiąc – cyfrowej.
Nazywana jest ona również czwartą rewolucją przemysłową. Pierwsza z nich miała miejsce
w latach 60. XVIII w., a zapoczątkowało ją wynalezienie maszyny parowej, wprowadzającej
do praktyki życia gospodarczego proces produkcyjny. Jej następstwem było przeobrażenie
społeczeństwa rolniczego w społeczeństwo przemysłowe. Druga rewolucja dokonała się na
przełomie XIX i XX w. i była wynikiem wynalezienia elektryczności oraz silnika
spalinowego, co umożliwiło wdrożenie produkcji przemysłowej na masową skalę, m.in.
dzięki stworzeniu i upowszechnieniu linii produkcyjnych. Okres trzeciej rewolucji przypadł
na lata 60. XX w. – w tym czasie narodziło się pojęcie społeczeństwa informacyjnego
i wprowadzono na rynek pierwsze komputery. Przyczyniło się to do znaczącej automatyzacji
produkcji – to wtedy bowiem powstały pierwsze systemy IT umożliwiające jej planowanie
i kontrolowanie. Rozwój technologii postępował (i nadal postępuje) tak gwałtownie, że już
na początku XXI w. rozpoczęła się wspomniana wcześniej czwarta rewolucja, związana
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

z upowszechnianiem technologii sieciowych, wzajemnie komunikujących się obiektów


(tzw. Internet rzeczy) oraz sztucznej inteligencji. W rezultacie powstała sytuacja, w której
współczesny świat fizyczny zaczął się przenikać gwałtownie ze światem cyfrowym.
Nie da się zaprzeczyć, że czwarta rewolucja zrodziła się na fundamentach swojej
poprzedniczki, jednak co najmniej z trzech powodów powinniśmy ją traktować jako odrębny
etap a nie tylko zmodernizowane przedłużenia minionej epoki. Wspomniane cechy
samodzielności to: niespotykana wcześniej szybkość zachodzących zmian, ich zasięg oraz siła
oddziaływania na gospodarkę. Szczególną uwagę w ramach czwartej rewolucji zwraca,
jak już podkreślono, jej tempo. Istotny udział w tych wręcz błyskawicznych przeobrażeniach
ma wykorzystywanie na szeroką skalę powszechnie dostępnych technologii informatycznych
oraz sprzętu komputerowego. Komputery osiągnęły zdolność samodzielnego uczenia się,
co pozwala przypuszczać, że nadchodząca era rozwoju cywilizacyjnego będzie oparta
na sztucznej inteligencji. Część badaczy prowadzących prace w zakresie sztucznej inteligencji
przewiduje, że na pewnym etapie rozwoju komputery osiągną zdolności przewyższające
inteligencję ludzką. Pojawi się wówczas superinteligencja, czyli podmiot intelektualnie
wydajniejszy od człowieka i bardziej sprawny we wszystkich aspektach jego życia,
w tym także w zakresie umiejętności i zdolności społecznych. Należy podkreślić,
że programy komputerowe przewyższające człowieka pod względem niektórych zdolności
intelektualnych już istnieją i są używane. Jednak nie spełniają one wszystkich warunków
umożliwiających zaklasyfikowanie ich jako superinteligencji dorównującej człowiekowi
w realizacji złożonych zadań naukowych i społecznych. Warto w tym miejscu zaznaczyć,
9
że jeden z najbardziej znanych współcześnie wizjonerów i badaczy sztucznej inteligencji,
Ray Kurzweil uważa, iż sztuczna inteligencja może być kształtowana w sposób mogący
przyczynić się do poprawy warunków życia, zarówno w tym znanym nam, jak i przyszłym
świecie. Wspomniany badacz w swoich pracach wskazuje na możliwości zastosowania
rozwiązań wypracowanych w toku badań nad rozwojem sztucznej inteligencji w celu
skuteczniejszego rozwiązywania szeregu problemów cywilizacyjnych, takich jak np. choroby,
głód, niedostatek żywności w części państw, czy globalne ocieplenie. Generalnie szacuje się,
że przy utrzymaniu obecnego tempa rozwoju sztucznej inteligencji, największy przełom
w tej dziedzinie może nastąpić w latach 2045-2060. Jednocześnie w chwili obecnej,
mimo istnienia wielu prognoz rozwojowych, nie jesteśmy w stanie przewidzieć konsekwencji,
jakie przyniesie ze sobą powszechne wykorzystanie sztucznej inteligencji we wszystkich
sferach życia człowieka.
Sztuczna inteligencja, pomimo używania tego pojęcia tak w dyskursie naukowym,
jak i - coraz częściej - w publicznym przekazie informacyjnym, nie jest terminem łatwym
do precyzyjnego określenia. Główną przyczyną takiego stanu rzeczy są trudności
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

w definicyjnym ujęciu samej inteligencji, dla której pomimo licznych prób do tej pory
nie wypracowano jednoznacznych i precyzyjnych ram pojęciowych. W najbardziej
popularnym rozumieniu inteligencja jest traktowana jako umiejętność dostrzegania relacji
i pewnych zależności występujących w otoczeniu człowieka, umiejętność uczenia się,
ale również zdolność do przetwarzania informacji na poziomie koncepcji zawierających
elementy abstrakcyjne. Obejmuje ona nie tylko mechaniczną analizę informacji, ale również
twórcze jej wykorzystanie. Zakres pojęciowy inteligencji dotyczy również obszaru
emocjonalnej sfery funkcjonowania człowieka – w tym kontekście inteligencja to także
zdolność do współdziałania z możliwościami tkwiącymi w sferze emocjonalnej,
interpersonalnej i motywacyjnej ludzkiej psychiki.
Jeżeli chodzi o sztuczną inteligencję, to w ujęciu ogólnym jest to dział informatyki
zajmujący się konstruowaniem maszyn i algorytmów, których działanie charakteryzują
cechy właściwe dla inteligencji, czyli zdolność do: samorzutnego przystosowywania się
do dynamicznych warunków otoczenia, uczenia się, abstrakcyjnego rozumowania
oraz podejmowania skomplikowanych decyzji. Przedmiotem sztucznej inteligencji
jest badanie i określanie reguł sterujących inteligentnymi zachowaniami jednostek ludzkich,
a następnie wykorzystywanie ich w programach komputerowych i algorytmach, które potrafią
te zasady wykorzystywać. Przykłady zastosowania takich rozwiązań są powszechnie znane
we współczesnym świecie – należą do nich w szczególności programy antywirusowe,
aplikacje do rozpoznawania tekstów (np. popularny w oprogramowaniu urządzeń skanująco-
drukujących system optycznego rozpoznawania znaków i tekstów), obrazów i dźwięków

10
(ale też umożliwiające generowanie ich przez komputer), programy translatorskie (np. Google
Translator), jak również gry i programy symulacyjne (zwłaszcza gry wykorzystujące
tzw. wirtualną rzeczywistość). W szerszym ujęciu, sztuczna inteligencja rozumiana
jest jako dziedzina wiedzy obejmująca sieci neuronowe, robotykę, a także tworzenie modeli
inteligentnych zachowań i programów komputerowych, które mogą symulować
te zachowania, w tym uczenie maszynowe i uczenie ze wzmocnieniem. Modelowanie wiedzy,
danych oraz rozwijanie systemów algorytmów i mocy obliczeniowych przy obecnym
poziomie zaawansowania technologicznego pozwala uzyskiwać względnie zautomatyzowane
systemy pozyskiwania, przetwarzania i analizy danych. Te z kolei dają możliwość
autonomicznego samoulepszania systemu lub przewidywania przyszłych zachowań i działań
na bazie wyników analizy zebranych danych i zachodzących między nimi korelacji. Dzięki
wyposażeniu w sensory i siłowniki, system wchodzi w interakcje z otoczeniem
i ma możliwość oddziaływania na nie. Relacje systemu ze środowiskiem zewnętrznym mogą
zachodzić mechanicznie lub z udziałem człowieka. Cykl życia sztucznej inteligencji można
podzielić na fazy: utworzenia, rozwoju, wdrożenia i stosowania, zaprzestania pracy
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

oraz utylizacji.
Podnosząc kwestię braku uniwersalnego i w miarę powszechnego stosowania
jednolitej formy definiowania sztucznej inteligencji trzeba zauważyć, że w Polsce na bazie
przyjętej w 2020 r. „Polityki dla rozwoju sztucznej inteligencji w Polsce od 2020 roku”
zaczęto używać definicji traktującej ją jako system oparty na koncepcji maszyny, która może
wpływać na środowisko, formułując zalecenia, przewidywania lub decyzje dotyczące
zadanego zestawu celów. Mówiąc o sztucznej inteligencji, należy zwrócić uwagę
na funkcjonowanie dwóch do niej podejść. Pierwszym z nich jest wyróżnianie słabej
sztucznej inteligencji. Zgodnie z poglądami zwolenników takiego stanowiska, maksymalnym
poziomem wykorzystania sztucznej inteligencji jest odtworzenie procesów zachodzących
w mózgu człowieka, zdolność do tworzenia skomplikowanych modeli matematycznych
wskazanych zagadnień i przekształcanie ich na programy komputerowe, przeznaczone
do realizacji konkretnych celów. Poziom ten obejmuje systemy działające i rozwiązujące
problemy w warunkach pełnej złożoności rzeczywistego świata w taki sposób, jakby
posiadały one umysł i myślały. Innymi słowy, słaba sztuczna inteligencja może być
wykorzystywana tylko do określonych zadań lub konkretnych typów problemów,
koncentrując się na jednym wąskim zadaniu, które może wykonać lepiej od człowieka.
Drugie podejście badaczy i twórców to opcja silnej sztucznej inteligencji. Istotą silnej
sztucznej inteligencji jest postrzeganie odpowiednio zaprogramowanego komputera
jako posiadającego elementy ludzkiej inteligencji i w pewien sposób równoważnego
mózgowi. Na tej podstawie za możliwe uznaje się tworzenie programów i struktur

11
samouczących się – modeli sieci neuronowych – oraz opracowywanie procedur
rozwiązywania problemów koncepcyjnych, a nawet abstrakcyjnych, poprzez uczenie maszyn
i uzyskiwania od nich odpowiedzi na stawiane im pytania i problemy. Jest to poziom systemu
rzeczywiście inteligentnego, posiadającego rozwijający się umysł i zdolnego do myślenia
w sposób identyczny (lub bardziej rozwinięty) niż ludzki.
Obecnie głównym celem badaczy prowadzących prace nad sztuczną inteligencją
jest konstruowanie maszyn oraz programów komputerowych, które posiadają zdolność
do realizacji określonych funkcji ludzkiego umysłu oraz zmysłów i nie poddają się
algorytmizacji, czyli sprowadzeniu do zamkniętego ciągu określonych czynności, które
są niezbędne do wykonania jednego zadania.
W tak przedstawionym kontekście nie można nie dostrzec ścisłych związków
wspomnianej sztucznej inteligencji z kwestią bezpieczeństwa. Wynika to z faktu,
że dokonująca się właśnie czwarta rewolucja przemysłowa, podobnie jak i te poprzednie,
wywarła silny wpływ i nadal oddziałuje na różnorodne aspekty bezpieczeństwa w układzie
międzynarodowym (globalnym), państwowym i jednostkowym. Mimo, że zarówno w ujęciu
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

realnym, jak i perspektywicznym można mówić o szerokim zakresie oddziaływania sztucznej


inteligencji na uwarunkowania bezpiecznego funkcjonowania ludzkiej cywilizacji, jest
to zagadnienie stosunkowo rzadko podejmowane we współczesnej literaturze naukowej.
W opinii autorki rozprawy, kwestia oddziaływania tej już istniejącej i tej rozwijającej się
sztucznej inteligencji na współczesne bezpieczeństwo jest zagadnieniem na tyle istotnym,
a jednocześnie mało zbadanym, że konieczność podjęcia badań jawi się zarówno jako
potrzeba teoretyczna, jak i utylitarna.
Identyfikacja oddziaływania sztucznej inteligencji na bezpieczeństwo, chociażby
ze względu na to, że wykorzystuje się ją w tak licznych obszarach, nie jest rzeczą łatwą.
Dlatego też w rozprawie, opierając się na paradygmacie systemowym, podjęto wysiłek
badawczy skoncentrowany na ustaleniu zakresu oddziaływania sztucznej inteligencji
na bezpieczeństwo państwa w pierwszych dwóch dekadach XXI w. Wybór tego paradygmatu
wiązał się z oceną, że bezpieczeństwo, niezależnie od tego, jak je postrzegamy i definiujemy,
ma cechy i właściwości systemu. Należy zwłaszcza podkreślić złożoność i dynamikę
procesualnego aspektu bezpieczeństwa powodującą, że uchwycenie zjawisk i procesów
wymaga podejścia systemowego i towarzyszącej mu analizy systemowej. W oparciu
o dorobek teorii bezpieczeństwa związany z przedmiotową klasyfikacją bezpieczeństwa
założono analizę odnoszącą się do następujących sfer bezpieczeństwa: militarnego,
komunikacyjnego i transportowego, informacyjnego, ekonomicznego, zdrowotnego
i kulturowego. Należy zaznaczyć, że istotny wpływ na wybór takich sektorów bezpieczeństwa

12
wywarł fakt, że są one współcześnie najbardziej nasycone rozwiązaniami z zakresu sztucznej
inteligencji.
Główny problemem badawczy rozprawy zawarty został w pytaniu: W jaki sposób
sztuczna inteligencja, rozumiana zarówno jako jedna z dziedzin współczesnej nauki,
jak również jako jej wytwory, kształtuje bezpieczeństwo państwa w XXI wieku? Dążąc
do rozwiązania tak sformułowanego ogólnego problemu badawczego za konieczne uznano
określenie dodatkowych problemów o charakterze szczegółowym ujętych w pytaniach:
 czym współcześnie jest bezpieczeństwo i jakie są jego zasadnicze zagrożenia?
 czym jest sztuczna inteligencja i na czym polega jej istota?
 w jakich sferach bezpieczeństwa sztuczna inteligencja znajduje współcześnie najszersze
zastosowanie?
 jakie korzyści dla bezpieczeństwa wynikają i mogą wynikać ze stosowania sztucznej
inteligencji w poszczególnych jego sferach?
 jakie zagrożenia dla poszczególnych sektorów bezpieczeństwa generuje i może
generować zastosowanie sztucznej inteligencji?
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

 jakie dylematy etyczne wiążą się z stosowaniem sztucznej inteligencji w dziedzinie


analizowanych sfer bezpieczeństwa?
Podstawą rozwiązania powyżej wskazanych problemów była weryfikacja głównej
hipotezy badawczej, zakładającej że sztuczna inteligencja jest czynnikiem, który w XXI
wieku coraz silniej oddziałuje na bezpieczeństwo państw, znajdując zastosowania
w licznych jego wymiarach. Wpływu tego nie można określić jako jednoznacznie
pozytywnego lub destrukcyjnego – wynika to zarówno z dynamicznego charakteru badań nad
sztuczną inteligencją, co przekłada się na ciągły rozwój tej dziedziny
i doskonalenie jej narzędzi, jak również z licznych wątpliwości związanych z etycznym
i praktycznym wymiarem jej funkcjonowania.
Na potrzeby prowadzonych badań oprócz hipotezy głównej sformułowano również
hipotezy szczegółowe, w ramach których przyjęto przypuszczenia że:
 istotą współczesnego bezpieczeństwa jest zapewnienie jego podmiotom możliwości
przetrwania oraz rozwoju, rozumianego jako względnie swobodna realizacja własnych
interesów w otaczającym go środowisku przy wykorzystaniu pojawiających się szans,
podejmowaniu wyzwań, redukowaniu ryzyk oraz zapobieganiu i przeciwstawianiu się
zagrożeniom;
 istotą sztucznej inteligencji jest badanie i wskazywanie reguł sterujących inteligentnymi
zachowaniami jednostek ludzkich, a następnie ich implementacja w programach
komputerowych i algorytmach, potrafiących wykorzystywać te zasady;

13
 sztuczna inteligencja znajduje zastosowanie w licznych dziedzinach współczesnego
bezpieczeństwa.
 wykorzystanie sztucznej inteligencji w poszczególnych sektorach bezpieczeństwa może
generować liczne dylematy o naturze etycznej.
Przyjęty zakres tematyczny i czasowy oraz założenia metodologiczne nadały pracy
charakter teoretyczno-empiryczny oparty o paradygmat systemowy. Jego wybór, jak już
sygnalizowano, wiązał się z tym, że działania na rzecz bezpieczeństwa danego podmiotu,
czy ocenę jego stanu można skutecznie prowadzić uwzględniając poznanie potrzeb
bezpieczeństwa podmiotu, jego uwarunkowań oraz możliwościami realizacji. Konieczne było
zatem zastosowanie w badaniach metod analizy i syntezy. Metody te były używane
w odniesieniu do informacji i danych pozyskiwanych z literatury przedmiotu oraz innych
dostępnych źródeł. Wskazane metody wykorzystano do poznania genezy badań nad sztuczną
inteligencją, ustalenia jej istoty oraz określenia wpływu jej zastosowania na zwiększenie
poziomu bezpieczeństwa państwa w poszczególnych jego sferach. Umożliwiły one również
określenie istoty bezpieczeństwa oraz czynników mających istotny wpływ na jego
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

kształtowanie. Zastosowano także metodę analizy systemowej, która umożliwiła dokonanie


odpowiednich ustaleń w zakresie umiejscowienia zastosowań sztucznej inteligencji
w określonych sektorach bezpieczeństwa państwa. Na potrzeby rozprawy przeprowadzono
również badania z wykorzystaniem metody ankietowej. Przyjęto technikę indywidualnej
ankiety elektronicznej, której narzędziem był anonimowy kwestionariusz ankiety.
Skorzystano z narzędzia formularzy Google – link do przygotowanego w tej aplikacji
kwestionariusza ankiety został wysłany do 100 badaczy z wybranych polskich uczelni
i naukowych ośrodków badawczych prowadzących prace nad sztuczną inteligencją. Z uwagi
na fakt, że docelową grupę badawczą stanowiła stosunkowo wąska grupa specjalistów
w dziedzinie sztucznej inteligencji w Polsce, jak również, że udział w badaniach
był dobrowolną decyzją każdego z uczestników, otrzymane tą drogą wyniki należy uznać
za szczególnie cenny wkład do pracy badawczej. Wspomniane badania empiryczne
prowadzono wśród pracowników i doktorantów krajowych uczelni i ośrodków naukowych,
m.in. z Wydziału Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej
Akademii Górniczo-Hutniczej w Krakowie, Wydziału Informatyki Politechniki Białostockiej,
Wydziału Informatyki i Zarządzania Politechniki Wrocławskiej, Wydziału Matematyki,
Informatyki i Mechaniki Uniwersytetu Warszawskiego, jak również Wydziału Nauk Ścisłych
i Przyrodniczych Uniwersytetu Przyrodniczo-Humanistycznego w Siedlcach. Link do ankiety
umieszczono także na stronie Klubu Biznesu dla Przedsiębiorców Business Centre Club,
co umożliwiło przeprowadzenie badania wśród przedsiębiorców wykorzystujących sztuczną
inteligencję w ramach prowadzonej działalności( głównie produkcyjnej).
14
W celu realizacji założeń metodologicznych strukturę rozprawy oparto na schemacie
stanowiącym odzwierciedlenie podejmowanych problemów badawczych. Dysertacja składa
się ze wstępu, pięciu rozdziałów problemowych, zakończenia oraz bibliografii. Pierwszy
rozdział ma charakter ściśle teoretyczny i jednocześnie wprowadzający do dalszych części
pracy. Jego treści koncentrują się na ukazaniu istoty i sposobów współczesnego pojmowania
bezpieczeństwa. W pierwszej jego części dokonano przeglądu i krytycznej analizy
funkcjonujących w literaturze przedmiotu definicji bezpieczeństwa, a także
scharakteryzowano jego klasyfikacje, W części drugiej skupiono się na ukazaniu istoty
i podstawowych klasyfikacji zagrożeń dla bezpieczeństwa. Zamknięciem rozdziału
pierwszego są rozważania poświęcone bezpieczeństwu informacyjnemu. Wymiar ten
wyróżniono z uwagi na rolę informacji, która we współczesnym świecie stanowi jedno
z najbardziej cennych dóbr - zarówno dla jednostki, jak i dla szeroko rozumianych grup
społecznych oraz państw. Podjęcie zagadnień dotyczących bezpieczeństwa informacyjnego
wynikało także z bezpośrednich związków sztucznej inteligencji z informacją.
Rozdział drugi poświęcono zagadnieniu sztucznej inteligencji. Otwiera go ukazanie
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

genezy i historii badań nad sztuczną inteligencją oraz przedstawienie czynników


dynamizujących jej rozwój. W kolejnym fragmencie tego rozdziału w celu uchwycenia istoty
współczesnego rozumienia sztucznej inteligencji dokonano przeglądu i analizy szeregu
jej definicji. Istotnym elementem składowym charakteryzowanego rozdziału jest także
ukazanie najbardziej popularnych obecnie metod i technik sztucznej inteligencji, jak również
przedstawienie możliwych i prawdopodobnych kierunków jej rozwoju oraz upowszechniania
stosowania, zarówno w badanych sferach bezpieczeństwa, jak i w codziennym życiu ludzi.
Rozdział drugi zakończono charakterystyką szans i zagrożeń związanych z wykorzystaniem
sztucznej inteligencji.
W rozdziale trzecim analizie poddano sztuczną inteligencję jako czynnik mogący
wywierać pozytywny wpływ na poziom bezpieczeństwa współczesnych państw. W pierwszej
części tego rozdziału badawczego oglądem objęto możliwości praktycznego zastosowania
rozwiązań technologicznych bazujących na sztucznej inteligencji w takich obszarach
jak bezpieczeństwo militarne, komunikacyjne, transportowe i informacyjne. Rozdział
zamykają charakterystyki odnoszące się do dodatnich efektów i możliwości wykorzystania
sztucznej inteligencji w sferze bezpieczeństwa ekonomicznego zdrowotnego i kulturowego.
Rozdział czwarty, stanowiący logiczną kontynuację rozważań zawartych w rozdziale
trzecim, poświęcony został charakterystyce i ocenie możliwości destrukcyjnego
oddziaływania sztucznej inteligencji na bezpieczeństwo. W ramach realizacji założeń i zadań
badawczych przewidzianych dla tej części dysertacji analizie poddano potencjalne i realne
negatywne aspekty zastosowania i oddziaływania sztucznej inteligencji w identycznych

15
jak w rozdziale trzecim sferach bezpieczeństwa państwa (tj. militarnej, komunikacyjnej,
transportowej, informacyjnej. ekonomicznej, zdrowotnej i kulturowej). W przeprowadzonych
dociekaniach skoncentrowano się na wskazaniu i charakterystyce wyzwań i zagrożeń
wynikających z upowszechniania nowoczesnych, ale nie do końca transparentnych, rozwiązań
technologicznych w wymienionych wyżej sferach bezpieczeństwa.
Treści ostatniego piątego rozdziału odnoszą się do głównych obszarów wyzwań
i zagrożeń dla bezpieczeństwa w świetle perspektywicznego rozwoju sztucznej inteligencji.
W pierwszym fragmencie tej części rozprawy zaprezentowano założenia metodologiczne
oraz wyniki badania empirycznego dotyczącego opinii i prognoz ekspertów w zakresie
stosowania sztucznej inteligencji w poszczególnych obszarach bezpieczeństwa. Następnie
dokonano analizy problemu standardów etycznych i prawnych związanych
z funkcjonowaniem sztucznej inteligencji. W końcowej części rozdziału przedstawiono
prognozy i perspektywy dalszego rozwoju sztucznej inteligencji, zwracając uwagę na fakt,
że odpowiedzialność za ten rozwój spoczywa na człowieku.
Jeżeli chodzi o bazę źródłową dotyczącą podjętej w ramach dysertacji tematyki
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

to należy zauważyć, że w odniesieniu do kwestii ogólnych związanych z sztuczną inteligencją


dostępnych jest już sporo wartościowych monografii. Do najbardziej kompetentnych
i wykorzystanych podczas przygotowania rozprawy należy zaliczyć pozycje autorstwa Raya
Kurzweila („Nadchodzi osobliwość. Kiedy człowiek przekroczy granice biologii”), Mariusza
Flasińskiego („Wstęp do sztucznej inteligencji”), Krzysztofa Ficonia („Sztuczna inteligencja.
Nie tylko dla humanistów”) oraz Piotra Artiemjewa („Wybrane paradygmaty sztucznej
inteligencji”). Ważna dla badaczy jest także książka autorstwa Leszka Rutkowskiego
pt. „Metody i techniki sztucznej inteligencji”.
Gorzej wygląda sytuacja w zakresie dotyczącym oddziaływania sztucznej inteligencji
na konkretne sfery bezpieczeństwa, gdzie brakuje opracowań o charakterze kompleksowym.
Istnieje natomiast szereg wartościowych prac o charakterze szczegółowym i przyczynkowym
Jako te które były szczególnie przydatne do przeprowadzonych analiz należy wymienić
publikacje: „Wyzwania i zagrożenia bezpieczeństwa i obronności w XXI wieku w wymiarze
społecznym i technologiczno-środowiskowym” pod redakcją naukową Zenona Trejnisa
i Lecha Kościeleckiego, „Sztuczna inteligencja – szansa czy zagrożenie?” Włodzimierza
Fehlera, „AI: Wyzwania i konsekwencje” pod redakcją Aleksandry Trapp, „Robotyzacja
wojny” Rafała Kopcia oraz „Sztuczna inteligencja: rozwój, szanse i zagrożenia” autorstwa
Krzysztofa Różanowskiego.
Interesujące z poznawczego punktu widzenia poznawczego okazały się również prace
autorstwa Grzegorza Lindenberga („Ludzkość poprawiona. Jak najbliższe lata zmienią świat,
w którym żyjemy”), Tomasza Neumanna („Perspektywy wykorzystania pojazdów

16
autonomicznych w transporcie drogowym w Polsce”) oraz Moniki Torczyńskiej („Sztuczna
inteligencja i jej społeczno-kulturowe implikacje w codziennym życiu”).
Generalnie bazę źródłową rozprawy stanowi krajowa i anglojęzyczna literatura
przedmiotu w postaci wydawnictw zwartych i artykułów naukowych, uzupełniona
o informacje i analizy dostępne na autoryzowanych przez instytucje państwowe – krajowe
i zagraniczne, ośrodki badawcze i wyspecjalizowane organizacje gospodarcze stronach
internetowych. Tematyka rozprawy, podejmująca zagadnienia z zakresu dynamicznie
rozwijającej się dziedziny, wiązała się bowiem z koniecznością analizy licznych opracowań
elektronicznych, z uwagi na fakt koncentracji różnorodnych narzędzi sztucznej inteligencji
w przestrzeni cybernetycznej, w której rozwiązania te dominują.
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

17
1. Istota i pojmowanie bezpieczeństwa
1.1. Ogólne rozumienie bezpieczeństwa

Bezpieczeństwo jest pojęciem należącym do kategorii charakteryzującej się bardzo


dużym zakresem znaczeniowym, w szczególności pod kątem klasyfikacji i określenia
kontekstu. Prawidłowe zrozumienie procesów oddziałujących na kształtowanie
się bezpieczeństwa wymaga zarówno od badacza, jak i podmiotów bezpieczeństwa, złożonej
wiedzy i świadomości dynamicznie zachodzących zmian w środowisku bezpieczeństwa.
Cechą charakterystyczną nauki o bezpieczeństwie jest ciągłe poszerzanie zarówno samego
znaczenia pojęcia bezpieczeństwo, jak i obszaru poznawczego. Współczesna nauka
jest interdyscyplinarna, a odkryte (i odkrywane) obszary bezpieczeństwa z jednej strony
zwiększają zakres pojęciowy i badawczy, a z drugiej odsłaniają nowe obszary, które
nie są jeszcze naukowo poznane.
O ile samo bezpieczeństwo odznacza się dużym poziomem subiektywności, to jednak
wyniki prowadzonych nad nim badań oraz stan bezpieczeństwa w określonym miejscu
i czasie można uznać za obiektywne, oczywiście przy założeniu, że badania zostały
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

przeprowadzone z wykorzystaniem właściwej metody naukowej oraz metod, technik


i narzędzi badawczych adekwatnych do zamierzonego celu poznawczego 1.
Brak prawidłowego rozumienia terminu bezpieczeństwo uniemożliwi rozważania na temat
roli, jaką sztuczna inteligencja odgrywa w procesie zapewniania bezpieczeństwa państwa.
Niniejsza część pracy poświęcona jest zatem przeglądowi najważniejszych aspektów
przedmiotowej tematyki, w tym katalogu pojęciowego, w celu uchwycenia istoty
bezpieczeństwa.
Nie ulega wątpliwości, że bezpieczeństwo jest jedną z podstawowych potrzeb
człowieka. Zgodnie z najbardziej znaną teorią potrzeb zaproponowaną przez A. Maslowa,
człowiek w swoim działaniu dąży do zaspokojenia potrzeb, tworzących określoną hierarchię
i obejmujących aspekty fizjologiczne, bezpieczeństwa, społeczne (związane
z przynależnością do grup), szacunku i samorealizacji. Potrzeby bezpieczeństwa mogą być
rozumiane zarówno pozytywnie (jako zapewnienie poczucia pewności, opieki, stabilności
czy oparcia), jak i negatywnie – jako wolność od lęku, strachu czy chaosu. Czesław
Znamierowski wskazuje, że „każda jednostka stara się strzec (…) własnych dóbr i ochraniać
je przed wszelką szkodą. Ale zdana na własne siły nie byłaby w stanie trzymać nad mini
straży bez przerwy”2. Realizacja potrzeb bezpieczeństwa jest możliwa dopiero
po zaspokojeniu potrzeb niższego rzędu (obejmujących zapewnienie pożywienia, sen,

1
Zob. A. Czupryński, Bezpieczeństwo w ujęciu teoretycznym, [w:] A. Czupryński, B. Wiśniewski, J. Zboina
(red.), Bezpieczeństwo. Teoria-Badania-Praktyka, Józefów 2015, s. 18.
2
Zob. Cz. Znamierowski, Szkoła prawa. Rozważania o państwie, Warszawa 1999, s. 80.
18
potrzeby zdrowotne i seksualne), ale identycznie jak potrzeby fizjologiczne, są one w stanie
zmusić jednostkę do potraktowania poszukiwania bezpieczeństwa jako potrzeby
priorytetowej3. Z jej realizacją związane jest eliminowanie ryzyka wystąpienia realnych
i potencjalnych zagrożeń, a jeżeli nastąpią one pomimo działań zabezpieczających –
minimalizacja ich skutków.
Postęp cywilizacyjny i dynamiczne przemiany zachodzące we współczesnym świecie
sprawiają, że zarówno bezpieczeństwo, jak i jego zagrożenia podlegają stałym
przeobrażeniom. Troska o zapewnienie bezpieczeństwa oraz poczucie i świadomość
zagrożenia, budowane dzięki powszechnemu dostępowi do informacji motywują
do poszukiwania uniwersalnych rozwiązań gwarantujących wyeliminowanie lub, co bardziej
prawdopodobne, ograniczenie negatywnych zjawisk. Pomimo długotrwałych badań nad
bezpieczeństwem, zarówno w obrębie poszczególnych dziedzin i dyscyplin naukowych,
jak i w ujęciu interdyscyplinarnym, nie wypracowano dotąd jednolitego systemu pojęciowego
w tym zakresie. Wyniki realizowanych badań skutkowały zmianami zakresu pojęciowego,
klasyfikacji czy kategorii bezpieczeństwa. Istotne znaczenie dla badań nad katalogiem pojęć
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

związanych z bezpieczeństwem było przejście z dyscypliny nauk wojskowych, poprzez nauki


o obronności, do dyscypliny nauk o bezpieczeństwie. W kanonie nauk wojskowych kwestie
związane z bezpieczeństwem rozpatrywano przede wszystkim w ujęciu militarnym –
bezpieczeństwo rozumiano jako brak zagrożenia zbrojnego dla integralności terytorialnej
państwa. Już sama etymologia słowa bezpieczeństwo czyli bez pieczy, tj. „bez troski”, dawała
podstawy do takiej interpretacji, wskazując na nadrzędność poczucia zagrożenia w stosunku
do poczucia pewności bytu, przetrwania i rozwoju4. Taka interpretacja jest przejawem ujęcia
negatywnego, opierającego się na postrzeganiu bezpieczeństwa jedynie w kategoriach
przeciwieństwa zagrożenia5. W tym aspekcie bezpieczeństwo koncentruje się na ochronie
istotnych wartości wewnętrznych przed zagrożeniami o charakterze zewnętrznym 6.
W rzeczywistości wolność od zagrożeń, rozumiana jako stan funkcjonowania człowieka
w otaczającej go rzeczywistości, nigdy nie oznacza całkowitego braku zagrożeń, a raczej taki
ich poziom, który podmiot jest w stanie zaakceptować. Akceptowany poziom zagrożeń
nie może ograniczać możliwości funkcjonowania podmiotu i musi pozwalać na osiąganie
podstawowych, założonych przez ten podmiot celów7.
Rozpad świata bipolarnego, zakończenie zimnej wojny oraz postępujące procesy
globalizacyjne odmieniły współczesne relacje międzypaństwowe. O ile do momentu upadku
3
Zob. A. Miler-Zawodniak, Teorie potrzeb jako współczesne teorie motywacji, „Obronność. Zeszyty Naukowe”,
2012, nr 4, s. 104.
4
Zob. J. Stańczyk, Współczesne pojmowanie bezpieczeństwa, Warszawa 1996, s. 15.
5
Zob. A. Czupryński, op. cit., s. 11.
6
Zob. A. Kołodziejczyk, Bezpieczeństwo jako fenomen społeczny: pojęcie bezpieczeństwa, jego interpretacje
i odmiany, „Saeculum Christianum”, 2007, nr 14/1, s. 236.
7
Zob. A. Czupryński, op. cit., s. 16.
19
ZSRR były one przewidywalne i powszechnie zrozumiałe, ponieważ dotyczyły stosunków
państw zdominowanych przez komunizm lub postulujących liberalną demokrację, o tyle
postzimnowojenny układ sił zmusił badaczy bezpieczeństwa i stosunków międzynarodowych
do szerszego spojrzenia na ten problem. Nie dało się już było definiować bezpieczeństwa
państwa wyłącznie przez pryzmat czynników militarnych. Poszerzenie przedmiotu badań
nad bezpieczeństwem o aspekty gospodarcze, zgodnie z rozwijającym się nurtem
idealistycznym, doprowadził do odejścia od państwowocentrycznego, wąskiego rozumienia
bezpieczeństwa i zamykania go tylko w obszarze militarnym 8. Katalog podstawowych
wartości, obejmujący dotychczas przetrwanie rozumiane jako utrzymanie integralności
terytorialnej i suwerenności, został poszerzony o rozwój, zachowanie tożsamości narodowej
oraz jakość życia obywateli. Kierunek rozwoju współczesnych badań nad bezpieczeństwem
doprowadził również do rozszerzenia tego pojęcia o dwa nowe elementy, czyli wyzwania
i szanse9. Rozumienie bezpieczeństwa jedynie w kategorii braku zagrożeń przestało być
adekwatne do dynamicznie zmieniającej się sytuacji międzynarodowej, w której niektóre
zjawiska społeczne nie mogą być postrzegane jako zagrożenie, ponieważ w zależności
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

od tego, jak podmiot na nie zareaguje, mogą przynieść mu wymierne korzyści. Kwestia
odróżniania zagrożeń od wyzwań ma istotną wartość poznawczą, ale może być zadaniem
trudnym przede wszystkim z uwagi na fakt, że zakwalifikowanie określonego zjawiska
do jednej z tych kategorii zależy od subiektywnej oceny wartości, która podlega ochronie
oraz stopnia wrażliwości podmiotu. Pozytywne podejście do bezpieczeństwa opisuje
przedmiot jego zainteresowania, sferę jego oddziaływania a także wskazuje kierunek jego
dalszego progresu. Koncentruje się na analizie kreatywnej aktywności podmiotu w obszarze
zapewniania przetrwania, utrzymania i zwiększania stanu posiadania oraz wykorzystywania
możliwości i swobód rozwojowych, czyli szans. Szanse te odnoszą się do możliwości
długotrwałego rozwoju, stymulowanego przez dążenie do podnoszenia standardu życia
podmiotu lub umacniania ładu społecznego10. Brak zagrożenia nie może zatem być powodem
rezygnacji z dbałości o bezpieczeństwo, powinien raczej stanowić bodziec do zwiększenia
wysiłków na rzecz zwiększania jego poziomu w innych obszarach istotnych zarówno
dla przetrwania, jak i dla rozwoju podmiotu.
Bezpieczeństwo oznacza nie tylko stan zagrożenia, pewności i poczucia wolności
od zagrożeń, ale również proces ulegający zmianom stanowiącym odzwierciedlenie przemian
zachodzących w jego otoczeniu. Jednocześnie stan bezpieczeństwa stanowi efekt ewolucji
jego procesów, czyli cyklów konkretnych zdarzeń i ich efekt w określonym przedziale czasu.

8
Zob. E. Sadowska, Zagrożenia asymetryczne – definicja, świadomość społeczna i rola we współczesnym
świecie, „Rocznik Bezpieczeństwa Międzynarodowego”, 2017, nr 2, s. 19-20.
9
Zob. A. Kołodziejczyk, op. cit., s. 235.
10
Zob. Ibidem, s. 236.
20
Ewolucja tych procesów polega na rozwoju części zdarzeń i zanikaniu innych, podczas gdy
pozostałe zdarzenia pozostają na niezmiennym poziomie. Postrzeganie bezpieczeństwa
w kategorii procesów jest zasadne z uwagi na fakt, że właśnie w procesach aktywują się
potrzeby jednostki11. Z kolei stan bezpieczeństwa dotyczy sytuacji, w której znajduje się
podmiot i oznacza zazwyczaj określony wymiar bezpieczeństwa, poziom jego trwałości
i zasięg terytorialny. Stan ten określa się poprzez ustanowione i zaakceptowane przez
jednostkę i społeczeństwo standardy, adekwatne do stopnia rozwoju cywilizacyjnego
oraz do obiektywnych uwarunkowań otoczenia bezpieczeństwa.
W rozumieniu potocznym bezpieczeństwo obejmuje najczęściej takie elementy
jak poczucie wolności od zagrożeń, zapewnienie spokoju, dobrobyt społeczny, brak strachu
przed utratą życia, zdrowia lub mienia, harmonijne współistnienie człowieka i jego otoczenia
(zwłaszcza środowiska naturalnego). Leksykalne definicje bezpieczeństwa identyfikują
je jako pewność – gwarancję niewystąpienia lub eliminację zagrożeń, zabezpieczenie przed
czymś, wskazując jednocześnie na brak zagrożenia i ochronę przed jego wystąpieniem.
Przykładem takiego rozumienia jest definicja zawarta w Słowniku etymologicznym języka
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

polskiego, gdzie bezpieczeństwo określa się jako „stan niezagrożenia, spokoju, pewności”12,
jak również w Słowniku terminów z zakresu bezpieczeństwa narodowego, w którym
jest to „gwarancja rozwoju społeczeństwa i jego przetrwania; nietrwały stan, który wymaga
ciągłej troski, ale daje poczucie pewności, gwarantuje jego zachowanie oraz daje szansę
na przyszły rozwój”13. Podobne znaczeniowo definicje można odnaleźć w Słowniku nauk
społecznych („bezpieczeństwo jest identyczne z pewnością i oznacza brak zagrożenia albo
ochronę przed nim”14) oraz w The Oxford Dictionary („bezpieczeństwo
15
to stan lub uczucie, że jest się bezpiecznym” ). Znaczenie pewności dla bezpieczeństwa
podkreślają również Ryszard Zięba, definiujący bezpieczeństwo jako „stan i poczucie
pewności oraz wolności od zagrożeń”16 oraz Jerzy Stańczyk, zdaniem którego
„bezpieczeństwo jest identyczne z pewnością i oznacza brak zagrożenia fizycznego
albo ochronę przed nim”17. Z kolei Stanisław Koziej, jako przedstawiciel podejścia
pragmatycznego wskazuje, że bezpieczeństwo jest zachodzącym w konkretnej sferze
procesem dotyczącym podmiotu, którego cel stanowi „zapewnienie możliwości przetrwania,
rozwoju i swobody realizacji własnych interesów w konkretnych warunkach, poprzez

11
Zob. Ibidem.
12
W. Boryś, Słownik etymologiczny języka polskiego, Kraków 2010, s. 24.
13
J. Kaczmarek, W. Łepkowski, B. Zdrodowski (red. nauk.), Słownik terminów z zakresu bezpieczeństwa
narodowego, Warszawa 2008, s. 13.
14
J. Gould, W.L. Kolb (red.), A dictionary of the Social Sciences, Londyn 1964, s. 629.
15
The Oxford Reference Dictionary, Oxford 1991, s. 749.
16
R. Zięba, Pojęcia i istota bezpieczeństwa państwa w stosunkach międzynarodowych, „Sprawy
Międzynarodowe”, 1989, nr 10, s. 5.
17
J. Stańczyk, op. cit., s. 15.
21
wykorzystywanie okoliczności sprzyjających (szans), podejmowanie wyzwań, redukowanie
ryzyka i przeciwdziałanie (zapobieganie i przeciwstawianie się) wszelkiego rodzaju
zagrożeniom dla podmiotu i jego interesów”18.
W bezpieczeństwo rozpatrywane w ujęciu procesualnym zaangażowane jest wiele
podmiotów, co oznacza, że jest on procesem społecznym, a podmioty działające w jego
ramach starają się ulepszać mechanizmy, które zapewniają lub zwiększają ich poczucie
bezpieczeństwa. Cechą charakterystyczną tego procesu jest jego zróżnicowana dynamika
i zmienny stopień intensywności, będący efektem ciągłej zmienności warunków otoczenia,
rozwoju cywilizacyjnego oraz przenikania sfer i zakresu potrzeb pojedynczych podmiotów 19.
Podejście procesualne znajduje odzwierciedlenie w postrzeganiu bezpieczeństwa z punktu
widzenia polityki międzynarodowej, gdzie jest jednym z kluczowych celów egzystencjalnych
państw, narodów i ich grup, wynikającym z konieczności zaspokojenia ich podstawowych
potrzeb, tj. istnienia, przetrwania i rozwoju20.
W kontekście rozważań nad współczesnym rozumieniem bezpieczeństwa warto
odnieść się również do kompleksowych definicji, w których termin ten rozpatrywany
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

jest przez pryzmat różnych ujęć i odnosi się do zróżnicowanych wymiarów. W sposób
całościowy do bezpieczeństwa odnosi się Marian Cieślarczyk wskazując, że jest
to „stan danego podmiotu (podmiotów) w jego relacji z otoczeniem oraz zachodzące w tych
relacjach procesy, stanowiące efekt działań (lub współdziałań) w sferze materialnej, duchowej
i organizacyjnej. Stworzone dzięki temu warunki i sytuacje pozwalają z dużym
prawdopodobieństwem orzekać o możliwościach zharmonizowania w różnych wymiarach
(podmiotowym, przestrzennym, czasowym) bytowania i „mądrego” rozwoju poszczególnych
podmiotów (obywateli, grup społecznych, państw i systemów międzynarodowych),
rozpatrywanego w podstawowych relacjach: człowiek-przyroda; człowiek (grupa, państwo) –
człowiek (grupa, państwo); człowiek-przyroda-człowiek; człowiek w stosunku do siebie.
Poszczególne podmioty charakteryzują się jednocześnie określonym poziomem świadomości
(poczucia) swojej wartości i własnych słabości wobec istniejących wyzwań oraz związanych
z tym szans lub zagrożeń (aktualnych i potencjalnych), wynikających ze znajomości bliższego
i dalszego otoczenia. Powyższa sytuacja nie paraliżuje jednak poszczególnych podmiotów,
nie usztywnia ich działania i myślenia, a raczej stanowi jeden z czynników stymulowania
ich aktywności, mądrego zaufania, otwartości i rozwoju”21. W tej obszernej definicji autor
odniósł się zarówno do statycznego, jak i procesualnego ujęcia bezpieczeństwa, podkreślił
18
S. Koziej, Wstęp do teorii i historii bezpieczeństwa – skrypt internetowy¸ Warszawa 2010, [on-line], koziej.pl,
http://www.koziej.pl/wp-content/uploads/2015/05/Teoria_i_historia_ bezpieczenstwa.doc, s.2 (21.03.2019).
19
Zob. B. Kaczmarczyk, Bezpieczeństwo i jego typologie, „Nauki Humanistyczne i Społeczne Na Rzecz
Bezpieczeństwa”, 2013, vol. 31, s. 20.
20
Zob. G. Michałowska (red.), Mały słownik stosunków międzynarodowych, Warszawa 1997, s. 2.
21
M. Cieślarczyk, Psychospołeczne i organizacyjne elementy bezpieczeństwa i obronności, Warszawa 1997, s.
85.
22
równorzędne znaczenie przetrwania i rozwoju podmiotu oraz konieczność reakcji
dynamiczność zmian zachodzących w jego otoczeniu. Nawiązał również do typologii
bezpieczeństwa zaproponowanej przez R. Ziębę, wyróżniającej jego wymiar podmiotowy,
przedmiotowy, czasowy, przestrzenny i organizacyjny22. Istotą definicji autorstwa
M. Cieślarczyka jest postrzeganie bezpieczeństwa jako funkcji istnienia i rozwoju zarówno
obiektywnych, jak i subiektywnych elementów rzeczywistości, gdzie elementami
obiektywnymi są uwarunkowania wynikające z otoczenia, a subiektywnymi – wyznawane
przez podmiot wartości oraz poczucie jego bezpieczeństwa. Współczesnymi składnikami
bezpieczeństwa są, obok aspektów kluczowych – polityki i wojskowości – czynniki
ekonomiczne, technologiczne, zasoby energetyczne oraz polityka ekologiczna,
demograficzna, społeczna i humanitarna23. Obecne koncepcje bezpieczeństwa uwzględniają
problematykę zachowania narodowej tożsamości i odgrywania znaczącej roli w rozwoju
cywilizacyjnym współczesnego świata. Na znaczeniu zyskało również postrzeganie
bezpieczeństwa przez pryzmat człowieka, przede wszystkim kwestie poszanowania
elementarnych praw i swobód obywatelskich.
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

W świetle zaprezentowanych rozważań dotyczących ewolucji rozumienia terminu


bezpieczeństwa można stwierdzić, że współcześnie bezpieczeństwo jest postrzegane jako
synergia procesów i działań ukierunkowanych na zapewnianie przetrwania jego podmiotów,
umożliwiających ich niezakłócony rozwój w zróżnicowanych sferach i obszarach aktywności,
gwarantujących adekwatny poziom ochrony przed zagrożeniami, a w przypadku
ich wystąpienia – neutralizowanie ich negatywnych skutków poprzez wykorzystanie
posiadanych sił i środków. Coraz bardziej zyskują na znaczeniu czynniki wspomagające
i uzupełniające działania militarne. Promowane są koncepcje, które uwzględniają aspekty
polityczne, ekonomiczne, ekologiczne i społeczne, postrzegane w kontekście
międzynarodowym. Zmiany zachodzące na przełomie XX i XXI w. dały podstawę
do postrzegania bezpieczeństwa w różnych płaszczyznach i ujęciach, przede wszystkim
w ujęciu podmiotowym (jako pewności istnienia i przetrwania podmiotów stosunków
narodowych i międzynarodowych), przedmiotowym (jako całokształt środków i sposobów
kształtowania pewność stanu posiadania tych podmiotów oraz instytucji zapewniających
określony poziom bezpieczeństwa) oraz funkcjonalnym – pozwalającym na ocenę
i weryfikację dynamiki i ewolucji obiektywnych i subiektywnych aspektów zarówno
bezpieczeństwa, jak i jego uczestników.

22
Klasyfikacja ta, z uwagi na nieprzemijające znaczenie dla rozwoju nauk o bezpieczeństwie, zostanie szerzej
omówiona w kolejnym podrozdziale.
23
Zob. Z. Ciekanowski, J. Nowicka, H. Wyrębek, Bezpieczeństwo państwa w obliczu współczesnych zagrożeń,
Siedlce 2016, s. 16.
23
Z uwagi na znaczenie bezpieczeństwa w życiu człowieka, zarówno jednostki,
jak i zorganizowanych grup społecznych, zagadnienie to poddawane jest ciągłym,
systematycznym badaniom. Z uwagi na interdyscyplinarność bezpieczeństwa, badania
nad nim prowadzone są w zakresie bardzo wielu dziedzin naukowych. Przegląd literatury
z zakresu nauk o bezpieczeństwie, politologii oraz stosunków międzynarodowych, powstałej
w okresie przełomu XX i XXI w. (w latach 1990-2019) pozwala zauważyć, że termin
bezpieczeństwo ciągle ewoluuje, a istotny wpływ na tę ewolucję mają przede wszystkim
globalne przemiany środowiska międzynarodowego, które dały podstawę do postrzegania
bezpieczeństwa w różnych płaszczyznach, przede wszystkim w ujęciu podmiotowym,
przedmiotowym oraz funkcjonalnym. Bezpieczeństwo jest celem, do którego dążą
jego podmioty, ale jego poczucie jest też następstwem określonych działań, podejmowanych
w celu unikania lub zwalczania zagrożenia. Współcześnie bezpieczeństwo jest postrzegane
jako synergiczny efekt procesów i działań ukierunkowanych na zapewnianie przetrwania
jego podmiotów, umożliwiających ich niezakłócony rozwój w zróżnicowanych obszarach
aktywności, gwarantujących adekwatny poziom ochrony przed zagrożeniami, a w przypadku
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

ich wystąpienia – neutralizowanie ich negatywnych skutków poprzez wykorzystanie


posiadanych sił i środków. Zakres pojęciowy bezpieczeństwa jest szeroki i nieustannie ulega
dalszemu rozszerzeniu. Dostrzegalna jest zarówno obiektywna potrzeba zapewniania
bezpieczeństwa w każdej sferze aktywności społecznej, jak i kreowania warunków
dla subiektywnego poczucia bezpieczeństwa i możliwości rozwoju jednostek.

1.2. Klasyfikacja bezpieczeństwa

Badania nad bezpieczeństwem są prowadzone od lat, a dyskusje dotyczące


tego pojęcia podejmowane są w licznych dziedzinach i dyscyplinach nauki. Duży wkład
do procesu badawczego dają nauki społeczne, szczególnie nauki o bezpieczeństwie,
wyodrębnione jako dyscyplina naukowa w 2011 r. Przed tą datą problemy bezpieczeństwa
badano głównie w obszarze nauk wojskowych i innych, lecz pokrewnych dyscyplinach.
Wyodrębnienie dyscypliny nauk o bezpieczeństwie znacząco zintensyfikowało procesy
badawcze w tym zakresie. Wyodrębnienie tej oddzielnej dyscypliny naukowej świadczy
zarówno o dużej interdyscyplinarności podejmowanej tematyki, jak również o istotnym
znaczeniu bezpieczeństwa dla poszczególnych jego podmiotów – począwszy od jednostki,
poprzez społeczeństwa, narody, państwa, aż po organizacje i układy międzynarodowe.
Niezależnie od intensywności podejmowanych działań w zakresie problematyki
bezpieczeństwa, do chwili obecnej nie udało się wyodrębnić jednolitych, wspólnych
kryteriów dla wszystkich dziedzin i dyscyplin naukowych, których efektem byłoby
wprowadzenie do świata naukowego uniwersalnej typologii bezpieczeństwa. Istotą

24
tego przedsięwzięcia jest dążenie do znalezienia cech wspólnych dla tego pojęcia
oraz zniwelowania pojawiających się różnic24.
Podstawę klasyfikacji stanowią zazwyczaj najbardziej istotne cechy charakteryzujące
konkretny obiekt lub proces. O ile samo bezpieczeństwo, jako pojęcie abstrakcyjne
i teoretyczne, jest niepodzielne – istnieje lub nie, nie może istnieć częściowo – o tyle
z przyczyn naukowych, politycznych i społecznych różne jego płaszczyzny wymagają
precyzowania, rozumianego najczęściej jako zawężanie obszaru pojęciowego. Stąd też
pojawiła się potrzeba klasyfikowania bezpieczeństwa.
Bezpieczeństwo powinno być rozpatrywane w możliwie szerokiej perspektywie,
z uwzględnieniem różnic wynikających z prac podejmowanych w ramach odmiennych,
zróżnicowanych dyscyplin naukowych. W kontekście kluczowej roli bezpieczeństwa, jaką
jest zapewnienie przetrwania i rozwoju określonego podmiotu i jego otoczenia, Bernard
Wiśniewski wskazuje, że zagadnienia przydatne do opisywania i wyjaśniania faktów,
procesów i zjawisk zachodzących w bezpieczeństwie obejmują przede wszystkim:
 podmiot (z którego punktu widzenia analizuje się bezpieczeństwo),
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

 otoczenie podmiotu (środowisko, dzięki któremu zaspokaja on swoje potrzeby, realizuje


interesy i osiąga konkretne cele i wartości),
 relacje pomiędzy podmiotem a otoczeniem,
 ryzyko, będące nieodłącznym elementem każdej zmiany i rozwoju25.
Z kolei Józef Kukułka proponuje trójpodział bezpieczeństwa, uwzględniający
następujące wymiary:
 podmiotowy – dotyczący pewności istnienia i przetrwania tegoż podmiotu,
 przedmiotowy – odnoszący się do pewności stanu posiadania (w tym tożsamości)
podmiotu i jego swobód rozwojowych,
 procesualny - nawiązujący do zmienności w czasie obiektywnych i subiektywnych
aspektów bezpieczeństwa26.
Z podejściem tym zgadza się Kazimierz Malak, wskazując, że charakter
bezpieczeństwa jest kreowany przede wszystkim przez jego podmioty (oraz obiekty), rodzaje
i źródła zagrożeń oraz określone sfery działalności człowieka i społeczeństwa27. W krajowej
literaturze przedmiotu najczęściej przytaczana jest szeroka typologia bezpieczeństwa,
zaproponowana przez R. Ziębę. Głównymi aspektami wyróżniającymi poszczególne

24
Zob. B. Kaczmarczyk, op. cit., s. 17.
25
Zob. B. Wiśniewski, Współczesne rozumienie bezpieczeństwa, [w:] B. Wiśniewski (red.), Bezpieczeństwo
w teorii i badaniach naukowych, Szczytno, 2011, s. 16.
26
Zob. J. Kukułka, Narodziny nowych koncepcji bezpieczeństwa, [w:] J. Kukułka (red.), Bezpieczeństwo
międzynarodowe w Europie Środkowej po zimnej wojnie, Warszawa 1994, s. 40-41.
27
Zob. K. Malak, Typologia bezpieczeństwa. Nowe wyzwania, [on-line], stosunkimiedzynarodowe.pl, 2010,
http://www.stosunki-miedzynarodowe.pl/referaty/typologia-bezpieczenstwa-nowe-wyzwania.html (15.03.2019).
25
kategorie bezpieczeństwa są jego: podmiot, przedmiot, wymiar przestrzenny, czas
oraz sposób zorganizowania28.
Bezpieczeństwo danego podmiotu oznacza dziedzinę jego aktywności, której treść
stanowi zapewnianie możliwości egzystencji (bytu, przetrwania) oraz niezakłóconej,
swobodnej realizacji swoich interesów w środowisku pełnym zagrożeń. Odbywa się
ono poprzez wykorzystywanie pojawiających się szans, podejmowanie wyzwań,
minimalizowanie ryzyk oraz zapobieganie zagrożeniom, a w przypadku ich wystąpienia
– jak najszybsze redukowanie ich negatywnych konsekwencji29. Postępująca sekurytyzacja
sprawia, że bezpieczeństwo zdobywa nowe obszary życia społecznego. Znaczenie tych sfer
zwiększa się wraz z rozwojem cywilizacyjnym. Kierując się kryterium podmiotowym,
tj. biorąc pod uwagę podmiot, którego interesom zapewniana jest ochrona przed
zagrożeniami, wyróżnić można bezpieczeństwo narodowe oraz międzynarodowe.
Bezpieczeństwo narodowe utożsamiane jest często z bezpieczeństwem państwa
ze względu na źródło swojego pochodzenia, czyli żywotne potrzeby społeczności ludzkich,
które zorganizowały się w państwa lub organizacje państwowe. Należy mieć jednak
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

świadomość, że istnieją obecnie państwa wielonarodowe, w których koegzystują odrębne


narody, kierujące się odmiennymi, nierzadko pozostającymi w sprzeczności interesami
narodowymi. Gwarancją przetrwania i rozwoju narodu jest tworzenie instytucji państwowych,
które realizują potrzeby i interesy bezpieczeństwa narodu (lub narodów). Dlatego też naród
jest podmiotem bezpieczeństwa, a państwo jego przedmiotem30. Bezpieczeństwo narodowe
należy rozumieć jako ochronę wewnętrznych wartości podmiotu oraz zapewnianie warunków
do realizacji zadań, które z tych wartości wynikają 31. Jako wartości podlegające ochronie
w ramach bezpieczeństwa narodowego wskazywane są najczęściej: przetrwanie (wartość
najwyższa, w określonych okolicznościach dla jej ochrony społeczeństwo jest skłonne
poświęcić inne dobra), integralność terytorialną, suwerenność narodu oraz standard życia
ludności32. Szerszy katalog wartości chronionych obejmuje m.in. zapewnienie stabilnego
systemu społeczno-gospodarczego, obowiązującą ideologię, prestiż państwa na arenie
międzynarodowej, interesy obywateli przebywających za granicą, rozwój gospodarczy.
Poszczególne podmioty indywidualnie ustalają obowiązującą hierarchię wartości i zapewniają
środki ich realizacji. Środki te powinny być adekwatne w stosunku do skali i rodzaju zagrożeń
oraz realnych możliwości podmiotu, a także powinny odzwierciedlać przyjętą koncepcję

28
Zob. R. Zięba, Instytucjonalizacja bezpieczeństwa europejskiego: koncepcje – struktury – funkcjonowanie,
Warszawa 1999, s. 30-32.
29
Zob. S. Koziej, Polityczno-strategiczne aspekty bezpieczeństwa, „Bezpieczeństwo Narodowe”, 2011, nr II, s.
20.
30
Zob. A. Czupryński, op. cit., s. 21.
31
Zob. K. Malak, op. cit., s. 3.
32
Zob. A. Ciupiński, Doktrynalne i instytucjonalne przesłanki bezpieczeństwa kooperacyjnego, [w:] T. Jemioło,
K. Malak (red.), Bezpieczeństwo zewnętrzne Rzeczypospolitej Polskiej, Warszawa 2002, s. 92.
26
polityki zagranicznej i bezpieczeństwa. Bezpieczeństwo narodowe jest tworzone przez całą
jego społeczność drogą ochrony istotnych wartości i interesów narodowych, kreowanie
optymalnych warunków rozwoju i zapewnianie obrony przed pojawiającymi się
zagrożeniami. Jest jednocześnie zdolnością do przetrwania i rozwoju konkretnych grup
społecznych, które łączy świadomość więzi etnicznych, kultury symbolicznej i potrzeba
ochrony wspólnych wartości.
Bezpieczeństwo międzynarodowe obejmuje szerszy zakres treści niż bezpieczeństwo
narodowe. Stanowi ono nie tylko sumę bezpieczeństwa pojedynczych państw – jest zależne
od warunków, mechanizmów i norm międzynarodowych, a także oddziaływań
zapewniającym każdemu państwu (pozostającemu w określonym regionie czy systemie)
mniejszą lub większą pewność istnienia, przetrwania i swobodnego rozwoju.
Międzynarodowy wymiar bezpieczeństwa obejmuje zatem nie tylko wartości
egzystencjonalne poszczególnych państw, ale również zespół wartości wspólnych dla całego
systemu, przede wszystkim równowagę, stabilność, pokój i współpracę. Poziom ochrony tych
wartości jest wypadkową polityki bezpieczeństwa państw oraz całokształtu więzi i relacji
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

międzynarodowych. Celem działań na rzecz zapewniania bezpieczeństwa międzynarodowego


jest neutralizowanie zagrożeń dla istnienia, tożsamości, przetrwania i rozwoju jego
podmiotów (państw i systemów) oraz kształtowanie ich pewności33. Bezpieczeństwo
międzynarodowe odnosi się do wszystkich narodów i państw przez nie utworzonych.
Może być rozumiane jako system międzynarodowy, w którym poszczególne narody
koegzystują ,nie stwarzając zagrożeń dla innych nacji i nie czując zagrożenia z ich strony.
Przejawem bezpieczeństwa międzynarodowego jest harmonijny rozwój poszczególnych
narodów. Mówiąc o bezpieczeństwie międzynarodowym warto odnotować, że pierwotnie
na charakter bezpieczeństwa podmiotowego oddziaływały tylko narody, które
zinstytucjonalizowały się w państwa. Współcześnie natomiast swobodny przepływ informacji
i możliwość masowego dostępu do niej sprawiają, że coraz większy wpływ na kreowanie
i kształtowanie bezpieczeństwa dowolnego podmiotu mają grupy społeczne, a nawet jednostki
uznawane za światowe autorytety34.
Bezpieczeństwo może być również rozpatrywane w aspekcie wewnętrznym
i zewnętrznym. Bezpieczeństwo wewnętrzne odnosi się do zapobiegania i przeciwdziałania
zagrożeniom występującym wewnątrz państwa. Włodzimierz Fehler definiuje to pojęcie
jako „zakotwiczony w porządku ustrojowym stan stosunków wewnętrznych i toczących się
w ich ramach procesów, zapewniający skuteczną i harmonijną realizację interesów państwa
oraz jego obywateli, a jednocześnie tworzący potencjał zdolności do sprawnego

33
Zob. R. Zięba (red.), Bezpieczeństwo międzynarodowe po zimnej wojnie, Warszawa 2008, s. 20.
34
Zob. A. Czupryński, op. cit., s. 21.
27
diagnozowania i reagowania w przypadkach pojawiających się zagrożeń godzących
w te interesy”35. Istotą bezpieczeństwa wewnętrznego jest zatem zapewnianie wewnętrznej
stabilności podmiotu bezpieczeństwa i przeciwdziałanie zagrożeniom endogennym.
Z kolei bezpieczeństwo zewnętrzne koncentruje się na przeciwdziałaniu zagrożeniom
pochodzącym z otoczenia podmiotu. W okresie zimnowojennym utożsamiano je z brakiem
zagrożeń o charakterze militarnym, który to stan miała zapewnić przede wszystkim silna
armia dająca liczebną przewagę nad przeciwnikiem. Obecnie środki zapewniania
bezpieczeństwa zewnętrznego można sklasyfikować w czterech grupach, wyróżniając środki
polityczne, ekonomiczno-finansowe, wojskowe i kulturowo-ideologiczne36. Środki polityczne
obejmują dobre relacje z innymi państwami, deklaracje oraz działania władz ukierunkowane
na łagodzenie konfliktów i rozwiązywania pojawiających się sporów. Środki ekonomiczno-
finansowe stosuje się coraz częściej w relacjach z partnerami gospodarczymi – obejmują one
zarówno środki negatywne (jak embargo czy międzynarodowy bojkot), jak i pozytywne,
tj. pomoc finansową czy przyznanie przywilejów finansowych. Środki wojskowe obejmują
siły zbrojne państwa i związane z nim składniki gospodarki narodowej, pozwalające
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

na ochronę integralności granic państwa; istotne znaczenie ma również rozmieszczenie sił


zbrojnych państwa poza jego terytorium. Środki o charakterze kulturowo-ideologicznym
wykorzystywane są w celu kształtowania współpracy międzynarodowej i łagodzenia
pojawiających się napięć poprzez wskazanie podobieństw pomiędzy stronami konfliktu.
Jednocześnie należy pamiętać, że niektórzy przywódcy państw mogą korzystać z czynników
ideologicznych dążąc w ten sposób do poszerzania swojej strefy wpływów, co może
prowadzić do konfliktów na wskazanym tle37. Jak widać, zagrożenia bezpieczeństwa
zewnętrznego wiążą się nie tylko z groźbą agresji zbrojnej – równie istotne dla istnienia
państwa i bytu jego obywateli są zagrożenia o charakterze gospodarczym (np. izolacja na
arenie międzynarodowej, embargo na handel) czy społecznym (np. ubóstwo, patologie
społeczne, niekontrolowane migracje)38. Zapewnienie wysokiego poziomu bezpieczeństwa
zewnętrznego jest zatem kluczowym celem polityki zagranicznej państwa.
Podstawę podziału podmiotowego wymiaru bezpieczeństwa stanowią najczęściej
granice terytorialne – nie tylko państwowe czy kontynentalne, ale także środowiskowe,
granice sojuszy i organizacji międzynarodowych. Należy jednak mieć świadomość,
że w obecnych warunkach globalizacji i internacjonalizacji różnych sfer życia społecznego,
podział bezpieczeństwa na wewnętrzne i zewnętrzne zaciera się. Wynika to choćby z ewolucji

35
W. Fehler, O pojęciu polityki wewnętrznego bezpieczeństwa państwa, „Studia Prawnoustrojowe”, 2014, nr 23,
s. 204.
36
Zob. M. Ciszek, Teoretyczne podstawy bezpieczeństwa państwa, „Prosopon. Europejskie Studia Społeczno-
Humanistyczne”, 2011, nr 2, s. 45.
37
Zob. Ibidem.
38
Zob. Ibidem, s. 44.
28
zagrożeń dla bezpieczeństwa – źródeł zorganizowanej przestępczości, handlu
niedozwolonymi substancjami czy nawet terroryzmu międzynarodowego można doszukiwać
się w obrębie określonego podmiotu bezpieczeństwa, ale mogą one również pochodzić spoza
jego granic. Pomimo podziału, bezpieczeństwo wewnętrzne i zewnętrzne przenika się i scala,
tworząc bezpieczeństwo danego państwa, narodu lub innego podmiotu39. Zapewnienie tego
bezpieczeństwa jest bowiem możliwe dzięki tworzeniu optymalnych warunków
do wewnętrznego, niezakłóconego rozwoju istotnych elementów systemu, jak i likwidowaniu
realnych i potencjalnych zagrożeń zewnętrznych poprzez dążenie do takiego kształtu
otoczenia zewnętrznego, który sprzyja rozwojowi podmiotu.
Nieco odmienne podejście do podmiotowego wymiaru bezpieczeństwa reprezentuje
S. Koziej, wskazując jako podmioty bezpieczeństwa wszystkie jednostki, które mają własne
interesy i wyrażają ambicje ich realizowania. Podmiotami mogą być zatem jednostki, grupy
społeczne, narody, społeczności międzynarodowe, a nawet cała ludzkość. Powyższy podział
rozszerza typologię zaproponowaną przez R. Ziębę o nowe kategorie bezpieczeństwa -
indywidualne i grupowe40. Znaczenie człowieka jako podstawowego podmiotu
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

bezpieczeństwa dostrzegł również W. Kitler, patrząc na bezpieczeństwo przez pryzmat


wartości uznawanych przez jego podmioty. W tym kontekście bezpieczeństwo może dotyczyć
zarówno jednostki (posiadającej określony system wartości i norm społecznych), grupy ludzi
(dążących do bezpieczeństwa w konkretnych sytuacjach społecznych),
jak i sformalizowanych struktur terytorialnych (np. gmina, województwo, państwo, grupa
państw), dla których główną wartość stanowią normy prawne, a które adekwatnie do zasięgu
terytorialnego stanowią o bezpieczeństwie międzynarodowym, narodowym czy lokalnym 41.
Jeżeli chodzi o bezpieczeństwo personalne (bezpieczeństwo jednostki), za jego istotę
należy uznać ochronę jednostki przed zagrożeniami i zapewnienie warunków do realizacji
jego interesów. W społeczeństwie funkcjonującym w czasie pokoju, gdy zapewniona jest
wolność od zagrożeń o charakterze militarnym, człowiek dąży do realizacji potrzeb wyższego
rzędu – rozwoju i dobrobytu. Jest to możliwe dzięki posiadaniu środków zapewniających
utrzymanie, oszczędności i dostęp do opieki medycznej. Bezpieczeństwo jednostki może
zostać zaburzone nie tylko w wyniku materializacji czynników zagrażających całemu
społeczeństwu i porządkowi publicznemu, jak groźba wojny, rewolucji, społecznego chaosu,
załamania funkcjonowania systemu ekonomiczno-społecznego, ale również
spersonalizowanych zagrożeń o szerokim zakresie przedmiotowym, jak choroby, bezrobocie,
przestępczość czy brak dostępu do dóbr oświaty i kultury.

39
Zob. J. Kaczmarek, Problemy bezpieczeństwa RP, „Myśl Wojskowa”, 1991, nr 1, s. 14.
40
Zob. S. Koziej, Wstęp do teorii…, s. 2.
41
Zob. W. Kitler, Istota bezpieczeństwa narodowego, [w:] B. Wiśniewski, W. Fehler (red.), Edukacja obronna
społeczeństwa, Białystok 2006, s. 16.
29
Bezpieczeństwo przejawia się w każdej dziedzinie aktywności określonego podmiotu.
Dlatego też jego struktura stanowi odwzorowanie struktury funkcjonowania tego podmiotu.
Żywotne interesy obiektów bezpieczeństwa podlegają oddziaływaniu zróżnicowanych
zagrożeń, toteż istotne jest wyodrębnienie określonych rodzajów bezpieczeństwa
odpowiadających poszczególnym sferom działalności człowieka, w których zagrożenia
te się materializują. Klasyfikacji tej podlegają nie tylko żywotne interesy, ale również
zagrożenia i kierunki zapewniania bezpieczeństwa. Typologia przedmiotowa ma charakter
uzupełniający, wobec podziału podmiotowego, ale klasyfikacja według tego kryterium
pozwala na precyzyjną analizę stanu bezpieczeństwa każdej z wyodrębnionych dziedzin
funkcjonowania podmiotu. W świetle powyższych rozważań bezpieczeństwo w ujęciu
przedmiotowym należy rozumieć jako ochronę przed wewnętrznymi i zewnętrznymi
zagrożeniami żywotnych interesów podmiotów bezpieczeństwa (jednostki, społeczeństwa,
państwa, organizacji) oraz zapewnienie możliwości niezakłóconego funkcjonowania w każdej
sferze ich działalności - politycznej, militarnej, ekonomicznej, ekologicznej, energetycznej,
informacyjnej, społecznej, gospodarczej, kulturowej, ideologicznej, itd. Z uwagi
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

na wspomnianą wcześniej postępującą sekurytyzację życia publicznego, katalog


przedmiotowy bezpieczeństwa pozostaje otwarty. Należy mieć również na uwadze fakt,
że pomimo wyróżnienia poszczególnych sektorów bezpieczeństwa, za które odpowiedzialne
są najczęściej konkretne struktury danego podmiotu, to coraz częściej określona problematyka
bezpieczeństwa pozostaje w kompetencjach wielu podmiotów. Takim transsektorowym
wymiarem bezpieczeństwa jest m.in. bezpieczeństwo informacyjne.
Jednym z najważniejszych sektorów bezpieczeństwa podmiotu jest jego wymiar
polityczny. Bezpieczeństwo polityczne koncentruje się na zapewnieniu przetrwania i rozwoju
systemu politycznego funkcjonującego w danym państwie lub grupie państw. Włodzimierz
Chojnacki proponuje rozumienie tego bezpieczeństwa jako „procesu, w którym istnieje
zdolność do życia i prolongowania wszechstronnego rozwoju jednostek i grup
społecznych”42, wskazując jednocześnie, że chodzi o „zapewnienie im bezpieczeństwa
wewnętrznego i zewnętrznego, co stanowi podstawowy obowiązek każdego demokratycznego
państwa prawnego”43. Ten wymiar odnosi się zatem do utrzymania stabilności ustrojowej i
społecznej podmiotów oraz ich ochrony przed zagrożeniami militarnymi, zorganizowaną
przestępczością transnarodową konfliktami etnicznymi i nacjonalizmami, terroryzmem, jak
również skutkami klęsk żywiołowych i ekologicznych44. Nieodłącznym elementem
bezpieczeństwa politycznego jest również suwerenność wewnętrzna, wiążąca się ze
42
W. Chojnacki, W. Fehler, Pojęcie oraz typologie bezpieczeństwa i zagrożeń, [w:] B. Wiśniewski (red. nauk.),
Bezpieczeństwo w teorii i badaniach naukowych, Szczytno 2018, s. 26.
43
Ibidem.
44
Zob. B. Hołyst, Filozoficzne uwarunkowania działalności terrorystycznej [w:] B. Hołyst, K. Jałoszyński, A.
Letkiewicz (red.), Wojna z terroryzmem w XXI wieku, Szczytno 2009, s. 9.
30
sprawowaniem przez legalne władze rzeczywistej kontroli nad określonym terytorium45.
Choć polityczny wymiar bezpieczeństwa może odnosić się do systemu międzynarodowego
lub jednostki (w zakresie ochrony praw człowieka), to dotyczy on przede wszystkim
podmiotów państwowych. Za istotę bezpieczeństwa politycznego należy zatem uznać
możliwość prowadzenia przez podmiot niezależnej, suwerennej polityki wewnętrznej oraz
zagranicznej, a także zdolność do sprawnego rozwiązywania pojawiających się problemów
dotyczących systemu państwowego. W skali europejskiej wyzwaniem o tym charakterze
może być słabość struktur demokratycznych w państwach, które po zakończeniu zimnej
wojny uzyskały (lub też odzyskały) suwerenność i stanęły przed koniecznością wyboru opcji
dalszego zapewniania bezpieczeństwa.
Fundamentalnym obszarem bezpieczeństwa jest również bezpieczeństwo wojskowe
(militarne), definiowane jako stan uzyskany w wyniku utrzymywania odpowiednio
wyposażonych i zorganizowanych sił zbrojnych podmiotu oraz zawartych przez niego sojuszy
wojskowych. Kluczowe znaczenie w procesie jego zapewniania odgrywa posiadanie przez
podmiot koncepcji strategicznej dotyczącej wykorzystania posiadanych sił w przypadku
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

zaistnienia takiej konieczności46. Ten wymiar bezpieczeństwa obejmuje przede wszystkim


takie elementy jak: ochrona granic państwowych, funkcjonowanie, wyszkolenie i utrzymanie
sił zbrojnych, powstrzymywanie agresji zbrojnej ze strony innych podmiotów, rozwój nauk
i technologii wojskowych oraz zapewnienie sprawnego działania przemysłu obronnego.
Celem bezpieczeństwa militarnego jest zapewnienie przetrwania i rozwoju państwa
(lub grupy państw) i ochrony jego ludności przed zagrożeniami o charakterze wojskowym.
Jeżeli zagrożenia te się zmaterializują, celem jest zagwarantowanie zdolności odparcia agresji
zbrojnej przeciwnika z wykorzystaniem sił własnych lub sojuszniczych. Czynnikami,
które warunkują poczucie bezpieczeństwa militarnego w aspekcie wewnętrznym są siły
zbrojne i paramilitarne, pozostające zarówno w adekwatnym stanie liczbowym, jak i mające
stosowny poziom jakościowy47. Chodzi tu przede wszystkim o ich wyszkolenie, aprowizację,
wyposażenie, stan techniczny wykorzystywanego sprzętu oraz używanie nowych rozwiązań
z zakresu technologii wojskowej. W ujęciu zewnętrznym do zapewniania bezpieczeństwa
militarnego w największej mierze przyczyniają się działania na rzecz budowy i sprawnego
funkcjonowania regionalnych systemów bezpieczeństwa zbiorowego oraz zaangażowanie
podmiotu w sojusze wojskowe.
O ile bezpieczeństwo militarne koncentruje się na negatywnym, wąskim rozumieniu
bezpieczeństwa jako braku zagrożeń dla przetrwania państwa, tak bezpieczeństwo
ekonomiczne kładzie nacisk na aspekt pozytywny, czyli zapewnianie możliwości

45
Zob. K. Malak, op. cit., s. 5.
46
Zob. J. Kaczmarek, W. Łepkowski, B. Zdrodowski, op. cit., s. 21.
47
Zob. K. Malak, op. cit., s. 5.
31
swobodnego rozwoju podmiotu. Jedną z konsekwencji zakończenia zimnej wojny
jest zauważalne przesunięcie rywalizacji mocarstw z poziomu międzynarodowego
na regionalny, przy czym, oprócz dążenia do zapewnienia przewagi militarnej, istotna
jest również konkurencja gospodarcza. Bezpieczeństwo ekonomiczne związane
jest z zapewnianiem ochrony przed zagrożeniami dla dobrobytu podmiotu, jego swobodnego
dostępu do środków finansowych, rynków i zasobów naturalnych, które warunkują stabilny
rozwój podmiotu bezpieczeństwa i utrzymanie przez niego satysfakcjonującej pozycji
na arenie międzynarodowej. Jest rozumiane jako stan rozwoju krajowego systemu
gospodarczego, zapewniającego wysoką sprawność jego funkcjonowania dzięki należytemu
wykorzystaniu wewnętrznych czynników rozwoju oraz gotowości do skutecznego
przeciwdziałania naciskom z zewnątrz, które mogłyby zaburzyć ten rozwój.
Dlatego też nieodłącznym elementem tej sfery bezpieczeństwa jest utrzymanie stałej
zdolności produkcyjnej, w tym przemysłu zbrojeniowego zapewniającego obsługę potrzeb
obrony narodowej i wojskowości48.
Kolejny wymiar to bezpieczeństwo społeczne, które należy rozumieć
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

jako zapewnianie wolności od zagrożeń skutkujących brakiem lub niedostatkiem środków


utrzymania i zatrzymaniem możliwości rozwoju społecznego poprzez socjalne zabezpieczenie
obywateli. Jego celem jest zapewnienie rozwoju nie tylko jednostek, ale również państwowej
struktury socjalnej i prawidłowych relacji społecznych. Osiągnięcie tego celu jest możliwe
poprzez wykorzystanie dostępnych środków służących ochronie i realizowaniu interesów
państwa w obszarze społecznym i socjalnym. Jednym z takich środków jest polityka
społeczna, rozumiana nie tylko jako przeciwdziałanie skonkretyzowanym zagrożeniom,
ale również działania na rzecz kreowania wartościowego społeczeństwa 49. Istotne znaczenie
w tym zakresie ma również edukacja, jako czynnik przygotowujący jednostki
do współzawodnictwa w ramach gospodarki rynkowej i umożliwiający poznanie wartości
społecznych, które są niezbędne do interakcji z pozostałymi członkami społeczeństwa.
Termin „bezpieczeństwo społeczne” jest również często utożsamiany ze spokojem
społecznym.
Sferą stosunkowo młodą w kontekście zainteresowań nauk o bezpieczeństwie jest
bezpieczeństwo kulturowe, określające zdolność państwa do ochrony tożsamości kulturowej,
dóbr kultury i dziedzictwa narodowego w warunkach otwartości na świat zewnętrzny,
umożliwiającej rozwój kultury podmiotu poprzez internalizację nowych wartości, które nie
pozostają

48
Zob. J. Czaputowicz, Kryteria bezpieczeństwa międzynarodowego państwa – aspekty teoretyczne, [w:]
S. Dębski, B. Górka-Winter (red.), Kryteria bezpieczeństwa międzynarodowego państwa, Warszawa 2003, s. 24.
49
Zob. J. Kaczmarek, W. Łepkowski, B. Zdrodowski, op. cit., s. 19.
32
w sprzeczności z wspomnianą tożsamością50. Istotę bezpieczeństwa kulturowego stanowią
działania na rzecz utrwalania i podtrzymywania wartości tworzących tożsamość kulturową,
nie tylko w wymiarze narodowym czy państwowym, ale również regionalnym. Jego celem
jest umacnianie i utrwalanie elementów, które decydują o ciągłości tożsamości kulturowej
podmiotu, wyrażające się w ochronie wartości kultury symbolicznej (języka, religii,
zwyczajów, tradycji historycznych, ideologii, filozofii) oraz trosce o materialne dobra kultury
i dziedzictwa kulturowego (zabytki, pomniki, świątynie, kompleksy miejskie, obiekty
o szczególnej wartości artystycznej) – treści te wyrażają wartości duchowe integrujące naród
lub społeczność. Główną rolę w procesie zapewniania bezpieczeństwa kulturowego narodu
oraz regionalnych grup społecznych odgrywa państwo, jednak wpływ nań mają także
regulacje międzynarodowe, m.in. zapisy Konwencji Haskiej o ochronie dóbr kulturalnych
w razie konfliktu zbrojnego z 1954 r., Konwencji w sprawie ochrony światowego dziedzictwa
kulturalnego i naturalnego z 1972 r. czy Traktatu o Unii Europejskiej z 1991 r.51.
Ważną kategorią bezpieczeństwa stanowi bezpieczeństwo transportu, będącego
jednym z kluczowych sektorów gospodarki, zapewniających funkcjonowanie zróżnicowanych
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

dziedzin życia każdego państwa. W obliczu nieustannego postępu przemysłowego


w dziedzinie konstrukcji środków transportu zrozumiały jest zauważalny rozwój badań
nad bezpieczeństwem ruchu drogowego, skoncentrowanych na tematyce zapewniania
bezpieczeństwa uczestnikom ruchu drogowego, przede wszystkim na drogach, w strefach
ruchu oraz w strefach zamieszkania52. Łukasz Gmys wskazuje, że bezpieczeństwo
komunikacyjne, w szczególności bezpieczeństwo transportu drogowego, uwzględnia
uczestników ruchu drogowego, wykorzystywane środki transportu i przewożone po drogach
ładunki53. Analiza realizowanego obecnie w Polsce Narodowego Programu Bezpieczeństwa
Ruchu Drogowego pozwala zauważyć, że obszar zainteresowań badawczych tej gałęzi
bezpieczeństwa obejmuje problematykę ochrony pieszych uczestników ruchu drogowego,
kształtowania kultury jazdy z bezpieczną prędkością, dostosowania infrastruktury drogowej
do światowych standardów bezpieczeństwa ruchu drogowego oraz rozwoju systemu
ratownictwa na drogach54. Co prawda formalna, uniwersalna definicja pojęcia bezpieczeństwa
ruchu drogowego nie została jeszcze wypracowana, natomiast zakres poruszanej
w jego ramach problematyki pozwala wskazać jego cel, jakim jest zapewnienie ochrony
uczestników ruchu drogowego przed zagrożeniami wynikającymi zarówno z niedostatecznej

50
Por. J. Czaja, Kulturowy wymiar bezpieczeństwa. Aspekty teoretyczne i praktyczne, Kraków 2013, s. 77-83.
51
Traktat o Unii Europejskiej, Maastricht 07.02.1992. Dz.U. 2004 nr 90 poz. 864.
52
Zob. M. Ogrodniczak, J. Ryba, Bezpieczeństwo ruchu drogowego w świetle wybranych aktów prawnych,
„Autobusy”, 2016, nr 6, s. 352.
53
Zob. Ł. Gmys, Bezpieczeństwo transportu drogowego, „Poradnik Spedytora” [on-line], 2012,
http://poradnikspedytora.pl/2012/bezpieczenstwo-transportu-drogowego/ (01.04.2019).
54
Zob. Krajowa Rada Bezpieczeństwa Ruchu Drogowego, Narodowy Program Bezpieczeństwa Ruchu
Drogowego 2013-2020, Warszawa 2013.
33
kultury bezpieczeństwa prowadzenia pojazdów mechanicznych w zróżnicowanych warunkach
pogodowych, jak i będącymi efektem niedostatecznego zaplecza infrastrukturalnego
(jak np. zły stan dróg, brak innowacyjnych rozwiązań komunikacyjnych, czy wątpliwy stan
techniczny pojazdów dopuszczonych do ruchu).
Szczególnym wymiarem bezpieczeństwa jest bezpieczeństwo informacyjne 55.
W ujęciu ogólnym termin ten definiowany jest jako „kompleks przedsięwzięć zapewniający
bezpieczeństwo środowiska informacyjnego, a także jego formowanie, wykorzystywanie
i rozwój w interesie obywateli, organizacji i państwa”56. Obejmuje trzy główne elementy:
ludzi, oceny oraz technologie i procesy (od pozyskania informacji, poprzez transmisję,
przetwarzanie i modyfikację, aż po przechowywanie i przekazywanie informacji. Praktycy
odnoszą bezpieczeństwo informacyjne do ochrony informacji przed naruszeniem
jej atrybutów - poufności, dostępności, integralności i rozliczalności. Do zdarzeń tych
dochodzi wskutek celowego lub przypadkowego ujawnienia, uszkodzenia, zniszczenia
lub modyfikacji informacji, w sposób uniemożliwiający jej przetwarzanie57. Celem ochrony
jest zatem wyeliminowanie zagrożeń dla informacji. Widoczne jest tutaj negatywne podejście
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

do bezpieczeństwa, które w kontekście rosnącego znaczenia wartości informacji58 przestało


być wystarczające w kontekście zapewniania bezpieczeństwa państwa. Obecnie każda jego
płaszczyzna staje się zależna od niezakłóconego przebiegu informacji oraz stabilności
systemów na nich bazujących. W szczególności chodzi tu o takie sektory jak gospodarka,
wojskowość, energetyka, systemy finansowe, transport i media. Strategiczne systemy
informatyczne stanowią kluczowe elementy procesów decyzyjnych podejmowanych zarówno
w obszarze wojskowym, jak i cywilnym. Aby zapewnić bezpieczeństwo państwa, niezbędne
jest zatem prowadzenie zrównoważonej polityki bezpieczeństwa informacyjnego,
która zapewni ochronę nie tylko istniejącym systemom, ale również zagwarantuje państwu
i chronionym podmiotom przetrwanie, posiadanie i rozwój społeczeństwa informacyjnego.
W aspekcie przestrzennym bezpieczeństwo można podzielić na uniwersalne
(światowe, globalne), transregionalne, regionalne, subregionalne, lokalne i miejscowe59.
Bezpieczeństwo uniwersalne jest rozumiane jako zdolność do zapewniania rozwoju
cywilizacji światowej, ochrona systemu relacji podmiotów bezpieczeństwa
międzynarodowego przed konfliktami zbrojnymi, wojnami, kryzysami i destabilizacją,

55
Bezpieczeństwo informacyjne, z uwagi na kluczowe znaczenie dla tematyki rozprawy, zostanie szerzej
omówione w podrozdziale 1.4.
56
J. Janczak, A. Nowak, Bezpieczeństwo informacyjne. Wybrane problemy, Warszawa 2013, s. 17.
57
Zob. Ibidem, s. 13.
58
Intelektualny rozwój społeczeństwa i politechnizacja życia codziennego spowodował wzrost znaczenia
informacji – posiadanie informacji o zagrożeniu pozwalało nie tylko przetrwać, ale również podnieść standard
życia. Informacje zaczęto traktować w kategoriach dóbr materialnych, pojawiła się również konkurencja w ich
pozyskiwaniu i ochronie przed ujawnieniem. W walce informacyjnej wykorzystuje się zróżnicowane środki ich
zdobywania, zakłócania i obrony.
59
Zob. K. Malak, op. cit., s. 8.
34
a także zapobiegania i neutralizowania skutków globalnych katastrof naturalnych.
Można również zgodzić się z Janem Czają, który zauważa, że bezpieczeństwo globalne może
być rozumiane jako synonim światowego bezpieczeństwa militarnego, oznaczającego stan
braku globalnych zagrożeń w postaci ponadregionalnego konfliktu zbrojnego lub wojny
nuklearnej60. Celem bezpieczeństwa globalnego jest zatem zapobieganie, przeciwdziałanie
i likwidacja zagrożeń dla żywotnych interesów podmiotów zamieszkujących planetę.
Bezpieczeństwo regionalne koncentruje się na ochronie systemu stosunków i relacji
pomiędzy poszczególnymi państwami zlokalizowanymi w określonym regionie (kontynencie)
przed zagrożeniami obejmującymi destabilizację (najczęściej militarną, polityczną
lub gospodarczą), kryzysy, konflikty zbrojne i wojny pozostające w skali tego regionu 61.
Bezpieczeństwo to jest zazwyczaj budowane w oparciu o układ działający w obrębie
określonego regionu międzynarodowego (jak np. Unia Europejska, Szanghajska Organizacja
Współpracy, Międzyamerykański Bank Rozwoju, Unia Afrykańska). Pomimo,
że determinantem powstania regionalnej instytucji bezpieczeństwa jest często geograficzna
granica regionu, to przynależność do niej jest wynikiem nawiązania współpracy
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

funkcjonalnej, zatem zasięg działań kooperacyjnych organizacji nie musi pokrywać się
z zasięgiem geograficznym. Często sytuacja taka ma miejsce w przypadku sojuszy
wojskowych, których cele jednoczą państwa położone na obszarze większym niż region62.
Przykładem organizacji bezpieczeństwa o zasięgu transregionalnym jest Organizacja Paktu
Północnoatlantyckiego w regionie transatlantyckim. Jedynym kryterium, które różnicuje
bezpieczeństwo transregionalne jest obszar, na którym jest zapewniane. Wyróżnik ten stosuje
się również definiując bezpieczeństwo subregionalne, które dotyczy obszaru mniejszego
niż region, wyróżniającego się określonymi cechami fizycznymi, gospodarczymi
lub etnograficznymi, których występowania nie odnotowano w pozostałych częściach
regionu63. Organizacjami zapewniania bezpieczeństwa w wymiarze subregionalnym
są m.in. Trójkąt Weimarski, Grupa Wyszehradzka czy OPEC.
Regionalizacja bezpieczeństwa sprawia, że coraz większego znaczenia nabiera lokalna
specyfika zarówno zagrożeń, jak i metod oraz środków przeciwdziałania mu. Efektem tego
procesu jest koncentracja na kształtowaniu lokalnego kompleksu bezpieczeństwa64. Tendencja
ta jest zauważalna zwłaszcza w odniesieniu do zagadnień bezpieczeństwa ekologicznego
i przeciwdziałania katastrofom naturalnym. Bezpieczeństwo na poziomie lokalnym
w aspekcie przestrzennym obejmuje jedynie określoną część terytorium państwa i wspólnotę
60
Zob. J. Czaja, op. cit., s. 58.
61
Zob. B. Chmieliński, Rozważania nad naukami o bezpieczeństwie i bezpieczeństwem społeczności lokalnych,
„Historia i Polityka”, 2018, nr 23(30), s. 61-62.
62
Zob. K. Malak, op. cit., s. 9.
63
Zob. H. Zgółkowa, Praktyczny słownik współczesnej polszczyzny, T. 40, Poznań 1994, s. 156.
64
Zob. E. Haliżak, Regionalizm w stosunkach międzynarodowych, [w:] E. Haliżak, R. Kuźniar (red.), Stosunki
międzynarodowe. Geneza, struktura, dynamika, Warszawa 2004, s. 282.
35
społeczną na tym terytorium. Obszar ten może stanowić zarówno oddzielne terytorium
w granicach jednego państwa, jak i obejmować małe obszary przygraniczne wielu
podmiotów. Niezależnie od położenia należy go rozumieć jako jednorodne terytorium
obejmujący niewielką liczbę obiektów, przy czym kluczowym wyróżnikiem jest świadomość
społeczna ludności zamieszkującej ten obszar. Polega ona nie tylko na utożsamianiu się
społeczeństwa z konkretnym miejscem zamieszkania, ale również poczuciu odrębności
w stosunku do mieszkańców innych terytoriów pod względem tradycji, nawyków,
właściwości społecznych oraz, nierzadko, interesów politycznych65. Istotą bezpieczeństwa
lokalnego jest zatem ochrona żywotnych i ważnych interesów lokalnej wspólnoty społecznej
(lub lokalnych instytucji bezpieczeństwa) przed zagrożeniami zewnętrznymi i wewnętrznymi
oraz zapewnianie optymalnych warunków do realizacji tych interesów.
W sposób analogiczny do bezpieczeństwa w wymiarze lokalnym rozumiane
jest bezpieczeństwo miejscowe, z tym, że poziom ten obejmuje problemy dotyczące jednostek
administracyjnych o statusie samorządu – gmin i powiatów66. Charakter i struktura tych
jednostek generuje specyficzne dla nich zagrożenia żywotnych interesów wspólnot
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

społecznych i jednostek o charakterze socjalnym, przede wszystkim bezrobocie,


niedostateczną infrastrukturę społeczno-bytową, czasową niedostępność opieki lekarskiej
czy słaby poziom komunikacji67.
Odmienne wytyczne przyjmuje się stosując kryterium czasu, pozwalające rozpatrywać
bezpieczeństwo jako stan (w określonym miejscu i czasie) lub proces rozciągnięty w czasie.
W najbardziej ogólnej definicji, bezpieczeństwo jest stanem uzyskanym w rezultacie
adekwatnie zorganizowanej ochrony i obrony przed zagrożeniami militarnymi,
niemilitarnymi, zewnętrznymi i wewnętrznymi, z wykorzystaniem do tego celu sił i środków
pochodzących ze zróżnicowanych dziedzin działalności państwa68. Poczucie tego stanu
należy rozpatrywać przez pryzmat bieżących zdarzeń - w konkretnym momencie podmiot
bezpieczeństwa zazwyczaj jest w stanie określić czy czuje się bezpiecznie, czy też odczuwa
strach przed zagrożeniami. Jednocześnie trzeba mieć świadomość, że jest to stan nietrwały.
Postrzeganie stanu bezpieczeństwa również może przyjmować określone formy - za Danielem
Frei wyróżnić można cztery oceny bezpieczeństwa:
 stan bezpieczeństwa – rzeczywiste zagrożenie nie istnieje lub jest nieznaczne,
a jego postrzeganie jest prawidłowe;
 stan braku bezpieczeństwa – istnieje poważne zagrożenie, a jego postrzeganie
jest prawidłowe;

65
Zob. A.A. Prochożewa, Obszczaja tieorija nacjonalnej biezopasnosti, Moskwa 2005, s. 218.
66
Zob. K. Malak, op. cit., s. 10.
67
Zob. B. Chmieliński, op. cit., s. 62.
68
Zob. J. Kaczmarek, W. Łepkowski, B. Zdrodowski, op. cit., s. 29.
36
 stan obsesji – niewielkie zagrożenie jest błędnie postrzegane jako poważne;
 stan fałszywego bezpieczeństwa – poważne zagrożenie jest błędnie postrzegane
jako niewielkie69.
Bezpieczeństwo jako proces obejmuje całokształt działań obronnych i ochronnych,
których celem jest stworzenie optymalnych warunków funkcjonowania podmiotu w relacjach
z jego otoczeniem. Odnosi się to również do nieustannego przeciwstawiania się wyzwaniom
i zagrożeniom bezpieczeństwa oraz wykorzystywania szans umożliwiających rozwój tego
podmiotu70. Jako proces społeczny bezpieczeństwo polega na nieustannym podejmowaniu
czynności, których celem jest doskonalenie mechanizmów zapewniających poczucie wolności
od zagrożeń. Dynamizm bezpieczeństwa jest w dużej mierze wynikiem globalizacji,
związanej ze zmiennością warunków środowiskowych, postępem cywilizacyjnym oraz
rosnącym zakresem potrzeb poszczególnych podmiotów, zaś proces zapewniania
bezpieczeństwa w stosunkach międzypaństwowych jest postrzegany jako wyznacznik
zgodności i sprzeczności zarówno podmiotów, jak i systemów międzynarodowych 71.
Procesem jest również zmienność stanów bezpieczeństwa, ewoluujących pod wpływem
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

zmian zachodzących w jego środowisku. Z podejściem procesowym zgadza się Witold


Pokruszyński wskazując, że bezpieczeństwo jest nieustannym działaniem jednostek, państw
i innych podmiotów bezpieczeństwa, których celem jest utworzenie pożądanego stanu
bezpieczeństwa72. O stanie bezpieczeństwa można mówić zatem w sytuacji, gdy środowisko
bezpieczeństwa jest stabilne, ma określone warunki i nie generuje niepokojących zagrożeń.
Z kolei jako proces bezpieczeństwo ujmowane jest najczęściej wtedy, gdy dochodzi
do konieczności jego budowy i zapewniania pokoju, głównie po okresie napięć w stosunkach
międzynarodowych lub bezpośrednio po wystąpieniu konfliktu zbrojnego lub wojny73.
Kolejne kryterium podziału bezpieczeństwa to sposób jego organizowania.
Dotychczas odnotowano liczne sposoby zapewniania bezpieczeństwa jego podmiotom, i o ile
niektóre koncepcje faktycznie znalazły zastosowanie w stosunkach międzynarodowych, tak
część z nich ma charakter jedynie teoretyczny. Literatura przedmiotu wyróżnia unilateralne i
multilateralne formy zapewniania bezpieczeństwa. Formy unilateralne, tj. hegemonizm
mocarstwowy, izolacjonizm, neutralizm i niezaangażowanie, opierają się na działaniach
własnych podmiotu w celu zapewnienia bezpieczeństwa. Warunkiem ich powodzenia jest
stopień samowystarczalności konkretnego państwa, charakteru systemu międzynarodowego,

69
Zob. R. Jakubczak, J. Flis (red.), Bezpieczeństwo narodowe Polski w XXI wieku. Wyzwania i strategie,
Warszawa 2006, s. 14.
70
W. Kitler, Obrona narodowa III RP: pojęcie, organizacja, system, „Zeszyty Naukowe AON”, Warszawa
2002, s. 48.
71
Zob. J. Stańczyk, op. cit., s. 18-19.
72
Zob. W. Pokruszyński, Bezpieczeństwo narodowe u progu XXI wieku, „Zeszyty Naukowe AON”, 2008, nr
1(70), s. 24.
73
Zob. J. Czaja, op. cit., s. 58.
37
w którym ono funkcjonuje, lokalizacji geopolitycznej oraz pozycji w międzynarodowym
układzie sił. Wybór unilateralizmu jest zazwyczaj konsekwencją przekonania o zagrożeniach
wynikających z otoczenia podmiotu, które przewyższają potencjalne korzyści wynikające z
nawiązania współpracy międzynarodowej. Hegemonizm mocarstwowy opiera się na
osiągnięciu przez jeden podmiot wymiernej przewagi politycznej, militarnej lub gospodarczej.
Podmiot ten staje się kreatorem bezpieczeństwa, sprawującego funkcję przywódcy na arenie
międzynarodowej. Hegemon może narzucać innym podmiotom reguły funkcjonowania i
współpracy w obszarze politycznym, ekonomicznym czy społecznym, jednak taka forma
hegemonii nie wyklucza możliwości powstania grupy mocarstw regionalnych, które pełnią
funkcję moderatorów w określonych aspektach polityki bezpieczeństwa74.
Instrumentem hegemonizmu, jak i odrębną formą zapewniania bezpieczeństwa, jest
interwencjonizm. Jego istotę stanowi podejmowanie interwencji zbrojnych, które mają służyć
realizacji kluczowych interesów mocarstw z wykorzystaniem siły militarnej. Podmiot
interweniujący koncentruje się na prowadzeniu krótkich działań zbrojnych na terytorium
innego państwa, które są ukierunkowane na osiągnięcie założonego wcześniej celu,
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

najczęściej politycznego, jak obalenie władzy, implementacja sprzyjającej siły rządzącej czy
kontrola procesów gospodarczych75.
Izolacjonizm oznacza koncentrację na obronie interesów własnych, bez wchodzenia w
stałe związki i utrzymywania sojuszy z innymi podmiotami państwowymi. Jego cechą
charakterystyczną jest dostrzegalny brak zainteresowania sprawami międzynarodowymi 76.
Polityką nieprzystępowania do sojuszy militarnych charakteryzuje się również neutralizm,
jednak ta opcja, w odróżnieniu od izolacjonizmu, zakłada koncentrację podmiotu na
rozwijaniu współpracy opartej na zasadach pokojowego współistnienia ze wszystkimi
państwami i organizacjami międzynarodowymi, niezależnie od formy ich ustroju
politycznego.
Neutralność oznacza „bezstronną postawę oraz nieingerowanie bezpośrednio lub
pośrednio w sprawy innego państwa”77. Istotą tej metody jest nieuczestniczenie przez
państwo w wojnach, nieudzielanie zgody na tworzenie baz wojskowych innych państw na
swoim terytorium oraz nieprzystępowanie do ugrupowań o charakterze wojskowym.
Podstawowe formy neutralności obejmują neutralność stałą (wieczystą) i wojenną. Pierwsza z
nich odnosi się do sytuacji, w której państwo zobowiązuje się do nieuczestniczenia w
jakiejkolwiek wojnie, za wyjątkiem wojny obronnej. Zobowiązanie to zostaje określone w
74
Zob. W. Pokruszyński, Bezpieczeństwo. Teoria i praktyka, Kraków 2017, s. 39.
75
Zob. S. Bieleń, Polityki bezpieczeństwa państw, „Teka Komisji Politologii i Stosunków Międzynarodowych
PAN”, 2010, t. 5, s. 72.
76
C. Mojsiewicz (red.), Leksykon współczesnych międzynarodowych stosunków politycznych, Wrocław 2004, s.
160.
77
Ibidem [za:] A. Kotliński, Modele bezpieczeństwa państw, „Zeszyty Naukowe Dolnośląskiej Wyższej Szkoły
Przedsiębiorczości i Techniki. Studia z Nauk Społecznych”, 2009, nr 1, s. 146.
38
prawie krajowym, a pozostałe państwa w umowie międzynarodowej (lub w formie milczącej)
gwarantują niepodejmowanie przeciwko temu państwu działań wojennych. Państwo
wieczyście neutralne musi wystrzegać się w swojej polityce zagranicznej działań
konfrontacyjnych, które podważyłyby zaufanie społeczności międzynarodowej. Neutralność
wojenna uzyskiwana jest przez państwo, które deklaruje neutralność w stosunku do
określonego konfliktu zbrojnego. Zobowiązuje się wówczas do jednakowego traktowania
walczących stron, nieudostępniania swojego terytorium do przemarszu wojsk, przepływu
okrętów oraz przelotu samolotów. Strony konfliktu zobowiązane są wówczas do
nienaruszania terytorium państwa neutralnego oraz braku ingerencji w realizowane przez nie
interesy. W przypadku przekroczenia granicy państwa neutralnego przez ich wojsko, zostanie
ono rozbrojone i poddane internowaniu. Najrzadziej spotykaną formą neutralności jest
polityka neutralności, oznaczająca faktyczną realizację idei neutralności w polityce
zagranicznej, podczas gdy neutralność ta nie jest gwarantowana traktatowo lub nie jest w inny
sposób uznana przez pozostałe państwa78.
Multilateralne formy zapewniania bezpieczeństwa obejmują sojusze, system
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

bezpieczeństwa kooperacyjnego i system bezpieczeństwa zbiorowego79. System


bezpieczeństwa kooperacyjnego (kooperatywnego) zakłada budowę systemu współzależnych,
współpracujących i wzajemnie uzupełniających się podmiotów bezpieczeństwa
międzynarodowego oraz kompleksowe postrzeganie bezpieczeństwa, mające na celu sprawną
reakcję na przewidywane i realne zagrożenia. Działa w oparciu o monitorowanie, systemy
wczesnego ostrzegania oraz środki budowy wzajemnego zaufania pomiędzy państwami.
Jednocześnie wymaga ustanowienia i niezakłóconego funkcjonowania podziału pracy
pomiędzy poszczególnymi podmiotami kreującymi przedmiotowe bezpieczeństwo.
Współczesnym systemem bezpieczeństwa kooperacyjnego jest Organizacja Bezpieczeństwa
i Współpracy w Europie.
Wyrazem blokowego systemu organizowania bezpieczeństwa są sojusze (formy
systemu zbiorowej obrony). System ten zakłada, że zagrożenia dla podmiotów tworzących
sojusz pochodzą zawsze z zewnątrz systemu. Sojusz ma zazwyczaj charakter zamknięty,
a jego strukturę można uznać za ekskluzywną w stosunku do państw pozostających poza nim.
Charakterystyczne dla systemu blokowego jest istnienie konkretnego wroga, dla ochrony
przed którym sojusz zostaje utworzony80. Klasycznym przykładem blokowego systemu
organizowania bezpieczeństwa są dwa przeciwstawne sojusze powstałe w epoce
zimnowojennej - Układ Warszawski oraz Organizacja Traktatu Północnoatlantyckiego.

78
Zob. A. Kotliński, op. cit., s. 146-147.
79
Zob. M. Ciszek, op. cit., s. 42.
80
Zob. R. Tenerowicz, Liberalna wizja bezpieczeństwa międzynarodowego, [w:] J. Zając, A. Włodkowska-
Bagan, M. Kaczmarski (red.), Bezpieczeństwo międzynarodowe. Polska-Europa-Świat, Warszawa 2015, s. 77.
39
System bezpieczeństwa zbiorowego jest systemem instytucjonalnym,
ukierunkowanym na zapobieganie konfliktom pomiędzy państwami członkowskimi. System
ten tworzą wspólne działania państw, których celem jest podtrzymywanie międzynarodowego
bezpieczeństwa i pokoju. Stanowi on odzwierciedlenie pojęcia niepodzielności pokoju,
co oznacza, że we współczesnych stosunkach międzynarodowych indywidualne
bezpieczeństwo jakiegokolwiek państwa jest ściśle powiązane z bezpieczeństwem wszystkich
pozostałych państw, a jakiekolwiek naruszenie pokoju jest zagrożeniem dla jego globalnego
wymiaru81. Podstawowymi elementami systemu bezpieczeństwa zbiorowego są: zakaz
stosowania lub groźby użycia siły w stosunkach międzynarodowych, suwerenna równość
państw, rozwiązywanie sporów z wykorzystaniem pokojowych metod, poszanowanie praw
człowieka, nieingerencja uczestników systemu w wewnętrzne sprawy innych państw, a także
systemy środków zbiorowych dla rozbrojenia, zapobiegania i neutralizacji groźby wojny,
aktów agresji i naruszenia pokoju oraz ukierunkowanych na umocnienie wzajemnego
zaufania partycypantów. Współczesnym przykładem systemu bezpieczeństwa zbiorowego
jest Organizacja Narodów Zjednoczonych.
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

Reasumując rozważania dotyczące klasyfikacji bezpieczeństwa, można zauważyć,


że zakres pojęciowy bezpieczeństwa jest szeroki i nieustannie ulega rozszerzeniu. Jest to efekt
rozwoju wielopoziomowych stosunków pomiędzy podmiotami, począwszy
od bezpieczeństwa jednostkowego, aż po szeroko pojętą płaszczyznę społeczną, narodową
i międzynarodową. Bezpieczeństwo jest pojęciem wielowymiarowym, zatem rozważania
na jego temat wymagają holistycznego podejścia, ale takie klasyfikacje pomagają
je usystematyzować. Dostrzegalna jest zarówno obiektywna potrzeba zapewniania
bezpieczeństwa w każdej sferze aktywności społecznej, jak i kreowania warunków
dla subiektywnego poczucia bezpieczeństwa i możliwości rozwoju jednostek. Rozwój nauk
o bezpieczeństwie jest wyrazem dążeń do konceptualizacji i kategoryzacji nowych dziedzin
bezpieczeństwa, badanych na różnych poziomach, z wykorzystaniem zróżnicowanych
podejść metodologicznych i zastosowaniem wskazanych kryteriów podziału bezpieczeństwa.

1.3. Zagrożenia dla bezpieczeństwa

W świetle dotychczasowych ustaleń, klasyczne definicje określają bezpieczeństwo


jako stan spokoju, pewności i zabezpieczenia, podkreślając jednocześnie znaczenie braku
zagrożeń i ochrony przed niebezpieczeństwami. Jego brak powoduje zatem stan zagrożenia
i niepokój podmiotu. Brak zagrożenia jest jednym z aspektów określających istotę
bezpieczeństwa. Zagrożenie to jest zazwyczaj odnoszone do sfery świadomości podmiotu
(jednostki, grupy, narodu lub organizacji ponadnarodowych) i oznacza określony stan
81
Zob. O. Kuczyk, Ewolucja treści systemu bezpieczeństwa zbiorowego jako składnika teorii organizacji
międzynarodowych, „Colloquium Wydziału Nauk Humanistycznych i Społecznych”, 2012, nr 4, s. 190.
40
psychiki lub świadomości, wywołany poprzez postrzeganie konkretnych zjawisk
jako niebezpieczne lub niekorzystne82. Zagrożenie jest jednym z kluczowych pojęć
w kontekście bezpieczeństwa, ponieważ stanowi czynnik sprawczy, który przybierając różne
konfiguracje nieustanie oddziałuje na bezpieczeństwo i sprawia, że nie jest ono stanem,
ale dynamicznym, zmiennym w czasie procesem. Podmiot jest stale narażony na zagrożenia,
które albo już występują, albo zmaterializują się w przyszłości.
Samo zagrożenie jest w literaturze przedmiotu definiowane jako szeroki zakres
zdarzeń, losowych lub wywołanych celowo, które w negatywny sposób oddziałują
na funkcjonowanie politycznych i ekonomicznych struktur podmiotu, warunki bytowania
społeczeństwa oraz stan środowiska naturalnego83. Inaczej mówiąc, jest to sytuacja, w której
pojawia się prawdopodobieństwo wystąpienia stanu niebezpiecznego dla otoczenia.
Autorzy Leksykonu wiedzy wojskowej definiują zagrożenie jako „sytuację, w której istnieje
zwiększone prawdopodobieństwo utraty życia, zdrowia, wolności albo dóbr materialnych”84.
Z kolei S. Koziej proponuje, aby zagrożeniem nazywać bezpośrednie lub pośrednie
destrukcyjne oddziaływanie na podmiot, wskazując jednocześnie, że jest to najbardziej
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

klasyczny czynnik środowiska bezpieczeństwa tego podmiotu. Zagrożenie odnosi się


do konkretnych wartości, będące przedmiotem ochrony podejmowanej przez dany podmiot.
Wiedza i świadomość dotyczące zagrożenia warunkują podjęcie skutecznych działań
zapobiegawczych oraz organizację obrony, co jest o tyle istotne, że wraz z postępem
cywilizacyjnym ilość czynników generujących zagrożenie stale wzrasta. Stosowanie
coraz skuteczniejszych systemów zabezpieczeń nie zapewnia całkowitego wyeliminowania
zagrożeń, zatem otoczenie podmiotu powinno być stale monitorowane pod kątem ryzyka
materializacji znanych zagrożeń oraz możliwości wystąpienia nowych.
Zagrożenie stanowi wartość destrukcyjną, jako potencjalna przyczyna niepożądanego
stanu może powodować szkodliwe następstwa. Każdy podmiot (począwszy od jednostki,
po aktorów międzynarodowych) posiada określone podatności, czyli słabości, których
wykorzystanie umożliwia przekształcenie potencjalnego zagrożenia w realną szkodę. Szkody
te mogą mieć charakter fizyczny (uszczerbek na zdrowiu), psychiczny (powodujące
negatywne postrzeganie siebie, przykre przeżycia emocjonalne), społeczny (niekorzystne
relacje międzyludzkie – dyskryminacja, ostracyzm), prawny (pozbawienie wolności,
oskarżenie), materialny (straty ekonomiczne i finansowe) lub osobisty (naruszenie
prywatności, godności, zwyczajów)85. Zagrożenie i jego odczuwanie mają charakter

82
Zob. R. Zięba, Kategoria bezpieczeństwa w nauce o stosunkach międzynarodowych [w:] D.B. Bobrov, E.
Haliżak, R. Zięba (red.), Bezpieczeństwo narodowe i międzynarodowe u schyłku XX wieku, Warszawa 1997, s. 4.
83
Zob. J. Kaczmarek, W. Łepkowski, B. Zdrodowski, op. cit., s. 89.
84
M. Laprus (red.), Leksykon wiedzy wojskowej, Warszawa 1979, s. 510.
85
Zob. B. Wiśniewski, System bezpieczeństwa państwa. Konteksty teoretyczne i praktyczne, Szczytno 2013, s.
34–35.
41
subiektywny – jak wskazuje B. Hołyst, zagrożenie ma miejsce wtedy, gdy „w człowieku rodzi
się obawa o utratę wysoko cenionych wartości z własnym życiem na pierwszym miejscu” 86.
Należy jednak pamiętać, że zagrożenie nie zawsze musi być uświadomione
– brak dostrzegania lub prawidłowej percepcji zagrożenia nie powoduje jego dematerializacji
ani zmiany stopnia oddziaływania na bezpieczeństwo podmiotu. Zgodnie z kompleksową
definicją zagrożenia przedstawioną przez Romana Macieja Kalinę, „zagrożenie
to w odniesieniu do określonego podmiotu uświadomione lub nieuświadomione przez niego
niebezpieczeństwo bądź utraty określonego dobra lub wartości (np. życia, zdrowia, mienia,
suwerenności (…), bądź czasowej lub względnie trwałej utraty zdolności do szeroko
rozumianego rozwoju”87.
Zagrożenia również podlegają kategoryzacji. Kompleksową typologię zagrożeń
bezpieczeństwa narodowego, uwzględniającego liczne, choć nie wszystkie możliwe kryteria,
zaproponował Krzysztof Przeworski88.

Rysunek 1. Typologia zagrożeń bezpieczeństwa narodowego według Krzysztofa Przeworskiego


Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

Źródło: K. Przeworski, Typologia zagrożeń bezpieczeństwa narodowego, [w:] R. Jakubczak (red. nauk.), Obrona
narodowa w tworzeniu bezpieczeństwa III RP, Warszawa 2003, s. 430.
Katalog zagrożeń naturalnych obejmuje przede wszystkim powodzie, susze, silne
wiatry, długotrwałe ekstremalne temperatury, sztormy, intensywne opady, wstrząsy
sejsmiczne, lawiny, epidemie chorób zakaźnych oraz masowe występowanie szkodników.
Zagrożenia cywilizacyjne odnoszą się do bezpośredniej działalności człowieka i są związane
z powstawaniem awarii technicznych i katastrof. Do tej kategorii należą pożary, katastrofy

86
B. Hołyst, Wiktymologia, Warszawa 2003, s. 64-65.
87
R.M. Kalina, Ogólne kryteria klasyfikacji i charakterystyki zagrożeń zewnętrznych [w:] B. Hołyst (red.),
Człowiek w sytuacji trudnej, Warszawa 1991, s. 80-81.
88
Zob. Rysunek 1.
42
komunikacyjne, awarie chemiczne, katastrofy górnicze i budowlane, awarie radiacyjne,
zagrożenia biologiczne dla ludzi, zwierząt i roślin, a także działania terrorystyczne.
Zaprezentowany katalog zagrożeń pozostaje oczywiście otwarty. Dokonując takiego podziału
należy mieć świadomość, że nie w każdej sytuacji możliwe jest jednoznaczne wyodrębnienie
zarówno zagrożeń, jak i przyczyn ich powstania.
W zależności od źródła pochodzenia można wyróżnić zagrożenia antropogeniczne
(spowodowane lub zainicjowane przez człowieka i jego działalność, np. katastrofy
budowlane, wojny) oraz naturalne (stwarzane przez środowisko naturalne, np. trzęsienia
ziemi, powodzie, huragany). Z kolei stosując kryterium miejsca położenia źródła zagrożeń,
wyodrębnia się zagrożenia wewnętrzne i zagrożenia zewnętrzne. Pierwsze z nich uznaje się
za zdarzenia zakłócające bezpieczne (optymalne) warunki funkcjonowania podmiotu
generowane przez procesy i zjawiska zachodzące w jego wnętrzu. Zagrożenia zewnętrzne
zakłócają bezpieczeństwo podmiotu poprzez impulsy pochodzące z jego otoczenia89.
Kierując się kryterium przedmiotowym, zagrożenia bezpieczeństwa państwa można
podzielić na m.in. polityczne, militarne, gospodarcze, społeczne oraz informacyjne.
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

Zagrożenia bezpieczeństwa politycznego oznaczają stany nasilenia działań zorganizowanych


grup politycznych lub społecznych, które uniemożliwiają realizację przez państwo
jego kluczowych funkcji, co przekłada się na osłabienie lub nieskuteczność działań organów
lub instytucji realizujących założone cele. Najczęściej identyfikowane zagrożenia polityczne
to nieprzestrzeganie umów i regulacji prawa międzynarodowego, niekontrolowane zmiany
granic w otoczeniu podmiotu, konflikty o podział sfery wpływów pomiędzy mocarstwami,
rozwój agresywnych ideologii (oraz religii) oraz przeciwstawianie się tendencjom
stabilizacyjnym w regionie. Zagrożenia militarne odnoszą się do słabości potencjału
wojskowego i obronnego podmiotu, czego efektem jest brak zdolności do obrony przed
zagrożeniami zbrojnymi. Zagrożenia te mogą się zmaterializować w sytuacji, gdy cele
polityki państwa pozostają w sprzeczności z celami innych państw, a jedyną metodą
rozstrzygnięcia sporu pozostaje walka zbrojna. Katalog zagrożeń o charakterze militarnym
obejmuje w szczególności konflikty regionalne lub globalne, prowokacje militarne,
demonstrację siły i użycie środków przemocy zbrojnej. Zagrożenia ekonomiczne odnoszą się
przede wszystkim do problemów produkcji, wymiany i racjonalnej dystrybucji dóbr
w państwie, koncentrują się zatem na kwestiach związanych z finansami państwa, handlem
oraz dostępem do surowców energetycznych. Są to stany, w których podmiot nie może
przeciwstawić się oddziaływaniom uniemożliwiającym zakładany rozwój ekonomiczny,
co znacząco osłabia jego potencjał gospodarczo-obronny. Znaczącymi zagrożeniami
gospodarczymi są: niestabilność finansowa państwa, zbyt niskie tempo rozwoju,

89
Zob. W. Chojnacki, W. Fehler, op. cit., s. 39.
43
które pogłębia dysproporcję ekonomiczną w stosunku do innych krajów, reglamentowanie
dostępu do nowych technologii, blokady gospodarcze (embarga) na określone towary
lub grupy towarów, masowe bezrobocie oraz brak sprawnych mechanizmów konkurencji
gospodarczej. Zagrożenia społeczne definiuje się jako stany świadomości społeczeństwa,
w których nasilone są negatywne oddziaływania i zjawiska prowadzące do zachwiania
egzystencjonalnych wartości i interesów państwa (narodu) oraz obniżenia świadomości
społecznej. Odnoszą się one zatem przede wszystkim do kwestii bezpieczeństwa publicznego
i społecznego, obejmując takie zjawiska jak naruszenia praw i wolności człowieka,
dyskryminację jednostek lub grup społecznych, manipulacje społeczne, ograniczanie
wolności mediów, patologie społeczne, masowe migracje, kryzysy demograficzne
oraz ubóstwo społeczeństwa.
Istotne znaczenie mają zagrożenia dla bezpieczeństwa informacyjnego, powstające
zazwyczaj w wyniku świadomych lub nieograniczonych nadużyć (albo zaniechań) w zakresie
legalnego dostępu i swobodnego posługiwania się informacją, która powinna być aktualna,
rzetelna, integralna i poufna. Zagrożenia informacyjne klasyfikuje się zazwyczaj nie tylko
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

w kategoriach braku informacji w wyniku jej utraty czy ograniczenia dostępu, ale również
nadmiaru informacji oraz manipulacji nią poprzez fałszerstwa informacyjne, dezinformację
lub przekazywanie informacji nieaktualnej lub nieczytelnej. Wśród współczesnych zagrożeń
dla bezpieczeństwa informacyjnego należy wskazać ograniczanie dostępu do informacji
wynikające zarówno z nadmiernej polityki restrykcyjnej systemu ich ochrony,
jak i ze słabości systemów udostępniania informacji publicznych, wykluczenie cyfrowe,
naruszenia prywatności informacyjnej będące efektem rozwoju zróżnicowanych form
inwigilacji, prawne i organizacyjne niedoskonałości systemu ochrony danych osobowych,
trudności z wdrożeniem elektronicznego dostępu do usług administracyjnych, przestępczość
informacyjną oraz marginalizację informacyjną, stanowiącą wynik niskiego poziomu edukacji
oraz statusu społeczno-ekonomicznego. Najbardziej specyficzną formą zagrożenia
bezpieczeństwa informacyjnego jest walka informacyjna, rozumiana jako działania
informacyjne (zarówno ofensywne, jak i defensywne), prowadzone w sposób adekwatny
do zamiarów i możliwości stron, ukierunkowanych na przeforsowanie i realizację
określonych, ograniczonych w swoim zakresie celów (najczęściej politycznych,
ekonomicznych lub wojskowych), w odniesieniu do konkretnego przeciwnika albo grupy
przeciwników90. Ofensywna walka informacyjna definiowana jest jako zbiór działań
i aktywności, w ramach których agresor dąży do pozyskania (lub wykorzystania
w zaplanowany przez siebie sposób) określonego zasobu/zasobów informacyjnych strony

90
Zob. W. Fehler, O pojęciu bezpieczeństwa informacyjnego, [w:] M. Kubiak, S. Topolewski (red.),
Bezpieczeństwo informacyjne w XXI wieku, Siedlce 2016, s. 39.
44
atakowanej w celu obniżenia ich wartości dla posiadacza lub zwiększenia ich wartości
dla siebie. Istotą defensywnej walki informacyjnej jest natomiast prowadzona przez stronę
atakowaną obrona przed zwiększeniem dostępu do jej zasobów informacyjnych
oraz utrzymanie integralności i dostępności informacji 91. Pojęciem związanym z walką
informacyjną jest wojna informacyjna, którą należy rozumieć jako zaplanowaną formę
przemocy zastosowaną przez państwo (lub koalicję państw), w ramach której podejmuje
się próbę rozstrzygnięcia zaistniałych sporów, spełnienia postulowanych żądań lub narzucenia
pożądanych przez stronę zachowań poprzez zastosowanie na szeroką skalę działań
informacyjnych obezwładniających przeciwnika. Działania te mogą być prowadzone
w różnych sferach funkcjonowania podmiotu (najczęściej w politycznej, wojskowej,
gospodarczej lub społecznej), z wykorzystaniem rozmaitych form i narzędzi, jak ataki
cybernetyczne, zakłócenia radioelektroniczne, propaganda, manipulacja opinią publiczną
czy szpiegostwo92. Wojna informacyjna co do zasady wyklucza działania zbrojne, ponieważ
uzyskanie przewagi informacyjnej pozwala osiągnąć stronie atakującej założone cele
bez konieczności użycia tradycyjnych broni oraz paraliżuje możliwości militarne stronie
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

zaatakowanej.
Skala zagrożeń bezpieczeństwa może być zróżnicowana, a biorąc pod uwagę
ich zasięg można wyróżnić zagrożenia lokalne, regionalne, krajowe i międzynarodowe.
Zagrożenia lokalne obejmują najczęściej teren niewielkich miejscowości, a rozwiązywanie
wiążących się z nimi problemów stanowi zadanie władz lokalnych. Zagrożenia regionalne
wykraczają poza granicę miasta, a przeciwdziałanie im lub zwalczanie ich skutków wymaga
wsparcia władz wyższego szczebla administracyjnego. Zagrożenia państwowe przekraczają
granicę regionu, a skuteczna walka z nimi wymaga interwencji władz centralnych. Zagrożenia
międzynarodowe wykraczają poza granice państwa, a efektywność przeciwdziałania im
jest warunkowana skuteczną współpracą międzynarodową93.
Istotnym kryterium podziału zagrożeń jest stopień prawdopodobieństwa
ich materializacji. Zagrożenia, których poziom wystąpienia jest wysoki, które występowały
już w przeszłości lub na materializację których w niedalekiej przyszłości wskazują wrogie
działania podejmowane przez inne podmioty, należy uznać za realne. Zagrożenia realne
materializują się w postaci kryzysów i konfliktów. Kryzys oznacza szczególny stan
wewnętrzny podmiotu, odbiegający od standardowej, niezakłóconej sytuacji. Może być
powodowany czynnikami zarówno wewnętrznymi (jak nieudolność, brak stabilności władzy),
jak i zewnętrznymi (katastrofy naturalne, klęski żywiołowe, konflikt z innym podmiotem).
Konflikt z kolei stanowi konfrontacyjną relację z innym podmiotem, nastawioną

91
Zob. Ibidem, s. 41.
92
Zob. Ibidem.
93
Zob. E. Kołodziński, op. cit., s. 6.
45
na osiągnięcie celów zakładanych przez co najmniej jedną ze stron konfliktu. Zagrożenia
potencjalne pozostają w sferze przewidywań, wywołują u podmiotu niepokój wynikający
nie tyle z nieuchronności i konsekwencji materializacji zagrożenia, co raczej niepewności
i konieczności nieustannego monitorowania otoczenia w celu szybkiej jego identyfikacji
i przygotowania planu obronnego.
Inna klasyfikacja wyróżnia zagrożenia intencjonalne i przypadkowe. Zagrożenia
intencjonalne są zaplanowane i celowe. Zawierają w sobie cztery elementy: aktora (agresora),
jego intencje, możliwości oraz czas na reakcję. Wraz z narastaniem wrogości (złych intencji)
podmiotu, zwiększaniem jego możliwości oraz skracaniem czasu na reakcję ze strony ofiary,
poziom zagrożenia wzrasta. Zagrożenia przypadkowe nie są związane z celową działalnością
podmiotu, ich źródeł należy zazwyczaj upatrywać w środowisku naturalnym, ale również
w nieświadomym, aczkolwiek szkodliwym działaniu podmiotów bezpieczeństwa.
W kontekście zagrożeń dla bezpieczeństwa nie sposób pominąć zagadnienia zagrożeń
asymetrycznych. Zakończenie zimnej wojny, rozpad dwubiegunowego porządku światowego
oraz pojawienie się na arenie międzynarodowej podmiotów niepaństwowych o istotnym
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

znaczeniu dla bezpieczeństwa globalnego doprowadziły do rewolucji politycznej


w dziedzinach bezpieczeństwa. Nieustannie ewoluujące procesy globalizacyjne,
technologiczne i informacyjne były jednymi z czynników mających istotny wpływ
na pojawienie się nietradycyjnych zagrożeń bezpieczeństwa. Współczesny wymiar
bezpieczeństwa charakteryzuje zatem asymetryzacja i hybrydowość jego przestrzeni.
Sama asymetria w kontekście bezpieczeństwa oznacza „umiejętność wykorzystania
wszelkiego rodzaju różnic w szeroko pojmowanych potencjałach stron – od strony materialnej
po psychologiczną – zarówno przed, jak i w toku prowadzenia działań w celu osiągnięcia
przewagi nad przeciwnikiem”94. Asymetria zagrożeń determinowana jest przez podmiot
konfliktu, który dostrzegłszy możliwość obejścia lub zanegowania silnych stron przeciwnika
przy równoczesnym wykorzystaniu jego słabości dla uzyskania niewspółmiernego efektu
działań wykorzystuje niekonwencjonalne środki i techniki walki 95 . Zagrożenia te odnoszą się
zarówno do sfery militarnej, jak i pozamilitarnej, a ich katalog obejmuje przede wszystkim
terroryzm, proliferację broni masowego rażenia oraz zorganizowaną przestępczość
transnarodową (pranie brudnych pieniędzy, handel żywym towarem, przemyt
i niekontrolowaną dystrybucję środków odurzających, nielegalne składowanie materiałów
zagrażających środowisku) ale również działania wykorzystujące technologię informatyczną
oraz niestandardowe koncepcje taktyczne. Dwa ostatnie zagrożenia są związane
ze wspomnianą wcześniej hybrydowością współczesnych konfliktów zbrojnych.

94
P. Gawliczek, J. Pawłowski, Zagrożenia asymetryczne, Warszawa 2003, s. 18.
95
Zob. K. Olak, A. Olak, Współczesne rozumienie bezpieczeństwa narodowego, „Acta Scientifica Academiae
Ostroviensis. Sectio A, Nauki Humanistyczne, Społeczne i Techniczne”, 2016, nr 7(1), s. 473.
46
Hybrydowość ta oznacza swoiste połączenie konfliktów tradycyjnych z działaniami „nowej
generacji”, wykorzystującymi nowe technologie informacyjne. Oprócz interakcji zbrojnych
na polu walki, działania wojenne przenoszone są do innych sfer, pomagając osiągnąć
założony przez agresora cel poprzez zaplanowane działania pozamilitarne. Celem wojny
hybrydowej nie jest zdobycie terytorium, ale osiągnięcie przewagi, a nawet dominacji,
w maksymalnie wielu aspektach życia społeczeństw i jednostek, która w dalszej perspektywie
ma doprowadzić do powolnej, ale postępującej dezintegracji podmiotu (państwa)
i nieodwracalnego poróżnienia opinii publicznej. W sferze cyberprzestrzeni dąży się zatem
do załamania infrastruktury krytycznej przeciwnika i dominacji nad świadomością społeczną,
często poprzez dezinformację i manipulację; w sferze informacyjnej – do przejęcia mediów,
w sferze gospodarczej – do osłabienia potencjału ekonomicznego, a w sferze politycznej
– do zachwiania obowiązującego układu władzy96. Głównym narzędziem walki staje się broń
niekonwencjonalna, głównie cybernetyczna, a za prowadzenie ataków odpowiadają już
nie tradycyjne armie, ale najczęściej informatyczne jednostki specjalne. Kluczowe znaczenie
dla osiągnięcia celu wojny hybrydowej ma informacja, wspierana i rozwijana w wyniku
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

procesów globalizacyjnych i informatycznych – umożliwia ona rozszerzenie zagrożenia


na niemożliwą wcześniej skalę poprzez przeniesienie konfliktu lokalnego w sferę globalną.
Zaprezentowany powyżej katalog zagrożeń nie jest zamknięty, ponieważ żadna
typologia nie jest w stanie ująć każdego ich aspektu, zwłaszcza w sytuacji, w której zmiany
zachodzące w dynamicznie ewoluującym świecie nieustannie generują zarówno nowe
zagrożenia, jak i wyzwania. Największe znaczenie dla współczesnego bezpieczeństwa wydają
się mieć zagrożenia asymetryczne, związane z wykorzystaniem nowych technologii,
w ochronie przed którymi ciężko jest zastosować skuteczne mechanizmy obronne. Wpływają
one na poszczególne sfery przedmiotowe bezpieczeństwa, zwłaszcza ekonomiczne,
informacyjne i społeczne, co sprawia, że zabezpieczenia militarne i obronność podmiotu
zauważalnie tracą na znaczeniu w kontekście zapewniania bezpieczeństwa państwa.
Nadmiernego nakładu sił i środków nie wymaga również rozszerzenie zagrożenia
o charakterze lokalnym na skalę regionalną, a nawet globalną. Nie zmienia to faktu,
że w procesie zapewniania bezpieczeństwa narodowego, żadne zagrożenie, tradycyjne
czy nie, nie może zostać zignorowane. Należy mieć świadomość, że właściwe przygotowanie
pozostających do dyspozycji podmiotu sił i środków oraz wypracowanie skutecznej strategii
działań w stabilnie funkcjonującym państwie ma kluczowy wpływ na optymalizację
i skuteczność wypracowanych rozwiązań mających zastosowanie w sytuacji bezpośredniego
zagrożenia. Efektywne przeciwdziałanie zagrożeniom musi zawierać element wyprzedzający
– dotychczasowe doświadczenia stanowią bazę podejmowanych w tym celu działań,

96
Zob. E. Sadowska, op. cit., s. 21.
47
ale równie istotne znaczenie ma monitorowanie otoczenia pod kątem nowych, potencjalnych
zagrożeń. Synergia tych działań stanowi podstawę do tworzenia strategicznych planów
ochrony żywotnych i istotnych interesów narodowych oraz wytyczania kierunków
transformacji systemów bezpieczeństwa.

1.4. Bezpieczeństwo informacyjne jako szczególny wymiar bezpieczeństwa

Obecnie pojęcia takie jak dane, informacja czy wiedza są na tyle powszechnie
stosowane, że w języku potocznym często stosowane są wymiennie, bez różnicowania
znaczeniowego. Jest to nieuzasadnione uproszczenie, ponieważ dopiero po analizie
i transformacji danych oraz po przypisaniu do nich konkretnych cech, stają się
one informacjami. Konsekwencją braku precyzji w stosowaniu pojęć może być niewłaściwe
zrozumienie konkretnych terminów, a w efekcie błędne pojmowanie ich istoty. Dotyczy
to także bezpieczeństwa informacyjnego. Wskazane wydaje się zatem omówienie
podstawowych różnic w definiowaniu danych, informacji i wiedzy.
Przedmiot zainteresowania dziedziny systemów informacyjnych zmieniał się
na przestrzeni dekad – w latach 70. XX w. koncentrowano się na przetwarzaniu danych,
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

w latach 80. – zarządzaniu informacją, z kolei lata 90. zdominowały badania


nad zarządzaniem wiedzą oraz teorią informacji. Dorobek tych dwóch dziedzin pozwolił
na sklasyfikowanie danych, informacji, wiedzy i mądrości w tzw. piramidę (hierarchię)
wiedzy, znaną również jako piramida informacji oraz DIKW97.

Rysunek 2. Piramida informacji (DIKW)

Źródło: Ontotext, What is the DIKW Pyramid?, [on-line] ontotext.com, b.r.,


https://www.ontotext.com/knowledgehub/fundamentals/dikw-pyramid (19.02.2018).
Zaprezentowana piramida pozwala zauważyć, że wiedza pozostaje w ścisłym związku
z procesami przetwarzania danych, jak i informacji. Zależność pomiędzy wskazanymi

97
Akronim słów poszczególnych składowych piramidy: D – data (dane), I – information (informacja), K –
knowledge (wiedza), W – wisdom (mądrość); zob. rysunek 2.
48
elementami ma charakter hierarchiczny98. Dane, jako podstawowa jednostka informacji
– fakty przedstawione w postaci znaków, reprezentujące pomiary, obserwacje i wyniki
– są podstawą wiedzy. Informacja to dane przedstawione w określonym kontekście.
W momencie, gdy informacja zostaje przypisana do konkretnego kontekstu
(np. organizacyjnego lub społecznego), mającego znaczenie dla prowadzonych działań, ulega
ona przetworzeniu i ustrukturalizowaniu - przekształca się w wiedzę. Spersonalizowana
wiedza oraz powiązanie jej z systemem wartości pozwala osiągnąć szczyt piramidy,
czyli doświadczenie naukowe (mądrość), w oparciu o którą podejmowane jest konkretne
działanie99.
Przegląd literatury przedmiotu pozwala odnaleźć liczne definicje danych, wśród
których za najbardziej istotne należy uznać następujące:
 „fakty, koncepcje lub wyniki w postaci, która może być komunikowana
i interpretowana”100;
 „fakty zgromadzone z obserwacji lub zapisów dotyczących zjawisk, obiektów
lub ludzi”101;
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

 „numery reprezentujące obserwowalne obiekty lub zagadnienia (fakty)”102;


 „reprezentacja faktów, koncepcji lub instrukcji w sposób sformalizowany, umożliwiający
komunikowanie, interpretację lub przetwarzanie przez ludzi lub urządzenia
informatyczne”103;
 „podane fakty, z których inni mogą dedukować, wyciągać wnioski; w informatyce: znaki
lub symbole, w szczególności w transmisji w systemach komunikacji i w przetwarzaniu
w systemach komputerowych; zwykle reprezentujące informacje, ustalone fakty
lub wynikającą z nich wiedzę; reprezentowane przez ustalone znaki, kody, zasady
konstrukcji i strukturę”104;
 „podstawowe, nie poddane analizie fakty, liczby i zdarzenia, które pozwalają opracować
informację”105;
 „niezintegrowany materiał – kawałki informacji, wymagające zidentyfikowania
i uporządkowania”106;
 „zbiór dyskretnych, obiektywnych faktów na temat zdarzeń”107.

98
Zob. M. Wyskwarski, Zarządzanie wiedzą w małych i średnich przedsiębiorstwach – wykorzystanie urządzeń
NAS, „Zeszyty Naukowe Politechniki Śląskiej. Seria: Organizacja i Zarządzanie”, 2014, z. 68 (1905), s. 427.
99
Zob. G. Kobyłko, M. Morawski, Przedsiębiorstwo zorientowane na wiedzę, „E-mentor”, 2006, nr 4 (16), s. 17.
100
F.J. Galland, Dictionary of Computing, Chichester 1982, s. 57.
101
C. Clare, P. Loucopoulos, Business Information Systems, London 1987, s. 2.
102
A.V. Knight, D.J. Silk, Managing information, London 1990, s. 22.
103
J.O. Hicks, Management Information Systems: a user perspective, Minneapolis 1993, s. 668.
104
R. Maddison (red.), Information Systems Development for Managers, London 1989, s. 168.
105
Z. Malara, J. Rzęchowski, Zarządzanie informacją na rynku globalnym. Teoria i praktyka, Warszawa 2011, s.
19.
106
Ibidem, s. 18.
49
Pomimo, że pojęcie „danych” było w zróżnicowany sposób definiowane
przez licznych autorów, można zauważyć jeden punkt wspólny dla wszystkich definicji –
dane zawsze reprezentują fakty. Mogą one być rejestrowane, poddawane przetwarzaniu
i przesyłane do odbiorcy w postaci konkretnego komunikatu. Można zatem stwierdzić,
że każdy komunikat zawiera dane, zaś dane stają się informacją, jeżeli są zrozumiałe
dla odbiorcy i zmieniają jego stan wiedzy o opisywanym obiekcie. Zdaniem Zbigniewa
Malary i Jerzego Rzęchowskiego, informacja jest również znaczeniem, jakie przypisuje się
danym, z uwzględnieniem konwencji użytej do ich reprezentacji 108. Choć dane same w sobie
nie mają konkretnego celu i znaczenia, to dobór odpowiednich symboli do ich przekazywania
może sugerować lub wręcz narzucać określoną ich interpretację. W tym kontekście można
uznać, że każda informacja jest daną, ale nie każda dana jest informacją.
Samo pojęcie informacji jest terminem złożonym i występującym w wielu dziedzinach
naukowych, począwszy od informatyki i cybernetyki, poprzez mechanikę kwantową,
biologię, neurobiologię, aż po psychologię, teorię komunikacji i kognitywistykę. Zarówno
liczba dziedzin pracujących nad informacją, jak i wynikające z niej zróżnicowanie
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

kontekstów rozumienia tego terminu powoduje, że trudno jest znaleźć wspólną wykładnię
interpretacyjną.
Rozważania nad istotą informacji jako jeden z pierwszych podjął Claude E. Shannon,
matematyk, profesor Massachusets Institute of Technology. W opublikowanej w 1948 r.
pracy A mathematical theory of communication109 wskazywał on, że charakterystyczną cechą
informacji jest zmniejszanie entropii, rozumianej w tym kontekście jako niewiedza
odbiorcy110. W takim rozumieniu informacja traktowana jest w kategoriach pojęcia
pierwotnego, bez przypisania jej konkretnej definicji oraz interpretacji – jej znaczenie
jest rozumiane intuicyjnie. C.E. Shannon nie określił wprost znaczenia terminu „informacja”,
koncentrując się raczej na próbie zdefiniowania jej ilości przekazanej w komunikacie –
konkluzję stanowiło stwierdzenie, że każda wiadomość przekazywana odbiorcy
jest informacją, niezależnie od faktycznej jej treści111.
Prace nad teorią informacji prowadził również Börje Langefors – zgodnie
z wypracowaną przez niego teorią infologiczną, informacja jest wynikiem interpretacji
danych przez odbiorcę i może powstać jedynie w umyśle człowieka112. Proponowane

107
T.H. Davenport, L. Prusak, Working Knowledge: How Organizations Manage What They Know, Boston
1998, s. 2.
108
Zob. Ibidem, s. 18.
109
Zob. C.E. Shannon, A mathematical theory of Communications, „Bell System Technical Journal”, 1948, vol.
27, pp. 379-423, 623-656.
110
Zob. M. Grabowski, A. Zając, Dane, informacja, wiedza – próba definicji, „Zeszyty Naukowe Uniwersytetu
Ekonomicznego w Krakowie”, 2009, nr 798, s. 6.
111
Zob. B. Stefanowicz, Informacja, Warszawa, 2014, s. 7.
112
Zob. B. Stefanowicz, Informacja. Wiedza. Mądrość, Warszawa 2013, s. 9.
50
przez Langeforsa równanie infologiczne, wyrażone wzorem I=i(D,S,t) (gdzie I oznacza
informację, i – proces interpretacji, D – dane, S – „przedwiedzę”, a t – czas) wskazuje,
że informacja jest procesem interpretacji danych w oparciu o wiedzę uzyskaną przed odbiorcę
wcześniej, tj. przed poznaniem tych danych113. W podobnym tonie wypowiadają się Thomas
H. Davenport i Laurence Prusak wskazując, że informacja to „dane, które czynią różnicę”114.
Oznacza to, że dane przekształcają się w informację w momencie dodania do nich wartości
(czyli ich interpretację). Taka wykładnia pozwala zauważyć subiektywny charakter informacji
– w zależności od posiadanej wiedzy, z jednakowych danych różni odbiorcy są w stanie
uzyskać odmienne informacje. Zauważalne jest zatem odmienne niż u C.E. Shannona
rozumienie informacji, jako danych uświadomionych i zinterpretowanych przez człowieka.
W ogólnym rozumieniu informacja jest „bytem” posiadającym znaczenie,
prowadzącym do określonych skutków i mającym wpływ na decyzje i działania ludzi 115.
Kluczowym elementem informacji jest jej znaczenie, dostarczane razem z kontekstem –
zawsze jest ono nadawane przez odbiorcę w wyniku obserwacji zjawisk zewnętrznych116.
Szeroką definicję informacji przedstawił Mariusz Maciejewski – w jego opinii
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

jest to utrwalony w dowolny sposób komunikat o jakimś fakcie, czyli zgromadzona,


utrwalona świadomość czegoś. Może on zostać utrwalony zarówno w sposób materialny,
z wykorzystaniem metod tradycyjnych i nośników elektronicznych, jak również
niematerialnie (np. w pamięci człowieka), co uniemożliwia odczytanie informacji przez inne
osoby117. Z kolei uniwersalna definicja, przyjęta w ramach Open Archival Information
System (OAIS) – modelu organizacji i funkcjonowania archiwów elektronicznych118,
nie przewiduje niematerialnego utrwalania informacji – jednym z atrybutów informacji jest
możliwość dzielenia się nią: informacja stanowi dowolnego rodzaju wiedzę, która może być
dzielona niezależnie od formy (fizycznej lub cyfrowej), użytej dla jej reprezentacji
(wyrażenia). Dostęp do informacji jest możliwy dla odbiorcy, który dysponuje danymi
i interpretuje je zgodnie z zasadami dotyczącymi określonej formy reprezentacji119.
Można podjąć próbę zdefiniowania informacji przez pryzmat funkcji, jaką spełnia.
Analiza literatury przedmiotu pozwala wyodrębnić co najmniej cztery takie funkcje. Pierwszą

113
Zob. R.D. Gallers, W. Currie (red.), The Oxford Handbook of Management Information Systems: Critical
Perspectives and New Directions, Oxford 2011, s. 23.
114
T.H. Davenport, L. Prusak, op. cit., s. 3-4.
115
Zob. A. Liew, Data, information, knowledge and their interrelationships, “Journal of Knowledge
Management Practice”, 2007, nr 7, s. 2.
116
Zob. H. Bulińska-Stangrecka, Informacja w naukach o zarządzaniu, [w:] P. Stacewicz (red. nauk.), Różne
oblicza informacji, Warszawa 2017, s. 100.
117
Zob. M. Maciejewski, Prawo informacji – zagadnienia podstawowe, [w:] W. Góralczyk (red.), Prawo
informacji - prawo do informacji, Warszawa 2006, s. 31.
118
Zob. A. Januszko-Szakiel, Open Archival Information System (OAIS) - standard w zakresie archiwizacji
publikacji elektronicznych, „Przegląd Biblioteczny” 2005, z. 3, s. 341.
119
Zob. L. Reich, D. Sawyer, Archiving Referencing Model, White Book, Issue 5, CCSDS 1999, [za:] J. Łuczak,
M. Tyburski, Systemowe zarządzanie bezpieczeństwem informacji ISO/IEC 27001, Poznań 2009, s. 9.
51
z nich jest kreowanie i zmiana rzeczywistości poprzez odwzorowanie przeszłości,
teraźniejszości i przyszłości. Przedstawicielem tego podejścia są m.in. Henryk Greniewski,
według którego informacja to wiadomość uzyskiwana przez odbiorcę w wyniku obserwacji
lub czynności umysłowej przekazywanej w układzie nadawca-odbiorca120 oraz Norbert
Wiener, rozumiejący informację jako treść zaczerpniętą ze świata zewnętrznego w procesie
dostosowywania się człowieka do tego świata oraz przystosowywania do niego ludzkich
zmysłów121. Na świat zewnętrzny jako źródło pozyskiwania informacji zwraca uwagę
również Tadeusz Wierzbicki, wskazując, że treści z niego zaczerpnięte zwiększają wiedzę
osoby lub zmniejszają niewiedzę, niepewność i nieokreśloność w sytuacji decyzyjnej 122.
Drugą funkcją pełnioną przez informację jest prezentacja zdarzeń, rzeczy, stanów i obiektów
z perspektywy czasowej. W tym rozumieniu informacja jest treścią o czymś, która ze względu
na coś posiada określone znaczenie dla kogoś i jest wyrażana za pomocą znaków językowych
i/lub pozajęzykowych123. Kolejna funkcja to identyfikacja i antycypacja, które prowadzą
do zmniejszenia stopnia nieokreśloności – informacja jest rozumiana jako odbicie obiektów
(faktów, zjawisk, stanów, przedmiotów) istniejących materialnie oraz czynnik mogący
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

w pewnym stopniu określić postać przyszłych rzeczy i zjawisk124. Z kolei wychodząc


od definicji zaproponowanej przez Zbigniewa Messnera, funkcją informacji jest identyfikacja
i rozwiązywanie pojawiających się problemów125.
Analiza powyższych ujęć pozwala zauważyć, że informacja przedstawiana jest przede
wszystkim w kontekście odbioru przez obserwatora (odbiorcę) treści z otoczenia
i jest czynnikiem przyczyniającym się do wzrostu jego wiedzy na temat świata zewnętrznego.
Zaprezentowane funkcje informacji podkreślają również ścisły związek informacji
z procesem decyzyjnym. Oprócz Tadeusza Wierzbickiego, przedstawicielem takiego
podejścia jest George E. Milward, który wskazuje, że „informacja jest życiodajną krwią
w organizmie zarządzania – jest podstawą trafnych decyzji kierowniczych. Jeżeli nie można
uzyskać właściwych informacji, to decyzje muszą opierać się na przypuszczaniu, odczuciach
lub zgadywaniu”126. W podobnym tonie wypowiada się cytowany wcześniej Z. Messner,
definiując informację jako „dane o procesach i zjawiskach gospodarczych, wykorzystywane
w procesie podejmowania decyzji”127. Brak adekwatnej informacji może stwarzać sytuację

120
Zob. H. Greniewski, Cybernetyka niematematyczna, Warszawa 1982, s. 13.
121
Zob. N. Wiener, Cybernetyka i społeczeństwo, Warszawa 1961, s. 6.
122
Zob. T. Wierzbicki, System informacji gospodarczej, Warszawa 1981, s. 9.
123
Zob. J. Lyons, Semantics, Harmondsworth 1977, s. 60.
124
Zob. J. Czekaj, Metody zarządzania informacją w przedsiębiorstwie, „Zeszyty Naukowe Akademii
Ekonomicznej w Krakowie. Seria Specjalna, Monografie”, 2000, nr 143, s. 17.
125
Zob. M. Grabowski, A. Zając, op. cit., s. 11.
126
G.E. Milward, Organization and Methods – A Service to Management, London 1967, s. 347, [za:] M.
Grabowski, A. Zając, op.cit., s. 7.
127
Z. Mesner, Informacja ekonomiczna a zarządzanie przedsiębiorstwem, Warszawa 1971, [za:] J. Czekaj, op.
cit., s. 17.
52
niepewności – uwagę na ten fakt zwraca m.in. Richard L. Daft, wskazując,
że „(…) niepewność jest to nieobecność informacji: gdy niepewność jest duża, większa ilość
informacji musi być pozyskana i przetworzona. W sytuacji wysokiej niepewności dane mogą
zostać zgromadzone, by odpowiedzieć na pytanie i zredukować niepewność. (...)
Niejednoznaczność informacji oznacza, że sytuacja nie może być obiektywnie zanalizowana
i zrozumiana”128. Piotr Sienkiewicz wskazuje, że odpowiednie wykorzystanie źródła wiedzy,
jakim jest informacja daje człowiekowi władzę, ponieważ posiadanie dużej ilości
wiarygodnych informacji zwiększa szansę na podjęcie optymalnej decyzji129.
Kolejnym pojęciem niejednoznacznym i trudnym do zdefiniowana jest wiedza.
Badaniem tego interdyscyplinarnego terminu zajmują się przedstawiciele zróżnicowanych
dziedzin nauki. Z punktu widzenia logiki, wiedza jest rozumiana jako zbiór reguł i faktów130.
Definicja wypracowana przez specjalistów psychologii poznawczej przedstawia wiedzę
jako formę trwałej reprezentacji rzeczywistości w postaci uporządkowanej i generującej
wzajemne powiązania struktury informacji, kodowaną w pamięci długotrwałej. W badaniach
nad sztuczną inteligencją przyjmuje się natomiast, że wiedza jest zbiorem wiadomości
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

z konkretnej dziedziny, obejmującym zobiektywizowane i trwałe formy kultury umysłowej


i świadomości społecznej, będące wynikiem kumulowania doświadczeń i uczenia się131.
Szeroką definicję wiedzy, uwzględniającą jej elementy składowe, zaproponowali cytowani
już Thomas Davenport i Laurence Prusak – w ich rozumieniu jest ona płynnym połączeniem
ukształtowanego już doświadczenia, wartości, kontekstu i ekspertyzy, które podsuwają
podmiotowi model oceny i pozwalają przyswoić nowe doświadczenia i informacje132.
Jako początek i odniesienie wiedzy, autorzy wskazują „umysły ludzi posiadających wiedzę”,
rozumianą jako „wiedza twarda”, jawna i opisana, pochodząca z dokumentów, repozytoriów,
procedur, procesów, praktyk i norm organizacyjnych.
Niezależnie od przyjętej definicji, za istotny aspekt wiedzy należy uznać uczenie się
i wnioskowanie nowych faktów. Gromadzenie wiedzy nie jest tylko procesem przyswajania
nowych informacji, dodawania faktów – niezbędna jest zdolność do powiązania ich z wiedzą
już istniejącą. Biorąc pod uwagę powyższe rozważania można przyjąć, iż informacja to dane
zawarte w określonym komunikacie, które zostały zinterpretowane przez odbiorcę i mają
dla niego znaczenie. Informacja wnosi do świadomości odbiorcy nowe elementy, dzięki
czemu zmniejsza jego niewiedzę. O tym, czy dane staną się informacją, decyduje odbiorca.
Aby tak się stało, dane muszą być dla niego zrozumiałe i możliwe do zinterpretowania –
128
R.L. Daft, Organization Theory and Design, St. Paul 1992, s. 285-286.
129
Zob. P. Sienkiewicz, Społeczeństwo informacyjne jako system cybernetyczny, [w:] L.H. Haber (red.),
Społeczeństwo informacyjne – wizja czy rzeczywistość? T.1., Kraków 2004, s. 23.
130
Zob. P. Olszak, Rozpoznawanie obiektów na zdjęciach poprzez zadawanie minimalnej liczby pytań, Toruń
2010, s. 15.
131
Zob. J.J. Mulawka, Systemy ekspertowe, Warszawa 1996.
132
Zob. T.H. Davenport, L. Prusak, op. cit., s. 5.
53
jeżeli warunki te są spełnione, dane stają się wiadomością. Z kolei wiadomość przekształca
się w informację jedynie wtedy, gdy stanowi dla odbiorcy element nowy, tzn. nie jest
powtórzeniem czegoś, co odbiorca już wie133. Należy zauważyć, że informacja ma charakter
subiektywny, ponieważ każdorazowo zależy od zdolności i możliwości interpretacyjnych
odbiorcy. Wiedza natomiast jest otrzymywana z przekazanych informacji w momencie
zintegrowania jej z wiedzą już posiadaną przez podmiot. Zadaniem zarządzania wiedzą
jest natomiast dostarczanie odbiorcom danych adekwatnych do czasu, formy i istotności.
Muszą być one dostosowane zarówno do istniejącego już potencjału odbiorców (posiadanej
wiedzy), ale i do zdolności uczenia się. Spełnienie tych kryteriów warunkuje przekształcenie
danych w informacje, zapamiętanie ich i zgromadzenie w postaci nowej wiedzy.
Informacja stanowi jedną z najbardziej cennych wartości zarówno dla jednostki,
jak i dla szeroko rozumianych grup społecznych oraz instytucji – społeczeństwa, gospodarki
czy państwa. Silne tendencje globalizacyjne w obecnej gospodarce światowej, dynamiczne
przemiany polityczne oraz stały rozwój Internetu, są zjawiskami, których nasilenie obserwuje
się od początku lat 90. XX w. Pokazują one, jak dużą rolę informacja odgrywa w życiu
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

współczesnego społeczeństwa. Obecnie traktowana jest ona wręcz jako najważniejszy


element rozwoju cywilizacyjnego134. Od początku cywilizacji zdobywanie i umiejętne
wykorzystywanie informacji traktowane było jako użyteczne narzędzie uzyskania przewagi
nad pozostałymi członkami społeczeństwa lub przeciwnikami politycznymi. W zależności
od charakteru i wagi, zdobyte informacje pozwalały zaplanować i podjąć działania
ukierunkowane na dominację polityczną, militarną lub gospodarczą135. Starożytni chińscy
myśliciele – Konfucjusz i Sun Tzu – uważali zdobywanie informacji i wykorzystywanie
uzyskanej wiedzy za kluczowe narzędzie prowadzenia wojny, a pierwsze znane ludzkości
sposoby pozyskiwania i ukrywania informacji (np. szyfry, specjalne niewidzialne atramenty,
zakamuflowani kurierzy) były stosowane jeszcze przed początkami rozwoju państwowości 136.
Wraz z upływem czasu, informacja staje się coraz bardziej poszukiwanym i cennym
zasobem. Powszechne wykorzystanie technologii komputerowych i informatycznych
pozwoliło na nieograniczoną wymianę informacji pomiędzy podmiotami, niezależnie
od ograniczeń fizycznych i logistycznych. Nieustanny rozwój techniczny pozwala również
zapewnić niezakłócony cykl życia informacji, rozumiany jako szereg operacji obejmujący
ich wytworzenie, przekazanie, przetwarzanie, kopiowanie, wykorzystywanie,

133
Zob. M. Grabowski, A. Zając, op. cit., s. 16.
134
Zob. B. Bednarek-Michalska, Wolny dostęp do informacji i wiedzy czy wykluczenie edukacyjne? Trendy
światowe a Polska, „Biuletyn EBIB”, 2005, nr 2(63), s. 3.
135
Zob. I. Krysowaty, P. Niedziejko, Informacja w systemach IT jako towar strategiczny, [w:] J. Żuchowski
(red.), Innowacyjność w kształtowaniu jakości wyrobów i usług, Radom 2006, s. 115.
136
Zob. J. Łuczak, M. Tyburski, op. cit., s. 7.
54
przechowywanie i gromadzenie, aż do momentu zniszczenia137. Konsekwencją dynamicznego
postępu techniki oraz nieustannie rosnącej ilości przetwarzanych danych jest konieczność
poszukiwania i stosowania rozwiązań pozwalających nie tylko skutecznie zarządzać
informacją, ale również zapewniających im ochronę przed nieuprawnionym ujawnieniem,
modyfikacją czy utratą.
Wzrost roli informacji we współczesnym świecie jest wynikiem rewolucji
informacyjnej, wprowadzającej ludzkość w erę społeczeństwa informacyjnego.
W społeczeństwie tym, produktem o kluczowym znaczeniu jest informacja, a bogactwem –
wiedza. Konsekwencję takiego stanu rzeczy stanowi podnoszenie rangi bezpieczeństwa
informacyjnego. Jest ono obecnie jednym z najbardziej istotnych przedmiotowych wymiarów
zarówno bezpieczeństwa narodowego, jak i międzynarodowego. Jego znaczenie jest efektem
roli, jaką niezakłócony przepływ i wymiana informacji odgrywa w zapewnianiu efektywnego
funkcjonowania większości współczesnych podmiotów stosunków międzynarodowych,
w szczególności w kontekście życia społecznego i ewolucji społeczeństwa informacyjnego.
Bezpieczeństwo informacyjne zapewnia pożądany poziom ochrony kluczowych zasobów
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

informacyjnych, technologii ich wytwarzania i wykorzystywania, ale chroni także prawa


podmiotów działalności informacyjnej jako gwarant ich stabilnego, nieprzerwanego
funkcjonowania w dynamicznych warunkach społecznych i międzynarodowych 138.
Z uwagi na fakt, że nie powstała dotąd uniwersalna, ogólnie akceptowana definicja
bezpieczeństwa, tym samym trudno jest jednoznacznie zdefiniować pojęcie bezpieczeństwa
informacyjnego. W literaturze przedmiotu istota tego zagadnienia jest najczęściej
sprowadzana do kwestii ochrony informacji niejawnych oraz zapewnienia bezpieczeństwa
teleinformatycznego. Ograniczone w ten sposób postrzeganie bezpieczeństwa informacyjnego
znalazło odzwierciedlenie w krajowych dokumentach strategicznych, m.in. w Strategii
Bezpieczeństwa Narodowego Rzeczypospolitej Polskiej, zatwierdzonej 5 listopada 2014 r.
Arykuł 85. Strategii wskazuje, że bezpieczeństwo informacyjne, w tym ochrona informacji
niejawnych, jest jednym z najważniejszych obszarów funkcjonowania systemu
bezpieczeństwa państwa a jego zapewnianie polega przede wszystkim na zapobieganiu
uzyskaniu nieuprawnionego dostępu do informacji niejawnych oraz ich ujawnieniu,
zapewnianiu personalnych, technicznych i fizycznych zabezpieczeń informacji niejawnych,
a także akredytacji systemów teleinformatycznych, w których informacje
te są przetwarzane139. To wąskie podejście przejawia się również w opisie stanu środowiska
bezpieczeństwa RP – Strategia koncentruje się na problematyce zagrożeń w systemach

137
Zob. W. Fehler, O pojęciu bezpieczeństwa informacyjnego…, s. 30.
138
Zob. K. Malak, op. cit., s. 6.
139
Strategia Bezpieczeństwa Narodowego Rzeczypospolitej Polskiej z 2014 r., Biuro Bezpieczeństwa
Narodowego, Warszawa 2014. s. 35.
55
informatycznych i cyberprzestrzeni, a spośród wielu wymiarów bezpieczeństwa
informacyjnego porusza jedynie kwestię zagrożeń ze strony obcych służb wywiadowczych 140.
Inny kluczowy dokument, Biała Księga Bezpieczeństwa Rzeczypospolitej Polskiej,
nie zawęża co prawda bezpieczeństwa informacyjnego jedynie do ochrony informacji
niejawnych, ale wskazane w niej wyjaśnienie tego pojęcia jest mało precyzyjne. Autorzy
dokumentu zdefiniowali je jako transsektorowy obszar bezpieczeństwa, którego treść
(obejmująca cele, warunki, sposoby i środki) odnosi się do środowiska informacyjnego
państwa, w tym do jego cyberprzestrzeni141. Potraktowanie bezpieczeństwa informacyjnego
w tak zdawkowy, ograniczony sposób w strategicznych dokumentach bezpośrednio
odnoszących się do bezpieczeństwa państwa jest niepokojące i może wskazywać na brak
prawidłowego rozumienia znaczenia rozwoju społeczeństwa informacyjnego.
Szeroką definicję bezpieczeństwa informacyjnego, wskazującą na zrozumienie
jego współczesnego wymiaru, prezentują Eugeniusz Nowak i Maciej Nowak, określający
ten termin jako taki stan uwarunkowań wewnętrznych i zewnętrznych państwa, który pozwala
mu na rozwój społeczeństwa informacyjnego. Uwarunkowania te obejmują przede
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

wszystkim: zapewnienie wysokiej jakości informacji będących w dyspozycji organów


państwowych, niezakłócony przepływ informacji w państwie z wykorzystaniem sprawnej
i nowoczesnej infrastruktury teleinformatycznej, poszanowanie i ochronę obywatelskiego
prawa do prywatności oraz skuteczną ochronę informacji niejawnych i danych osobowych
przy jednoczesnym nieskrępowanym dostępie do informacji publicznych142. W podobnym
tonie, podkreślając znaczenie pozyskania, wykorzystania i ochrony adekwatnej, wartościowej
informacji, wypowiadają się Leszek Korzeniowski (definiujący bezpieczeństwo informacyjne
jako „możliwość pozyskania dobrej jakości informacji oraz ochrony posiadanej informacji
przed jej utratą”143) i Krzysztof Liderman, wskazujący na istotny aspekt, jakim jest dające
pewność zaufanie podmiotu do jakości i dostępności otrzymywanej i używanej informacji144.
Wynikiem intensywnych badań nad sferą bezpieczeństwa informacyjnego jest precyzyjna
definicja tego pojęcia zaproponowana przez W. Fehlera, zgodnie z którą jest to stan i proces,
zapewniający swobodny dostęp, gromadzenie, przetwarzanie i przepływ dobrych jakości
informacji, przy czym niezbędne jest uzasadnione (pod względem racjonalnym, prawnym
i zwyczajowym) wyodrębnienie kategorii informacji podlegających ochronie
lub ograniczonemu dostępowi ze względu na bezpieczeństwo podmiotów, których dotyczą145.

140
Zob. W. Fehler, O pojęciu bezpieczeństwa informacyjnego…, s. 28.
141
Zob. Biuro Bezpieczeństwa Narodowego, Biała Księga Bezpieczeństwa Narodowego RP, Warszawa 2013, s.
248.
142
E. Nowak, M. Nowak, Zarys teorii bezpieczeństwa narodowego, Warszawa 2011, s. 103.
143
L.F Korzeniowski, Podstawy nauk o bezpieczeństwie, Warszawa 2012, s. 147.
144
K. Liderman, Bezpieczeństwo informacyjne, Warszawa 2012, s. 22.
145
Zob. W. Fehler, O pojęciu bezpieczeństwa informacyjnego…, s. 29-30.
56
Warunkiem zapewnienia dobrej jakości informacji jest krytyczna analiza i merytoryczna
selekcja pozyskiwanych danych.
Pojęciem pozostającym w sferze bezpieczeństwa informacyjnego, ale nie tożsamym
z tym terminem, jest bezpieczeństwo informacji. Odnosi się ono do konkretnych produktów
informacyjnych, których bezpieczeństwo zależy od posiadania określonych cech
oraz postępowania z nimi według adekwatnych standardów bezpieczeństwa. Zgodnie
z definicją zawartą w normie PN-ISO/IEC 27001:2007, bezpieczeństwo informacji oznacza
„zachowanie poufności, integralności i dostępności informacji; dodatkowo mogą być brane
pod uwagę inne własności, takie jak autentyczność, rozliczalność, niezaprzeczalność
i niezawodność”146. Z kolei w kontekście procesu zapewniania bezpieczeństwa
informacyjnego bezpieczeństwo samej informacji można zdefiniować jako stan i proces,
w ramach którego w całym cyklu życia informacji (obejmującym wytworzenie, pozyskanie,
przetwarzanie, przechowywanie, wykorzystywanie, kopiowanie i niszczenie) zapewnia się
osiąganie i utrzymywanie na pożądanym przez podmiot poziomie jej elementarnych
właściwości, tj. dostępności, integralności, poufności i użyteczności147.
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

Podejmując rozważania na temat bezpieczeństwa informacji, należy przedstawić


i wyjaśnić poszczególne jego atrybuty. Zgodnie z przytoczoną powyżej definicją informacji
zawartą w normie 27001:2007 oraz ze standardem stosowanym w modelu audytów systemów
informacyjnych COBIT, zaproponowanym przez ISACA148 oraz IT Governance Institute
(Control Objectives for Information and related Technology), informacja ma spełniać
następujące kryteria149:
 poufności, którą należy rozumieć jako ochronę informacji przed ujawnieniem osobom do
tego nieuprawnionym oraz nieautoryzowanym i nieuzasadnionym użyciem;
 integralności – oznaczającą dokładność, kompletność i merytoryczną poprawność
informacji w odniesieniu do oczekiwań odbiorcy;
 dostępności – wskazującej, że informacja jest dostępna i użyteczna na żądanie odbiorcy,
a dostęp do niej jest niezakłócony zarówno w chwili żądania, jak i w przyszłości;
 rozliczalności – oznaczającej, że określone działanie dowolnego podmiotu na informacji
może być w sposób jednoznaczny przypisane wyłącznie temu podmiotowi (np. poprzez
logowanie, rejestrowanie zdarzeń), co powoduje nałożenie na podmiot odpowiedzialności
za jego decyzje i działania;

146
PN-ISO/IEC 27001:2007, Technika informatyczna – Techniki bezpieczeństwa – Systemy zarządzania
bezpieczeństwem informacji – Wymagania, Warszawa 2007, s. 9.
147
Zob. W. Fehler, O pojęciu bezpieczeństwa informacyjnego…, s. 30.
148
ISACA (Information Systems Audit and Control Association) – międzynarodowe stowarzyszenie osób
zajmujących się zagadnieniami audytu, bezpieczeństwa, kontroli oraz innymi istotnymi aspektami zarządzania
systemami informatycznymi.
149
Zob. IT Governance Institute, COBIT 4.1. Metodyka. Cele kontrolne. Wytyczne zarządzania Modele
dojrzałości, Rolling Meadows 2010, s. 10.
57
 niezaprzeczalności – wskazującej na zdolność do udowodnienia podmiotowi procesu
wymiany informacji jego uczestnictwa w tym procesie (np. poprzez stosowanie podpisu
elektronicznego);
 autentyczności, rozumianej jako zgodność pochodzenia lub zawartości informacji
z wcześniej zadeklarowanymi150.
Dodatkowo metodyka COBIT przypisuje informacji cztery inne atrybuty, tj.:
 efektywności – oznaczającej, że informacje powinny być istotne i adekwatne
dla odbiorców, a także dostarczane w sposób prawidłowy, użyteczny, spójny
i terminowy;
 wydajności – wskazującej, że informacje należy dostarczać wykorzystując w sposób
najbardziej optymalny dostępne zasoby;
 zgodności – rozumianej jako zapewnienie, że przekazywanie i przetwarzanie informacji
w ramach organizacji uwzględnia wymagania wynikające z przepisów prawa, regulacji
narzuconych przez podmioty zewnętrzne, umów oraz wewnętrznych postanowień
organizacji;
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

 wiarygodności – zapewniającej odbiorcy informacji adekwatnej i wystarczającej


do wywiązania się z realizowanych przez niego zadań151.
Równie istotną cechą bezpiecznej informacji jest jej użyteczność, rozumiana jako
możliwość jej wykorzystania przez dysponujący nią podmiot. Użyteczność może być realna –
kiedy podmiot faktycznie czyni pożytek z posiadanej informacji w stosunkowo krótkim czasie
od jej otrzymania – lub potencjalna, kiedy dostrzega w niej cechy, które może wykorzystać
w bardziej odległej perspektywie czasowej, np. po uzupełnieniu większą ilością danych
lub odpowiednim przetworzeniu. Duże znaczenie ma w tym kontekście zapewnienie
pluralizmu informacyjnego, czyli pozyskiwania informacji ze zróżnicowanych źródeł
i zasobów informacyjnych. Daje on możliwość weryfikacji otrzymanych informacji i pozwala
uniknąć ewentualnych oddziaływań manipulacyjnych, propagandowych i dezinformacyjnych.
Nieustanny proces transformacji społeczeństw i gospodarek, zachodzący w XXI w.
determinuje dalszy kierunek rozwoju cywilizacji, którego osią jest rola wiedzy i informacji
w społeczności globalnej. Z uwagi na znaczenie tych czynników we współczesnym świecie,
podmioty – głównie państwowe – kreujące i wykorzystujące infrastrukturę informacyjną
w życiu gospodarczym i społecznym mają istotną przewagę nad państwami
niewykorzystującymi potencjału płynącego z rozwoju techniki informacyjnej. Przewaga
ta wyraża się przede wszystkim w sprawnym funkcjonowaniu struktur państwowych
i niezakłóconej komunikacji między nimi, wysokim poziomie informatyzacji społeczeństwa

150
Zob. PN-ISO/IEC 27001:2007…, s. 9.
151
Zob. IT Governance Institute, op.cit., s. 10-11.
58
wpływającym na jego poziom intelektualny, a także posiadaniu aktualnych i istotnych
informacji o bieżących i planowanych działaniach potencjalnych i realnych przeciwników,
co przekłada się na możliwość zaplanowania i wdrożenia adekwatnych działań
prewencyjnych lub akcji dezinformacyjnych. Posiadana wiedza zmniejsza poziom
niepewności, będącej składową zagrożenia, a co za tym idzie – zwiększa poczucie
bezpieczeństwa podmiotu. Im później państwo zdecyduje się na budowanie cywilizacji
informacyjnej, tym dołączenie do grupy krajów efektywnie wykorzystujących technikę
informacyjną i osiągnięcie ich poziomu rozwoju będzie trudniejsze i bardziej kosztowne,
z uwagi na pogłębiającą się przepaść technologiczną oraz konieczność wdrożenia
działających i „nierozpracowanych” jeszcze środków zapewniających bezpieczeństwo
posiadanych zasobów informacyjnych. Warto również zastanowić się nad wpływem,
jaki światowa gospodarka wywiera na rozwój technologii informacyjnych i związaną z tym
procesem konieczności weryfikacji roli państwa jako organizacji życia społecznego.
Z jednej strony reorganizacja związana z wkroczeniem w nową epokę rozwoju, epokę
społeczeństwa informacyjnego i cywilizacji informacyjnej, umacnia znaczenie państwa
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

w zapewnianiu dostępu do techniki informacyjnej (wynika to z jego roli organizatora


istotnych procesów społecznych i gwaranta interesów narodowych). Należy mieć jednak
świadomość, że to państwo ma obowiązek zapewnienia bezpieczeństwa informacyjnego
w skali narodowej, co przy obecnej łatwości zaatakowania systemów informacyjnych
jest znacznie trudniejsze niż w czasach, gdy do pozyskania istotnych dla podmiotu informacji
strategicznych były zdolne jedynie służby specjalne.

Wśród niezliczonych ilości definicji naukowych odnoszących się do bezpieczeństwa,


wskazać można dwa elementy wspólne, które zawiera każda z nich – przetrwanie i rozwój.
Również współcześnie bezpieczeństwo rozumiane jest jako synergiczny efekt procesów
i działań ukierunkowanych na zapewnianie przetrwania jego podmiotów, umożliwiających
ich niezakłócony rozwój w zróżnicowanych obszarach aktywności, gwarantujących
adekwatny poziom ochrony przed zagrożeniami, a w przypadku ich wystąpienia –
neutralizowanie ich negatywnych skutków poprzez wykorzystanie posiadanych sił i środków.
Przytoczony rozwój rozumie się jako możliwość swobodnej realizacji własnych interesów
w otaczającym podmiot środowisku, co jest możliwe dzięki wykorzystywaniu pojawiających
się szans, podejmowaniu wyzwań, redukowaniu istniejącego ryzyka oraz zapobieganiu
i przeciwstawianiu się zagrożeniom – niebezpiecznych zarówno dla samego podmiotu,
jak i dla jego interesów. Zakres pojęciowy bezpieczeństwa jest szeroki i nieustannie ulega
dalszemu rozszerzeniu. Zauważalna jest bowiem obiektywna potrzeba zapewniania
bezpieczeństwa w każdej sferze aktywności społecznej, jak również tworzenia warunków
dla podnoszenia subiektywnego poczucia bezpieczeństwa i możliwości rozwoju jednostek.
59
Z pojęciem bezpieczeństwa nieodłącznie wiąże się pojęcie zagrożenia, w analizowanym
kontekście rozumiane jako zakres zdarzeń (losowych lub zamierzonych), negatywnie
oddziałujących na polityczne i ekonomiczne struktury podmiotu, warunki funkcjonowania
społeczeństwa oraz na stan środowiska naturalnego. Jest to zatem sytuacja,
w której występuje niebezpieczeństwo dla samego podmiotu, jak i jego otoczenia. Zagrożenia
dla bezpieczeństwa można skategoryzować według zróżnicowanych kryteriów – najbardziej
ogólny podział pozwala wyróżnić zagrożenia zewnętrzne i wewnętrzne, realne i potencjalne,
obiektywne i subiektywne, intencjonalne i przypadkowe oraz militarne i pozamilitarne.
Szczególnym wymiarem bezpieczeństwa jest bezpieczeństwo informacyjne. Wynika
to przede wszystkim ze znaczenia informacji, stanowiącej jedno z najbardziej cennych dóbr
we współczesnym świecie - zarówno dla jednostki, jak i dla szeroko rozumianych grup
społecznych oraz państw. Jest ona bowiem kluczowym elementem obserwowanej
współcześnie w skali globalnej rewolucji informacyjnej.
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

60
2. Sztuczna inteligencja w ujęciu ogólnym
2.1. Geneza badań nad sztuczną inteligencją

Podejmując próbę określenia nadrzędnego celu badań w zakresie sztucznej inteligencji


(ang. Artificial Intelligence, AI), należy wskazać dwa główne obszary. Pierwszym z nich jest
opracowanie obliczeniowej teorii inteligencji i funkcjonowania ludzkiego mózgu, zarówno
pamięci i świadomości, jak i emocji oraz instynktów. Drugi cel ma charakter praktyczny
i koncentruje się na budowie inteligentnych systemów komputerowych, które są w stanie
skutecznie rozwiązywać trudne i skomplikowane zagadnienia oraz mają zastosowanie
w realnym, współczesnym świecie. Zagadnienia sztucznej inteligencji obejmują kilka
kluczowych obszarów. Pierwszym z nich jest poszukiwanie powtarzalnych metod
rozwiązywania problemów – przykładem prac w tym zakresie jest odkrywanie i stosowanie
algorytmów do gry w szachy. Drugi obszar koncentruje się na rozumowaniu logicznym,
a przedmiotem jego badań są algorytmy naśladujące sposób wnioskowania zachodzący
w mózgu. Innym zagadnieniem jest przetwarzanie języka naturalnego, oznaczające
w praktyce automatyczne tłumaczenie zdań pomiędzy różnymi językami, werbalne
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

sterowanie maszynami oraz budowanie baz wiedzy na podstawie informacji i słów


wyodrębnionych z mowy. Badacze sztucznej inteligencji prowadzą prace nad programami,
które uczą się samodzielnie, na podstawie analogii, a więc same potrafią się udoskonalać.
Prognozowanie, przewidywanie i planowanie wyników również pozostają w domenie
sztucznej inteligencji, a badania w tym obszarze obejmują zgłębianie procesów percepcyjnych
– badania nad wykorzystaniem wizji, słuchu i dotyku pozwalają tworzyć elektroniczne
odpowiedniki narządów ludzkich i implementować je do robotyki152.
Niektóre problemy, którymi zajmują się obecnie badacze sztucznej inteligencji, miały
swoje źródło w rozważaniach starożytnych, średniowiecznych i nowożytnych filozofów,
zastanawiających się m.in. nad automatyzacją procesów myślowych, możliwością logicznego
opisu procesu ludzkiego rozumowania czy stworzeniem zamkniętego systemu pojęciowo-
językowego, który pozwoliłby opisać świat153. Precyzyjne badania nad sztuczną inteligencją
zaczęto prowadzić dopiero w połowie XX w., kiedy nastąpił dynamiczny rozwój nowej
dyscypliny naukowej, czyli informatyki, a zagadnienie SI uznano za jeden z jej kluczowych
problemów. Obecnie zakres badań podejmowanych w jej obszarze obejmuje m.in. filozofię,
psychologię, medycynę oraz matematykę, co pozwala zauważyć, że jest to nauka
interdyscyplinarna, dążąca do poznania i zbadania ludzkiej inteligencji, a następnie
do zaimplementowania jej w maszynach.

152
Zob. L. Rutkowski, Metody i techniki sztucznej inteligencji, Warszawa 2009, s. 5.
153
Rozważania na ten temat podejmowali m.in. Arystoteles, William Ockham, Kartezjusz czy Gottfried Leibniz;
zob. M. Flasiński, Wstęp do sztucznej inteligencji, Warszawa 2011, s. 3.
61
Niemal od początku badań nad sztuczną inteligencją wyodrębniły się w tej dziedzinie
dwa główne nurty. Silna sztuczna inteligencja (nazywana też bioniczną) skoncentrowała się
na badaniu funkcji ludzkiego mózgu, a jej istotę stanowi analiza działania neuronów
zmierzająca w kierunku praktycznego wykorzystania tej wiedzy w próbach odwzorowania
procesów myślowych. Drugi nurt, czyli słaba sztuczna inteligencja (nurt pragmatyczny),
dążył do osiągnięcia zbliżonych celów, ale zamiast czerpać wzorce ze schematu
funkcjonowania mózgu człowieka, zwrócił się ku metodom formalnego pozyskiwania
i reprezentowania wiedzy, a także budowania skutecznych metod heurystycznego
przeszukiwania zbiorów danych154.
Pierwsze dedykowane badania nad sztuczną inteligencją rozpoczęto w 1956 r.
Zaangażowali się w nie pracownicy Carnegie Mellon University (CMU) - Allen Newell
i Herbert Simon, Massachusetts Institute of Technology (MIT) - John McCarthy i Marvin
Minsky oraz International Business Machines (IBM) - Arthur Samuel. Celem badań było
osiągnięcie przez maszynę poziomu inteligencji człowieka do 1980 r. J. McCarthy
i M. Minsky byli również autorami pierwszej definicji sztucznej inteligencji, za którą uznali
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

konstruowanie maszyn o działaniach podobnych do ludzkich przejawów inteligencji –


potrafiącej modelować procesy myślowe człowieka155. Sztuczną inteligencję rozumiano
zatem jako system świadomie postrzegający otoczenie i reagujący na nie w taki sposób,
aby zmaksymalizować swoje szanse powodzenia156. Z kolei A. Newell i H. Simon już
w 1955 r. zaprojektowali system Logic Theorist, który dowiódł około 40 elementarnych
twierdzeń matematycznych przedstawionych przez Alfreda Whiteheada i Bertranda Russela
w dziele „Principia Mathematica”157. Twórcy systemu próbowali opublikować wyniki swoich
badań w czasopiśmie The Journal of Symbolic Logic, jako jednego z autorów wskazując
Logic Theorist, ale publikacja została odrzucona z uwagi na brak przełomowego znaczenia
otrzymanego rezultatu dla ówczesnej nauki – redakcja zrezygnowała z wydrukowania tego
materiału, pomimo że jednym z jego autorów był system informatyczny158.
W latach 50. XX w. obserwowano wzmożoną fascynację badaczy na punkcie anatomii
ludzkiego mózgu. Podejmowano zaawansowane badania w obszarze rozwoju sztucznych sieci
neuronowych. Pierwszym przykładem działającej aplikacji opartej o tę metodę
był Perceptron, stworzony w 1957 r. przez Franka Rosenblatta i Charlesa Wightmana.
Narzędzie to stanowiło prosty układ elektromechaniczny, potrafiący rozpoznawać znaki
alfanumeryczne dzięki sztucznemu odwzorowaniu procesu uczenia się na podstawie

154
Zob. K. Ficoń, Sztuczna inteligencja. Nie tylko dla humanistów, Warszawa 2013, s. 89-90.
155
Zob. K. Ficoń, op. cit., s. 89.
156
Zob. J. Gozdek, Historia sztucznej inteligencji, [on-line], chip.pl, 03.12.2013, https://www.chip.pl/2013/12/
historia-sztucznej-inteligencji/ (14.10.2019).
157
Zob. M. Flasiński, op. cit., s. 4.
158
Ibidem.
62
dostarczanych mu języków programowania. Pomimo, że Perceptron wykazywał podstawowe
zdolności przyswajania wiedzy, to uzyskiwane przez niego wyniki nie spełniały oczekiwań
ówczesnych entuzjastów AI159. Zadaniem Perceptrona było rozpoznawanie znaków
– po licznych próbach okazało się, że system nie rozpoznaje znaków złożonych, a zmiana
skali obiektów, przesunięcie ich w polu widzenia układu czy zmiana kształtu analizowanych
znaków wpływa negatywnie na jego działanie. Jako główną zaletę Perceptrona wskazywano
odporność na uszkodzenia – jako układ częściowo elektromechaniczny, a częściowo
elektroniczny, Perceptron działał poprawnie nawet z uszkodzonymi elementami160.
Efektem kontynuacji tych badań była konstrukcja pierwszego neurokomputera, który
znalazł zastosowanie komercyjne. W 1960 r., na bazie elementów zdolnych do uczenia się
Bernard Widrow zbudował Madaline161. Madaline realizował zadania związane
z adaptacyjnym przetwarzaniem sygnałów, dzięki czemu znalazł zastosowanie
m.in. w sonarach, modemach, radarach i liniach telefonicznych162.
Z uwagi na słabe rezultaty, finansowanie projektów związanych ze sztuczną
inteligencją zostało zamrożone – nastąpiła tzw. „zima AI”163. Mimo, że tematykę
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

tę podejmowały duże informatyczne zespoły badawcze, a ona sama stała się przedmiotem
artykułów prasowych, publikacji naukowych oraz licznych konferencji, to niedostatki
technologiczne ówczesnego sprzętu badawczego i wynikający z nich brak możliwego
praktycznego zastosowania tej gałęzi nauki przyczynił się do niemal całkowitego zaniku
zainteresowania nią. Zaprzestano finansowania dalszych badań, co sprawiło, że współpracę
z badaczami kontynuowały jedynie instytucje wojskowe i bogate firmy komputerowe,
czyli podmioty mogące pozwolić sobie na sponsorowanie długotrwałych badań z nadzieją
na oddalone w czasie, ale efektywne wyniki komercyjne164.
Rozkwit AI nastąpił w 1991 r. – przyczynił się do niego data mining, pozwalający
na szersze zastosowanie sztucznej inteligencji, m.in. w medycynie czy logistyce. Z uwagi
na dynamikę i zróżnicowanie obszarów badawczych, w których wykorzystywana jest
sztuczna inteligencja, trudno jest scharakteryzować każdy z innowacyjnych projektów
badawczych, który przyczynił się do podniesienia zarówno poziomu wiedzy w tym obszarze,
jak i możliwości jej zastosowania we współczesnym świecie. Wśród przełomowych dat

159
Zob. K. Ficoń, op. cit., s. 90.
160
Zob. Katedra Inżynierii Komputerowej Politechniki Częstochowskiej, Sieci neuronowe. Historia, [on-line],
Politechnika Częstochowska, 2004, https://iisi.pcz.pl/nn/historia.php (17.01.2020).
161
Z ang. Many Adaline; Adaline – Adaptive Linear Element.
162
Zob. Katedra Inżynierii Komputerowej Politechniki Częstochowskiej, op. cit.
163
Zob. Fundacja Digital Poland, Przegląd Strategii Rozwoju Sztucznej Inteligencji na Świecie, Warszawa 2018,
s. 147.
164
Zob. M. Łakomy, Data mining od podszewki, [on-line], Computerworld.pl, 11.05.1998,
https://www.computerworld.pl/news/Data-mining-od-podszewki,284591.html (12.01.2020).
63
i wydarzeń z nimi związanych dla rozwoju tej dziedziny nauki należy wyróżnić
w szczególności:
 rok 1993, w którym grupa BBG (ang. Brain Building Group), pod przewodnictwem
specjalisty w zakresie SI – Hugo de Garisa, rozpoczęła prace nad projektem CAM-
Brain165. Celem badań było stworzenie sztucznego mózgu posiadającego milion
neuronów, którego poziom inteligencji miał być na poziomie młodego kota166.
 rok 1997 jako przełomowy dla inteligentnych maszyn; IBM Deep Blue wygrał w szachy
z mistrzem w tej dziedzinie – Garrim Kasparowem, demonstrując tym samym zdolność
do logicznego i strategicznego myślenia; w kolejnych latach komputery wygrywały
z użytkownikami kolejnych popularnych gier – w 2014 maszyna pokonała człowieka
w grę Shogi167, rok później program AlphaGo odniósł sukces w grze Go, a w 2017 r.
program DeepStack zwyciężył z ludzkim przeciwnikiem podczas rozgrywki pokera
(Texas Hold’em);
 rok 1999, w którym rozwiązania sztucznej inteligencji i robotyki zaimplementowano
do branży rozrywkowej - jednym z pierwszych komercyjnych projektów autonomicznych
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

robotów był Aibo – stworzony przez firmę SONY robot-pies, którego cechą
charakterystyczną była zdolność do podejmowania interakcji z człowiekiem, w tym
reagowania na kilkadziesiąt komend głosowych; modernizowany i dopracowywany przez
lata robot uczy się otoczenia i potrafi powiązać je z usłyszanymi komendami, co zmienia
sposób jego reakcji w zależności od miejsca, ; Aibo potrafi obecnie nie tylko
rozpoznawać i zapamiętywać twarze, ale również odczytywać malujące się na nich
emocje; wśród innych zdolności robo-psa producent wskazuje m.in. szeroki katalog,
umiejętność uczenia się nowych sztuczek, okazywanie emocji, rozbudowaną
gestykulację, możliwość robienia zdjęć i nagrywania filmów oraz zdolność
do wchodzenia w interakcje z innymi, żywymi zwierzętami168;
 rok 2004, w którym doceniono potencjał pojazdów autonomicznych; amerykańska
agencja DARPA w ramach projektu Systemów Bojowych Przyszłości (FCS)
zorganizowała zawody pojazdów bezzałogowych, w którym nagrodą był grant naukowy
– w ten sposób zainicjowano sponsorowanie projektów badawczych mogących znaleźć
zastosowanie w bezpieczeństwie narodowym. Trasa zorganizowanych 13 marca 2004 r.
zawodów mierzyła ponad 227 km – żaden ze startujących pojazdów nie pokonał

165
CAM – ang. Cellular Automate Machine
166
Zob. K. Różanowski, Sztuczna inteligencja: rozwój, szanse i zagrożenia, „Zeszyty Naukowe: Warszawska
Wyższa Szkoła Informatyki”, 2007, nr 2, s. 124.
167
Shogi – japońskie szachy; zob. Fundacja Digital Poland, op. cit., s. 148.
168
Zob. Sony, Aibo – unleash wonder, [on-line], aibo.com, b.r., https://us.aibo.com (20.09.2019).
64
przewidywanego dystansu, a pojazd zwycięskiego zespołu Red Team z Carnegie Mellon
University uzyskał odległość niecałych 12 km.
Kluczowym pytaniem w kontekście sztucznej inteligencji jest: kiedy program
lub maszyna jest inteligentna? Próbę odpowiedzi podjął w 1950 r. Alan Turing, proponując
tzw. test Turinga, rozstrzygający o inteligencji programu. Test polega na skonstruowaniu
zamkniętego systemu w odizolowanym pomieszczeniu i połączeniu go terminalem
komunikacyjnym z niezależnym obserwatorem. Jednocześnie druga platforma komunikacyjna
łączy obserwatora z innym pomieszczeniem, w którym znajduje się żywy człowiek. Zadaniem
operatora jest komunikacja z obydwoma rozmówcami przy użyciu języka naturalnego,
zadawanie pytań, prowadzenie rozmowy. Jeżeli na podstawie odpowiedzi uzyskiwanych
od obu partnerów obserwator nie będzie mógł definitywnie stwierdzić, który z rozmówców
jest żywym człowiekiem, a który systemem komputerowym, wówczas stworzony system
należy uznać za inteligentny169. Do tej pory test Turinga przeszedł tylko jeden program -
„Eugene Goostman”, który w 2014 r. podając się za 13-letniego chłopca przekonał 33%
sędziów, że jest człowiekiem170. Uzyskany przez system wynik spotkał się z wielokrotną
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

krytyką ze strony ekspertów. Samą ideę testu Turinga skrytykował m.in. John Searle
twierdząc, że komputer nie może być inteligentny, bo posługuje się jedynie symbolami
przetwarzanymi według narzuconych reguł (algorytmów), nie rozumiejąc ich znaczenia.
Swój tok myślenia filozof zilustrował przykładem „chińskiego pokoju”: w zamkniętym
pokoju znajduje się Europejczyk nieznający języka chińskiego, a do pomieszczenia
podkładane są pojedyncze kartki z pytaniami zapisanymi chińskimi znakami. W pokoju jest
również książka pt. Co zrobić, gdy ktoś wsunie pod drzwiami kartkę z chińskimi znakami,
zawierająca instrukcje pisania chińskich znaków, adekwatnie do treści zapisanych
na podłożonych kartkach. W związku z tym, Europejczyk opierając się na wytycznych
z podręcznika jest w stanie przygotować odpowiedzi na otrzymywane pytania,
ale nie rozumie przekazywanych mu informacji ani udzielanych komunikatów zwrotnych.
Jak twierdzi J. Searle, analogicznie działa „inteligentna” maszyna, która wykonując zadany
program generuje prawidłowe odpowiedzi na zadawane pytania, ale nie rozumie ich treści,
co podkreśla różnicę pomiędzy myśleniem a symulowaniem procesów myślowych171.
Wyciągnięte przez J. Searle’a wnioski wskazują, że nie istnieje program komputerowy,
który sam w sobie wyposażyłby system w umysł, co oznacza, że programy nie są umysłami
i nie wystarczą do jego powstania. Czynności „mózgu” maszyny, ograniczone wyłącznie

169
Zob. L. Rutkowski, op. cit., s. 5.
170
Zob. J. Schofield, Computer chat bot ’Eugene Goostman’ passes the Turing test, [on-line], zdnet.com, b.r.,
http://www.zdnet.com/article/computer-chatbot-eugene-goostman-passes-the-turing-test/, (29.05.2017).
171
Zob. M. Kasperski, Kilka słów w kwestii Chińskiego Pokoju i dwu innych argumentów przeciw SI: sir Rogera
Penrose’a i z redukcjonizmu, [on-line], kognitywistyka.net, 2002, http://www.kognitywistyka.net/artykuly/mk-
kswapsi.pdf (20.05.2019).
65
do realizowania programu komputerowego nie są wystarczające, by funkcjonowanie tego
mózgu doprowadziło do powstania umysłu. Cokolwiek, co mogłoby stanowić przyczynę
umysłu, musiałoby mieć moc oddziaływania przyczynowego, porównywalną
z możliwościami ludzkiego mózgu. Wyposażenie jakiegokolwiek zbudowanego przez
człowieka artefaktu w program komputerowy nie jest wystarczające do tego, by jego stany
umysłowe były porównywalne z ludzkimi172. A zatem, nawet gdyby maszyna udzielała
odpowiedzi niemożliwych do odróżnienia od odpowiedzi człowieka, zdaniem J. Searle’a
nie ma podstaw, by uznać ją za inteligentną.
Kontrowersyjne zagadnienie podjął Roger Penrose, który w książce pt. Nowy umysł
cesarza rozważał nad wykorzystaniem inteligentnych systemów do potrzeb człowieka,
bez uwzględniania ewentualnych pragnień maszyn, które – jako zdolne do samodzielnego
myślenia – posiadałyby. Sprzedawanie takich maszyn lub odłączanie ich od źródła zasilania,
traktowanego jako pokarm, byłoby z moralnego punktu widzenia wątpliwe. Pierwszym
z urządzeń sztucznej inteligencji był elektroniczny żółw, zbudowany przez Greya Waltera173
w latach 50. XX w., zdolny do samodzielnego poruszania się w pomieszczeniu
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

i poszukiwania źródła ładowania, zasilającej go baterii (w tym energii słonecznej)


w przypadku, gdy poziom napięcia spadał poniżej określonej wartości. Opisując urządzenie
w swojej książce, R. Penrose porównywał jego zachowanie do poszukiwania i spożywania
pokarmu, a także zaproponował miarę szczęścia żółwia – zwierzę miało być maksymalnie
szczęśliwe przebywając w promieniach słonecznych i uzupełniając swoje zapasy energii,
natomiast przebywanie w ciemnym pomieszczeniu, równoznaczne z głodem, oznaczało
zauważalny spadek poziomu szczęścia. Sugestywny opis skali szczęścia maszyny sprawił,
że niewiele osób byłoby w stanie zamknąć ją w ciemnym pokoju, pomimo, że nic
nie odróżnia jej od zwykłego komputera.
Wśród zadań stawianych sztucznej inteligencji wskazuje się często reprezentację
wiedzy, która jest niezbędna do przyjmowania pojawiających się informacji o otoczeniu,
rozumienia ich i konfrontowania z posiadaną już wiedzą. Problem reprezentacji wiedzy
dotyczy wszystkich dziedzin i technik sztucznej inteligencji. Jego istotą jest stworzenie
lub wybór języka, który umożliwi wyrażanie faktów, działań, relacji, zależności, znaczenia,
przyczyn lub skutków związanych z danym zagadnieniem i jego otoczeniu, które mają
lub mogą mieć związek z jego rozwiązaniem. Zastosowanie właściwego języka umożliwia
często znalezienie skutecznego rozwiązania problemu, zaś użycie niewłaściwej formy

172
Zob. J.R. Searle, Umysł, mózg i nauka, „The Behavioral and Brain Sciences”, 1982, nr 5(2), s. 339-341.
173
Grey Walter zbudował pierwsze na świecie maszyny autonomiczne, które nie miały żadnego celu poza
podtrzymywaniem własnej aktywności i istnienia; mechaniczne żółwie określił jako przedstawicieli nowego
gatunku – Machina Speculatrix; zob. R. Tadeusiewicz, Elektroniczne zwierzęta, „Wszechświat”, 2011, nr 7-9, s.
179.
66
przekazu może nawet uniemożliwić działanie174. Inne zadania, z którymi mierzy się AI,
to przede wszystkim wnioskowanie (dzięki którym możliwe jest wyciąganie wniosków
z pojawiających się informacji i podejmowanie decyzji o dalszych działaniach), uczenie się
(niezbędne do dostosowania się systemu do nowych okoliczności i pojmowania nowych
zjawisk), rozumienie języka naturalnego (konieczne do praktycznej weryfikacji zdolności
systemu AI) oraz robotyka, rozumiana jako praktyczna konstrukcja systemu, który posiada
zdolność do poruszania się i wykonywania określonych działań w świecie rzeczywistym 175.
Za nadrzędny cel badań nad sztuczną inteligencją należy uznać stworzenie systemów
(nazywanych też agentami), które będą działały, czyli realizowały nałożone na nie zadania,
co najmniej tak dobrze, jak człowiek. Systemy te mogą działać w zróżnicowanych
środowiskach, o różnych poziomach złożoności i przewidywalności. Skuteczne działanie
warunkowane jest prawidłowo zdefiniowanym celem oraz zdolnością do prawidłowego
postrzegania stanów – zarówno własnego, jak i otoczenia. Nie mniej ważne są zastosowane
reguły pożądanych zachowań agenta (wbudowane, ale i możliwe do rozwinięcia)
oraz zdolność do podejmowania działań oddziałujących na otoczenie systemu.
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

2.2. Istota sztucznej inteligencji

Pomimo powszechnego używania w ostatnich dekadach terminu „sztuczna


inteligencja”, jednoznaczne zdefiniowanie tego pojęcia nie jest łatwe. Główną przyczyną
takiego stanu rzeczy jest brak precyzyjnej definicji samej inteligencji, pomimo licznych prób
przyjęcia jednoznacznego jej rozumienia. Punktem odniesienia do sztucznej inteligencji może
być inteligencja ludzka. Przegląd literatury przedmiotu pozwala odnaleźć liczne definicje tego
terminu, natomiast zdecydowana większość z nich sprowadza się do stwierdzenia, że jest
to zdolność przystosowywania się do nowych warunków życia i wynikających z niego zadań,
lub też sposób, w jaki człowiek przetwarza informacje i wykorzystuje wiedzę
do rozwiązywania problemów176.
Zgodnie z definicją encyklopedyczną, inteligencja (łac. intelligentia – zdolność
pojmowania) odnosi się do sprawności w zakresie czynności poznawczych i jest zdolnością
uczenia się na podstawie własnych doświadczeń, ale również umiejętnością przystosowania
się do otaczającego środowiska, przy czym tak rozumiana inteligencja charakteryzuje
nie tylko człowieka, ale również zwierzęta177. Jako cecha ludzkiego umysłu, inteligencja
oznacza zdolność myślenia, rozwiązywania problemów i angażowania procesów

174
Zob. F. Dul, Wprowadzenie do sztucznej inteligencji, [on-line], Politechnika Warszawska, 2014,
https://www.meil.pw.edu.pl/content/download/filw/ AI_Wstep_14 s. 15, (13.09.2019).
175
Zob. Ibidem, s. 13.
176
Zob. L. Rutkowski, op. cit., s. 4.
177
Zob. Encyklopedia PWN, Inteligencja, [on-line], encyklopedia.pwn.pl, b.r., https://encyklopedia.pwn.pl/
haslo/inteligencja;3915042.html (13.05.2019).
67
poznawczych adekwatnych do okoliczności, niezbędnych do sprawnego działania w nowych
sytuacjach.
Badania naukowe nad inteligencją zapoczątkował w 1883 r. Francis Galton – w jego
rozumieniu termin ten oznaczał podstawową zdolność umysłu, która decydowała o sukcesie
jednostki w toku walki o przetrwanie. Inteligencję miała determinować energia psychiczna,
umożliwiająca szybszą reakcję na bodźce i odróżnianie wrażeń zmysłowych. Badania
F. Galtona dały początek naukowemu podejściu do badania zdolności umysłowych
– w 1905 r. kolejną definicję inteligencji przedstawił Alfred Binet. W jego rozumieniu
jest to zdolność do wydawania trafnych sądów, w szczególności w odniesieniu do sytuacji
i problemów życia codziennego, a samo myślenie człowieka inteligentnego jest
ukierunkowane i prowadzi do rozwiązania problemu.
Wilhelm Stern uważał, że inteligencja jest ogólną zdolnością do adaptacji w nowych
warunkach i wykonywania w nich nowych zadań178. Według Charlesa Spearmana, pojęcie
to oznacza konkretną umiejętność dostrzegania zależności i relacji179, natomiast
George Ferguson sprowadzał istotę inteligencji do zdolności uczenia się, przyswajania nowej
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

wiedzy180. Z kolei zgodnie z definicją Edwarda Nęcki, inteligencja jest zdolnością


przystosowania się do okoliczności dzięki dostrzeganiu abstrakcyjnych relacji, korzystaniu
z wcześniejszych doświadczeń oraz skutecznej kontroli nad procesami poznawczymi
jednostki181. Takie ujęcie podkreśla powiązanie inteligencji z procesami poznawczymi
i zdolnością uczenia się.
W najbardziej popularnym rozumieniu, inteligencja jest umiejętnością dostrzegania
relacji i pewnych zależności występujących w otoczeniu człowieka, umiejętnością uczenia
się, ale również zdolnością do przetwarzania informacji na poziomie koncepcji zawierających
elementy abstrakcyjne. To nie tylko umiejętność mechanicznej analizy informacji,
ale również twórczego jej wykorzystania. Zakres pojęciowy inteligencji obejmuje również
obszar emocjonalny człowieka – w tym rozumieniu inteligencja jest zdolnością
do współdziałania ze zdolnościami kreowanymi w sferze emocjonalnej, interpersonalnej
i motywacyjnej ludzkiej psychiki182. Wpływ na inteligencję mają zarówno czynniki
dziedziczne, jak i wychowanie i socjalizacja jednostki. Wśród kluczowych procesów i funkcji
tworzących ludzką inteligencję należy wymienić uczenie się, zdolność uogólniania, percepcję
i zdolności poznawcze, zapamiętywanie, stawianie i realizację założonych celów, umiejętność

178
Stern.
179
Zob. C. Spearman, The nature of “intelligence” and the principles of cognition, London 1923; [za:] K.
Różanowski, op. cit., s. 110-112.
180
Zob. K. Różanowski, op. cit., s. 110-112.
181
Zob. A. Nęcka, Inteligencja i procesy poznawcze, Kraków 1994, [za:] A. Dydel, Fitness inteligencji. ABC
teorii i ćwiczeń, [e-book], 2016, s. 7.
182
Ł. Kryśkiewicz, Sztuczna inteligencja w sektorze finansowym, [on-line], di.com.pl, 2017,
http://di.com.pl/sztuczna-inteligencja-w-sektorze-finansowym-58641, (15.05.2018).
68
współpracy, wnioskowanie, analizowanie, tworzenie, a także myślenie abstrakcyjne
i koncepcyjne. Inteligencja wiąże się również z pojęciami samoświadomości, emocjonalności
oraz irracjonalnych stanów i działań człowieka.
Przegląd zaprezentowanych definicji pozwala stwierdzić, że inteligencja
jest zdolnością do skutecznego zachowywania się w nowych sytuacjach i zadaniach,
wynikającą z umiejętności wykorzystania ogółu wiedzy i doświadczenia w celu efektywnego
rozwiązywania problemów183. Mimo, że inteligencję przypisuje się wyłącznie człowiekowi,
to już od czasu powstania pierwszego komputera podejmowano próby budowy maszyny
inteligentnej, charakteryzującej się definiującymi tę inteligencję cechami. Komputery
i maszyny obliczeniowe są w stanie rozwiązywać wiele problemów szybciej i sprawniej
niż człowiek, jednak stawiane przed nim zdania cechuje powtarzalność obliczeń
i algorytmiczność zagadnień. Te z kolei mogą być wykorzystywane do usprawnienia
realizacji zadań wymagających znajomości (i zapamiętania) licznych zmiennych, faktów
i układów zależności. Dziedzinę informatyki prowadzącą badania nad inteligencją poprzez
modelowanie zachowań inteligentnych oraz programów komputerowych, które symulują
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

te zachowania, określa się sztuczną inteligencją (artificial intelligence, AI)184. Informatyka


nie jest jedyną dziedziną, w obszarze której prowadzone są badania nad sztuczną inteligencją
– z uwagi na specyfikę tego zagadnienia, prace w jej zakresie angażują również psychologów,
matematyków, kognitywistyków, a nawet filozofów. Jednocześnie należy podkreślić,
że pojęcie sztucznej inteligencji jest wieloznaczne i nie odnosi się jedynie do działu nauki,
ale również do materialnych wytworów jej badań (czyli maszyn i urządzeń wykorzystujących
algorytmy zbliżone do procesów ludzkiego rozumowania), a także do zaawansowanych
technik komputerowych, wykorzystywanych do „uczenia” maszyn.
Jako pierwszy, termin „sztuczna inteligencja” zaprezentował John McCarthy
w 1956 r., określając tym pojęciem „naukę i inżynierię tworzenia inteligentnych maszyn”185.
Dla porównania warto przytoczyć jedną z najbardziej aktualnych definicji, zaproponowaną
przez Andreasa Kaplana i Michael’a Haenlein’a w 2019 r., zgodnie z którą sztuczna
inteligencja jest „zdolnością systemu do prawidłowego interpretowania danych pochodzących
z zewnątrz, nauki na ich podstawie oraz wykorzystywania tej wiedzy, aby wykonywać
określone zadania i osiągnąć cele poprzez elastyczne dostosowanie”186.
Inni autorzy definiują sztuczną inteligencję jako:

183
Zob. A. Czapczuk, J. Dawidowicz, J. Piekarski, Metody sztucznej inteligencji w projektowaniu i eksploatacji
systemów zaopatrzenia w wodę, „Rocznik Ochrona Środowiska”, 2015, t. 17, s. 1528.
184
Zob. M. Negnevitsky, Artificial Intelligence: A Guide to Intelligent Systems, Harlow 2005, s. 6.
185
Zob. The Society for the Study of Artificial Intelligence and Simulation of Behavior (AISB), What is
Artificial Intelligence, [on-line], AISB, b.r., https://www.aisb.org.uk/public-engagement/what-is-ai (13.05.2019).
186
Zob. A. Kaplan, M. Haenlein, Siri, Siri, in my hand: Who’s the fairest in the land? On the interpretations,
illustrations, and implications of artificial intelligence, „Business Horizons”, 2019, vol. 62, is. 1, p. 15.
69
 „dziedzinę nauki zajmującą się rozwiązywaniem problemów efektywnie
niealgorytmizowanych187, w oparciu o modele wiedzy”188;
 pojęcie odnoszące się do komputerów naśladujących aspekty ludzkiego myślenia; „(…)
maszyna, która może uczyć się na swych błędach, albo to może popisać się
rozumowaniem, ma status AI”189;
 „próby stworzenia myślących komputerów (…), maszyn z umysłami”190;
 „dziedzinę badań usiłujących naśladować ludzką inteligencję w maszynie; obszar AI
zawiera systemy z bazą wiedzy, systemy ekspertowe, rozpoznawanie obrazów,
automatyczną naukę, rozumienie języka naturalnego, robotykę i inne”191;
 „naukę o czynnościach, które miałyby spowodować, że maszyny będą wykonywać
funkcje, które aktualnie lepiej wykonuje człowiek”192;
 „dziedzinę nauki próbującą wyjaśnić i emulować inteligentne zachowania za pomocą
metod obliczeniowych”193;
 „urządzenia i oprogramowanie, powstałe w wyniku prac człowieka, a nie wskutek
ewolucji biologicznej, której naśladuje funkcje poznawcze ludzkiego umysłu człowieka,
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

takie jak: uczenie się i podejmowanie decyzji, wnioskowanie, rozpoznawanie mowy


i artykułowanie myśli, rozwiązywanie problemów, rozpoznawanie obiektów”;
 „prace nad metodami obliczeniowymi, które umożliwiałyby maszynom postrzeganie,
wnioskowanie i działanie”194.
Opierając się na elementach wspólnych dla wszystkich przytoczonych definicji można
przyjąć, że sztuczna inteligencja stanowi dział nauk informatycznych koncentrujący się
na konstruowaniu maszyn i algorytmów, których działanie nosi znamiona inteligencji.
W tym ujęciu inteligencja ta jest rozumiana jako zdolność do samodzielnego uczenia się,
przystosowywania się do zmiennego otoczenia, podejmowania skomplikowanych decyzji,
a nawet abstrakcyjnego rozumowania. Jako nauka, sztuczna inteligencja zajmuje się
badaniem i określaniem reguł determinujących inteligentne zachowania człowieka
oraz implementowaniem tych zasad do programów i algorytmów komputerowych,
które potrafią i są w stanie je wykorzystać. Przykłady takich rozwiązań są dość powszechnie
znane we współczesnym świecie – należą do nich przede wszystkim programy
do rozpoznawania tekstów (popularny w oprogramowaniu urządzeń skanująco-drukujących
187
algorytmizacja rozumiana jest w tym przypadku jako zamknięcie w skończonym ciągu konkretnych
czynności, które są niezbędne do wykonania określonego zadania.
188
Zob. W. Duch, Fascynujący świat komputerów, Poznań 1997, s. 54.
189
Zob. S. Gibilis (red.), The McGraw-Hill Illustrated Encyclopedia of Robotics & Artificial Intelligence, Nowy
Jork 1994.
190
Zob. J. Haugeland., Artificial Intelligence, Cambridge 1985.
191
Zob. R. Kurzweil, The Age of Spiritual Machines, London 1999.
192
Zob. E. Rich, K. Knight, S.B. Nair, Artificial Intelligence, New Delhi-New York, 1991, s, 11.
193
Zob. R.J. Schalkoff, Artificial Intelligence: An Engineering Approach, New York 1990, s. 5.
194
Zob. Fundacja Digital Poland, op. cit., s. 138.
70
system optycznego rozpoznawania znaków i tekstów - OCR), obrazów i dźwięków,
tłumaczeń (np. Google Translator), a także gry symulacyjne (zwłaszcza zyskujące
popularność w ostatnich latach gry wykorzystujące tzw. wirtualną rzeczywistość).
W związku z potencjalną możliwością stworzenia sztucznej inteligencji (w rozumieniu
nie dziedziny nauki, ale jej wytworu, czyli inteligentnej maszyny) sprecyzowano dwa
poziomy realizacji tego celu:
 słaba (wąska) sztuczna inteligencja (ang. Artificial Narrow Intelligence – ANI) – oznacza
systemy, które potrafią działać i rozwiązywać określone, pojedyncze problemy
w warunkach pełnej złożoności rzeczywistego świata (tak jakby posiadały umysł
i myślały, ale w jednym, sprecyzowanym obszarze);
 silna (ogólna) sztuczna inteligencja (ang. Artificial General Intelligence – AGI) - system
rzeczywiście inteligentny, posiadający umysł i zdolny do myślenia jak człowiek.
Zgodnie z poglądami zwolenników słabej sztucznej inteligencji, nazywanej też wąską
lub dedykowaną, „komputer pozwala formułować i sprawdzać hipotezy dotyczące mózgu” 195.
W tym rozumieniu mózg dokonuje licznych obliczeń, a sposób, w jaki przetwarza odczucia
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

zmysłowe i tworzy określone wrażenie w umyśle człowieka, jest do pewnego stopnia


zrozumiały. W efekcie możliwe jest tworzenie skomplikowanych modeli matematycznych
wskazanych zagadnień i przekształcanie ich na programy komputerowe, przeznaczone
do realizacji konkretnych celów. Innymi słowy, zwolennicy tej teorii widzą ograniczenia
AI i za maksymalny poziom jej wykorzystania uznają odtworzenie procesów zachodzących
w mózgu człowieka w odniesieniu do konkretnych czynności czy zadań, bez możliwości
ich poszerzania. Poziom ten obejmuje systemy działające i rozwiązujące problemy
w warunkach pełnej złożoności rzeczywistego świata w taki sposób, jakby posiadały umysł
i myślały. Inteligencja ta jest wyspecjalizowana do konkretnych działań i rozwiązań,
ponieważ może rozwiązać specyficzny i zdefiniowany problem lub zadanie, natomiast
nie poradzi sobie z nowym, nieznanym wcześniej zadaniem196. W chwili obecnej słaba
inteligencja znajduje liczne zastosowania praktyczne – jest wykorzystywana
m.in. w chatbotach obsługujących klientów na stronach internetowych i aplikacjach, asyście
głosowej urządzeń mobilnych, jak również w rozpoznawaniu i oznaczaniu twarzy,
np. w serwisach społecznościowych. Innym przykładem jej wykorzystania jest analiza
natężenia ruchu w mieście i dopasowanie do jej wyników optymalnego rozmieszczenia floty
taksówek na określonym obszarze.
Z kolei istotą silnej sztucznej inteligencji jest postrzeganie odpowiednio
zaprogramowanego komputera jako posiadającego elementy ludzkiej inteligencji, w pewien

195
W. Duch, op. cit., s. 54.
196
Zob. Fundacja Digital Poland, op. cit., s. 139.
71
sposób równoważnego mózgowi. Na tej podstawie za możliwe uznaje się tworzenie
programów i struktur samouczących się – modeli sieci neuronowych – oraz opracowywanie
procedur rozwiązywania problemów koncepcyjnych, a nawet abstrakcyjnych, poprzez
uczenie maszyn i uzyskiwania od nich odpowiedzi na postawione im pytania197.
Jest to poziom systemu rzeczywiście inteligentnego, posiadającego rozwijający się umysł
i zdolnego do myślenia w sposób identyczny (lub bardziej rozwinięty) niż ludzki
– cel ten zostanie osiągnięty w momencie, kiedy sztuczna inteligencja będzie mogła wykonać
każde intelektualne zadanie, które może wykonać człowiek. Dotychczas prezentowane
rozwiązania „inteligentnych” robotów nie mogą zostać uznane za inteligencję ogólną,
ponieważ z uwagi na zdolność do realizowania wyłącznie sprecyzowanych scenariuszy
(np. rozmowy na określony temat) należy je zaklasyfikować do inteligencji słabej198.

2.3. Metody i techniki sztucznej inteligencji

Rozpoczynając rozważania na temat metod sztucznej inteligencji należy podkreślić,


że nie istnieje jedna teoria tego obszaru naukowego, która obejmowałaby wszystkie
jej metody i obszary. Jest to raczej zbiór rozproszonych funkcji i metod, a także pojęć,
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

które nie zawsze są ze sobą połączone. Ryszard Tadeusiewicz porównuje sztuczną


inteligencję do archipelagu wysp, z uwagi na to, że poszczególne grupy metod
wykorzystywanych w tej dziedzinie najczęściej nie są ze sobą powiązane. Jednocześnie,
każda z nich zastosowana pojedynczo pozwala na rozwiązanie określonej klasy problemów,
ale brak płynnego przejścia pomiędzy poszczególnymi grupami metod uniemożliwia
traktowanie ich jako spójnej, nierozerwalnej całości. Nie istnieje również jednolita teoria,
która obejmowałaby wszystkie metody sztucznej inteligencji. Analogicznie do grupy wysp
tworzących jeden archipelag, odmienne grupy metod SI tworzą jedną, choć zróżnicowaną,
dziedzinę nauki199.
Prowadzone badania koncentrują się na poszukiwaniu skutecznych metod i narzędzi
badawczych, które zapewnią nieustanny jej rozwój. Krzysztof Ficoń proponuje podział
tych metod na teoretyczne i praktyczne200. Metody teoretyczne koncentrują się na budowie
zróżnicowanych modeli i konstrukcji myślowych, które obrazują mechanizmy działania
ludzkiej świadomości i inteligencji, dążąc do odwzorowania mózgu człowieka. Do tej grupy
zalicza się najbardziej znane narzędzia SI, tj. sztuczne sieci neuronowe, algorytmy genetyczne
oraz teorie zbiorów rozmytych. Z kolei zadaniem metod praktycznych jest tworzenie aplikacji

197
K. Różanowski, op. cit., s. 112.
198
Zob. Fundacja Digital Poland, op. cit., s. 139.
199
Zob. R. Tadeusiewicz, Pierwsza wyspa w archipelagu sztucznej inteligencji – metody symboliczne, [on-line],
natemat.pl, 05.06.2015, https://natemat.pl/144731,pierwsza-wyspa-w-archipelagu-sztucznej-inteligencji-metody-
symboliczne (12.01.2020).
200
Zob. K. Ficoń, op. cit., s. 106.
72
użytkowych, wykorzystujących metody teoretyczne, ale świadczących o rzeczywistej
celowości dalszych badań nad sztuczną inteligencją. W tym ujęciu za kluczowe dziedziny
uznaje się robotykę oraz systemy ekspertowe201.
Wśród fundamentalnych dziedzin sztucznej inteligencji, automatykę i robotykę
wymienia również Piotr Artiemjew, umieszczając obok nich wizję komputerową, uczenie
maszynowe, data mining (szukanie znaczenia danych), analizę języka naturalnego
oraz modelowanie zjawisk w warunkach niepewności (teorie zbiorów przybliżonych
i zbiorów rozmytych)202. Oprócz przywołanych klasyfikacji dziedzin, technik i metod SI
proponowanych przez badaczy, analiza literatury przedmiotu pozwala wyróżnić również
głębokie uczenie, big data (duże zbiory danych), metody grupowania danych, metody
symboliczne, uczenie się ze wzmocnieniem, algorytmy ewolucyjne, a także systemy
203
ekspertowe . W dalszej części pracy omówione zostaną wybrane metody sztucznej
inteligencji, znajdujące najszersze zastosowanie we współczesnej technologii.
Większość metod sztucznej inteligencji skupia automatyka i robotyka, w tym robotyka
inteligentna, ukierunkowana na tworzenie i rozwijanie elektromechanicznych urządzeń
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

wspomagających poszczególne dziedziny życia człowieka. Jako dziedzina inżynierii, domeną


robotyki jest projektowanie i produkcja robotów. Dzięki jej wykorzystaniu możliwe
jest tworzenie skutecznych metod planowania, sterowania i nawigowania mobilnymi
robotami wykonującymi polecenia człowieka – roboty używane są do zadań, w których
człowiek narażony byłby na niebezpieczeństwo, lub których realizacja jest dla niego
zbyt skomplikowana, monotonna lub uciążliwa. Roboty można odnaleźć zarówno na liniach
montażowych w procesie produkcji pojazdów, jak również w NASA, gdzie ich zadaniem
jest przemieszczanie gabarytowych obiektów w przestrzeni kosmicznej204. Przy zastosowaniu
uczenia maszynowego tworzone są również roboty zdolne do wchodzenia w interakcje
społeczne z człowiekiem.
Niezbędnym komponentem zarówno robotyki, jak i automatyki, jest wizja
komputerowa, na której bazują liczne metody SI. Zajmuje się ona analizowaniem informacji
wizualnych pochodzących z otoczenia i opiera się na trzech podstawowych etapach:
generowaniu obrazu, przetwarzaniu wizji i identyfikacji (rozpoznawaniu) obrazu205.
Na podstawie obrazu analogowego maszyna tworzy obraz cyfrowy i przetwarza go, szukając
cech charakterystycznych. Wyodrębnienie i analiza tych cech, a następnie porównanie

201
Ibidem.
202
Zob. P. Artiemjew, Wybrane paradygmaty sztucznej inteligencji, Warszawa 2013, s. 4.
203
Zob. Fundacja Digital Poland, op. cit., s. 138.
204
Zob. Ośrodek Przetwarzania Informacji – Państwowy Instytut Badawczy, Słownik, hasło: robotyka [on-line],
sztucznainteligencja.org., b.r., https://www.sztucznainteligencja.org.pl/slownik/robotyka (10.01.2020).
205
KRFMCG: Jakie korzyści może wnieść wizja komputerowa dla sieci detalicznych?, [on-line],
wiadomoscihandlowe.pl, 28.05.2019, https://www.wiadomoscihandlowe.pl/artykuly/krfmcg-jakie-korzysci-
moze-wniesc-wizja-komputerow,54756 (01.12.2019).
73
z innymi, znanymi jej już obiektami, które posiadają te same cechy, warunkuje
zaklasyfikowanie widzianego obrazu jako konkretnego, znanego obiektu. Rozpoznawanie
wzorców i nauka interpretowania świata wizualnego umożliwia maszynie analizę obrazów,
filmów i wielowymiarowych danych w czasie rzeczywistym 206. Wizja komputerowa znajduje
zastosowanie przede wszystkim w przemyśle, jako narzędzie kontroli jakości,
207
m.in. w produkcji żywności i środków farmaceutycznych . Wśród innych zastosowań
należy wskazać w szczególności: analizę zdjęć satelitarnych i lotniczych (wykorzystywaną
w kartografii, meteorologii, geologii), prowadzenie medycznych badań przesiewowych,
analizę obrazów mikroskopowych, rekonstrukcję zniszczonych eksponatów
archeologicznych, polepszanie jakości obrazów eksperymentów w mikroskopii elektronowej
i fizyce plazmowej, wspomaganie monitorowania obiektów, monitoring sterowania ruchem
miejskim, kontrolowanie bezpieczeństwa bagażu, rozpoznawanie pisma czy bioidentyfikację
na podstawie cech biometrycznych208. Wizja komputerowa została również
zaimplementowana do aplikacji wykorzystywanych przez użytkowników niekomercyjnych
(Aipoly Vision, Google Goggles), służąc jako narzędzie wspomagające naukę języka obcego
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

czy pomagające odzyskać sprawność mózgu osobom, które doznały udaru.


Uczenie maszynowe (ang. machine learning), nazywane również samouczeniem się
programów i maszyn, stanowi jedną z form wąskiej sztucznej inteligencji. Jest dziedziną
nauki o programach i systemach podejmujących określone działania, do realizacji których
nie były wcześniej zaprogramowane. W procesie tym nie stosuje się bowiem klasycznego
programowania, w którym to człowiek decyduje o poszczególnych krokach i działaniach
systemu czy aplikacji. Rola człowieka sprowadza się do przygotowania funkcjonalności,
np. działania na bazie drzew decyzyjnych czy regresji logistycznej. Zadane algorytmy
wykorzystywane są przez maszynę do przeglądania danych. Programy uczą się same,
poszukując konkretnych informacji, na bazie których tworzą wzorce i wykonują właściwe
działania. Kluczowe znaczenie ma tutaj analityka i eksploracja danych – uczenie maszynowe
to proces, w którym wykorzystywane algorytmy mają za zadanie odnaleźć zależności
i prawidłowości zachodzące pomiędzy danymi i działaniami. Pozwalają one programom
zautomatyzować proces pozyskiwania i analizy danych do ciągłego ulepszania i rozwoju
własnego systemu. Jako nauka interdyscyplinarna, uczenie maszynowe korzysta z dorobku
matematyki, informatyki, robotyki i statystyki. Głównym jej celem jest praktyczne
zastosowanie osiągnięć w dziedzinie AI do stworzenia automatycznego systemu, który potrafi

206
Zob. P. Prajsnar, Co wiemy o sztucznej inteligencji? Niewiele, a i tak za mało, [on-line], Online Marketing,
16.09.2019, https://o-m.pl/artykul/co-wiemy-o-sztucznej-inteligencji-niewiele-a-i-tak-za-malo (02.12.2019).
207
Zob. A. Dąbrowski, Sztuczna inteligencja, „Delta”, 2018, nr 5, s. 10.
208
Zob. K. Krawiec, Przetwarzanie i rozpoznawanie obrazów: wprowadzenie, Poznań 2018, s. 3.
74
doskonalić się przy pomocy samodzielnie gromadzonego doświadczenia – danych – i na tej
podstawie nabywa nową wiedzę.
W teorii uczenie maszynowe ma prowadzić do tworzenia nowych pojęć, wykrywania
nieznanych dotąd reguł i zależności pomiędzy danymi, formułowania zasad decyzyjnych,
przyswajania przez maszyny nowych pojęć i struktur z wykorzystaniem znanych już analogii
i uogólnień, zdobywania wiedzy poprzez interakcję z otoczeniem, a następnie formułowania
wiedzy, która będzie zrozumiała dla człowieka. W ujęciu ogólnym uczenie maszynowe
wykorzystywane jest do analizy, użytkowania i poszukiwania zależności w złożonych bazach
danych (big data) i filtrowania informacji według określonych kryteriów (zasada działania
wyszukiwarek internetowych), dostosowywania się systemu do środowiska (pozwalającego
na zachowanie poprawnego działania maszyny w zmiennych warunkach),
a także do prowadzenia badań i analiz skomplikowanych problemów teoretycznych
i praktycznych w dziedzinie matematyki i fizyki.
W praktyce uczenie maszynowe znajduje zastosowanie w biznesie, głównie
w obszarze prognozowania. Na podstawie danych historycznych właściwe modele pozwalają
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

m.in. przewidzieć zachowania klientów, wykryć próbę włamania lub oszustwa,


a nawet stwierdzić prawdopodobieństwo awarii wykorzystywanych w pracy systemów.
Najbardziej znane przykłady rozwiązań wykorzystujących algorytmy uczenia maszynowego
obejmują:
 oprogramowanie do rozpoznawania mowy (translatory, tłumaczenie w czasie
rzeczywistym, głosowo sterowane interfejsy użytkownika, realizacja poleceń głosowych);
 systemy automatycznego sterowania i nawigacji pojazdu (kierowanie pojazdami,
odnajdywanie drogi w nieznanym otoczeniu, automatyzacja systemów produkcyjnych
i wydobywczych, a nawet sterowanie statkami kosmicznymi);
 analizę i klasyfikację danych oraz działania predykcyjne (rozpoznawanie chorób,
rozpoznawanie próbek pisma, klasyfikowanie danych według zadanych kryteriów
– wyszukiwarki, systematykę obiektów astronomicznych, przewidywanie trendów
rynków finansowych)209.
Nie dziwi zatem fakt, że uczenie maszynowe skupia obecnie największą uwagę
przedsiębiorców, a co za tym idzie – pozyskuje najwięcej funduszy. W 2016 r. ok. 55%
wszystkich nakładów finansowych i inwestycji w AI dotyczyło systemów wykorzystujących
uczenie maszynowe210.
Sukces uczenia maszynowego jest uzależniony od wyboru optymalnej metody
formułowania problemu (celu), uczącej bazy danych (bazy doświadczeń) i konkretnych

209
Zob. L. Bolc, P. Zaremba, Wprowadzenie do uczenia się maszyn, Warszawa 1993.
210
Zob. Fundacja Digital Poland, op. cit., s. 141.
75
sposobów przyswajania nowych pojęć. Wśród metod uczenia maszynowego wskazuje się
najczęściej: wnioskowanie wartości funkcji logicznej z konkretnych przykładów, uczenie
drzew decyzyjnych, uczenie się zbioru reguł, uczenie analityczne, uczenie indukcyjne
oraz uczenie przez wzmacnianie211.
W obszarze uczenia maszynowego można także wyróżnić uczenie z nadzorem
i uczenie bez nadzoru. Uczenie z nadzorem (ang. supervised learning) następuje poprzez
wykorzystanie do nauki zestawu gotowych danych, zawierających znane maszynie etykiety
i klasyfikacje, na których system ten trenuje. Często w procesie uczenia z nadzorem bierze
udział człowiek, wskazujący programom liczne gotowe przykłady szkoleniowe,
a także dokonujący korekty wszystkich błędów popełnianych przez nie w trakcie nauki.
Ta forma sztucznej inteligencji znajduje zastosowanie głównie w działaniach predykcyjnych.
Z kolei uczenie bez nadzoru (ang. unsupervised learning) następuje poprzez odkrywanie
nieznanych maszynie wzorców, która wykorzystuje w tym celu nieopisane dane,
niezawierające etykiet i klasyfikacji. Jego istotą jest poszukiwanie wspólnych cech w różnych
danych i tworzenie na ich podstawie zbiorów danych 212. Ta forma uczenia maszynowego
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

wykorzystywana jest najczęściej w głębokim uczeniu, korzystającym ze sztucznych sieci


neuronowych, które pozwalają programowi uczyć się bez ingerencji człowieka.
Data mining opiera się na wdrożeniu algorytmów klasyfikowania, grupowania
i hierarchizacji poprzez programy mające zastosowanie w biznesie. Dogłębna analiza danych
jest najbardziej efektywna, gdy jest stosowana na odpowiednio dużych zbiorach danych,
które po poddaniu badaniom pozwalają osiągnąć wymierne i sensowne wyniki.
Duże przedsiębiorstwa i instytucje posiadają hurtownie danych, które dostarczają narzędziu
danych w postaci specjalnych, dostosowanych struktur. Procesem tym zarządza system
przystosowany do obsługi wielowymiarowych danych oraz ich czasowych i geograficznych
sekwencji. Dogłębna analiza pozwala znaleźć w przetwarzanych danych zależności
i na podstawie wykrytych wzajemnych powiązań prognozować dalsze wyniki 213. Cały proces
obejmuje wyszukiwanie sześciu typów informacji:
 klas i klasyfikacji – poszukiwanie wspólnych właściwości danych na podstawie zadanych
kryteriów (w branży bankowej byłyby to np. informacje o wszystkich klientach mających
konto wspólnie z małżonkiem, dysponujących jednocześnie kontem dewizowym
i nieobciążonych kredytem hipotecznym);

211
Zob. L. Bolc, P. Zaremba, op. cit.
212
Zob. P. Artiemjew, op. cit., s. 4.
213
Możliwości i istotę metody dogłębnej analizy danych zilustrował metaforycznie Marian Łakomy, porównując
ją do „znajdowania w stogu siana dwóch igieł o jednakowej długości, nie wiedząc nawet, czy były w nim jakieś
igły”; zob. M. Łakomy, op. cit.
76
 klastrów i kategorii – dane klasyfikowane są według wspólnych powiązań, niezależnych
od zadanych wcześniej kryteriów (np. 60% klientów w związku małżeńskim
wykorzystuje kartę kredytową do zakupów internetowych);
 asocjacji – polegających na znajdowaniu i prognozowaniu powiązań wynikających
ze zdarzeń (w jakim stopniu jedna czynność determinuje wykonanie drugiej, np. kupno
spodni i dokupienie do nich paska);
 sekwencji – powiązań polegających na tym, że jedno zdarzenie generuje wystąpienie
określonej reakcji w przyszłości (40% szans, że małżeństwo kupujące dom
na przedmieściu w ciągu 6 miesięcy kupi samochód);
 prognoz – bazując na aktualnej wiedzy narzędzie prognozuje wystąpienie określonych
faktów i zdarzeń w przyszłości, np. przewiduje liczbę zamówień, liczbę pracowników
w ciągu kolejnych miesięcy, czy kierunków rozwoju sprzedaży;
 podobnych sekwencji – po wykryciu konkretnych powiązań pomiędzy danymi, narzędzie
umożliwia odnalezienie analogicznych sekwencji w odniesieniu do innego obiektu,
w innej perspektywie czasowej lub w innym układzie214.
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

Inną powszechnie wykorzystywaną dziedziną sztucznej inteligencji jest przetwarzanie


języka naturalnego - NLP215. Zajmuje się ona analizą i tworzeniem tekstów w języku
naturalnym. Technologia NLP sprowadza się do zrozumienia polecenia lub pytania zadanego
w języku naturalnym (np. polskim lub angielskim), wygenerowania odpowiedzi na zadane
dane oraz uczenia maszyny poprzez nabywanie wiedzy z otrzymanych zdań języka
naturalnego z wykorzystaniem możliwości dedukcji wniosków i faktów w oparciu o fakty
zgromadzone w bazie wiedzy. NLP umożliwia zatem interpretację wypowiedzi mówiącego,
a także zrozumienie słów i fraz wypowiedzianych w zróżnicowanych kontekstach.
W tym celu niezbędne jest udostępnienie maszynie bazy wiedzy z określonego obszaru
oraz zgromadzenie bazy danych językowych. Na technologii NLP oparte są systemy
automatycznego tłumaczenia tekstu na inny język, a także selekcji i wydobywania faktów
z usłyszanego tekstu, co pozwala m.in. na ich zastosowanie w czatbotach zastępujących
pracowników infolinii216. Niektóre rodzaje oprogramowania umożliwiają np. automatyczny
rozkład zdania na pojedyncze składowe, co pozwala na generowanie streszczeń
lub przygotowanie tłumaczeń z i na określony język. W zależności od jakości analizy
gramatycznej, narzędzia pozwalają na normalizację i zoptymalizowaną korektę tekstu,
wykrywają błędy gramatyczne i dodają do tekstu znaki diaktryczne217. Analiza języka

214
Ibidem.
215
Z ang.: Natural Language Processing.
216
OSNews, Sztuczna inteligencja. Naturalne przetwarzanie języka, [on-line], osnews.pl, 04.12.2016,
http://osnews.pl/sztuczna-inteligencja-naturalne-przetwarzanie-jezyka/ (12.01.2020).
217
Zob. Neurosoft, Przetwarzanie języka naturalnego, [on-line], neurosoft.pl, b.r.,
https://neurosoft.pl/technologie/przetwarzanie-jezyka-naturalnego/ (12.01.2020).
77
naturalnego wykorzystywana jest również do tworzenia nowego tekstu – naukowcy
z organizacji OpenAI218 stworzyli system generowania treści – GPT-2. W listopadzie 2019 r.
autorzy oprogramowania udostępnili użytkownikom zmodyfikowaną wersję produktu,
nazwaną GPT-@. Po podaniu przez użytkownika kilku podpowiedzi, program
sam przygotowuje kilka stron spójnego tekstu219. Wśród głównych przyczyn nieujawniania
bardziej złożonej wersji oprogramowania badacze wskazali obawy przed tworzeniem spamu
i fake newsów, które mogłyby się znacząco przyczynić do zbędnej dezinformacji
społeczeństwa220.
Rosnące zapotrzebowanie na przechowywanie i przetwarzanie coraz większych
zbiorów danych, wykorzystywanych w branży marketingowej, finansowej czy medycznej,
wymaga narzędzi umożliwiających ich precyzyjną analizę. Eksploracja danych i tworzenie
informacji na podstawie prowadzonych analiz pozwala uzyskać użyteczną, zdolną
do wykorzystania wiedzę z posiadanych danych. Jednym z kroków pozyskiwania wiedzy
jest użycie zbiorów przybliżonych, umożliwiających zarówno indukcję nowych reguł
decyzyjnych, jak i redukcję wykorzystywanych zbiorów danych221. W obszarze sprawowania
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

kontroli nad dużymi zbiorami danych, których prawidłowa analiza zwiększa skuteczność
działania systemu wykorzystującego te dane, wykorzystywana jest często teoria zbiorów
przybliżonych zaproponowana przez Zdzisława Pawlaka w 1982 r.222 Poprzez pojęcie zbioru
przybliżonego rozumie się obiekt matematyczny, definiowany przez parę przybliżeń
– przybliżenie górne i dolne. Teoria zbiorów przybliżonych wykorzystywana
jest w eksploracji danych i odkrywania wiedzy, zadaniach klasyfikacyjnych, systemach
wspomagania decyzji oraz w systemach rozpoznawania mowy. W praktyce teoria ta znajduje
zastosowanie głównie w branży medycznej, bankowej i biznesowej, m.in. jako narzędzie
badania rynku.
Elementem niezbędnym do prawidłowego zrozumienia teorii zbiorów przybliżonych
jest scharakteryzowanie systemu decyzyjnego. Jest to rodzaj systemu informacyjnego,
którego istotę stanowi przydzielenie obiektu do pewnych klas (zbiorów danych) na podstawie
określonych atrybutów tych danych. Celem tego działania jest wygenerowanie reguł,
na podstawie których system będzie klasyfikował kolejne obiekty znajdujące się

218
OpenAI jest organizacją non-profit, na czele której stoją ludzie nauki, m.in. Elon Musk, Reid Hoffman, Sam
Altman. Organizacja nastawiona jest na rozwijanie sztucznej inteligencji, a za cel stawia sobie prowadzenie tego
rozwoju w kierunku przyjaznym i przydatnym społeczeństwu.
219
Program GPT-@ dostępny jest na stronie internetowej; zob. Talk to Transformer, [on-line], b.r.,
https://talktotransformer.com (12.01.2020).
220
Zob. K. Peserada, Przetestujcie sztuczną inteligencją generującą tekst, [on-line], antyradio.pl, 07.11.2019,
https://www.antyradio.pl/Technologia/Internet/Przetestujcie-sztuczna-inteligencje-generujaca-tekst-36826
(12.01.2020).
221
Zob. A. Nowak, Zbiory przybliżone w obszarze systemów ekspertowych, [on-line], Uniwersytet Śląski, b.r.,
http://zsi.tech.us.edu.pl/~anowak/files/pawlak.pdf (12.01.2020).
222
Zob. A. Nowak-Brzezińska, Odkrywanie wiedzy z danych przy użyciu zbiorów przybliżonych. Wykład 2, [on-
line], Uniwersytet Śląski, b.r., http://zsi.tech.us.edu.pl/~nowak/bios/owd/w2.pdf, s. 3 (12.01.2020).
78
w analizowanej bazie. W trakcie tego procesu może pojawić się tzw. relacja
nierozróżnialności, czyli sytuacja, kiedy w zadanym do systemu zbiorze pojawiają się obiekty
różne, ale posiadające kilka (ale nie wszystkie) takich samych cech, co utrudnia jednoznaczne
przypisanie ich do określonych zbiorów223. Biorąc pod uwagę, że celem wnioskowania
w systemach decyzyjnych jest stwierdzenie, czy dany obiekt należy do określonej klasy,
to nierozróżnialność i niespójności w analizowanych danych powodują trudności w realizacji
tego zadania. Obiekty o podobnych cechach (opisach), ale zaliczone do różnych zbiorów
(pojęć) uniemożliwiają stworzenie jednolitych reguł warunkujących przynależność
do określonego zbioru. Niespójności te wynikają najczęściej z niedostępności części
informacji.
Jednocześnie, wskazane niespójności mogą być analizowane z wykorzystaniem teorii
zbiorów przybliżonych. Istotą tej teorii jest założenie, że badając informację opisaną
poszczególnymi atrybutami i wartościami, można określić relacje zachodzące pomiędzy
badanymi obiektami. Dane o tym samym opisie wyrażonym określonymi atrybutami
są nierozróżnialne, ale w przypadku, gdy precyzyjne zdefiniowanie zbioru obiektów
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

jest niemożliwe, za pomocą dostępnych informacji tworzy się górne i dolne przybliżenie tego
zbioru224. Teoria zbiorów przybliżonych proponuje zastąpienie nieprecyzyjnych opisów parą
pojęć precyzyjnych, czyli przybliżeń pojęcia. Różnica pomiędzy dolnym i górnym
przybliżeniem jest obszarem granicznym, obejmującym wszystkie przypadki (obiekty),
które nie mogą być jednoznacznie przypisane do zbioru na podstawie posiadanych informacji
o nich. Im większa różnica pomiędzy obydwoma przybliżeniami, tym mniej precyzyjna
jest definicja opisująca zbiór. Dolne przybliżenie obejmuje obiekty, co do których nie ma
wątpliwości, że spełniają wszystkie warunki klasyfikacji – w przypadku zbioru „małe dzieci”
w dolnym przybliżeniu będą znajdowały się dzieci w wieku 1 roku. Do górnego przybliżenia
należą natomiast obiekty, co do których nie można całkowicie wykluczyć, że reprezentują
badany zbiór (np. dzieci w wieku 8 lat w zbiorze małych dzieci).
Inną metodę, jaką jest uczenie ze wzmocnieniem, należy rozumieć jako powtarzalną
procedurę zdobywania wiedzy z wykorzystaniem metody prób i błędów,
poprzez obserwowanie reakcji badanego obiektu na określone działanie i ocenę wpływu tego
działania na obiekt. Regulator (generator bodźców) oddziałuje na obiekt sterowania według
zadanego algorytmu – obserwuje pierwotny stan obiektu, a następnie wykonuje określoną
akcję, która wprowadza badany obiekt w kolejny stan. W tym momencie regulator otrzymuje
223
Ibidem, s. 12.
224
Niejednoznaczną klasyfikację obiektu można wyjaśnić na przykładzie terminu „ładna kobieta” – każda osoba
pod tym pojęciem będzie rozumiała kobietę, ale poszczególne elementy opisu, czyli atrybuty (kolor włosów,
kształt oczu) będą inne; analogicznie system może do tego pojęcia zaklasyfikować zarówno ciemnoskórą
brunetkę, jak i blondynkę o niebieskich oczach). Innym przykładem może być fraza „wysoki człowiek” (na
podstawie takiego zapytania system zidentyfikuje zarówno mężczyznę o wzroście 190 cm, jak i kobietę
mierzącą 175 cm) lub „małe dziecko”; Zob. Ibidem, s. 21.
79
informację zwrotną – sygnał oceniający wykonane działanie pozytywnie lub negatywnie.
Jeżeli otrzymany sygnał jest pozytywny (nagroda), regulator podejmuje kolejny krok
wynikający z algorytmu225. Schemat działania uczenia ze wzmocnieniem przypomina zabawę
„ciepło-zimno”. Stan obiektu można porównać do pozycji gracza, a sterowanie to kierunek
w którym idzie wykonując dane kroki. Funkcję nagrody stanowią słowa „ciepło” i „zimno” –
słysząc słowo „ciepło” gracz kontynuuje kierunek działania. W ten sposób, metodą prób
i błędów, gracz jest naprowadzany we właściwe miejsce, a im bliżej celu się znajduje,
tym mocniejsze są sygnały nagradzające (słowa „ciepło”, „gorąco”, „parzy”).
Z kolei systemem ekspertowym określa się program (lub zestaw programów
komputerowych), który wspomaga korzystanie z wiedzy i ułatwia podejmowanie decyzji.
Polscy badacze, Katarzyna Karp i Marek Grabowski wskazują, że systemy ekspertowe mogą
wspomagać, a nawet zastępować ludzkich ekspertów w konkretnych dziedzinach poprzez
udzielanie rad, diagnoz i zaleceń w analizowanym przez siebie obszarze226. Systemy
tego typu tworzą dwa główne komponenty – baza wiedzy i system wnioskujący. Baza wiedzy
to zbiór pojęć, definicji i faktów, a także relacji zachodzących między nimi. Mogą
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

one obejmować dane, teksty, reguły, modele, jak również wiedzę zdroworozsądkową. Wśród
baz danych można wyróżnić te, które tworzone są automatycznie, na podstawie analizy
danych, a także bazy rozbudowywane na podstawie interakcji z ekspertem (człowiekiem) 227.
Systemy ekspertowe są wyrazem praktycznego zastosowania sztucznej inteligencji.
Ta dziedzina nauki rozwija się przez cały czas – pojawiają się nowe formy reprezentacji
i przechowywania wiedzy oraz łączenia wypracowanych reguł w celu pozyskania nowych
wyników. Najczęściej wykorzystywanym sposobem reprezentacji wiedzy jest wnioskowanie,
czyli wyciąganie określonych konkluzji na podstawie zaistnienia zdefiniowanych przesłanek
(„jeżeli X, to Y”), przy czym każda przesłanka może zawierać w sobie jeden lub więcej
warunków. Wnioskowanie może zachodzić zarówno w przód (wnioskowanie z przesłanek),
jak i wstecz (wnioskowanie z konkluzji). Metoda „w przód” zaczyna się od zestawu
i określonych wartości cech (atrybutów), które zawierają się w przesłance. Wszystkie
zainicjowane reguły przeszukują bazę wiedzy w celu znalezienia dodatkowych faktów
(powiązań między danymi), które uruchamiają kolejne reguły. Proces ten trwa do czasu
wyprodukowania wszystkich możliwych faktów lub do momentu uzyskania odpowiedzi
na zadane pytanie. Z kolei wnioskowanie wstecz ma na celu dowiedzenie hipotezy

225
Zob. P. Górecki, Uczenie maszynowe, sztuczna inteligencja i samo(świadomość), [on-line], tabletowo.pl,
23.11.2014, https://www.tabletowo.pl/uczenie-maszynowe-sztuczna-inteligencja-i-samoswiadomosc/
(12.01.2020).
226
Zob. M. Karp, M. Grabowski, Systemy ekspertowe i ich zastosowanie, [on-line], Akademia Górniczo-
Hutnicza, b.r., https://home.agh.edu.pl/ligeza/wik/media/presentations/systexp.pdf (13.01.2020).
227
Zob. J. Kołodziejczyk, Systemy ekspertowe. Wykład I. Co to jest system ekspertowy? Przykłady systemów
ekspertowych, [on-line], Zachodniopomorski Uniwersytet Technologiczny, 2016,
https://wikizmsi.zut.edu.pl/uploads/b/b4/INFS1SE1.pdf, s. 3 (14.01.2020).
80
poprzez wyszukanie wszystkich potwierdzających ją przesłanek (zgodnie z regułą:
„X ma miejsce wtedy, gdy …”). W trakcie tego typu wnioskowania system próbuje uzyskać
wartości wszystkich przesłanek i atrybutów użytych w warunku („jeżeli …”), a następnie
sprawdza dodatkowe reguły, których wykorzystanie generuje cechy o tych samych
wartościach228.
Wśród systemów eksperckich wyróżnia się najczęściej systemy: interpretacyjne
(rozpoznające obiekty), predykcyjne (wnioskujące), diagnostyczne (określające wady
i ich przyczyny), kompletowania, planowania, monitorowania, sterowania, planowania,
naprawy i instruowania229. Niezależnie od rodzaju systemu eksperckiego, wśród głównych
cech tych systemów należy wymienić:
 wysoką, ale wąską specjalizację – system zastępuje eksperta w ściśle określonej
dziedzinie i zna procedury i fakty jedynie z tego obszaru;
 jawną reprezentację wiedzy i zdolność do oddzielenia wiedzy eksperckiej od procedur
sterowania systemem;
 stosowanie heurystyki – obliczanie i szacowanie wartości na podstawie znanych faktów;
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

 odejście od działania w oparciu o zadany algorytm na rzecz różnych metod


wnioskowania;
 zdolność do wyjaśnienia sposobu rozwiązania określonego problemu i uzasadnienia
otrzymanego wniosku – użytkownik może zapytać, skąd system wie o konkretnych
faktach lub dlaczego zadał dane pytanie;
 umiejętność samouczenia (przyswajania i stosowania nowej wiedzy) i zdolność
do oszacowania wiarygodności swojej odpowiedzi.
Systemy ekspertowe znajdują zastosowanie w wielu branżach, przy czym
za najbardziej rozwojowe obszary należy uznać:
 branżę finansową (analiza ryzyka inwestycyjnego, kredytowego, itp.);
 medycynę (diagnoza choroby, ocena trafności leczenia, analiza wyników pacjenta);
 zarządzanie zasobami ludzkimi (ocena procesu szkoleniowego, prognoza rozwoju
pracowników);
 prawo i administrację (odtwarzanie norm prawnych, analiza orzecznictwa sądowego,
naliczanie wymiaru świadczeń socjalnych).
Pojęciem często przytaczanym w dyskusjach o sztucznej inteligencji jest „big data”.
Nazwą tą określa się zbiór danych pochodzących z wielu niejednolitych źródeł, które mogą
być zarówno nieuporządkowane, jak i częściowo lub całkowicie uporządkowane. Big data
wykorzystywane są (jako baza) w celu uzyskania informacji, ale mogą również zostać użyte

228
Ibidem, s. 11.
229
Ibidem, s. 17.
81
w projektach uczenia maszynowego lub innych, równie zaawansowanych aplikacjach
analitycznych. Big data mogą pochodzić ze zróżnicowanych źródeł, począwszy od systemów
transakcji biznesowych, baz danych klientów organizacji, poprzez bazy medyczne, aplikacje
mobilne, wyniki badań naukowych, dzienniki kliknięć umieszczone na stronach
internetowych, dane pochodzące z mediów społecznościowych, aż po dane i metadane
generowane w czasie rzeczywistym przez urządzenia pracujące w środowisku Internetu
rzeczy230. Zależnie od przyjętego lub zakładanego celu, big data mogą być przetwarzane
w postaci surowej (niemodyfikowanej), jak również można poddać je wstępnemu
przetworzeniu przy użyciu narzędzi służących do eksploracji danych, co pozwoli wykorzystać
je do przeprowadzenia konkretnej analizy.
Pozostając w obszarze metod sztucznej inteligencji, należy również krótko
scharakteryzować sztuczne sieci neuronowe. Pod pojęciem tym rozumie się sztuczne
struktury złożone z neuronów i połączone synapsami. Sieci te składają się z trzech typów
warstw. Warstwa wejściowa zbiera dane i przekazuje je dalej; w warstwie ukrytej zachodzi
proces uczenia się – w tym miejscu szuka się powiązań pomiędzy poszczególnymi
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

neuronami. Warstwa wyjściowa gromadzi wnioski i wyniki przeprowadzonych analiz.


Sieć neuronową może tworzyć dowolna liczba warstw. Schemat działania sztucznych sieci
neuronowych oparty jest na funkcjonowaniu neuronów w ludzkim mózgu – pojedynczy
neuron przeprowadza nieskomplikowane obliczenia, a sieć tworzona przez wszystkie neurony
wielokrotnie zwiększa potencjał obliczeniowy. Jednocześnie każda kolejna warstwa sieci
otrzymuje dane stanowiące wynik przetworzenia danych w poprzedniej warstwie231.
Jedyną różnicą jest to, że połączenia pomiędzy sztucznymi neuronami można dostosowywać
do celu, który ma zostać zrealizowany przez sieć. Niezależnie od tego, dane wyjściowe
(wnioski) zawsze pochodzą z ostatniej warstwy sieci. Technologia sieci neuronowych
znalazła liczne zastosowania – jest wykorzystywana m.in. do rozpoznawania twarzy, pisma
ręcznego, prognozowania pogody czy transkrypcji mowy na formę pisemną.
Obecnie istnieje wiele zróżnicowanych technologii wspomagających realizację
projektów sztucznej inteligencji. Pomocna w ich charakterystyce jest klasyfikacja projektów
AI, zaproponowana przez Andrzeja Wodeckiego232. Wskazuje on, że podstawę rozwiązań
umożliwiających tworzenie systemów sztucznej inteligencji stanowią projekty
infrastrukturalne. Należą do nich m.in. układy elektroniczne, które są w stanie wygenerować
pożądaną moc obliczeniową (procesory, w tym procesory graficzne) oraz rejestrować dane
pochodzące z otoczenia systemu (sensory i czujniki wykorzystywane m.in. w rozwiązaniach
230
Zob. Ośrodek Przetwarzania Informacji – Państwowy Instytut Badawczy, op. cit., hasło: big data
(14.01.2020).
231
Zob. Ośrodek Przetwarzania Informacji – Państwowy Instytut Badawczy, op. cit., hasło: sieci neuronowe
(14.01.2020).
232
Zob. A. Wodecki, Sztuczna inteligencja w kreowaniu wartości organizacji, Kraków 2018, s. 87-90.
82
Internetu rzeczy). Obok układów elektronicznych, wśród rozwiązań infrastrukturalnych
wyróżnia się usługi dostępne przez chmurę obliczeniową, czyli środowiska dla twórców
aplikacje, same aplikacje oraz usługi polegające na udostępnianiu narzędzi. Osobną kategorią
infrastrukturalną tworzą zbiory danych, które są nie tylko źródłem informacji, ale również bazą
zasilającą algorytmy AI na potrzeby ich testowania i rozwijania.
Kolejną warstwę projektów AI stanowią środowiska dla twórców, które umożliwiają
programistom tworzenie poszczególnych rozwiązań sztucznej inteligencji. Wśród nich należy
wyróżnić w szczególności bazę systemów udostępnianych na podstawie otwartej licencji
– stanowią one podstawę większości obecnych rozwiązań przemysłowych. Twórcy systemów
mogą również korzystać z profesjonalnych bibliotek wspomagających obliczenia statystyczne
i uczenie maszynowe oraz zaawansowanych platform Data Science (które upraszczają procesy
pozyskania i obróbki danych, wspomagają projektowanie, testowanie i wdrażanie
produkcyjnych wersji algorytmów, a także podnoszą efektywność grupowych
prac badawczych). W prezentowanej grupie rozwiązań można również wyodrębnić systemy
umożliwiające tworzenie osobistych i biznesowych botów.
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

Następną klasę projektów tworzą rozwiązania ukierunkowane na pozyskiwanie


i analizę danych. Rejestracja danych możliwa jest dzięki wykorzystaniu sensorów
posiadających odpowiednie oprogramowanie, natomiast ich ilość, wartość i jakość uzależniona
jest od rodzaju i infrastruktury zastosowanego oprogramowania – przede wszystkim
od efektywności zarządzania strumieniami danych. Wśród omawianych systemów wyróżnia się
systemy wspomagające pozyskiwanie i przetwarzanie danych zewnętrznych (kiedy niezbędna
jest integracja systemu z otoczeniem), ale również danych własnych, pochodzących z wewnątrz
systemu.
Pozyskane i poddane kierunkowej analizie dane stanowią podstawę dla kolejnej grupy
rozwiązań ukierunkowanych na wnioskowanie i rekomendowanie wypracowanych
rozwiązań. Rozwiązania te sklasyfikowano w trzech podstawowych grupach – mogą one
realizować zadania predykcyjne, personalizujące oraz polegające na wykrywaniu anomalii.
Czynnikiem warunkującym efektywność stworzonych algorytmów jest poziom znajomości
specyfiki branży, dla której dedykowany jest określony system.
Odrębną klasą projektów sztucznej inteligencji są systemy umożliwiające skuteczną
i przystępną komunikację z użytkownikami. Oparte są one o zaawansowane algorytmy
rozumienia mediów (w szczególności rozpoznawania filmów i obrazów,
a także przetwarzania i generowania języka naturalnego), które umieszcza się w interfejsach
konwersacyjnych, co umożliwia bezpośrednią komunikację – głównie tekstową i głosową
– z użytkownikiem. Stosunkowo nową, ale rozwijaną kategorię tego typu rozwiązań stanowią

83
systemy generatywne, które na bazie przeanalizowanych danych umożliwiają tworzenie
całkowicie nowych treści, w tym także opisowych i multimedialnych.
Ostatnią grupę analizowanych projektów stanowią systemy autonomiczne. Wśród nich
wyróżnia się przede wszystkim wirtualnych agentów biznesowych (systemy te zazwyczaj
reprezentują firmę w kontaktach z klientem, np. zapewniając jego obsługę w czasie
rzeczywistym), asystentów osobistych (wspomagających użytkownika w codziennych
czynnościach, np. asystent głosowy Google czy Siri) oraz narzędzia służące automatyzacji
pracy biurowej (np. systemy księgowania faktur). W obszarze przemysłowym funkcjonują
również systemy autonomicznego transportu – znajdują one zastosowanie zarówno
w powierzchni magazynowej, jak i na otwartej przestrzeni drogowej lub powietrznej.
Rolę wspomagającą wobec nich pełnią systemy nawigacyjne oraz coraz prężniej rozwijająca
się branża robotyki przemysłowej, skoncentrowana na budowie i wdrażaniu narzędzi
optymalizujących procesy realizowane w fabrykach i innych ośrodkach przemysłowych.
Zdolność przewidywania zachowań otoczenia oraz zdolności percepcyjne systemu
uzależnione są od stopnia trudności zadania oraz powiązanego z nim poziomu złożoności
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

algorytmów233. Współcześnie stosowane metody sztucznej inteligencji są zdolne


do redukowania pojawiających się niepewności poprzez zastosowanie m.in.:
 algorytmów rozpoznawania tekstu, mowy i obrazu (zmniejszanie niepewności związanej
z rejestracją perceptów);
 algorytmów predykcyjnych (zmniejszanie niepewności związanej z dynamiką zmian
zachodzących w otoczeniu systemu);
 metod uczenia maszynowego i precyzyjnych rozwiązań motorycznych (zmniejszanie
niepewności dotyczącej oceny konsekwencji podejmowanych działań);
 nowych form reprezentacji wiedzy, metod gromadzenia doświadczenia i badań wpływu
podejmowanych działań na stan otoczenia, co prowadzi do poszerzania zdolności
poprawnego reagowania na bodźce.

2.4. Kierunki rozwoju sztucznej inteligencji

Naukowcy prowadzący badania w różnych dyscyplinach prześcigają się w określaniu


perspektyw rozwoju sztucznej inteligencji. Badacze przewidują, że w perspektywie kolejnych
kilkudziesięciu lat dojdzie do znaczącej przemiany (na miarę trzech wcześniejszych rewolucji
przemysłowych), która przewartościuje życie człowieka. Inteligentne maszyny mają mieć
zastosowanie w licznych branżach gospodarki i życia społecznego, stając się wsparciem
ludzkości w pracy i w domu. Zakłada się, że komputery będą w stanie projektować i tworzyć
kolejne generacje maszyn i robotów, które odegrają ważną rolę w rozwoju poziomu

233
Zob. A. Wodecki, op. cit., s. 86-87.
84
inteligencji. Jednocześnie żadna z dotychczas zbudowanych maszyn nie była w stanie
przekroczyć zestawu zasad narzuconych przez człowieka. Wysoki poziom złożoności
ludzkiego mózgu i ograniczenia sprzętowe maszyn sprawiają, że w chwili obecnej sztuczne
systemy inteligentne nie są w stanie idealnie odwzorować działania mózgu człowieka.
Co prawda maszyny mogą w określonych warunkach przejść test Turinga, ale jest to możliwe
jedynie w wąskim obszarze tematycznym, np. sporcie lub doradztwie w „wyuczonej”
dziedzinie. Urządzenia (maszyny, roboty) mogą sprawiać wrażenie świadomych
i samodzielnie myślących, jednak nie jest to świadomość w sensie filozoficznym 234.
Przewidywania badaczy AI znajdują odzwierciedlenie w praktyce. Wartość
ekonomiczna sztucznej inteligencji nieustannie rośnie, a wraz z nią zmianom ulegają
rewolucjonizowane przez nią branże. Największe sukcesy AI odnotowała w usprawnianiu
procesów biznesowych, głównie w branży motoryzacyjnej i produkcyjnej, ale również
w sektorze medycznym czy edukacyjnym. Wyniki badań The AI Revolution
przeprowadzonych przez Salesforce wykazały, że w 2017 r. 37% przedsiębiorstw
wykorzystywało AI w działaniach biznesowych, a aż 22% organizacji planuje jej wdrożenie
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

w bliskiej przyszłości235. Jako kluczowe obszary biznesowe, w których AI wpływa


na sprzedaż produktów i usług, wskazano: pozyskiwanie i utrzymanie klientów, skuteczność
reprezentantów sprzedaży, tempo sprzedaży, dokładność prognoz oraz dystrybucję
wytworów.
Dynamiczny rozwój sztucznej inteligencji i związane z nim szybkie tempo zmian
sprawiają, że długoterminowe prognozy wpływu tego trendu na procesy biznesowe są trudne
do przewidzenia. Opierając się na analizach przygotowanych przez ekspertów branży
biznesowej, realne perspektywy i kierunki dalszego rozwoju AI można uporządkować w kilku
głównych tezach. Po pierwsze, sztuczna inteligencja doprowadzi do ewolucji rynku pracy –
dzięki jej zastosowaniu możliwe będzie zwiększenie efektywności i wydajności pracy
wykonywanej przez człowieka, ale będzie się to wiązało z koniecznością zatrudnienia
wykwalifikowanych pracowników. Nie chodzi tu tylko o ekspertów technologicznych,
ale też analityków, którzy będą w stanie prawidłowo zinterpretować dostarczone przez system
wyniki. Należy mieć na uwadze konieczność doszkalania pracowników, zarówno w obszarze
kompetencji twardych, odnoszących się do obsługi nowych technologii, ale również
umiejętności miękkich, jak nowe podejście do współpracy – nie tylko z człowiekiem,
ale i z maszyną.

234
Zob. L. Rutkowski, op. cit., s. 19.
235
Zob. M. Salecki, Perspektywy Rozwojowe Reklamy Online: Sprzedaż w dobie sztucznej inteligencji, [on-line],
iab.org.pl, 2019, https://iab.org.pl/aktualnosci/perspektywy-rozwojowe-reklamy-online-sprzedaz-w-dobie-
sztucznej-inteligencji/ (20.05.2019).
85
Po drugie, sztuczna inteligencja znajdzie również powszechne zastosowanie – prawie
¾ znaczącej kadry kierowniczej jest przekonana, że AI będzie przesądzać o ich przewadze
na rynku236. Automatyzacja coraz bardziej złożonych procesów, identyfikowanie trendów
pod kątem ich biznesowej opłacalności oraz wsparcie pracowników w realizacji zadań
to główne obszary, w których przedsiębiorcy spodziewają się wykorzystywać możliwości AI.
Po trzecie, organizacje zaczną wykorzystywać gromadzone i posiadane dane
– do momentu upowszechnienia sztucznej inteligencji, inwestycja w Big Data 237 nie zawsze
oznaczała wymierne korzyści dla organizacji ze względu na techniczne ograniczenia
ich przechowywania i niską efektywność przetwarzania złożonych zapytań. Obecnie wiele
organizacji zastanawia się nad redefinicją swojej strategii gromadzenia i wykorzystania
danych, uwzględniając możliwości usprawnienia kluczowych procesów
oraz zautomatyzowania pozyskiwania danych. Większość metod AI (uczenie głębokie,
uczenie maszynowe) opiera się na pracy z wykorzystaniem ogromnej ilości danych,
warunkiem jest ich prawidłowe opisanie, dlatego też zakłada się, że firmy zaczną reformować
posiadaną architekturę danych, co pozwoli na skuteczne zarządzanie nimi.
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

Po czwarte, biznes będzie jednym z głównych obszarów decydujących


o wykorzystaniu sztucznej inteligencji – abstrahując od militarnych zastosowań rozwiązań
opartych na AI, szacuje się, że w przyszłości będzie ona nieodłączną częścią procesów
biznesowych, a najbardziej wartościowi staną się pracownicy potrafiący przygotować dane
w taki sposób, aby sztuczna inteligencja mogła je optymalnie wykorzystać.
Po piąte, coraz większym zagrożeniem będą stawać się cyberataki, ale obrona przed
nimi powinna być skuteczniejsza niż obecnie – większe postępy w dziedzinie sztucznej
inteligencji wiążą się ze zwiększonym prawdopodobieństwem cyberataków. Stosowane
już metody, czyli uczenie głębokie, zaawansowane uczenie maszynowe czy sieci neuronowe
umożliwiają komputerom odnajdywanie i interpretację określonych wzorców,
co może doprowadzić do lokalizowania i wykorzystywania istniejących luk
w zabezpieczeniach. Jednocześnie analiza bardzo dużej ilości danych oraz skalowalne
techniki uczenia maszynowego pozwalają wykrywać i analizować potencjalne zagrożenia
w czasie rzeczywistym, a co więcej – identyfikować miejsca narażone na cyberataki
i raportować o poziomie bezpieczeństwa.

236
Zob. PWC, 2018 AI Predictions: 8 insights to shape business strategy, [za:] 8 kierunków rozwoju sztucznej
inteligencji, [on-line], zrobotyzowany.pl, 20.10.2018, https://zrobotyzowany.pl/informacje/publikacje/3142/8-
kierunkow-rozwoju-sztucznej-inteligencji (20.05.2019).
237
Big Data oznaczają duże ilości danych lub zbiorów danych, których efektywna analiza z wykorzystaniem
tradycyjnych aplikacji, algorytmów, oprogramowania i sprzętu często jest niemożliwa ze względu na ich
złożoność, rozmiar (liczony w petabajtach), prędkość napływania, różnorodność źródeł i wątpliwości co do ich
wiarygodności i integralności, zob. K. Racka, Big Data – znaczenie, zastosowania i rozwiązania technologiczne,
„Zeszyty Naukowe PWSZ w Płocku. Nauki Ekonomiczne”, 2016, nr 1 (23), s. 312.
86
Po szóste, priorytetem dla organizacji stanie się ujawnienie black box’a sztucznej
inteligencji – w chwili obecnej wiele osób nie ma wiedzy na temat dokładnego działania AI,
co w połączeniu z faktem, że algorytmy oparte o sztuczną inteligencję, nauczone określonych
zachowań (np. podejmowania decyzji) nie działają w sposób transparentny, może budzić
niepokój i nieufność wobec firm z nich korzystających, a w konsekwencji doprowadzić
do ograniczenia jej stosowania. Określenie black box, czyli „czarna skrzynka” sztucznej
inteligencji odnosi się do mechanizmów i zasad działania AI, które są nieznane
i niezrozumiałe dla większości osób nieposiadających wykształcenia lub wiedzy
w tym obszarze. Wynikająca z nieufności presja ze strony społeczeństwa może spowodować
ujawnienie mechanizmów działania AI w konkretnych organizacjach, co z jednej strony
zmniejszy ryzyko niepożądanego wykorzystania sztucznej inteligencji, ale z drugiej stwarza
zagrożenie spowolnienia i zwiększenia kosztowności procesów z niej korzystających238.
W celu rozwoju AI konieczne jest stosowanie dużych ilości danych, których przetwarzanie
stanowi podstawę do uczenia się algorytmów przez maszyny. Poszczególne rodzaje danych są
zróżnicowane w zależności od stosowanych metod uczenia oraz docelowego zastosowania
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

sztucznej inteligencji. Dane mogą więc zawierać informacje dotyczące konkretnych,


możliwych do zidentyfikowania osób. Zrozumiałe jest zatem, że zachodzi potrzeba zarówno
udostępniania, jak i ochrony danych, w tym danych osobowych. Tymczasem regulacje
dotyczące ochrony danych osobowych również wzbudzają obawy dotyczące ograniczenia
lub spowolnienia AI – pomimo, iż od wejścia w życie RODO minął ponad rok239,
to nieustannie pojawiają się wątpliwości co do praktyki jego stosowania. Wiele pytań odnosi
się do profilowania, czyli zautomatyzowanego przetwarzania danych osobowych
w celu oceny niektórych czynników osoby fizycznej, w szczególności do analizy
lub prognozy aspektów jej dotyczących240. Analiza efektów pracy, sytuacji ekonomicznej,
zdrowia, wiarygodności czy osobistych preferencji może stanowić podstawę do podjęcia
decyzji dotyczącej osoby (np. udzielenia kredytu, sprzedaży ubezpieczenia czy zatrudnienia
w określonej branży). Z tego względu profilowanie i zautomatyzowane podejmowanie decyzji
zostało poddane ograniczeniom – RODO nakłada na administratora241 obowiązek przekazania
istotnych informacji dotyczących reguł i algorytmów podejmowania decyzji, co wiąże się
z koniecznością zapewnienia wytłumaczalności sztucznej inteligencji. Programiści powinni
być w stanie odpowiedzieć na pytanie, czy możliwe jest odtworzenie szczegółowej ścieżki
decyzyjnej AI lub czy uzyskany efekt można osiągnąć z wykorzystaniem ogólnodostępnych,
238
Zob. 8 kierunków…, op. cit.
239
Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r. w sprawie
ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu
takich danych oraz uchylenia dyrektywy 95/46/WE (ogólne rozporządzenie o ochronie danych), Dz.U. L 119
z 4.5.2016.; jego zapisy weszły w życie 25 maja 2018 r.
240
Zob. A. Cieślik, Ocena skutków i szacowanie ryzyka dla ochrony danych osobowych, 2017.
241
Administrator – podmiot decydujący o celach i sposobach przetwarzania danych osobowych w organizacji.
87
transparentnych metod242. O ile z technicznego punktu widzenia jest to możliwe, to należy
mieć na uwadze ewentualne ograniczenie swobodnego rozwoju AI.
Po siódme, państwa wysoko rozwinięte wezmą udział w wyścigu w wykorzystaniu
sztucznej inteligencji – konkretne strategie rozwoju AI posiadają już Stany Zjednoczone,
Chiny, Wielka Brytania, Francja, Kanada i Japonia. Głównym celem podjętych
i planowanych działań jest poprawa sytuacji gospodarczej oraz wzrost bezpieczeństwa,
w tym w wymiarze cybernetycznym. Wśród innych czynników motywujących państwa
do sprecyzowania swoich celów w obszarze AI oraz opracowania strategii ich osiągania,
należy wskazać: rozwój sektora prywatnego dzięki braku restrykcyjnych wytycznych
w obszarze przetwarzania danych, ścisłą współpracę z wojskiem umożliwiającą
wykorzystanie nowych technologii w branży biznesowej (USA), utrzymanie dominującej
pozycji w robotyce, wzrost uprzemysłowienia państwa, wsparcie starzejącego się
społeczeństwa (Japonia), utrzymanie wiodącej roli w nauce i rozwoju badań nad AI (Francja)
czy też budowę silnych kompetencji na Bliskim Wschodzie oraz zdobycie znaczącej pozycji
na globalnym rynku technologicznym (Zjednoczone Emiraty Arabskie). Na tle wymienionych
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

czynników wyróżnia się motywacja Chin, które oprócz zachowania bezpieczeństwa


narodowego i ładu społecznego, dążą do monitorowania zachowania obywateli. Dlatego też
traktują sztuczną inteligencję jako jeden z priorytetów rozwoju państwa, dążąc do światowej
dominacji w tym obszarze243. AI stanowi dla Pekinu szansę na robotyzację przemysłu i wzrost
ekonomiczny – do 2030 r. chiński rynek AI ma mieć wartość ok. 150 mld $, podczas gdy cały
światowy rynek w tym obszarze ma być wart 190 mld $244. W Polsce dostrzegalny jest wzrost
zainteresowania branży biznesowej sztuczną inteligencją, natomiast ma on raczej charakter
deklaratywny.
Po ósme, rozwój i powszechne wykorzystanie sztucznej inteligencji wiąże się
z ponoszeniem odpowiedzialności za podjęte działania. Dobrą praktyką w obszarze nowych
technologii jest wykraczanie poza podstawowe regulacje prawne, które często
są niedostosowane lub wręcz przestarzałe w stosunku do pojawiających się innowacji.
Odpowiedzialne wprowadzanie na rynek nowych technologii zmniejsza ryzyko
ich niewłaściwego wykorzystania, poprawia wyniki sprzedaży i wzmacnia przewagę
nad konkurencyjnymi organizacjami245.
Analiza przeprowadzona przez Digital Poland pozwala wskazać kilka kluczowych
czynników, które determinują rozwój sztucznej inteligencji w określonych krajach. Światowe
centra innowacji i rozwoju AI charakteryzują się takimi cechami, jak:
242
Zob. Fundacja Digital Poland, op. cit., s. 16.
243
Zob. W. Knight, China’s AI Awakening, „MIT Technology Review” [on-line], 2017,
https://www.technologyreview.com/s/609038/chinas-ai-awakening/ (22.05.2019).
244
Zob. P. Chojecki, W. Kowalczyk, Strategia rozwoju Chin, [w:] Fundacja Digital Poland, op. cit., s. 40.
245
Zob. PWC, 2018 AI Predictions: 8 insights to shape business strategy, 2018. [za:] 8 kierunków…, op. cit.
88
 promowanie gospodarki opartej na wiedzy;
 gotowość do współpracy i wymiany doświadczeń z innymi podmiotami;
 dostępność danych i uproszczenie procesu ich wymiany;
 probiznesowe prawodawstwo, które umożliwia pilotaże i eksperymenty w obszarze
komercyjnego wykorzystania AI;
 wsparcie przez samorządy lokalne inicjatyw promowanych przez władze centralne;
 wysoki poziom poszanowania własności intelektualnej;
 przyzwolenie i akceptacja społeczeństwa w obszarze implementacji nowoczesnych
technologii i zwiększenia poziomu automatyzacji pracy;
 kultura innowacji, w tym społeczna akceptacja porażki jako elementu niezbędnego
do wypracowania rozwiązania doskonałego;
 zapewnienie kompleksowego finansowania innowacji w branży AI;
 współpraca i integracja świata badań i nauki z biznesem, a także przyspieszona
komercjalizacja osiągniętych efektów prac;
 dostępność szkoleń i kompleksowe pojmowanie nauki i edukacji246.
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

Aby rozwój sztucznej inteligencji przebiegał w sposób zbilansowany, pożądany


i przynosił wymierne korzyści, niezbędne są zarówno znaczące nakłady finansowe ze strony
sektora publicznego, jak i inwestycje sektora prywatnego. Beneficjentami wsparcia
finansowego są przede wszystkim ośrodki naukowe, prowadzące prace badawczo-rozwojowe
(B+R, ang. Research & Development - R&D) w obszarze AI. Badania te należy rozumieć
jako systematycznie prowadzone działania twórcze ukierunkowane na zwiększenie zasobów
wiedzy o człowieku, społeczeństwie i kulturze, a także na poszukiwanie nowych rozwiązań
dla zastosowania tej wiedzy. Działania te prowadzone są zazwyczaj przez jednostki badawcze
i naukowe, centra badawcze lub uczelnie, ale także przez firmy prywatne. Sztandarowym
przykładem finansowania prac nad sztuczną inteligencją są Chiny, które w 2017 r.
przeznaczyły na rozwój AI 28 mld $, z czego 10 mld $ skonsumowało Narodowe Centrum
Informatyki i Komputerów Kwantowych, 5 mld $ - rozwój AI w Tianjin, a 2,1 mld $
- budowa Parku Przemysłowego w Pekinie, skoncentrowanego na sztucznej inteligencji 247.
Podobnymi nakładami finansowymi operują Stany Zjednoczone – wydatki federalne
i inwestycje sektora prywatnego w obszarze AI opiewały w tym czasie na ok. 32 mld $.
Już zaobserwować można intensywny rozwój konsumenckiego wykorzystania
sztucznej inteligencji, przy czym wielu z nich konsument nie jest nawet świadomy.
Wyniki badania pt. AI today, AI tomorrow, przeprowadzonego w 2017 r. przez ARM
Northstar wykazały, że ponad połowa odbiorców usług społeczeństwa informacyjnego

246
Zob. Fundacja Digital Poland, op. cit., s. 8-9.
247
Ibidem, s. 10.
89
nie ma świadomości zastosowania rozwiązań AI w takich platformach jak Spotify, Netflix
czy Facebook248. Co ciekawe, jednocześnie 36% respondentów wskazało, że sztuczna
inteligencja już wywiera zauważalny wpływ na ich życie, a 71% twierdzi, że odczuje
ten wpływ w ciągu 5 najbliższych lat249. Badania wskazują, że najbardziej prawdopodobnym
kierunkiem rozwoju sztucznej inteligencji będzie rozwijanie i udoskonalanie najbardziej
popularnych rozwiązań wykorzystujących słabą AI, funkcjonujących już w branży prywatnej
i wojskowej, czyli przede wszystkim: systemów przetwarzających mowę i język naturalny,
automatycznych systemów obsługi klienta, translacji w czasie rzeczywistym, inteligentnych
domów i internetu rzeczy, ale też autonomicznych pojazdów, broni i robotów.
Ważnym i realnym obszarem rozwoju jest również branża medyczna i ochrony zdrowia,
zwłaszcza w kontekście sieci telemedycznych i aplikacji mogących z wyprzedzeniem
zdiagnozować schorzenia na podstawie bardzo wczesnych objawów lub nieprawidłowych
wyników badań. Jest to element inteligentnych sieci zdrowia, których funkcjonowanie będzie
miało kluczowe znaczenie w przyszłości. Przewiduje się, że szeroki dostęp do opieki
medycznej podniesie średnią długość życia, co w połączeniu z utrzymującym się niskim
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

przyrostem naturalnym będzie skutkowało starzeniem się społeczeństwa. Stąd pojawia się
presja na wdrożenie rozwiązań zapewniających samowystarczalność i prawidłową opiekę
osobom starszym i niesamodzielnym. W rozwoju sieci telemedycznych upatruje się szansy
na stałe monitorowanie stanu pacjenta poprzez śledzenie określonych parametrów i sygnałów
fizjologicznych, jak temperatura, ciśnienie krwi czy czynności oddechowych, a w przypadku
wykrycia anomalii zagrażającej życiu – podejmowanie decyzji o wezwaniu lekarza lub służb
ratowniczych. Zbliżone systemy, wykorzystując określony zestaw danych, w tym dane
o aktywności osoby, mogą znaleźć zastosowanie profilaktyczne, monitorując i wspierając
zmianę stylu życia, nawyków żywieniowych czy systematyczność przyjmowania leków
lub posiłków. Jednocześnie sztuczna inteligencja może zmienić życie osób
niepełnosprawnych, które dzięki stosowaniu czujników, neurochipów czy neurosensorów
zastępujących naturalne połączenia nerwowe będą miały szansę na odzyskanie częściowej
lub całkowitej sprawności lub znaczące usprawnienie wykonywania codziennych czynności.
Intensywny rozwój sztucznej inteligencji można założyć również w branży
rozrywkowej. Już teraz AI znajduje w niej szerokie zastosowanie, zwłaszcza w grach
komputerowych. Modelowanie świata wirtualnego, odwzorowującego rzeczywistość
w przestrzeni wirtualnej jest wykorzystywane do tworzenia systemów dostarczających odczuć

248
Zob. ARM Northstar, AI Today, AI Tomorrow. Awareness, acceptance and anticipation of AI: A global
consumer perspective, 2017, [on-line], slideshare.net, https://www.slideshare.net/ARMHoldings/ai-today-ai-
tomorrow, s. 6 (19.07.2018).
249
Ibidem.
90
i emocji zbliżonych do naturalnych bodźców250. Wykorzystanie technologii VR,
czyli wirtualnej rzeczywistości (ang. virtual reality) przynosi ogromne zyski finansowe
dominującej w branży firmie Sony, która od debiutu w 2016 r. do sierpnia 2018 r. sprzedała
3 mln dedykowanych gogli PlayStation VR oraz prawie 22 mln egzemplarzy gier
kompatybilnych z tym sprzętem251. Wirtualne odwzorowanie rzeczywistości służy również
tworzeniu symulatorów (rozrywkowych, ale i szkoleniowych), a także jest stosowane
w kinach „4D”, oddziałujących na wszystkie zmysły widzów.
Jeżeli chodzi o perspektywy rozwoju silnej sztucznej inteligencji, to są one
przedmiotem rozważań, a nierzadko i sporów naukowców i badaczy. R. Penrose wyraża
przekonanie, że umysł ludzki jest tak skomplikowany, a procesy zachodzące w mózgu –
nieobliczeniowe, że istniejące teorie fizyki nie są wystarczająco kompletne do ich opisania.
Niemożliwe jest zatem nauczenie jakiejkolwiek maszyny ludzkiego sposobu myślenia,
wnioskowania i abstrakcyjnego postrzegania. Przeciwstawne podejście reprezentuje
Ray Kurzweil, ekspert w obszarze komercyjnych zastosowań AI. Jego zdaniem, w ostatnich
dekadach umysł ludzki przestał się rozwijać, zatem szczegółowe zbadanie i opisanie
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

zachodzących w nim procesów myślowych jest w kontekście kilkudziesięciu najbliższych lat


bardzo prawdopodobne. Swoją teorię R. Kurzweil opiera na postępującym i szybkim rozwoju
elektronicznych „inteligentnych substytutów”, przy czym tendencja ta utrzyma się przez
następnych kilka-kilkanaście lat252. Zdanie R. Kurzweil’a popiera Hans Moravec253 twierdząc,
że „człowiek jest skomplikowaną maszyną i niczym więcej, a w przyszłości ludzki system
nerwowy da się zastąpić bardziej złożonym, sztucznym odpowiednikiem”254. Przekonanie
badacza o nieuchronności powstania silnej AI wynika z obserwacji rozwoju technologicznego
współczesnego świata, którego wynikiem jest ciągle zwiększająca się liczba maszyn,
urządzeń i innych wytworów techniki, które z czasem będą w stanie poradzić sobie
z trudnościami codziennego życia lepiej niż podatny na zranienie i choroby człowiek.

2.5. Szanse i zagrożenia związane ze sztuczną inteligencją

Istotną szansą wynikającą z upowszechniania stosowania sztucznej inteligencji


jest tworzenie i rozwój rozwiązań dotyczących „internetu rzeczy”, umożliwiającego
kreowanie „inteligentnych przestrzeni”, obejmujących m.in. infrastrukturę miejską, systemy

250
Zob. P. Artiemjew, Wybrane paradygmaty sztucznej inteligencji, Warszawa 2013, s. 4.
251
Zob. A. Kotowski, Sony sprzedało 3 mln gogli PlayStation VR, [on-line], PCLab, 17.08.2018,
https://pclab.pl/news.78655.html (23.05.2019).
252
Zob. L. Rutkowski, op. cit., s. 18.
253
Hans Moravec – profesor robotyki w Carnegie Hall University, dyrektor uniwersyteckiego laboratorium
mobilnych robotów.
254
Zob. K. Chang, Can Robots Become Conscious?, „The New York Times” [on-line], 11.11.2003,
https://www.nytimes.com/2003/11/11/science/can-robots-become-conscious.html (22.05.2019).
91
transportu i produkcji, budynki, systemy ochrony zdrowia, systemy energetyczne, a także
inne udogodnienia zwiększające komfort codziennego życia.
Zaawansowane rozwiązania i usługi sieciowe mają umożliwić optymalizację
korzystania z infrastruktury miejskiej, przede wszystkim dróg i sieci energetycznej.
Informacje dotyczące charakteru i natężenia ruchu drogowego są już wykorzystywane
do optymalnego sterowania ruchem z wykorzystaniem sygnalizacji świetlnej. Powszechnie
stosowanym rozwiązaniem jest również monitorowanie dostępności miejsc parkingowych
i kierowanie użytkowników pojazdów na wolne miejsca. Inne zastosowania sieci czujników
i systemów monitorujących obejmują m.in. sterowanie oświetleniem dostosowane
do pory roku czy pory dnia, ale i obecności użytkownika w określonym miejscu.
Nie da się ukryć, że nowe technologie znacząco ułatwiają codzienne życie.
Konsumenci produktów i usług postrzegają nowe technologie jako szansę na podniesienie
ich jakości. Korzyści z dotychczasowych osiągnięć oraz praktycznie nieograniczone
perspektywy na rozwój sztucznej inteligencji w kierunku ułatwiającym i optymalizującym
codzienne życie człowieka sprawiają, że sygnały o możliwych zagrożeniach korzystania
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

z AI pojawiają się stosunkowo rzadko, a negatywne głosy przenikające do opinii publicznej


nie padają raczej na podatny grunt. AI rozwija się szybko, znajdując zastosowanie w różnych
sferach życia człowieka, co sprawia, że nadmierne jej wykorzystywanie może prowadzić
do uzależnienia. Skalę potencjalnego problemu ilustruje charakteryzowany wcześniej Internet
Rzeczy - staje się on na tyle powszechny, że podczas gdy obecnie na jednego człowieka
przypadają dwa jego urządzenia, to za 10 lat liczbę tę szacuje się na ok. 300255. Te i inne
zagadnienia związane z korzyściami, wyzwaniami i zagrożeniami wynikającymi z szerokiego
zastosowania i rozwoju AI nie są szeroko komentowane w dyskursie publicznym.
W tym obszarze dominuje raczej postawa umiarkowanie optymistyczna.
Głównym zagrożeniem w kwestii rozwoju sztucznej inteligencji, podnoszonym
m.in. przez Billa Gatesa, Elona Muska czy Stephena Hawkinga, jest pojawienie
się superinteligencji (nadinteligencji) czyli AI, która będzie potrafiła stale i samodzielnie
się udoskonalać. W ten sposób nie tylko przewyższy poziom człowieka, ale osiągnie poziom
niekontrolowanego rozwoju, przy czym jej motywy mogą pozostać nieodgadnione
dla pierwotnego twórcy256. Nadinteligencja miałaby znacznie przewyższać intelektualne
zdolności umysłowe człowieka i przekraczać jego możliwości we wszystkich dziedzinach
poznawczych. Na obecnym poziomie rozwoju technologii SI, o celach działania jej systemów
decydują informatycy, zaś same komputery realizują te cele w sposób deterministyczny.

255
Zob. W. Fehler, Sztuczna inteligencja – szansa czy zagrożenie?, „Studia Bobolanum”, 2017, nr 3 (28), s. 81.
256
Zob. A. Turek, Sztuczna inteligencja – realne zagrożenie? Gates: „Nie rozumiem, czemu niektórzy się nie
przejmują”, [on-line], innpoland.pl, 30.05.2017, http://innpoland.pl/115221,sztuczna-inteligencja-realne-
zagrozenie-gates-nie-rozumiem-czemu-niektorzy-sie-nie-przejmuja, (23.05.2019).
92
Zagrożenie pojawiłoby się w momencie, gdy systemy same modyfikowałyby cele swojego
działania, co nie byłoby możliwe nawet w momencie uzyskania przez nie samoświadomości.
Zdaniem ekspertów w dziedzinie SI, komputery nie mogą samodzielnie stawiać sobie zadań
bez uprzedniego znalezienia dla nich uzasadnienia257. Koncepcja powstania superinteligencji
stanowi podstawę stworzenia technologicznej osobliwości, która według R. Kurzweila
powstanie ok. 2045 r. Technologiczną osobliwość należy rozumieć jako moment w historii
ludzkości, w którym zaawansowana technologia, wykorzystująca potencjał techniczny
i informacyjny, pozwoli na skonstruowanie maszyny dysponującej superinteligencją.
Rozwinięte mechaniczne maszyny miałyby rozszerzyć ludzką fizyczność, a sztuczna
inteligencja – zapewnić człowiekowi nieograniczone możliwości intelektualne258.
Jak wyjaśnia R. Kurzweil, „osobliwość będzie stanowić kulminację połączenia naszego
biologicznego myślenia i istnienia z naszą technologią (…). Po pojawieniu się osobliwości
nie będzie żadnej różnicy między człowiekiem a maszyną”259.
Szybki rozwój technologii komputerowych i informatycznych, budowa robotów
i maszyn wyposażanych w coraz większą autonomię stwarza liczne dylematy. Główną obawą
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

jest zwiększenie bezrobocia w wyniku automatyzacji pracy i zastępowania ludzi


urządzeniami, które nie odczuwają zmęczenia, nie sprzeciwiają się poleceniom
i wykorzystują maksymalnie swoje możliwości. W momencie, kiedy współpraca ludzi
z robotami stanie się zjawiskiem masowym, konieczne będzie określenie praw regulujących
ich wykorzystywanie. Pierwszą, raczej filozoficzną próbę usystematyzowania praw robotów
podjął Isaac Asimov:
1. „Robot nie może skrzywdzić człowieka, ani przez zaniechanie działania dopuścić,
aby człowiek doznał krzywdy”;
2. „Robot musi być posłuszny rozkazom człowieka, chyba, że stoją one w sprzeczności
z pierwszym prawem”;
3. „Robot musi chronić sam siebie, jeśli tylko nie stoi to w sprzeczności z pierwszym
lub drugim prawem”260.
Obserwując funkcjonujące już zastosowania sztucznej inteligencji w celach
militarnych (np. mechaniczne roboty transportowe, drony, zdalnie sterowane pojazdy bojowe
z możliwością namierzania kierunku ataku, broń samonaprowadzająca) można zauważyć,
że zaproponowane przez I. Asimova prawa mają raczej charakter życzeniowy. Współczesne
armie wysoko rozwiniętych i zaawansowanych technologicznie państw sukcesywnie

257
Zob. Ibidem.
258
Zob. G. Osika, Czekając na osobliwość – o modelach interpretacji techniki, „Filo-Sofija. Z problemów
współczesnej filozofii (VI)”, 2017, nr 39, s. 66.
259
R. Kurzweil, Nadchodzi osobliwość. Kiedy człowiek przekroczy granice biologii, Warszawa 2016, s. 25.
260
I. Asimov, Runaround, [w:] I. Asimov, I, Robot, New York, 1942, [za:] P. Artiemjew, op. cit., s. 11.
93
wprowadzają nowe, zautomatyzowane urządzenia ułatwiające prowadzenie działań
wojennych, co narusza zdefiniowane powyżej reguły.
W chwili obecnej zagrożenia związane z rozwojem sztucznej inteligencji
zaobserwować można w dziedzinie bezpieczeństwa informacyjnego, przede wszystkim
w środowisku cybernetycznym. Zagrożenia te wiążą się z możliwością wykorzystania
SI przez hakerów. Maszyny są w stanie łatwo wykryć i wykorzystać pojawiające się luki
w zabezpieczeniach danych. Prognozuje się, że ich zdolności w tym zakresie będą
coraz większe oraz mniej czasochłonne. Dostęp do oprogramowania pozwalającego
na uczenie maszynowe jest łatwy, nie wymaga zaawansowanych nakładów finansowych,
zaś samouczki pozwalające na naukę maszyn są dostępne w Internecie. Testowanie
różnorodnych rodzajów oprogramowania za pomocą licznych programów antywirusowych
pozwala odkryć algorytmy, na których opiera się praca silników tych programów oraz luki
w ich działaniu. Atak technologiczny i złamanie zabezpieczeń pozwala uzyskać dostęp
do zabezpieczonych danych i umożliwia ich przejęcie, modyfikację lub usunięcie,
zaś wykorzystanie w tym procesie inteligentnych maszyn pozwala znacząco skrócić czas
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

przeprowadzenia skutecznego ataku.


Innym zagrożeniem jest możliwość dezinformacji poprzez masowe generowanie dużej
ilości niezweryfikowanych danych. Podstawowym zabezpieczeniem weryfikacyjnym w sieci
internetowej jest technologia CAPTCHA, opierająca się na rozpoznawaniu obrazu.
Warunkiem przesłania wprowadzonych przez użytkownika danych do sieci internetowej
jest poprawne odczytanie treści obrazu, co identyfikuje użytkownika jako człowieka.
Tymczasem rozpoznawanie obrazów przez maszyny, uważane niegdyś za główny element
badań nad sztuczną inteligencją, jest już na tak zaawansowanym poziomie, że autonomiczne
samochody są w stanie samodzielnie jeździć po ruchliwych ulicach. Nie dziwi zatem,
że aktualne systemy OCR (rozpoznawania tekstu) są w stanie odczytać kody zabezpieczające
z dokładnością do 99,8%261. Złamanie zabezpieczeń captcha umożliwia generowanie spamu
w formularzach internetowych oraz powodowanie przeciążeń sieci poprzez nadmierny ruch
na portalach lub wysyłanie nadmiernej ilości danych do systemów. W odpowiedzi na rozwój
technologii kody captcha ulegają modyfikacji – przyjmują formę graficzną (jak system Asirra,
proszący użytkownika o wskazanie konkretnego obrazu spośród kilku losowych), zadania
tekstowego („oblicz ile to jest dwa plus dwa”) czy połączeń dźwiękowo-graficznych (pytanie
dźwiękowe – jakiego koloru jest samochód na zdjęciu).

261
Zob. M. Korolov, AI isn’t just for the good guys anymore, [on-line], CSO, 01.02.2017,
https://www.csoonline.com/article/3163022/ai-isnt-just-for-the-good-guys-anymore.html (30.05.2017).
94
Inną formą wykorzystania sztucznej inteligencji w ramach środowiska black hat262
jest użycie jej do przestępstw internetowych z użyciem oprogramowania ransomware
(blokującego dostęp do danych zawartych na dysku lub całkowicie szyfrujących te dane
do momentu dokonania płatności przez ofiarę ataku) oraz ataków BEC 263. Wykorzystanie AI
w tego typu atakach polega na automatyzacji wyszukiwania najbardziej podatnych ofiar oraz
dopasowywania treści wiadomości do odbiorcy przy użyciu danych znajdujących się przede
wszystkim w ogólnodostępnych (ale także niejawnych) zasobach informacyjnych.
Stosunkowo nową formą szkodliwego wykorzystania sztucznej inteligencji
jest również automatyczne, masowe tworzenie fałszywych kont na portalach randkowych,
wykorzystywanych do werbunku kobiet do świadczenia usług seksualnych.
Każdy z utworzonych profili jest wyjątkowy, zawiera atrakcyjne zdjęcie (pobrane z platform
społecznościowych) i społecznie poważany zawód. Rozmowa z potencjalną ofiarą również
prowadzona jest w sposób pełni automatyczny. Wiarygodność tak skonstruowanych kont
jest tak duża, że nie wzbudzają one podejrzeń nawet ze strony administratorów platform264.
O ile badacze i eksperci od sztucznej inteligencji podkreślają zagrożenia związane
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

raczej z osiągnięciem punktu superinteligencji, o tyle przeciętni konsumenci ze strony AI


obawiają się przede wszystkim utraty prywatności i niekontrolowanego wykorzystania swoich
danych. Wyniki badań przeprowadzonych przez VMware w 2018 r. pokazały, że największy
niepokój związany jest z kontrolą nad finansami osobistymi (tylko 7% ankietowanych
powierzyłoby AI zarządzanie swoimi pieniędzmi), prywatnością wymiany informacji
(58% europejskich badanych uważa, że urządzenia mobilne wykorzystywane są
do podsłuchiwania i śledzenia klientów) oraz monitorowaniem nawyków i preferencji
konsumenckich. Podniesienie jakości oferowanych usług i personalizacja ofert zakupów
nie są zatem czynnikami przekonującymi ludzi do zwiększenia ingerencji sztucznej
inteligencji w ich życie. Przeciwną tendencję można zauważyć natomiast w obszarze opieki
medycznej i profilaktyki – inteligentne technologie i innowacje badające nawyki związane
z aktywnością fizyczną, monitorujące stan zdrowia czy kontrolujące realizację zaleceń
medycznych wzbudzają społeczne zainteresowanie. Warunkiem jest wykorzystanie ich

262
Black hat – rodzaj celowego i szkodliwego hackingu systemów informatycznych i stron internetowych,
wykonywanego złośliwie lub dla konkretnych korzyści materialnych, np. wyłudzenia okupu od ofiary;
przeciwieństwem black hat jest white hat, czyli hacking nieszkodliwy, mający na celu wykrycie i unaocznienie
jego ofierze luk w zabezpieczeniach informatycznych.
263
BEC (ang. Business Email Compromise) – podszywanie się hakerów pod członków kadry zarządzającej
przedsiębiorstwa i wysyłanie w ich imieniu personalnych próśb o przelew wysokich sum do dyrektorów
finansowych.
264
Zob. M. Korolov, op. cit.
95
w konkretnym celu, czyli do lepszego określenia stanu zdrowia pacjenta lub postawienia
bardziej precyzyjnej diagnozy265.

Podsumowując rozważania w tym obszarze należy stwierdzić, że przez ponad 60 lat


prac badawczych poświęconych temu zagadnieniu, nie wypracowano dotychczas jednolitej,
spójnej i komplementarnej definicji sztucznej inteligencji, co wynika przede wszystkim
z jej interdyscyplinarnego charakteru i mnogości zróżnicowanych zagadnień poruszanych
w jej obrębie. Niemniej jednak, w ramach prowadzonych badań podejmowane są próby
opisowego zdefiniowania jej istoty. W ujęciu ogólnym sztuczna inteligencja rozumiana
jest jako dziedzina wiedzy, która obejmuje w szczególności sieci neuronowe, tworzenie
modeli inteligentnych zachowań oraz programów komputerowych zdolnych do symulowania
tych zachowań. Stałe modelowanie i rozwijanie algorytmów oraz bazujących na nich
systemów umożliwia natomiast ich autonomiczne samoulepszanie, jak również
przewidywanie przyszłych zachowań i działań z wykorzystaniem analizy zbieranych danych
i dostrzeganych pomiędzy nimi powitań. Z kolei jako dział informatyki, sztuczna inteligencja
obejmuje konstruowanie algorytmów i maszyn, których działanie posiada cechy inteligentne,
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

tj. zdolności adaptacyjne do warunków otoczenia, możliwość uczenia się (uczenie


maszynowe, uczenie ze wzmocnieniem), umiejętność abstrakcyjnego rozumowania
i podejmowania decyzji. Swego rodzaju konsensus w obszarze definiowania sztucznej
inteligencji stanowi ujęcie systemowe, w którym zgodzono się, że jest to system oparty
na koncepcji maszyny mogącej wpływać na środowisko poprzez formułowanie zaleceń,
przewidywań lub podejmowanie decyzji dotyczących zadanego zestawu celów.
W tym kontekście działanie sztucznej inteligencji można opisać jako wykorzystywanie
danych wejściowych (maszynowych lub ludzkich) do postrzegania środowiska
(rzeczywistego lub wirtualnego), kształtowanie modeli na podstawie prowadzonych
obserwacji tego środowiska, a następnie interpretowanie stworzonych modeli
w celu sformułowania określonych wyników – decyzji, zachowań lub zaleceń. W przełożeniu
na implementowanie rozwiązań inteligentnych do maszyn i systemów można zatem przyjąć,
że istotę sztucznej inteligencji stanowi badanie i wskazywanie reguł sterujących
inteligentnymi zachowaniami jednostek ludzkich, a następnie ich implementacja
w programach komputerowych i algorytmach, potrafiących wykorzystywać te zasady.
Warunkiem skutecznego i bezpiecznego rozwoju innowacyjności w obszarze powszechnego
wykorzystania sztucznej inteligencji jest edukacja. Wyjaśnienie mechanizmów
funkcjonowania AI, udzielanie odpowiedzi na kwestie problematyczne i niejasne,
a także możliwie obiektywne przedstawienie zarówno potencjalnych, jak i realnych szans,

265
Zob. J. Chustecki, Sztuczna inteligencja – szanse i zagrożenia, [on-line], 19.02.2019,
https://www.computerworld.pl/news/Sztuczna-inteligencja-szanse-i-zagrozenia,412196.html, (01.06.2019).
96
wyzwań i zagrożeń dla bezpieczeństwa w tym kontekście jest niezbędne, aby „odczarować”
sztuczną inteligencję i zmienić jej postrzeganie jako „wiedzy tajemnej” i zastrzeżonej
dla niewielkiej grupy naukowców. Zrozumienie tego, jak działają i co w rzeczywistości nowe
technologie oznaczają dla normalnej, codziennej aktywności człowieka w jego pracy
czy życiu prywatnym jest warunkiem zwiększenia otwartości na nie. Podniesienie cyfrowych
kompetencji w tym zakresie niesie za sobą szanse na większą gotowość do testowania
innowacyjnych produktów, dóbr i usług, a co za tym idzie – doskonalenie
ich i dostosowywanie do precyzyjnych potrzeb konsumentów. W obecnej fazie ciągłego
wdrażania inteligentnych rozwiązań do wielu sektorów, przede wszystkim branży prywatnej,
ciężar edukacji społeczeństwa spoczywa zarówno na przedsiębiorstwach, jak i na instytucjach
państwowych.
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

97
3. Sztuczna inteligencja jako czynnik zwiększający poziom bezpieczeństwa
w XXI w.
3.1. AI w sferze bezpieczeństwa militarnego

XXI w. przyniósł społeczeństwu zaawansowany postęp technologiczny, który


może mieć przełomowe znaczenie dla jego dalszego rozwoju. Eksperci bezpieczeństwa IT
wskazują, że stoimy u progu rewolucji, która może znacząco zmienić współczesny świat.
Poprzednie rewolucje przemysłowe odmieniły obszar pracy i produkcji - pierwsza z nich
miała miejsce w latach 60. XVIII w., a zapoczątkowało ją wynalezienie maszyny parowej,
wprowadzającej do praktyki życia gospodarczego proces produkcyjny. Jej następstwem było
przeobrażenie społeczeństwa rolniczego w społeczeństwo przemysłowe. Druga rewolucja
dokonała się na przełomie XIX i XX w. i była wynikiem wynalezienia elektryczności oraz
silnika spalinowego, co umożliwiło wdrożenie produkcji przemysłowej na masową skalę,
m.in. dzięki stworzeniu i upowszechnieniu linii produkcyjnych. Okres trzeciej rewolucji
przypadł na lata 60. XX w. – w tym czasie narodziło się pojęcie społeczeństwa
informacyjnego i wprowadzono na rynek pierwsze komputery. Przyczyniło się
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

to do znaczącej automatyzacji produkcji – to wtedy bowiem powstały pierwsze systemy IT


umożliwiające jej planowanie i kontrolowanie. Czwarta rewolucja – dotycząca sztucznej
inteligencji – również nie pozostanie bez wpływu na życie każdego człowieka.
Rozwój AI daje szerokie spektrum możliwości, ale niesie również za sobą określone ryzyka.
Dlatego też istotne jest odpowiednie podejście do tej dziedziny nauki, które w wielu
państwach znalazło odzwierciedlenie w strategiach dotyczących rozwoju, zastosowania
i przyszłych perspektyw wykorzystania sztucznej inteligencji. Wszystkie liczące się obecnie
gospodarki na świecie wypracowały już państwowe strategie rozwoju AI – w tym gronie
znalazły się m.in. Stany Zjednoczone, Chiny, Kanada, Francja, Japonia, Wielka Brytania,
Zjednoczone Emiraty Arabskie i Finlandia. Każdemu z nich można przypisać inną motywację
do opracowania takiego oficjalnego dokumentu. Np. Stany Zjednoczone obserwują rozkwit
zastosowania AI w sektorze prywatnym, głównie dzięki ścisłej współpracy z wojskiem
oraz braku restrykcyjnych regulacji odnoszących się do przetwarzania danych. Chiny z kolei
dążą do światowej dominacji – do 2030 r. Pekin chce stać się technologicznym liderem
w obszarze AI, zaś chiński rynek w tej dziedzinie ma zwiększyć swoją wartość do 150 mld
dolarów. Dodatkowo sztuczna inteligencja ma pomóc Chinom w zapewnianiu bezpieczeństwa
wewnętrznego, m.in. poprzez monitorowanie zachowań obywateli. Inna motywacja kieruje
Francją, która prezentuje przekonanie, że rozwój i szerokie zastosowanie AI przewartościuje
dotychczasowe modele biznesowe, więc optymalne wykorzystanie jej możliwości
jest warunkiem utrzymania się w światowej czołówce gospodarczej i naukowej. W innym
przypadku Francja, zamiast uczestniczyć w kreowaniu nowej rzeczywistości, byłaby
98
zmuszona dostosować się do zmian narzuconych przez innych uczestników stosunków
międzynarodowych, którzy szybciej i sprawniej zaadaptują się do nowych warunków.
Z kolei Japonia dąży do utrzymania wiodącej pozycji w dziedzinie robotyki, zwiększenia
poziomu uprzemysłowienia oraz zapewnienia realnego wsparcia dla godnej egzystencji
starzejącego się społeczeństwa, co staje się możliwe dzięki zastosowaniu AI
do zachowywania samodzielności ludzi starszych i niepełnosprawnych. Zjednoczone Emiraty
Arabskie w przemyślanym i zaplanowanym wdrażaniu nowych technologii widzą szansę
na zbudowanie pozycji lidera AI na Bliskim Wschodzie oraz utrwalenie swojego znaczenia
w globalnym łańcuchu produkcyjnym.
Niezależnie od motywacji w zakresie systematyzowania podejścia do AI
w poszczególnych państwach, sztuczna inteligencja może z pewnością odmienić przyszłość
działań wojennych. Czynniki takie jak wzrost zainteresowania militarnymi możliwościami
zastosowania AI, przełom w zakresie komercyjnego wykorzystania opartych na niej
technologii oraz gotowość do wykorzystania bezzałogowych systemów na polu bitwy
sprawiają, że innowacyjne rozwiązania wspierane przez sztuczną inteligencję jawią się
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

jako realne składniki prowadzenia konfliktów zbrojnych266. Wojsko testuje w szczególności


elektroniczne systemy dowodzenia, prowadzenia szkoleń, zarządzania polem walki
i rozpoznawania obiektów. Norbert Biedrzycki wskazuje, że w przyszłości decyzje
o uruchomieniu i wykorzystaniu broni ofensywnej mogą być podejmowane bezpośrednio
przez algorytmy.
Wojskowi podkreślają, że wykorzystanie sztucznej inteligencji w działaniach na rzecz
bezpieczeństwa militarnego ma służyć przede wszystkim do pomocy w ocenie sytuacji
na polu walki poprzez rozpoznanie i analizę prawdopodobieństwa uzyskania taktycznej
przewagi, co jest możliwe dzięki sprawnemu przetwarzaniu dużej ilości danych. To z kolei
przekłada się na poprawną identyfikację obiektów oraz zmniejszenie liczby przypadkowych
ofiar, w tym również wśród ludności cywilnej267. Z tak określonym kierunkiem
wykorzystania sztucznej inteligencji zgadza się Michael McQuade, podkreślając,
że wdrożenie AI nie ma na celu wyeliminowania czynnika ludzkiego z pola działań,
ale wsparcie systemów walki. Takie „niebojowe” zastosowanie AI jest możliwe także
w zarządzaniu personelem i prowadzeniu specjalistycznych analiz wywiadowczych.
Jednocześnie należy mieć na uwadze, że w większości działań na polu walki uczestnictwo
człowieka jest niezbędne – nawet jeżeli urządzenia autonomiczne zdefiniują cel i namierzą

266
Zob. Y.H. Wong et al., Deterrence In the Age of Thinking Machines, 2020,
https://www.rand.org/pubs/research_reports/RR2797.html (02.06.2020).
267
Zob. N. Biedrzycki, Wojskowe roboty mogą podejmować decyzję o naszym życiu lub śmierci, „Business
Insider” [on-line], 03.03.2019, https://businessinsider.com.pl/technologie/nowe-technologie/technologie-i-
sztuczna-inteligencja-w-wojsku-i-jej-wykorzystanie/5r0d9rd, (18.02.2020).
99
określony obiekt, to człowiek decyduje o „pociągnięciu za spust”268. W militarnej adaptacji
AI przodują Stany Zjednoczone.
O zaangażowaniu Stanów Zjednoczonych w rozwój sztucznej inteligencji
wykorzystywanej do celów wojskowych świadczą kwoty przeznaczane przez administrację
amerykańską na badania typu B+R269 w obszarze AI. W 2016 r. w ramach budżetu
federalnego prace badawcze w tym zakresie wsparto kwotą 1,2 mld $, przy czym
ok. 600 mln $ przeznaczono na współpracę z kontraktorami Departamentu Obrony USA
(ang. Departament of Defence, DOD). W 2017 r. na projekty związane ze sztuczną
inteligencją instytucja ta przekazała ponad 2,4 mld $270. Pomimo tak znaczących nakładów
na badania w dziedzinie sztucznej inteligencji, USA nie zdecydowały się dotąd na utworzenie
dedykowanego funduszu publicznego, jak również na wdrożenie celowego systemu grantów.
Brak tego typu działań nie koliduje jednak ze zwiększaniem inwestycji – DOD planuje
utworzenie w swoich strukturach dedykowanego Biura ds. sztucznej inteligencji,
którego zadaniem miałaby być koordynacja działań B+R rozproszonych dotychczas
w poszczególnych agencjach (DARPA, IARPA) oraz biurach Armii, Marynarki Wojennej
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

i Lotnictwa. Ku podobnym rozwiązaniom skłania się działająca przy DOD Rada Innowacji
dla Bezpieczeństwa (DIB, z ang. DefenseInnovation Board), rekomendująca utworzenie
Centrum Kompetencji w dziedzinie AI i uczenia maszynowego. Znaczenie przedmiotowych
technologii dla działalności sektora wojskowego Stanów Zjednoczonych odzwierciedla fakt,
że w 2018 r. CIA prowadziła 137 projektów, w których wykorzystywano sztuczną
inteligencję271.
Postępujący rozwój technologiczny oddziałuje na współczesne bezpieczeństwo
militarne także poprzez możliwość wykorzystania nowych rozwiązań technicznych
w konfliktach zbrojnych. Jednym z rozwijanych przez Departament Obrony projektów
jest zainicjowany w 2017 r. Maven, czyli Wielofunkcyjny Zespół Walki Algorytmicznej.
Jako jego cel przedstawia się rozwój i wdrażanie technologii wizji komputerowej i uczenia
maszynowego do systemów autonomicznej detekcji potencjalnych zagrożeń (i przeciwników)

268
Zob. S. Palczewski, Sztuczna inteligencja zmieni dynamikę konfliktu. Wojsko stanie przed nowymi
zagrożeniami, [on-line], CyberDefence24.pl, 10.02.2020, https://www.cyberdefence24.pl/sztuczna-inteligencja-
zmieni-dynamike-konfliktu-wojsko-stanie-przed-nowymi-zagrozeniami (19.11.2020).
269
Skrót B+R oznacza prace badawczo-rozwojowe (ang. R&D – Research& Development), czyli
systematycznie prowadzone prace twórcze, podejmowane w celu zwiększenia zasobów wiedzy o człowieku,
społeczeństwie i kulturze i opracowania nowych rozwiązań dla zdobywanej wiedzy, w tym rozwiązań
niewynikających w sposób oczywisty z dotychczasowego stanu wiedzy. Działania B+R prowadzą najczęściej
jednostki naukowe i badawcze, firmy prywatne, uczelnie i centra badawcze, odkrywając w ich trakcie nowe
związki i zależności w określonej dziedzinie wiedzy, co często prowadzi do weryfikacji założonych hipotez,
teorii, przełomowych odkryć lub stworzenia nowych koncepcji; zob. Fundacja Digital Poland, op. cit., s. 140.
270
Zob. Govini, Department of Defense Artificial Intelligence, Big Data and Cloud Taxonomy, [on-line],
securityandtechnology.org, 23.03.2017, https://securityandtechnology.org/wp-content/uploads/2020/07/govini_
dod_ai_bigdata_cloud_taxonomy.pdf s. 6 (16.09.2019).
271
Według publicznie dostępnych danych, zob. D.S. Hoadley, N.J. Lucas, Artificial Intelligence and National
Security, Congressional Research Service, 2018, s. 9.
100
na polu walki, w które zostaną wyposażone bezzałogowe pojazdy powietrzne. Bezzałogowe
statki powietrzne (ang. unmanned aerial vehicle – UAV), w nomenklaturze militarnej
Sił Zbrojnych Stanów Zjednoczonych nazywane również bezzałogowymi systemami
powietrznymi (unmanned aerial system – UAS), to maszyny powietrzne wykonujące loty
autonomiczne lub pilotowane zdalnie, które w trakcie lotu nie wymagają obecności załogi
na pokładzie. Wykorzystywane są przez siły zbrojne wielu współczesnych armii, głównie
w celu prowadzenia obserwacji i rozpoznania. Działania te umożliwia wyposażenie tych
statków powietrznych w głowice optoelektroniczne. Innym zastosowaniem dronów,
(pod warunkiem wyposażenia ich w systemy bojowe), jest udział w działaniach zbrojnych.
Takie uzbrojone maszyny określane są mianem bojowych bezzałogowych aparatów
powietrznych (unmanned combat air vehicle – UCAV)272.
Zgodnie z klasyfikacją NATO wyróżnia się trzy zasadnicze klasy bezzałogowych
statków powietrznych (BSP):
 klasa I – BSP o masie do 150 kg; maksymalny czas lotu - do 6 godzin; wykorzystywany
do wsparcia operacji na szczeblu pojedynczej drużyny, plutonu lub kompanii (poziom
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

taktyczny);
 klasa II – BSP o masie od 150 do 600 kg; maksymalny czas lotu - do 24 godzin;
wykorzystywany do wsparcia operacji na szczeblu batalionu lub brygady (poziom
taktyczny);
 klasa III – BSP o masie powyżej 600 kg; maksymalny czas lotu – do 40 godzin;
przystosowany do lotu na pułapie powyżej 3 tys. m, wykorzystywany do wsparcia
operacji na poziomie operacyjnym i strategicznym273.
Rewolucję technologiczną w zakresie uzbrojonych statków powietrznych w siłach
zbrojnych rozpoczęła amerykańska korporacja General Atomics, a wyprodukowany
w jej fabrykach w 1994 r. aparat GA MQ-1 Predator stanowił efekt prac nad budową
bezzałogowego samolotu o zastosowaniu wojskowym. Predator może przenosić
dwa kierowane pociski rakietowe typu AGM-114 Hellfire (klasy powietrze-ziemia,
co umożliwia przeprowadzanie ataków na cele naziemne) oraz pociski AIM-92 Stinger
(przygotowane do ostrzału celów znajdujących się w powietrzu). Wspomniany dron znalazł
się na wyposażeniu armii USA w 1995 r. i od tamtej pory wykorzystywany jest zarówno
w operacjach zwiadowczych, jak i do prowadzenia szybkiej eliminacji zaprogramowanych
celów. Pierwszy raz wykorzystano go w Afganistanie, natomiast po roku 2002 był używany
również w walkach w Iraku, Somalii, Jemenie i Pakistanie, gdzie służył nie tylko armii

272
J. Chojnacki, D. Pasek, Historia wykorzystania bezzałogowych statków powietrznych, „Rocznik
Bezpieczeństwa Międzynarodowego”, 2017, nr 1(11), s. 184.
273
Wiki BSP.
101
amerykańskiej, ale również wojskom włoskim, brytyjskim i pakistańskim274. W 2001 r.
General Atomics zaprezentowało ulepszony model Predatora – MQ-9 Reaper. W porównaniu
do poprzednika jest większy (11 m długości, 20 m rozpiętości skrzydeł, 2200 kg masy
własnej) i lepiej wyposażony – może przenosić 1360 kg podwieszanego uzbrojenia
oraz dodatkowe zbiorniki paliwa. Istnieje również możliwość wyposażenia go w pociski
rakietowe Hellfire, bomby kierowane laserowo (GBU-12 Paveway II, GBU-38 JDAM)
oraz bomby z mieszanym układem naprowadzania (laser/GPS). Reapery wykorzystywane
są w armii amerykańskiej (od 2006 r.; rok później, stacjonujący w Afganistanie Reaper
wyeliminował pierwszy cel – pojazd rebeliantów), brytyjskiej (2006), włoskiej (2009)
i francuskiej (2010); plany ich zakupu do misji patrolowo-rozpoznawczych ogłosiły również
Holandia i Hiszpania275.
Istotne zasługi w rozwoju badań nad bezzałogowymi statkami powietrznymi
ma również Izrael. Stworzony w 2004 r. IAI Eitan (Heron TP) brał aktywny udział w nalotach
na Strefę Gazy, m.in. w kontrowersyjnym ataku z 2014 r., w trakcie którego operatorzy
dronów przez pomyłkę ostrzelali ludność cywilną. Z uwagi na duże rozmiary (13 m długości
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

i 26 m rozpiętości) oraz maksymalny udźwig w granicach 4,6 tony, Eitan może być
wyposażony w znaczną ilość ciężkiegouzbrojenia. Na potrzeby armii izraelskiej aparat
wyposażono w system samoobrony oraz czujniki detektujące odpalenie rakiet276.
Zdalnie sterowane bezzałogowe platformy powietrzne uważane są za broń zarówno
skuteczną, jak i bezpieczną, ponieważ dają możliwość cichego i niezauważalnego
przeniknięcia na terytorium przeciwnika i wykonania tam zaplanowanych misji.
Drony wykorzystuje się także do prowadzenia precyzyjnych ataków bojowych, niemożliwych
do realizacji z wykorzystaniem tradycyjnego sprzętu bojowego ze względu na środki
zabezpieczenia stosowane przez przeciwnika.
Należy mieć na uwadze, że pojazdy bezzałogowe, wykorzystujące technologię
sztucznej inteligencji, to nie tylko statki powietrzne. Oprócz nich stosuje się również
bezzałogowe jednostki pływajace (UUV) i bezzałogowe pojazdy lądowe (UGV).
W niektórych klasyfikacjach uwzględnia się również wielofunkcyjne pojazdy użytkowo-
logistyczne i sprzętowe (tzw. MULE), wykorzystywane do wsparcia bojowego w sytuacjach
konfliktowych, a także uzbrojone pojazdy robotyczne (ARV), wykorzystywane
do przenoszenia dużych platform uzbrojenia lub specjalistycznego sprzętu do nadzorowania

274
Ł. Gołąbiowski, Zabójcze drony – pięć najniebezpieczniejszych maszyn, „Komputer Świat” [on-line], 2016,
http://www.komputerswiat.pl/artykuly/redakcyjne/2016/06/zabojcze-drony-piec-najniebezpieczniejszych-
maszyn.aspx (16.03.2018).
275
Zob. Ł. Pacholski, P. Butowski, Aktualności wojskowe. Hiszpania kupuje bezzałogowce Reaper, „Lotnictwo
Aviation International”, 2016, nr 3, s. 4.
276
Zob. Milipedia, IAI Eitan/Heron TP, [on-line], infolotnicze.pl, 16.12.2011, https://www.infolotnicze.pl/
2011/12/16/iai-eitan-heron-tp/, (16.03.2018).

102
pola walki277. Jeżeli chodzi o jednostki pływające, to już w 2016 r. amerykańskie
przedsiębiorstwo Leidos rozpoczęło próby operacyjne bezzałogowego okrętu o nazwie Sea
Hunter. Jako jego główne zadanie wskazano zwalczanie okrętów podwodnych. Jednostka
ta powstała w ramach kierowanego przez DARPA projektu Anti-Submarine Warfare
Continuous Trail Unmanned Vessel278, a budżet na jego realizację wynosił ok. 60 mln
dolarów. Ochrzczony w kwietniu 2016 r. okręt jest zdolny wykonać samodzielne rejsy
z kilkoma punktami pośrednimi na trasie, możliwe jest również zdalne sterowanie nim,
zarówno z lądu, jak i z innej jednostki pływającej. Liczącym się graczem na arenie
międzynarodowej w obszarze militarnego wykorzystania sztucznej inteligencji są również
Chiny. Działania Pekinu związane z zastosowaniem AI zarówno na poziomie państwa,
jak i sektora prywatnego charakteryzuje dążenie do całkowitej światowej dominacji.
Intensywna modernizacja i chęć dorównania, a nawet prześcignięcia sił zbrojnych USA
sprawiły, że Chiny znacząco zwiększyły zainteresowanie militarnym zastosowaniem AI,
która obok dronów i technologii kwantowej uznawana jest za sposób na zmniejszenie
amerykańskiej przewagi w uzbrojeniu konwencjonalnym, a dodatkowo daje szanse Chińskiej
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

Armii Ludowo-Wyzwoleńczej na zajęcie miejsca w czołówce armii stosujących


zrewolucjonizowane sposoby prowadzenia wojen. Najbardziej intensywne prace w obszarze
AI podjęto w zakresie rozwoju dronów, które obejmują nie tylko aparaty latające,
ale również bezzałogowe łodzie. Przykładem może być wodny dron M75A – łódź z napędem
typu diesel, która może być skonfigurowana do wykonywania zróżnicowanych zadań.
Zdaniem jej konstruktorów – Ocean Alpha – potencjalne zastosowania obejmują m.in. obszar
militarny, kontrolę granic wodnych państwa, prowadzenie działań rozpoznawczych,
wykonywanie pomiarów hydrologicznych, ale także użycie jako jednostki ratowniczej
lub przeciwpożarowej279. Jednostka może działać w sposób samodzielny, nie tylko
wykorzystując dane z systemu GPS, ale również rozpoznając otoczenie i omijając
pojawiające się przeszkody za pomocą analizy danych pozyskiwanych z radaru, lidaru280,
zestawu sonarów, kamery światła widzialnego oraz podczerwieni. Może być również zdalnie
kontrolowana przez człowieka. Rejestrowany obraz i gromadzone dane są transmitowane
do bazy. Ocean Alpha jest krajowym liderem w obszarze tworzenia autonomicznych łodzi

277
Robotyka w wojsku – przyszłość wojska, [on-line], botland.com, 25.12.2019,
https://botland.com.pl/blog/robotyka-w-wojsku-przyszlosc-wojska/ (07.07.2020).
278
ACTUV, Bezzałogowy Okręt Ciągłego Tropienia i Zwalczania Okrętów Podwodnych; zob. P. Behrendt,
Ruszają próby operacyjne Sea Huntera, [on-line], konflikty.pl, 02.12.2016,
https://www.konflikty.pl/aktualnosci/wiadomosci/ruszaja-proby-operacyjne-sea-huntera/ (10.07.2020).
279
Zob. J. Kijewski, Chiński dron z Ocean Alpha, [on-line], motorowy.com, 22.08.2017,
https://www.motorowy.com/artykul/22-08-2017/chinski-dron-ocean-alpha, (05.07.2020).
280
LIDAR oznacza narzędzie wykorzystujące metodę pomiaru odległości poprzez oświetlanie celu światłem
laserowym i pomiar odbicia za pomocą czujnika; różnice w czasie powrotu wiązki lasera oraz zmiana długości
fali mogą być następnie wykorzystane do tworzenia trójwymiarowego modelu; zob. A. Dubik, 1000 słów o
laserach i promieniowaniu laserowym, Warszawa 1989, s. 154.
103
badawczych, które znajdują różnorakie zastosowanie – modele takie jak SL20 Autonomous
Survey Boat, ME120 Autonomous Survey Boat czy Dolphin1 Smart Lifebouy
są wykorzystywane zarówno przez chińską policję do patrolowania wybrzeża czy działań
ratowniczych, ale również przez badaczy i naukowców - do pomiarów hydrograficznych
czy tworzenia morskich farm wiatrowych, dostarczając informacji o charakterze dna
morskiego, aby umożliwić jak najbezpieczniejszą (i najbardziej opłacalną) instalację
i konserwację urządzeń281. W 2018 r. Chiny zaprezentowały również pierwszą bezzałogową
łódź rakietową – The Look Out II. Wystrzelone z niej pociski precyzyjnie mogą trafić
w cele oddalone o 5 kilometrów. Zgodnie z zapewnieniami jej konstruktorów - Yunzhou Tech
– łódź wyposażono w możliwość zarówno ataku, jak i rozpoznania, dzięki wyposażeniu
w system radarowy i elektrooptyczny. Niewielkie rozmiary (7,5 m długości i 2,7 m
szerokości) i stosunkowo mały zasięg pocisków, jednostka nadrabia szybkością i cichym
działaniem, co pozwala jej zbliżyć się do celu i dokonać precyzyjnego ostrzału z bliskiej
odległości. Łódź ma nie być wykorzystywana do samodzielnego zatapiania wrogiej jednostki
pływającej, ale do niszczenia kluczowych struktur statku (centrum dowodzenia, zbrojowni,
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

maszynowni), co ma umożliwić zdobycie przewagi w bitwach morskich. Co ważne


– pomimo, że jednostka ta może autonomicznie żeglować po morzu i wybierać optymalne
trasy za pomocą AI, to o użyciu jej broni każdorazowo ma decydować człowiek. ZuShen,
dyrektor projektu Look Out II, podkreśla, że nie można pozwolić, aby sztuczna inteligencja
decydowała o życiu i śmierci ludzi282. Niewątpliwą zaletą bezzałogowej łodzi
jest wyeliminowanie niebezpieczeństwa dla życia operatora. Dodatkowo konstruktorzy
wskazują na opłacalność jej wykorzystania w porównaniu do opracowania i wprowadzenia
do eksploatacji tradycyjnego statku morskiego, niszczyciela czy okrętu bojowego.
Chiny testują również wykorzystanie rojów dronów i minidronów – w czerwcu 2018 r.
wspomniana wyżej firma Yonzhou przeprowadziła test, w którym 56 bezzałogowych łodzi
utworzyło skoordynowaną formację nazwaną „rojem rekinów”. Dysponując taką grupą
dronów wodnych, użytkownik może łączyć siły z innymi urządzeniami bezzałogowymi,
tworząc zróżnicowane formacje w zależności od bieżącej sytuacji na polu bitwy. Możliwe
zastosowania obejmują m.in. zapewnienie ochrony i obrony portów, baz i miejsca
stacjonowania okrętów czy przechwycenie i ataki na wrogie jednostki, zarówno nawodne,
jak i podwodne. Teoretycznie już sama duża liczba bezzałogowych pojazdów
powierzchniowych może przestraszyć wrogie jednostki, skłaniając je do zaprzestania ataku
lub całkowitego wycofania z obszaru działań. Już rok wcześniej, w czerwcu 2017 r. Chiny

281
Ocean Alpha, Get Closer to Ocean, [on-line], oceanalpha.com, b.r., https://www.oceanalpha.com/product-
item/dolphin1/ (07.07.2020).
282
Zob. L. Xuanzun, China’s first unmanned missile boat revealed at Airshow China 2018, “Global Times” [on-
line], 07.11.2018, http://www.globaltimes.cn/content/1126362.shtml (07.07.2020).
104
poinformowały o udanej próbie wykorzystania roju dronów latających – w skoordynowanym
locie przeprowadzonym przez państwową korporację CETC wzięło udział 119 minidronów,
będących odpowiednio przeprogramowanymi komercyjnymi urządzeniami X-6 Skywalker283.
Testy potwierdziły, że ogólnodostępne statki bezzałogowe mogą być łatwo zaadaptowane
do celów wojskowych. Technika i taktyka uzyskana dzięki wprowadzaniu do użytku
autonomicznych rojów daje możliwość zwiększenia możliwości bojowych przy jednoczesnej
redukcji kosztów. Możliwości każdego z pojedynczych dronów zwielokrotniają zdolność
bojową całego zespołu, co zapewnia większą elastyczność w ich wykorzystaniu i eliminację
części wad urządzeń stosowanych indywidualnie. Współpracujące ze sobą drony
mogą wymieniać pozyskiwane informacje, przesyłać bardziej szczegółowe i precyzyjne dane
oraz prowadzić wzajemny nadzór, zachowując jednocześnie zdolność do współpracy
z różnymi systemami walki. Wyzwaniem może być zapewnienie robotom określonej
samodzielności w działaniu i zapewnienie ich wzajemnej współpracy, tj. stworzenie sieci
wymiany danych i zaprogramowanie optymalnych algorytmów działania. Odrębną kwestią
jest również zapewnienie maszynom autonomicznym odporności na cyberataki. Uzbrojenie
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

tego typu urządzeń jest mniej wymagające – jak wskazuje Marek Dąbrowski, w dronach
bojowych można stosować zarówno sprawdzone, klasyczne systemy walki, jak i na bieżąco
opracowywane nowoczesne technologie284.
Kolejnym ogniwem w rozwoju tzw. inteligentnej broni (ang. smart weapon) są roboty
bojowe. Rafał Kopeć podkreśla, że broń inteligentna jest pojęciem o niezbyt precyzyjnym
znaczeniu i proponuje raczej używanie terminu amunicji precyzyjnego rażenia
(ang. precision-guidemunition – PGM), który tłumaczy jako „broń używającą układu
poszukującego do namierzenia energii będącej odbiciem celu lub punktu celowania,
przetwarzając ją w komendy kierujące broń do celu”285. Kluczowe znaczenie w broni
inteligentnej ma zatem system kierowania, który może być programowy (pocisk porusza się
po zaprogramowanej trasie), zdalny (pocisk porusza się zgodnie z otrzymywanymi sygnałami
zewnętrznymi) lub opierać się na samonaprowadzaniu (wówczas broń działa w sposób
autonomiczny). Broń wykorzystującą system samonaprowadzania określa się jako broń typu
”fire and forget”, czyli „odpal i zapomnij”, co oddaje jej zdolność do działania bez ingerencji
człowieka. Do samodzielnego wyboru celu są zdolne np. artyleryjskie pociski
przeciwpancerne 155 mm Bonus i SMArt, które nadlatując w rejon zgrupowania sił
przeciwnika wykrywają i naprowadzają się na cel286.

283
Zob. P. Behrendt, op. cit.
284
Zob. M. Dąbrowski, Chińskie roje dronów na Morzu Południowochińskim, [on-line], defence24.pl,
04.06.2018, https://www.defence24.pl/chinskie-roje-dronow-na-morzu-poludniowochinskim (04.06.2020).
285
R. Kopeć, Robotyzacja wojny, „Społeczeństwo i Polityka”, 2016, nr 4 (49), s. 43.
286
Ibidem, s. 44.
105
Choć to bezzałogowe statki powietrzne były pierwszymi zdalnie sterowanymi
maszynami, które wykorzystały siły zbrojne na całym świecie, to obecnie równie dużym
powodzeniem cieszą się bezzałogowe pojazdy lądowe, czyli wspomniane wcześniej UGV.
Dostępny na rynku sprzęt tego typu oferuje możliwość zarówno przenoszenia, jak i strzelania
z broni, takiej jak pistolety pieprzowe, strzelby, granatniki czy pociski Hellfire.
Z kolei zdalnie sterowane roboty TALON mogą przenosić dowolne rodzaje broni, począwszy
od karabinu maszynowego, poprzez granaty, aż po wyrzutnie rakiet. Jeszcze lepiej
wyposażony został taktyczny bezzałogowy Gladiator, wykorzystywany przez amerykańską
piechotę morską, zdolny do przenoszenia arsenału broni zarówno letalnej,
jak i nieśmiercionośnej, m.in. karabinów maszynowych, broni szturmowej (wykorzystywanej
do niszczenia bunkrów, przebijania fortyfikacji i unieruchamiania pojazdów pancernych),
systemu do stawiania zasłon dymnych (z użyciem granatów dymnych) czy systemu
umożliwiającego pokonywanie przeszkód, np. pól minowych. Poza tym, w zależności
od docelowego przeznaczenia, UGV mogą być wyposażone w czujniki i kamery,
które pozwalają im wykrywać i poruszać się w zróżnicowanych, niebezpiecznych
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

środowiskach, kamery termowizyjne lub standardowe kamery wideo, przesyłające obraz


sterującym pojazdami operatorom.
Możliwość zastosowania UGV na polu walki ma bardzo duże znaczenie z uwagi na to,
że współczesny żołnierz piechoty, pomimo wszelkich swoich ograniczeń nadal pozostaje
kluczowym elementem kompleksowego systemu walki wojsk lądowych. Jak wskazuje Marek
Dąbrowski, tylko piechota posiada zdolność do trwałego opanowania terenu i wymuszenia
na nim zwycięstwa, przerwania walk lub zawieszenia broni - oczywiście pod warunkiem,
że ma stałe wsparcie innych systemów uzbrojenia287. Obecnie żołnierz piechoty
jest zazwyczaj zaopatrzony w kilka, a nawet kilkanaście dedykowanych mu rozwiązań
w postaci uzbrojenia i wyposażenia, które z jednej strony zwiększa jego zdolność bojową,
ale generuje jednocześnie nowe wyzwania. Należą do nich rosnąca masa, którą żołnierz musi
przenieść, jak również zwiększające się zapotrzebowanie na energię, obniżające jego fizyczne
możliwości. Wśród rozwiązań eliminujących te problemy wskazuje się zazwyczaj
dwa rozwiązania – korzystanie z egzoszkieletów lub wdrożenie naziemnych robotów
towarzyszących piechocie, przy czym druga opcja jest o tyle korzystniejsza,
że oprócz zwiększenia fizycznych zdolności żołnierza, przy odpowiednim wyposażeniu
daje oddziałowi nowe możliwości działań bojowych i operacyjnych, związanych z adaptacją
do zmiennych warunków walki, prowadzeniem skutecznego ostrzału i obrony czy szybkiego
przemieszczania się. Bezzałogowe pojazdy lądowe spełniają te wymagania m.in. dzięki

287
Zob. M. Dąbrowski, Bojowe roboty – rewolucja na polu walki [analiza], [on-line], defence24.pl, 22.04.2018,
https://www.defence24.pl/bojowe-roboty-rewolucja-na-polu-walki-analiza (13.07.2020).
106
optymalnym rozmiarom – są na tyle duże, by móc transportować określony masowo
i gabarytowo ładunek, a jednocześnie na tyle małe, by zachować zdolność do podążania
za żołnierzami, również w miejscach trudnych do przejechania, z którymi nie poradzą sobie
tradycyjne, załogowe wozy bojowe. Kluczowe znaczenie ma również wysoki stopień
mobilności pojazdu w zróżnicowanym terenie , co wymaga od konstruktorów dostosowania
układu jezdnego pojazdu (kołowego, gąsienicowego lub kroczącego), zainstalowania
niezależnego, hydraulicznego zawieszenia kontrolowanego przez autonomiczny system jazdy,
jak również doboru optymalnego napędu (spalinowego, elektrycznego, hybrydowego
lub kombinowanego), który zapewni osiąganie najlepszych parametrów mobilności
przy jednoczesnym dużym zasięgu działania i kulturze pracy288.
Inne systemy robotyczne wykorzystywane przez wojsko wyposażone są w układy
namierzania i śledzenia celu, które dzięki wyeliminowaniu konieczności prowadzenia
manualnych obliczeń balistycznych (zastąpionych przez podsystemy automatyzacji ruchu)
pozwalają znacznie przyspieszyć reakcję systemu na rozkaz operatora.Taką technologię
wykorzystują np. automatyczne moździerze, jak amerykański Dragon Fire czy fińsko-
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

szwedzki AMOS, zdolne do samodzielnego, automatycznego obliczenia trajektorii salw


pojedynczego moździerza w taki sposób, który zapewni, że kilka pocisków wystrzelonych
z tej samej lufy dotrze do celu jednocześnie, aby zmaksymalizować efekt. W ich przypadku
czas reakcji systemu na rozkazudało się skrócić do 12 sekund.
Równie istotne znaczenie na polu walki mają roboty saperskie, zdolne
do samodzielnego wyszukiwania i niszczenia min. Pozwalają one rozbrajać ładunki
wybuchowe bez angażowania człowieka, zatem są stosowane przez zespoły saperskie.
Zazwyczaj w skład ich wyposażenia wchodzi zestaw czujników, kamera, wielofunkcyjne
ramię i system umożliwiający zdalne sterowanie. Tego typu roboty produkowane są również
w Polsce, przez Przemysłowy Instytut Automatyki i Pomiarów. Już w 2006 r. 4 pojazdy
przeznaczone do zdalnego neutralizowania bomb i niewybuchów (3 duże roboty Inspector
oraz 1 mniejszy – Expert) trafiły do 1 Bazy Materiałowo-Technicznej oraz do 1 Brzeskiej
Brygady Saperów289. Przy okazji warto wspomnieć również o pojazdach kategorii MULE
i ARV. Proponowane dotychczas wersje pojazdu MULE poruszają się na kołach – wśród nich
znajduje się zarówno pojazd zaprojektowany do wykrywania i dezaktywowania min
przeciwpiechotnych, jak również pojazd transportowy, zdolny do przewożenia ponad tony
sprzętu. Oprócz nich producenci proponują również robota uzbrojonego, w typie lekkiego

288
Zob. Ibidem.
289
Koszt ich zakupu – z pełnym wyposażeniem, obejmującym m.in. nowoczesne lampy rentgenowskie,
bezodrzutowe działka saperskie (wykorzystywane do niszczenia zapalników i neutralizacji ładunków
wybuchowych) oraz kilka rodzajów amunicji – wyniósł 5 mln zł; zob. G. Hołdanowicz, Roboty meldują się do
służby, „Raport WTO”, 2006, nr 10, [on-line], altair.com, https://www.altair.com.pl/magazines/article?article_id
=756 (05.07.2020).
107
pojazdu szturmowego, wyposażonego w pakiet systemów rozpoznania, nadzoru i śledzenia
celu, jak również wbudowaną, zintegrowaną z systemem broń. W produkcji robotów typu
MULE wyróżnia się amerykańska firma Boston Dynamics, oferująca takie maszyny
jak Big Dog, Rhex, Sandflea, LS3, Wildcat, Spot Classic, czy najbardziej humanoidalny robo-
żołnierz – Atlas290.Z kolei roboty ARV bardziej niż mobilnych żołnierzy przypominają
kompaktowe czołgi. Ich wykorzystanie na polu walki sprowadza się do wsparcia misji
załogowych, np. poprzez wsparcie ludzkiej drużyny pancernej bez narażania życia żołnierzy.
Roboty te mogą bowiem zajmować najbardziej niebezpieczne pozycje i zapewnić wsparcie
bojowe w sytuacji, kiedy pojazdy załogowe zaangażują się w walkę z przeciwnikiem.
Mówiąc o robotyzacji pola walki wskazuje się zazwyczaj niezaprzeczalne korzyści
wynikające z możliwości broni autonomicznej. Pierwszą z nich jest wyeliminowanie ryzyka
fizycznego zagrożenia dla życia żołnierzy – pierwszym z militarnych zastosowań robotów
było wykorzystanie ich w operacjach o najwyższym stopniu ryzyka, tj. rozpoznaniu lotniczym
nad terytorium nieprzyjaciela oraz do neutralizacji min i urządzeń wybuchowych.
Drugą zaletą jest możliwość ciągłego rozwoju i zwiększania możliwych osiągów maszyn,
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

w szczególności bezzałogowych statków powietrznych. Wyeliminowanie czynnika ludzkiego


w postaci pilota umożliwia konstruowanie maszyn o zwiększonej długotrwałości lotu
(jak Northrop Grumman RQ-4 „Global Hawk”, zdolny do nieprzerwanego lotu powyżej
33 godzin291) czy wykonywania manewrów generujących przeciążenia, których nie
wytrzymałaby ludzka obsada maszyn załogowych. W pewnym stopniu cechy te posiadają
już maszyny zdalnie sterowane, częściowo autonomiczne. Drony typu Predator i Raptor
są zdolne do samodzielnego startu i lądowania oraz samodzielnego nawigowania,
jednak w przypadku podjęcia skomplikowanych działań, zwłaszcza związanych z użyciem
uzbrojenia, niezbędny jest tryb nadzoru lub zdalnego sterowania nimi292. Taki hybrydowy
system kierowania bronią można uznać za optymalny, zarówno z uwagi na dotychczasowe
ograniczenia technologiczne w rozwoju sztucznej inteligencji, jak również z powodów
etycznych, odnoszących się do oporu wobec powierzenia maszynie odpowiedzialności
za decydowanie o życiu lub śmierci człowieka.
Obecna sytuacja dotycząca wykorzystania robotów na polu walki pozwala uznać,
że znajdują się ona na początku drogi rozwojowej, ale mają bardzo duży potencjał do stania
się technologią zmieniającą dotychczasowe zasady walki zbrojnej. Pionierami
w wykorzystaniu tej technologii są armie amerykańska i izraelska, jednak żadne z tych

290
Zob. Boston Dynamics, Atlas, [on-line], bostondynamics.com, 24.09.2019,
https://www.bostondynamics.com/atlas (10.07.2020).
291
Zob. R. Coppinger, Northrop Grumman Global Hawk Block 20 achieves 33h endurance, [on-line],
flightglobal.com, 04.04.2008, https://www.flightglobal.com/news/articles/northrop-grumman-global-hawk-
block-20-achieves33h-e-222768/ (28.02.2020).
292
Zob. R. Kopeć, op. cit., s. 46.
108
państw nie opracowało dotąd całościowej doktryny wykorzystania robotów na polu walki.
Za czynniki warunkujące kompleksowe zastosowanie broni autonomicznej w bezpieczeństwie
militarnym należy uznać przede wszystkim zwiększenie dojrzałości technicznej państwa,
wdrożenie rozwiązań doktrynalnych oraz przełamanie oporu przed radykalnymi zmianami
w środowisku konserwatywnych organizacji militarnych. Istotne jest również, aby uniknąć
tzw. overinnovation, czyli sytuacji, w której innowacja techniczna okazuje się zbyt niszowa
lub wymagająca, aby zaimplementować ją do powszechnego użycia.
Kolejną niewątpliwą zaletą wdrażania rozwiązań wykorzystujących najnowsze
osiągnięcia technologiczne w obszarze bezpieczeństwa militarnego jest zwiększenie morale
poprzez świadomość własnych, zaawansowanych możliwości. Dodatkowo, zarówno
całkowicie, jak i półautonomiczne systemy dają szerokie spektrum zastosowań, nie tylko
wojskowych, ale również cywilnych, co w przypadku np. Chin – przygotowujących swoje
maszyny w oparciu o innowacyjne, oryginalne rozwiązania, znacząco zwiększa szansę
na zachowanie wysokiej pozycji w gronie światowych liderów gospodarczych.

3.2. AI w sferze bezpieczeństwa komunikacyjnego i transportowego


Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

Wykorzystanie technologii opartych na sztucznej inteligencji umożliwiło również


rozwój autonomicznego transportu. Badacze i specjaliści obserwujący postępujące osiągnięcia
w tej dziedzinie wysuwają wizje rewolucyjnych zmian czekających użytkowników zarówno
transportu indywidualnego, jak i zbiorowego. Problematyka związana z rozwojem pojazdów
autonomicznych w ciągu ostatnich kilku lat nieustannie zyskuje na znaczeniu. Pojazdy
te są przedmiotem badań ukierunkowanych na rozwój i udoskonalanie stosowanych
technologii. Nie jest to tendencja zaskakująca, biorąc pod uwagę, że transport odgrywa
znaczącą rolę w globalnej gospodarce. Z uwagi na fakt, że nieustanny jego rozwój prowadzi
do powstawania problemów o charakterze ekologicznym, społecznym i ekonomicznym,
pojawiła się wizja stworzenia koncepcji zrównoważonego rozwoju transportu, zakładająca
wzrost gospodarczy przy jednoczesnym uwzględnieniu potrzeb ochrony środowiska,
a także społeczeństwa, przede wszystkim w zakresie dostępności środków transportu
i optymalnego komfortu ich używania. To właśnie pojazdy autonomiczne przedstawia się
jako posiadające potencjał do zmierzenia się z wyzwaniami współczesnego transportu293.
W odniesieniu do pojazdów, autonomiczność definiuje się jako „zdolność do poruszania
się z punktu A do punktu B bez konieczności podejmowania działań przez człowieka dzięki
zainstalowanym wysoko zaawansowanym rozwiązaniom technologicznym”294.
Wśród rozwiązań stosowanych w systemach kontrolowania pojazdów można wyróżnić
293
Zob. T. Neumann, Enhancing Safety and Reduction of Maritime Travel Time with In-vehicle Telematics, {w:]
J. Mikulski (red.), Management Perspective for Transport Telematics, Kraków 2018, s. 352.
294
T. Neumann, Perspektywy wykorzystania pojazdów autonomicznych w transporcie drogowym w Polsce,
„Autobusy”, 2018, nr 12, s. 787.
109
w szczególności radary, rozpoznawanie obrazów, lokalizację i sterowanie za pomocą GPS.
Za ich pomocą z otoczenia pozyskiwane są dane, które system analizuje w celu ustalenia
i zachowania prawidłowego toru jazdy oraz określenia pożądanych i bezpiecznych zachowań
(dostosowania prędkości, przyspieszenia, zwalniania czy płynnego omijania przeszkód).
Różnorodność stosowanych w pojazdach tego typu technologii sprawia, że wyodrębnienie
jednoznacznej i kompleksowej definicji autonomiczności nie jest możliwe295. Możliwe
jest natomiast określenie różnicy pomiędzy pojazdem automatycznym a autonomicznym.
Pierwszy z nich wykorzystuje technologie umożliwiające kierowcy oddanie systemowi
określonych czynności związanych z jazdą (np. aktywny tempomat, którego zastosowanie
w aucie umożliwia automatyczne dostosowanie jego prędkości do prędkości samochodu
znajdującego się przed nim). Z kolei pojazdy autonomiczne są w pełni zautomatyzowane
i wykorzystują technologie umożliwiające sterowanie nimi bez udziału człowieka.
W celu usystematyzowania pojazdów samosterujących opracowano kilka metod ich
klasyfikacji, spośród których najbardziej popularne są dwie, pochodzące ze Stanów
Zjednoczonych. Pierwszą z nich jest klasyfikacja autonomiczności pojazdów SAE J3016
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

AutonomyLevels, odnosząca się do raczej do liczby interwencji ze strony kierowcy


i konieczności skupienia jego uwagi podczas jazdy niż do zdolności technicznych pojazdu 296,
druga zaś została opracowana przez National Highway Traffic Safety Administration
(NHTSA)297. Obie klasyfikacje są zbliżone, jednak propozycja SAE jest bardziej precyzyjna,
pozwala dostrzec moment przełomowy, od którego to system sterowania kontroluje sytuację
na drodze, toteż jest ona częściej stosowana w publikacjach branżowych.
Jak wskazuje Paweł Skruch, sztuczna inteligencja jest niezbędna do osiągnięcia przez
samochody wyższych poziomów autonomiczności z uwagi na trzy podstawowe czynniki:
przetwarzanie dużych, zmiennych i różnorodnych zbiorów danych (pozyskiwanych
z otoczenia auta poprzez czujniki, kamery i systemy komunikacyjne), nieprzewidywalne
i niepewne otoczenie samochodu oraz konieczność płynnej adaptacji do zmiennych
warunków i przewidywania zachowań innych uczestników ruchu drogowego. Sztuczna
inteligencja pomaga przetwarzać w tym samym czasie informacje pozyskiwane z wielu
różnych sensorów, co pozwala na zdefiniowanie i opracowanie wiarygodnego modelu
otoczenia pojazdu. Jednocześnie AI ułatwia podejmowanie decyzji w warunkach niepewności
i umożliwia zastosowanie algorytmów samouczenia systemu. Dodatkowo, jeżeli chodzi

295
Zob. W. Szymeczko, Perspektywy wykorzystania pojazdów autonomicznych w transporcie drogowym w
Polsce, Gdynia 2018.
296
Zob. Tabela 1.
297
Zob. Tabela 2.
110
o pomoc w przystosowaniu pojazdu do ruchu drogowego, sztuczna inteligencja umożliwia
budowę realistycznych symulatorów298.

Tabela 1. Klasyfikacja pojazdów autonomicznych SAE J3013 AutonomyLevels

Źródło: T. Neumann, Perspektywy wykorzystania pojazdów autonomicznych w transporcie drogowym


Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

w Polsce, „Autobusy”, 2018, nr 12, s. 788.

Tabela 2. Klasyfikacja pojazdów autonomicznych NHTSA


Poziom Opis
autonomiczności
0 Pojazd nie jest wpierany żadnymi technologiami; kierowca jest w pełni
odpowiedzialny za prowadzenie pojazdu i jego pełną obsługę
1 Pojazd ma zaimplementowane pewne technologie automatyczne, ale za
prowadzenie odpowiedzialny jest kierowca, obsługujący wszystkie układy, które
mogą być wspomagane lub samodzielnie aktywowane (ABS, EPS)
2 Pojazd jest wyposażony w technologie ułatwiające prowadzenie, które są w
stanie samodzielnie odpowiadać za niektóre czynności; kierowca nie musi
obsługiwać zautomatyzowanych układów, np. systemu automatycznego
zatrzymywania pojazdu w pasie ruchu
3 System jest w stanie przejąć kontrolę nad pojazdem w określonych warunkach,
ale kierowca musi być gotowy do przejęcia sterowania w sytuacjach
wymagających jego interwencji
4 Za sterowanie odpowiedzialny jest system, który przejmuje pełną kontrolę nad
pojazdem, kierowca nie musi interweniować ani kontrolować sytuacji
Źródło: Opracowanie własne na podstawie: T. Neumann, Perspektywy wykorzystania pojazdów
autonomicznych w transporcie drogowym w Polsce, „Autobusy”, 2018, nr 12, s. 787-788.

Wśród zalet wprowadzenia do ruchu autonomicznych pojazdów wskazuje się


najczęściej zwiększenie bezpieczeństwa drogowego m.in. poprzez zmniejszenie liczby kolizji
i wypadków, co przekłada się na mniejszą liczbę zgonów i osób rannych. Szacuje się,
że gdyby wszystkie pojazdy były wyposażone w technologie wspomagania w postaci

298
P. Skruch, Sztuczna inteligencja i samochody autonomiczne, [on-line], Aptiv, 11.12.2018,
https://www.pzpm.org.pl/pl/download/file (04.03.2020).
111
asystenta „martwych punktów” czy systemu wykrywania i ostrzegania o zbliżającej się
kolizji, możliwe byłoby zapobieżenie średnio co trzeciemu negatywnemu zdarzeniu
drogowemu299. Możliwość oddania pełnej kontroli nad pojazdem autonomicznemu systemowi
prowadzenia w sytuacji krytycznej przekłada się również na polepszenie statystyki wypadków
z udziałem pieszych, rowerzystów czy motocyklistów – system nie rozprasza się, nie ulega
osłabieniu, nie można mu też zarzucić brawury, lekkomyślności czy sterowania pojazdem
pod wpływem alkoholu. Dodatkowo może on przeprowadzić manewr uniku w przypadku
spotkania z człowiekiem.
Niekwestionowaną zaletą postępującego rozwoju pojazdów autonomicznych jest
zwiększanie mobilności i komfortu przemieszczania się osób niepełnosprawnych, i starszych,
niemających zdolności do samodzielnego prowadzenia pojazdu. Wśród korzyści
dla wskazanych grup społecznych należy podkreślić niewątpliwe zwiększenie
samodzielności, zwiększenie możliwości dostępu do niezbędnych im usług oraz niwelowanie
ich społecznej izolacji. Tomasz Neumann wskazuje, że wdrożenie tego typu rozwiązań
wiązałoby się z mniejszymi nakładami finansowymi niż przystosowanie środków
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

komunikacji publicznej do przewozu osób niepełnosprawnych, na które przedsiębiorstwa


komunikacyjne przeznaczają około 14-18% swojego budżetu300.
Wdrożenie autonomicznych pojazdów do ruchu drogowego wskazuje się również jako
sposób na zmniejszenie kongestii na drogach i zmniejszenie związanych z nią kosztów.
Terminem „kongestia” (zatłoczenie, nagromadzenie, przeciążenie, skupienie) określa
się paraliż komunikacyjny, czyli zjawisko wzrostu liczby pojazdów na drogach oraz natężenie
ruchu drogowego stanowiące skutek utrudniania ruchu przez pojazdy w wyniku załamania
płynności ich przepływu i ograniczania prędkości ruchu. Innymi słowy jest to paraliż
drogowy, którego przyczyną jest zakorkowanie określonych odcinków dróg w wyniku
okresowego wzrostu liczby samochodów301. Jak wskazują Tadeusz Wilk i Piotr Pawlak,
pojęcie kongestii zostało w języku polskim przyjęte jako kalka angielskiego terminu „traffic
congestion”, oznaczającego korek uliczny i jest powszechnie używane w odniesieniu
do transportu, jako określenie ograniczenia przepustowości i zatłoczenia na szlakach
komunikacyjnych302. Powszechne użycie pojazdów autonomicznych może powodować
zmniejszenie opisywanego natężenia poprzez trzy formy oddziaływania: zmniejszenie ilości
realizowanych przejazdów, zwiększenie przepustowości na drogach (poprzez zapewnienie
płynnej, optymalnej w danych warunkach jazdy) oraz zmniejszenie opóźnień stanowiących
299
Zob. Insurance Institute for Highway Safety, New estimates of benefits of crash avoidance features on
passenger vehicles, “Status Report”, 2010, nr 45.
300
Zob. C.A. Berrick, Highway Safety: Selected Cases of Commercial Drivers with Potentially Disqualifying
Impairments, USA Government Accountability Office, 2013 [za:] T. Neumann, Perspektywy wykorzystania
pojazdów autonomicznych…, s. 788.
301
Kongestia, [on-line], e-logistyka.pl, 28.01.2018, https://e-logistyka.pl/logipedia/kongestia/ (05.03.2020).
302
Zob. T. Wilk, P. Pawlak, Kongestia transportowa, „Logistyka”, 2014, nr 6, s. 11117.
112
konsekwencję kolizji i wypadków drogowych. Przewidywalna redukcja kongestii możliwa
jest dzięki zdolności pojazdów autonomicznych do nieustannego monitorowania otoczenia,
w tym ruchu innych pojazdów, a także adekwatnej reakcji na ten ruch (np. precyzyjnego
hamowania, dostosowania przyspieszenia lub zmniejszenia odstępów pomiędzy samochodami
uczestniczącymi w ruchu. To z kolei pozwala zwiększyć pojemność na pasie ruchu,
a także uniknąć niepotrzebnych zatrzymań pojazdu i wznawiania jazdy.
Jako kolejną mocną stronę implementacji pojazdów autonomicznych do codziennego
użytkowania eksperci wskazują możliwą redukcję kosztów podróży, obejmujących
ubezpieczenie pojazdu, paliwo, utrzymanie auta, parkowanie oraz czas spędzany
za kierownicą. Podkreśla się również poprawę komfortu psychicznego kierowców, polegającą
na zmniejszeniu poziomu stresu związanego z odpowiedzialnością za prowadzenie pojazdu
oraz korzystny wpływ na zdrowie poprzez brak konieczności siedzenia przez długi czas
w określonej pozycji. Co więcej, auta autonomiczne nie ulegają zmęczeniu, co oznacza,
że mogą jeździć przez długi czas bez konieczności postoju. Jest to korzystna perspektywa
zwłaszcza dla kierowców samochodów ciężarowych, którzy transportując towar muszą
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

odbywać obowiązkowe przerwy po przejechaniu konkretnej liczby godzin. W odniesieniu


do ryzyka wypadku należy podkreślić, że jego zmniejszenie przekłada się na redukcję
kosztów związanych z ubezpieczeniem pojazdu, a możliwość samodzielnego poszukiwania
bezpłatnego miejsca parkingowego przez samochód pozwala zminimalizować koszty
parkowania. Dodatkowo, pojazd może szukać parkingu już po zakończeniu podróży przez
pasażera, co wiąże się z oszczędnością nie tylko pieniędzy, ale i czasu. W dalszej
perspektywie, skoro pojazd jest w stanie samodzielnie przyjechać do wskazanego miejsca,
nie zachodzi konieczność parkowania w pobliżu miejsca zamieszkania czy pracy,
a zatem pojazdy mogłyby być przechowywane w lokalizacjach centralnych. To z kolei
pozwoliłoby zaoszczędzić przestrzeń użytkową wykorzystywaną dotychczas jako parkingowa
w domach, blokach, galeriach handlowych, centrach biznesowych i innych obiektach
przestrzeni miejskiej.
Pozostając w obszarze ograniczania kosztów podróży należy odnieść się do transportu
indywidualnego w warunkach miejskich, przede wszystkim za pomocą taksówek.
Wykorzystanie w tym celu pojazdów autonomicznych może pozwolić na zmniejszenie opłat
za tę formę podróży z uwagi na brak konieczności wynagradzania ich kierowców.
Pozwoliłoby to również na znaczący rozwój car-sharingu, czyli współdzielenia jednego
pojazdu przez kilku pasażerów podróżujących na tej samej trasie, co z kolei niesie za sobą
wymierne korzyści ekologiczne i ekonomiczne w postaci ograniczenia liczby samochodów
poruszających się po mieście. Dodatkowo, rezygnacja z prywatnego samochodu na rzecz

113
korzystania usług typu car-sharing pozwala na ograniczenie kosztów związanych
z naprawami i ubezpieczeniem pojazdu, zakupem powierzchni parkingowej, itd.303
Istotnym argumentem przemawiającym za rozwojem autonomizacji samochodów jest
również możliwość obniżenia emisji do atmosfery szkodliwych substancji i spalin
pochodzących z pojazdów uczestników ruchu drogowego. Kluczową rolę odegrają tu przede
wszystkim ekonomiczność wykorzystania paliwa, stopień emisji dwutlenku węgla, rodzaj
paliwa wykorzystywanego do napędzania pojazdów autonomicznych oraz zmiany skali
ich użytkowania. O wzroście współczynnika oszczędności paliwa decyduje przede wszystkim
optymalizacja jazdy (eco-driving), do której przyczyniają się w szczególności system kontroli
podróży oraz stopniowe i płynne hamowanie i przyspieszanie, jak również inne czynności
optymalizacyjne wynikające ze zwiększającej się automatyzacji pojazdów. Możliwe
jest np. zastosowanie systemu jazdy kilku pojazdów autonomicznych, które jadąc
w zorganizowanej kolumnie komunikują się ze sobą. Takie rozwiązanie pozwala zwiększyć
płynność ruchu drogowego. Istotnym czynnikiem jest również możliwość zmniejszenia
wymaganego dystansu pomiędzy kolejnymi autami, co zwiększa pojemność pasa drogowego
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

i zapobiega stratom paliwa w trakcie omawianej wcześniej kongestii304. Nie bez znaczenia
jest również rodzaj stosowanego napędu – jednym z pierwszych koncernów wdrażających
pojazdy autonomiczne została Tesla, promująca w swoich autach napędy elektryczne.
Wraz z pojawieniem się i coraz bardziej powszechnym zastosowaniem rozwiązań
z zakresu Internetu rzeczy dla inteligentnych miast, zaczęły rozwijać się również rozwiązania
infrastrukturalne umożliwiające wprowadzenie zautomatyzowanej obsługi systemów
miejskich. Platformy wykorzystujące sztuczną inteligencję i algorytmy służące
do przetwarzania big data pozwalają m.in. na wprowadzenie do ruchu miejskiego
autonomicznych samochodów, monitorowanie poziomu zanieczyszczenia powietrza
czy zarządzanie miejskim systemem oświetlenia. Rozwiązania z tego zakresu proponuje
m.in. wrocławski projekt CityLab, tworzący zaplecze intelektualne do wdrażania i testowania
inteligentnych systemów funkcjonujących w przestrzeni publicznej. Wśród kluczowych celów
prowadzonych badań wskazano wdrożenie systemu monitoringu jakości powietrza
powiązanego z aplikacją mobilną, implementację systemu zarządzania miejscami
parkingowymi oraz zainstalowanie sieci słupów oświetleniowych wyposażonych
w inteligentne czujniki305. Polski inteligentny system miejski ma się wzorować
m.in. na słowackim projekcie ICE-Gateway, przygotowanym przez Galant Smart City.
Tamtejsze rozwiązania obejmują sieć inteligentnych lamp LED, sterowanych zdalnie
303
Zob. F. Ranft, M. Adler, P. Diamond i in., Freeing the Road: Shaping the future for autonomous vehicles, A
Policy Network Special Report, 2016.
304
Zob. T. Neumann, Perspektywy wykorzystania pojazdów autonomicznych…, s. 789.
305
Zob. Sztuczna inteligencja zarządzi naszymi miastami, [on-line], Newseria, 31.05.2019,
http://www.outsourcingportal.eu/pl/sztuczna-inteligencja-zarzadzi-naszymi-miastami (03.03.2020).
114
za pośrednictwem personalizowanego oprogramowania. Dokonują one pomiarów ruchu
na ulicach miasta i automatycznie dostosowują swój tryb pracy do bieżących potrzeb
mieszkańców. Lampy te jednocześnie monitorują jakość powietrza, analizując dostarczane
informacje o zanieczyszczeniach, a zainstalowane w nich kamery realizują zadania
miejskiego systemu monitoringu. Joanna Lewandowska, partner ds. rozwoju ICE-Gateway,
wskazuje, że zaletą takiego rozwiązania jest łatwa integrowalność platformy, możliwość
implementacji kolejnych funkcji i rozwiązań już w czasie trwania projektu oraz pełna
skalowalność, umożliwiająca dostosowanie systemu do potrzeb większych i mniejszych
miast. Przesyłane dane są szyfrowane, co ma zapewniać bezpieczeństwo użytkowników306.
Kolejną możliwością wykorzystania potencjału sztucznej inteligencji jest wdrażanie
inteligentnych systemów transportowych. Jak wskazuje polskie Ministerstwo Cyfryzacji,
planowane włączenie sieci 5G, przedstawianej jako sieć telekomunikacyjna nowej generacji,
umożliwi stworzenie bardziej bezpiecznych i sprawnych systemów transportu, zarówno
w odniesieniu do sterowania ruchem pojazdów indywidualnych, jak i kompleksowego
systemu transportu publicznego307. Sieć 5G ma umożliwić jednoczesne podpięcie do systemu
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

kilkuset tysięcy pojazdów, świateł ulicznych, kamer i czujników, co pozwoli na inteligentne


kierowanie ruchem w czasie rzeczywistym w skali całego miasta. Dzięki analizie danych
napływających z zainstalowanych na drogach czujników ruchu i kamer, sztuczna inteligencja
ma na bieżąco przekierowywać pojazdy uczestniczące w ruchu drogowym na optymalne
trasy, tak aby umożliwić im dotarcie do celu w jak najkrótszym czasie. System ma również
wykrywać wszelkiego rodzaju anomalie w postaci stłuczek, wypadków czy potrąceń pieszych
i niezwłocznie kierować do ich obsługi adekwatne służby ratownicze, co pozwoli na szybsze
podjęcie działań i skrócenie czasu realizacji zgłoszenia. Inne zastosowanie technologii
wykorzystujących rozwiązania sztucznej inteligencji to systemy zarządzania miejscami
parkingowymi – korzystając z czujników zamontowanych na latarniach ulicznych, system
ma automatycznie kierować pojazdy do zlokalizowanych w pobliżu wolnych miejsc
postojowych. Czujniki zlokalizowane w strefach płatnego parkowania mogą również
automatycznie naliczać opłaty za korzystanie z tych miejsc, co przekłada się na możliwość
wyeliminowania parkomatów.
Inteligentne algorytmy sterowania ruchem ulicznym przetestowano już w Pittsburghu
(Pensylwania, USA), gdzie na podstawie danych otrzymywanych z kamer i czujników
zainstalowanych przy drogach, system oparty na AI zarządzał zmianą świateł ulicznych.
Prowadzący testy naukowcy z CarnegieMellon obliczyli, że eksperyment przyniósł
niespodziewane efekty – o 40% zredukowano czas oczekiwania na światłach, czas średniego

306
Zob. Ibidem.
307
Zob. Ministerstwo Cyfryzacji, Inteligentne systemy transportowe, [on-line], gov.pl, 08.05.2019,
https://www.gov.pl/web/5g/inteligentne-systemy-transportowe (04.03.2020).
115
dojazdu do pracy skrócił się o 26%, a emisja zanieczyszczeń produkowanych przez pojazdy
spadła o 21%308.
Podobne rozwiązania są wspierane przez branżę motoryzacyjną – w 2018 r. Toyota
Mobility Foundation nawiązała z Instytutem Alana Turinga współpracę, której celem
jest opracowanie „nowego sposobu planowania miast i zarządzania nimi”309 w taki sposób,
aby zwiększyć płynność ruchu ulicznego w miastach za sprawą nowej generacji systemu
zarządzania. Dotychczasowe, statyczne systemy zarządzania ruchem mają zostać zmienione
na dynamiczne, dzięki czemu będą się dostosowywać do bieżących warunków,
z uwzględnieniem wielu form transportu. Wśród głównych celów przedsięwzięcia badacze
wymieniają w szczególności wprowadzenie AI do systemów kontroli sygnalizacji świetlnej,
budowę platformy przetwarzającej interaktywne dane w celu monitorowania i przewidywania
zachowań uczestników ruchu oraz testowanie różnych scenariuszy planowania komunikacji.
W dalszej perspektywie zespół wskazuje pracę nad nowymi systemami współpracy
dla zarządów miast i operatorów flot, umożliwiających wymianę danych dotyczących
zagęszczenia ruchu i zanieczyszczenia powietrza w celu zapobiegania nawarstwianiu się
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

tego typu problemów, zanim doprowadzą one do poważnego kryzysu310.


W dalszej perspektywie, warunkowanej całkowitym zastąpieniem pojazdów
konwencjonalnych pojazdami autonomicznymi, możliwe byłoby wyeliminowanie tradycyjnej
sygnalizacji świetlnej, znaków drogowych i innych elementów bezpieczeństwa
komunikacyjnego na rzecz cyfrowych systemów zapisanych w chmurze internetowej.
Bazując na tych danych, pojazdy same dostosowywałyby prędkość i manewry drogowe
do warunków panujących na drodze311.
Już w chwili obecnej sztuczna inteligencja znajduje zastosowanie w usprawnieniu
funkcjonowania komunikacji miejskiej. Takie rozwiązanie proponuje m.in. polski startup –
Broome, który w 2020 r. planuje wejście na polski rynek komunikacyjny. Zasada działania
jest prosta - użytkownik pobiera aplikację na swój smartfon i z jej poziomu zamawia przejazd
pomiędzy określonymi punktami aglomeracji. Ma również możliwość określenia ceny,
jaką jest w stanie zapłacić za podróż – koszt ten ma być zmienny w zależności
od preferowanego czasu przejazdu i liczby współpasażerów312. Aplikacja, wykorzystując
algorytmy, analizuje dostępność pojazdów (busów i autobusów), wybiera najbardziej
optymalny do zakresu zamówienia i wskazuje użytkownikowi miejsce jego odbioru

308
Ibidem.
309
B. Korzeniowski, Sztuczna inteligencja do zarządzania ruchem w miastach, „Motomi Magazyn” [on-line],
28.08.2018, https://magazynmotomi.pl/2018/05/28/sztuczna-inteligencja-do-zarzadzania-ruchem-w-miastach/
(04.03.2020).
310
Ibidem.
311
Zob. J.M. Anderson, N. Nalra, K.D. Stanley i in., Autonomous Vehicle Technology, Santa Monica 2014.
312
Większa liczba pasażerów oznacza większą liczbę przystanków i wydłużenie czasu podróży, ale mniejszy
koszt przejazdu , pokrywany przez więcej użytkowników.
116
– przystanek jest ustalany w takim miejscu, aby umożliwić odbiór jak największej liczby
pasażerów z jednego miejsca. Następnie Broome analizuje kolejne zgłoszenia użytkowników,
którzy chcą się dostać do miejsca docelowego, i na podstawie tych danych optymalizuje trasę
przejazdu. Jednocześnie aplikacja pilnuje, aby czas podróży nie przekroczył preferencji
określonych przez podróżujących. Zgłoszenia pasażerów nie są jedynym czynnikiem
determinującym przewidywaną trasę. Jak wskazuje Stefan Cylwik313, algorytmy aplikacji
biorą pod uwagę również natężenie ruchu miejskiego, pogodę, a nawet behawiorystkę
mieszkańców określonego obszaru. Broome analizuje jednocześnie nie tylko trasę jednego
kursu, ale optymalizuje także możliwość wykorzystania całej dostępnej floty pojazdów,
przypisanych do obsługi danego regionu – zarząd firmy planuje bowiem wdrożenie swoich
rozwiązań nie tylko w miastach, ale na terenach całych gmin, gdzie utrzymanie
konwencjonalnego systemu komunikacji publicznej okazuje się nieefektywne i drogie,
zwłaszcza na obszarach podmiejskich314. Wśród zalet tego rozwiązania, jego autorzy
wskazują w szczególności zapewnienie komfortu podróżującym, zwiększenie efektywności
komunikacji publicznej, zminimalizowanie cen przejazdu oraz zwiększenie obszaru
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

zagospodarowanego przez połączenia komunikacji zbiorowej przy jednoczesnym skróceniu


czasu oczekiwania na przejazd. Podnoszony jest również argument ekologiczny – wdrożenie
do ruchu kilkunastu kilkuosobowych pojazdów może zastąpić kilkaset samochodów
prywatnych, co przekłada się na zmniejszenie emisji spalin i zwiększenie przepustowości
ruchu ulicznego.
W 2019 r. jedenaście firm, obejmujących liderów branży motoryzacyjnej
oraz przedstawicieli spółek technologicznych, opracowało tzw. białą księgę bezpieczeństwa
dla światowego rozwoju samochodów autonomicznych. W projekt zaangażowały się:
Aptiv (producent oprogramowania do samodzielnego prowadzenia auta – self-driving), HERE
(dostawca usług lokalizacyjnych), Infineon (producent podzespołów i czujników), Intel,
a także czołowe koncerny samochodowe – Audi, BMW, Continental, Fiat Chrysler
Automobiles, Volkswagen, Daimler i Baidu (lider chińskiego rynku pojazdów
autonomicznych i jednocześnie popularna wyszukiwarka internetowa)315. Interesujący
jest fakt, że do inicjatywy nie dołączyły przedsiębiorstwa uznawane za liderów branży
autonomicznych pojazdów, tj. Tesla oraz Google.
Celem przedsięwzięcia SaFAD (ang. Safety First for Automated Driving –
Autonomiczna jazda. Po pierwsze, bezpieczeństwo) jest pomoc we wprowadzeniu jednolitego
313
Zob. K. Kopańko, Kurs autobusem zamawiany ze smartfona i optymizowany przez AI? To pomysł polskiego
startupu, [on-line], spidersweb.pl, 16.09.2019, https://spidersweb.pl/bizblog/broomee-autobus-ai-smartfon/
(03.03.2020).
314
M. Duszczyk, Autobusy zamawiane jak Uber. Wpadli na to Polacy, „Rzeczpospolita” [on-line], 09.09.2019,
https://cyfrowa.rp.pl/biznes/37305-autobusy-zamawiane-jak-uber-wpadli-na-to-polacy, (03.03.2020).
315
Zob. T. Jurczak, Autonomiczne pojazdy: 12 przykazań dla branży, [on-line], sztucznainteligencja.org,
09.07.2019, https://www.sztucznainteligencja.org.pl/autonomiczne-pojazdy-12-przykazan-branzy/ (05.03.2020).
117
systemu bezpieczeństwa w odniesieniu do produkcji i funkcjonowania pojazdów
autonomicznych. Do tego momentu każdy koncern wdrażający rozwiązania z zakresu
AV (ang. autonomus vehicles – pojazdy autonomiczne) tworzył jednocześnie własne reguły
bezpieczeństwa, choć co do zasady były one zbliżone i obejmowały kwestie dotyczące
bezpieczeństwa operatorów, pasażerów i pieszych. Przyjęcie „białej księgi” ma na celu
uzupełnienie dokumentacji wewnętrznej firm o niepodejmowane dotąd zagadnienia
bezpieczeństwa oraz określenie listy wymogów technicznych dla implementowanych
rozwiązań. Lista dwunastu „kamieni milowych” bezpieczeństwa obejmuje:
1. bezpieczną obsługę – jak system reaguje na błędy w postaci niestabilności lub awarii
działania krytycznych elementów pojazdu? Czy istnieje zagrożenie dla operatora,
pasażera i pieszego?
2. rozpoznanie ograniczeń technicznych – czy system jest w stanie rozpoznać ograniczenia
i minimalizować ryzyko podczas przekazywania kierowcy kontroli jazdy?
3. warunki pracy działania systemu – czy system zareaguje w odpowiedni sposób
w przypadku rozpoznania ograniczeń systemowych powodujących obniżenie poziomu
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

bezpieczeństwa?
4. zachowanie pojazdu w ruchu – czy działanie systemu jest zrozumiałe i przewidywalne
dla innych uczestników ruchu drogowego?
5. ocenę stanu kierowcy – czy system jest w stanie klarownie i bezpiecznie ocenić stan
operatora w przypadku przejęcia kontroli nad autem przez człowieka?
6. zdolność do bezpiecznych manewrów – jeżeli ocena operatora wypadnie negatywnie,
system musi być w stanie wziąć odpowiedzialność za kierowcę i samodzielnie wykonać
optymalny manewr drogowy w sytuacji zagrożenia kolizją;
7. decydującą rolę operatora – aktywacja i dezaktywacja autonomicznego trybu jazdy musi
wymagać wyraźnego zamiaru ze strony kierowcy;
8. wpływ automatyki na kierowcę – ogólna ocena bezpieczeństwa systemu musi
uwzględniać udogodnienia, do jakich przywykł operator korzystający z jazdy
autonomicznej oraz negatywne konsekwencje wynikające z odzwyczajenia kierowcy
od kierowania ręcznego w sytuacji, gdy będzie on musiał przejąć kontrolę nad pojazdem;
9. ocenę systemu pod kątem bezpieczeństwa –każdy wdrażany w pojazdach system musi
przejść ocenę bezpieczeństwa, bez której nie będzie dopuszczony do użytku; na żadnym
z etapów projektowania, implementacji i produkcji nie należy wdrażać zmian
obniżających poziom bezpieczeństwa systemu;
10. bezpieczeństwo danych – w sytuacji rozpoznania niebezpiecznego zdarzenia,
rejestrowane przez pojazd dane muszą być przetwarzane zgodnie z obowiązującymi
przepisami regulującymi sferę prywatności;

118
11. zabezpieczenie systemu przed atakami zewnętrznymi – zautomatyzowane systemy jazdy
muszą być chronione przed atakami hackerskimi, podpięciem, przechwyceniem danych
czy możliwością przejęcia zdalnej kontroli nad pojazdem;
12. zapewnianie odpowiedniej ochrony w sytuacji, kiedy kierowca wykorzystuje
zainstalowane w pojeździe rozwiązania technologiczne w sposób inny, niż powinny
one działań w trybie jazdy autonomicznej (zapewnienie działania pasów bezpieczeństwa,
regulacja siedzeń, utrzymywanie czystości szyb i lusterek).
Jednocześnie autorzy białej księgi wskazują, że nie ma ona na celu opracowania
konkretnych rozwiązań technicznych ani określania minimalnego lub maksymalnego
standardu, co wynika z istnienia kilku możliwości definiowania i projektowania pojazdów
autonomicznych. Dokument nie odnosi się również do kwestii związanych
z niekontrolowanym uczeniem się maszyn, niewłaściwym używaniem systemów
autonomicznych przez kierowców, wdrażaniem zaawansowanych systemów wspomagania
kierowcy czy określaniem zasad prywatności danych.

3.3. AI w sferze bezpieczeństwa informacyjnego i bezpieczeństwa informacji


Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

Jedną z najbardziej istotnych cech rozwojowych współczesnego społeczeństwa


jest nieustanny wzrost roli informacji. Jest to efekt rewolucji informacyjnej, dzięki której
świat wszedł w erę społeczeństwa informacyjnego, czyli takiego, w którym informacja stała
kluczowym produktem, a wiedza – bogactwem. W wyniku zachodzących przemian ranga
bezpieczeństwa informacyjnego stale się zwiększa, a wszelkie narzędzia, które pomagają
w jego zapewnianiu, zyskują coraz większe znaczenie. Rosnący postęp technologiczny,
zwłaszcza w dziedzinie bezpieczeństwa informacyjnego, wpływa jednocześnie na wszystkie
obszary życia człowieka.Uczenie maszynowe i szeroko rozumiana sztuczna inteligencja stały
się technologią, której szanse dostrzeżono również w obszarze cyberbezpieczeństwa,
bezpieczeństwa IT oraz bezpieczeństwa informacyjnego. Amerykański magazyn Forbes,
bazując na opiniach ekspertów, w 2020 r. przedstawił raport odnoszący się do roli,
jaką sztuczna inteligencja odgrywa w dziedzinie cyberbezpieczeństwa, a także prognozujący
trendy dalszego wpływu AI na procesy kluczowe dla funkcjonowania organizacji
bezpieczeństwa oraz zapewniania systemu ich ochrony316. Zdaniem ekspertów, nowoczesne
technologie zapewniają wzrost bezpieczeństwa IT z uwagi na wzmocnienie odporności
punktów końcowych, czyli wszystkich urządzeń, które mają możliwość połączenia się z siecią
organizacji. System bezpieczeństwa punktów końcowych chroni te urządzenia
przed zagrożeniami związanymi z przedostawaniem się do sieci firmowej złośliwego

316
Zob. S. Gliwa, AI vs AI. Jakie trendy bezpieczeństwa i zagrożeń czekają nas w 2020 roku?, [on-line],
CyberDefence24, 25.11.2019, https://www.cyberdefence24.pl/ai-vs-ai-jakie-trendy-bezpieczenstwa-i-zagrozen-
czekaja-nas-w-2020-roku (24.04.2020).
119
oprogramowania oraz innymi działaniami ukierunkowanymi na wyrządzenie szkód
w strukturze informatycznej organizacji. Zapewnianiu skutecznej ochrony punktów
końcowych służą w szczególności takie funkcje jak identyfikacja i blokada potencjalnie
zainfekowanych urządzeń, kontrola dostępu oraz gradacja poziomu uprawnień i dostępu
do sieci różnym grupom użytkowników. Wykorzystanie uczenia maszynowego oraz narzędzi
sztucznej inteligencji do kompleksowego systemu ochrony punktów końcowych skutkuje
podniesieniem poziomu ich automatyzacji – są one w stanie samodzielnie analizować ruch
w sieci organizacji, a co za tym idzie – identyfikować pojawiające się zagrożenia
bez konieczności angażowania w ten proces człowieka317.
Sztuczna inteligencja znalazła również zastosowanie w automatyzacji szyfrowania
danych – już w 2016 r. Google ogłosił, że stworzony przez nią algorytm potrafi stworzyć
i zastosować własne standardy szyfrowania danych przesyłanych pomiędzy użytkownikami
w oparciu o sztuczne sieci neuronowe318. Eksperyment Google’a polegał na utworzeniu trzech
sieci neuronowych: jedna wysyłała zaszyfrowane wiadomości, druga je odszyfrowywała,
a trzecia starała się odczytać ich treść nie posiadając klucza deszyfrującego. Po ponad 15 tys.
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

prób udało się skutecznie przesłać i odczytać wiadomość, nie udostępniając jej treści sieci
„podsłuchującej”. Eksperyment służył przede wszystkim wykazaniu możliwości samouczącej
się sztucznej inteligencji, ponieważ sami naukowcy nie byli w stanie ustalić, jaką konkretnie
metodę szyfrowania wykorzystała sieć.
Jednym z ciekawszych zastosowań AI w zapewnianiu bezpieczeństwa informacyjnego
jest wykorzystanie jej w translacji języka, w tym również w czasie rzeczywistym.
Powszechnie dostępne narzędzie – Google Translator – na podstawie zdjęcia tekstu
umożliwia rozpoznanie zastosowanego w nim języka i natychmiastowe przetłumaczenie treści
na inny, dowolny język. Takie zastosowanie w znaczący sposób zmniejsza językową barierę
komunikacyjną i umożliwia globalną wymianę informacji. Choć tłumaczenie automatyczne
nie zawsze jest precyzyjne i dokładne, to z biegiem lat coraz lepiej oddaje sens
przetworzonego tekstu, pozostając jednocześnie szybszym , mniej kosztownym i bardziej
dyskretnym sposobem translacji niż zaangażowanie do tego celu tłumacza319.
Kolejny przewidywany trend to doskonalenie narzędzi opartych na sztucznej
inteligencji, co jest możliwe dzięki dostępowi do szerokiego zestawu danych, zarówno
o charakterze historycznym, jak również zasilających bazy danych w czasie rzeczywistym.

317
Zob. G. Kubera, Ochrona punktów końcowych – co trzeba o niej wiedzieć, „Computer World” [on-line],
27.12.2018, https://www.computerworld.pl/news/Ochrona-punktow-koncowych-co-trzeba-o-niej-wiedziec,411
609.html (23.04.2020).
318
Zob. A. Berger, Sztuczna inteligencja Google’a tworzy własne systemy szyfrowania, [on-line],
trybawaryjny.pl, 13.11.2016, https://trybawaryjny.pl/sztuczna-inteligencja-googlea-tworzy-wlasne-systemy-
szyfrowania/ (09.07.2020).
319
Zob. K. Jassem, Sztuczny umysł między językami, [on-line], sztucznainteligencja.org, 28.03.2019,
https://www.sztucznainteligencja.org.pl/sztuczny-umysl-miedzy-jezykami/ (10.07.2020).
120
Istotna jest w tym kontekście postawa zarządów firm, które mogą dążyć do zwiększenia
nakładów finansowych i wdrożenia szeroko zakrojonych działań na rzecz wykrywania
zagrożeń przy użyciu nowoczesnych technologii. Z kolei przetwarzanie przez organizacje
coraz większej ilości danych, co jest możliwe dzięki wykorzystaniu sztucznej inteligencji
i big data, niesie za sobą konieczność zautomatyzowania procesów bezpieczeństwa,
czemu również posłużą rozwiązania oparte na uczeniu maszynowym i AI.
Wyniki badań przeprowadzonych w 2017 r. przez portal Webroot wykazały, że 87%
amerykańskich specjalistów ds. cyberbezpieczeństwa korzysta z określonych form sztucznej
inteligencji, przy czym aż 91% z nich ma obawy, że ta technologia może zostać wykorzystana
przeciwko nim przez hakerów320.Specjaliści odpowiedzialni za ochronę systemów
informatycznych mogą wykorzystywać narzędzia sztucznej inteligencji przede wszystkim
do czynności, w których kluczową rolę odgrywa symulacja standardowych zachowań
oraz wykrywanie powtarzalnych wzorców i jednocześnie odstępstw od normy, które z uwagi
na skalę przetwarzanych danych mogą zostać niewykryte przez człowieka. Odnosi się
to zarówno do standardowych danych, przesyłanych na bieżąco przez sieć, jak i informacji
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

dotyczących wyłącznie potencjalnych i realnych zagrożeń. Wdrożenie nowoczesnych


rozwiązań technologicznych umożliwia analitykom szybką reakcję poprzez podjęcie
optymalnych działań zabezpieczających lub nawet całkowitą automatyzację wykrywania
zagrożeń i reagowania na nie. Jest to szczególnie istotne w kontekście realnego
zapotrzebowania organizacji na specjalistów ds. bezpieczeństwa IT oraz faktu,
że zatrudnienie optymalnej liczby analityków ds. zabezpieczeń może obciążyć organizację
kosztami przekraczającymi sumę niezbędną do wdrożenia sprawnie działającego systemu
automatycznego wykrywania zagrożeń321. Jednocześnie automatyzacja tego procesu pozwala
specjalistom przeznaczyć więcej czasu na realizację zadań o znaczeniu strategicznym,
co z kolei przekłada się na podniesienie efektywności kompleksowego systemu
bezpieczeństwa informatycznego organizacji.
Istotnym argumentem za wdrożeniem rozwiązań sztucznej inteligencji w kontekście
wykrywania i blokowania ataków jest czas potrzebny na wykrycie zagrożenia – im dłużej
sprawca ataku pozostaje w infrastrukturze sieciowej organizacji, tym więcej danych może
on pozyskać, a co za tym idzie – tym większe straty ponosi zaatakowane przedsiębiorstwo.
W 2019 r. łączne koszty wycieków danych w Stanach Zjednoczonych oszacowano na kwotę

320
Zob. Webroot. Smarter Cybersecurity, Game Changers: AI and Machine Learning in Cybersecurity. A
U.S./Japan Comparison, 2017.
321
Zob. Trend Micro Polska, Sztuczna inteligencja – przyjaciel i wróg bezpieczeństwa informatycznego, [on-
line], Trend Micro, 16.08.2018, https://blog.trendmicro.pl/2018/08/16/sztuczna-inteligencja-przyjaciel-i-wrog-
bezpieczenstwa-informatycznego/ (19.04.2020).
121
3,92 mln USD322, zaś w 2017 r. w Wielkiej Brytanii straty z tego tytułu wyceniono
na ok. 2,7 mld GBP, a przeciętny czas potrzebny do wykrycia incydentu bezpieczeństwa
określono jako 163 dni323. Automatyzacja, możliwa dzięki wdrożeniu rozwiązań AI, znacząco
skraca ten okres – opierając się na danych pochodzących z prac badawczych, wiadomości
czy blogów, sztuczna inteligencja dokonuje zaawansowanych analiz i na ich podstawie
dostarcza informacji ułatwiających walkę z pojawiającymi się alarmami bezpieczeństwa,
co skutkuje skróceniem czasu reakcji na ataki324. Szybkość wykrycia zagrożenia i reakcji
na nie ma niebagatelne znaczenie w przypadku ataku z wykorzystaniem oprogramowania
typu ransomware, ukierunkowanego na złośliwe szyfrowanie plików o znaczeniu
strategicznym (krytycznym) dla organizacji. Wykorzystanie uczenia maszynowego pozwala
wykryć nawet minimalne, pojawiające się niespójności oraz nieautoryzowane zmiany,
które wskazują na szyfrowanie plików przezszkodliwe oprogramowanie, co finalnie pozwala
uniknąć naruszeń bezpieczeństwa polegających na utracie dostępności i integralności
przetwarzanych danych. Możliwe jest również prewencyjne blokowanie potencjalnie
szkodliwych plików i procesów - jeszcze przed faktycznym rozpoczęciem infekcji
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

– niebagatelne znaczenie ma równoczesne zastosowanie analizy bezpieczeństwa pliku


w trakcie transmisji danych, co pozwala uniknąć fałszywych alertów bezpieczeństwa
i zapewnić blokowanie wyłącznie niepożądanych przez organizację procesów.
Próbę podniesienia poziomu cyberbezpieczeństwa poprzez wdrożenie zabezpieczeń
kognitywnych, łączących potencjały ludzkiej i sztucznej inteligencji w celu aktywnego
wykrywania i analizowania zagrożeń i dostarczania analitykom bezpieczeństwa niezbędnych
informacji służących do szybkiego podejmowania optymalnych decyzji, podjęło wiele
organizacji. Rozwiązania wykorzystujące AI zastosowali już w 2017 r. organizatorzy
Wimbledonu, których celem było zapewnienie ochrony swojej aktywności w mediach
społecznościowych przed atakami cybernetycznymi. Platforma cyfrowa Wimbledonu
pozwala fanom śledzić przebieg turnieju za pośrednictwem internetu, interaktywnej telewizji
i aplikacji mobilnej. Kompleksowy system oferuje kibicom połączenie transmisji wideo,
dostępu do punktacji w czasie rzeczywistym oraz na bieżąco aktualizowanych statystyk
i raportów. Platformę napędza system obliczeń kognitywnych i bieżąca analiza statystyczna.
Cyfrowa transformacja turnieju zapewniła jego organizatorom ogromny ruch na stronie
internetowej, której ochronę zapewnia centrum operacji bezpieczeństwa poznawczego IBM.
Za pomocą platformy turniej obserwują miliony kibiców, zatem jakiekolwiek naruszenie
bezpieczeństwa stanowiłoby dużą stratę wizerunkową dla marki. Jak podkreśla Alexandra
322
Zob. IBM Security, How much would a data breach cost your business? 2019 Cost of a Data Breach Report,
[on-line], IBM, 2019, https://www.ibm.com/security/data-breach (24.04.2020).
323
Zob. Trend Micro Polska, op. cit.
324
Zob. IBM Security, Sztuczna inteligencja rozwiązaniem wzmacniającym bezpieczeństwo, [on-line], IBM, b.r.,
https://www.ibm.com/pl-pl/security/artificial-intelligence (26.04.2020).
122
Willis, dyrektor ds. komunikacji, treści i technologii cyfrowych All England Lawn Tennis
Club, Wimbledon jest w dużej mierze częścią brytyjskiej tożsamości, zatem udany atak
mógłby być postrzegany jako coś więcej niż atak na tenis325. Podczas turnieju w 2017 r.
centrum operacji bezpieczeństwa, zastosowano system bezpieczeństwa oparty na IBM Qradar
– rozwiązaniu gromadzącym dane z tysięcy punktów końcowych i urządzeń w całej
infrastrukturze, analizującym je pod kątem potencjalnych zagrożeń i pozwalających ustalić
priorytety działania specjalistom ds. bezpieczeństwa. Dzięki niemu wykryto prawie 200 mln
potencjalnie niebezpiecznych zdarzeń w infrastrukturze sieciowej witryny Wimbledon326.
W świetle powyższych rozważań, kluczowy cel wdrażania rozwiązań i narzędzi
sztucznej inteligencji do sfery bezpieczeństwa informacji można zdefiniować jako stworzenie
systemu cyberzabezpieczeń, w którym narzędzia te mogą jednocześnie się uczyć i rozwijać.
W ten sposób generowane są kolejne określone wzorce i schematy postępowania systemu,
do których na bieżąco dodawane są informacje zwrotne pochodzące z systemów analizy
zagrożeń. Dzięki temu możliwe jest ciągłe doskonalenie działania wdrożonego systemu.
AI jest przeszkolona i przygotowana do przetwarzania ogromnych ilości danych, zarówno
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

ze źródeł ustrukturyzowanych (bazy danych), jak i nieustrukturyzowanych (blogi, artykuły


informacyjne, wiadomości). Poprzez techniki głębokiego uczenia i uczenia maszynowego
system poszerza swoją wiedzę, aby poznać, a nawet „zrozumieć” zagrożenia cybernetyczne
i oszacować poziom cyberryzyka. Pierwszym etapem jest gromadzenie informacji, po czym
następuje wykorzystanie mechanizmów rozumowania w celu wykrycia wzorców i określenia
związków pomiędzy zagrożeniami, co umożliwia wskazywanie podejrzanych plików,
potencjalnie szkodliwych adresów IP lub zagrożeń o charakterze wewnętrznym. Jak wskazuje
IBM, przedmiotowa analiza zajmuje od kilku sekund do kilku minut, co pozwala analitykowi
zareagować na wykryte zagrożenie nawet 60 razy szybciej, niż gdyby cały proces analityczny
był obsługiwany wyłącznie przez człowieka327.
Podsumowując można stwierdzić, że wdrożenie rozwiązań AI w analizowanym
obszarze bezpieczeństwa, związanym z przetwarzaniem informacji, eliminuje czasochłonne
zadania badawcze i pozwala na automatyczną analizę ryzyka na podstawie wybranych
danych, znacząco skracając czas potrzebny analitykom bezpieczeństwa organizacji
do podjęcia kluczowych decyzji i implementacji skoordynowanych środków zaradczych
w stosunku do wykrytych zagrożeń.

325
Zob. IBM, Wimbledon 2017, [on-line], IBM, b.r., https://www.ibm.com/case-studies/wimbledon-2017,
(10.07.2020).
326
Zob. Ibidem.
327
Zob. IBM Security, Sztuczna inteligencja…, (26.04.2020).
123
3.4. AI w sferze bezpieczeństwa ekonomicznego i zdrowotnego

Istotnym elementem zapewniającym bezpieczeństwo ekonomiczne państwa


jest sprawne i niezakłócone działanie branży biznesowej. Coraz częściej to właśnie tu,
w zróżnicowanych obszarach pojawiają się rozwiązania bazujące na sztucznej inteligencji.
Stosujące je firmy pracują nad umiejętnym wprowadzaniem kolejnych innowacji,
tak aby zapewnić ich skuteczność i optymalne wykorzystanie – konkretne rozwiązania mają
przynieść wymierne korzyści, przede wszystkim finansowe. Niezbędne jest również
przezwyciężenie społecznych obaw przed AI – jako główne wyzwanie podnoszony
jest problem wypierania ludzi z rynku pracy poprzez zastępowanie ich inteligentnymi
technologiami lub robotami. Jednocześnie wciąż nie sprecyzowano do końca, w jakich
obszarach i specjalizacjach AI miałaby znaleźć najbardziej znaczące i rentowne zastosowanie.
Zgodnie z wizją Mike’a Walkera, dyrektora badań prowadzonych przez firmę analityczno-
badawczą Gartner, możliwości sztucznej inteligencji są tak rozległe i nieprzewidywalne,
że będzie ona stosowana przez organizacje „w celu dostosowania się do nowych sytuacji
i rozwiązania problemów, z którymi nikt wcześniej się jeszcze nie spotkał”328.
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

Przedsiębiorstwa świadczące usługi finansowe znajdują się w czołówce spółek


inwestujących w obszar sztucznej inteligencji. Zauważalny jest rozwój obszaru FinTech
i InsurTech329, czyli grup wdrażających nowe technologie do bankowości i sektora
ubezpieczeniowego. Organizacje z kategorii FinTech za pomocą nowych technologii
rozwiązują określone problemy lub odpowiadają na konkretne potrzeby swoich
użytkowników, zaś dzięki zastosowaniu rozwiązań opartych m.in. o AI mogą działać
sprawniej, szybciej i bezpieczniej, a same usługi stają się bardziej spersonalizowane
i transparentne330.
Innowacyjne wykorzystanie sztucznej inteligencji w branży finansowej przestało
być modą, stając się raczej koniecznością i trendem, który z uwagi na ogromną ilość
przetwarzanych danych wydaje się nie mieć alternatywy. Zastosowanie algorytmów
umożliwia lepsze zarządzanie budżetem i finansami, dobór optymalnych produktów
i rozwiązań dla klienta, a przede wszystkim – przyspiesza i automatyzuje pracę instytucji
finansowych. W branży biznesowej korzysta się w szczególności z kilku podstawowych
technik sztucznej inteligencji – zdolności do przetwarzania dużych zbiorów danych,
analizowania zebranych informacji w czasie rzeczywistym oraz operacji o charakterze
predykcyjnym. Służą one przede wszystkim obserwacji klienta i jego nawyków

328
M.J. Walker, Top Trends in the Gartner Hype Cycle for Emerging Technologies, [on-line], gartner.com,
2017, https://www.gartner.com/smarterwithgartner/top-trends-in-the-gartner-hype-cycle-for-emerging-
technologies-2017/ (02.06.2020).
329
financialtechnologies, insurancetechnologies
330
Zob. A. Trapp (red.), AI: wyzwania i konsekwencje. Pilot view, Gdańsk 2019, s. 76.
124
– w taki sposób, aby przewidzieć jego przyszłe potrzeby i w optymalny, a jednocześnie
zyskowny sposób na nie odpowiedzieć.
Możliwości wykorzystania AI w marketingu są bardzo rozległe. SAS Institute
zdefiniował sześć kluczowych obszarów zastosowania sztucznej inteligencji w tej branży,
wyróżniając wśród nich331:
 wsparcie procesów decyzyjnych i zwiększenie sprzedaży – AI i uczenie maszynowe
pozwalają uzyskać precyzyjny profil konsumenta, co z kolei pozwala przewidzieć,
w jaki sposób kupujący, pochodzący z poszczególnych grup odbiorców, zareagują
na konkretną ofertę. Wykorzystując te mechanizmy można dobrać i zaproponować
klientowi spersonalizowaną ofertę, dopasowaną do jego przewidywanych oczekiwań,
co zwiększa szansę na sprzedaż produktu; o tym, jak często wykorzystywany jest ten
sposób, przekonują się użytkownicy internetu, którzy po obejrzeniu konkretnych treści
otrzymują spersonalizowane reklamy produktów podobnych do oglądanych materiałów;
 wsparcie działań z obszaru cross-sellingu i up-sellingu – wykorzystując ogromne ilości
przetwarzanych danych dotyczących zakupów i preferencji konsumentów,
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

przedsiębiorstwa mogą przewidywać, kiedy nabywcy skończy się zakupiony wcześniej


towar, a nawet sugerować klientom wymianę ostatnio zakupionego urządzenia na nowszy
model;
 poznanie opinii i upodobań klienta – dzięki AI możliwe jest pozyskiwanie i analizowanie
opinii klientów, pochodzących z różnych kanałów – komentarzy, ocen, wpisów
w mediach społecznościowych, a nawet prywatnej komunikacji e-mailowej.
W tym obszarze wykorzystuje się również analizę języka naturalnego oraz obrazów,
które pozwalają określić stosunek klientów do określonej marki i jej produktów,
a nawet ocenić natężenie negatywnych lub pozytywnych emocji zawartych w opinii.
Wszystkie te zabiegi mają na celu identyfikację klientów chętnych do zakupu
oferowanego produktu, jak również przekonanie osób niezdecydowanych lub zmianę
krytycznego nastawienia części klientów;
 usprawnienie kontaktu z klientem – rozwiązania wykorzystujące AI masowo wspierają
pracowników bezpośrednio obsługujących klientów, dokonując wstępnej selekcji
celu rozmowy i przekierowując rozmówcę do właściwego działu; często zdarza się
również, że bot samodzielnie rozwiązuje problem klienta na podstawie informacji
zgromadzonych w bazie wiedzy;
 działanie w czasie rzeczywistym – AI wyznacza wzorce zachowań konsumentów
i analizuje różne scenariusze biznesowe, co umożliwia szybsze przygotowanie oferty

331
Zob. Sztuczna Inteligencja i jej zastosowanie w marketingu, [on-line] properad.pl, 18.01.2019,
https://properad.pl/artykul/62/Sztuczna-Inteligencja-i-jej-zastosowanie-w-marketingu (07.07.2020).
125
dla klienta, opracowanie ukierunkowanej na zysk strategii działania oraz niezwłoczną
reakcję na zachodzące w otoczeniu zmiany; nowoczesne narzędzia działające w oparciu
o technologię AI pozwalają również przygotowywać zróżnicowane scenariusze
i przewidywać skutki określonych działań marketingowych, co umożliwia opracowanie
i wdrożenie skutecznych mechanizmów kontrolnych, minimalizujących potencjalne straty
wywołane błędnymi decyzjami;
 analizę danych z wielu źródeł - wiedza o kliencie jest, oprócz pieniędzy, najbardziej
cenną walutą branży finansowej. Dotychczas klientów poddawano tradycyjnym
procedurom badawczym i stosowano wobec nich standardowe zabiegi marketingowe.
Dane o klientach pozyskiwano i analizowano w oparciu o niespójne techniki i narzędzia
– obsługa klienta, marketing i sprzedaż wykorzystywały odrębne technologie
gromadzenia danych. Wdrożenie nowych rozwiązań technologicznych pozwoliło
połączyć i zapewnić spójność wskazanych obszarów – współcześnie ocena klienta,
badanie jego potencjału i preferencji czy przygotowanie i sprzedaż produktu odbywa się
najczęściej w jednej, wspólnej przestrzeni cyfrowej. Wykorzystywane do tego celu
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

oprogramowanie uczące się jest przystosowane do przetwarzania ogromnych zbiorów


różnych danych, które pochodzą z wielu źródeł, a cały ten proces przebiega w znacznie
szybszym tempie niż oferowane przez człowieka.
Wśród konkretnych przykładów wykorzystania sztucznej inteligencji w marketingu
można wskazać tworzenie przez system The Grid zaawansowanych i funkcjonalnych stron
internetowych. Ten wirtualny web-developer jest w stanie stworzyć stronę dopasowaną
do potrzeb danej organizacji, która jest w pełni responsywna i automatycznie dostosowuje się
do ilości zamieszczanych na niej treści. Jednocześnie robi to dużo szybciej niż tradycyjni
deweloperzy, dbając również o zachowanie estetyki i nowoczesnego wyglądu strony,
tak aby nie odstawała od aktualnych trendów i była łatwa w wykorzystaniu.
Warto również odnieść się do zatrudnionej przez firmę telekomunikacyjną
CenturyLink wirtualnej asystentki Angie, której zadaniem jest wysyłanie e-mali ofertowych
do klientów oraz analizowanie i interpretowanie otrzymanych odpowiedzi. Uzyskane
w ten sposób informacje są przez Angie priorytetyzowane i przekazywane do odpowiednich
pracowników, z którymi asystentka również na bieżąco umawia klientów. Wyniki badania
pilotażowego wykazały, że Angie prawidłowo zrozumiała i przesłała do właściwego
pracownika ponad 99% otrzymanych wiadomości332.
Oczywistym obszarem zastosowania AI jest również jej wykorzystanie
do pozycjonowania stron internetowych (SEO). Najbardziej znanym narzędziem

332
Zob. A. Mimaroglu, 3 Ways Artificial Intelligence Has Sparked Marketing and Sales Transformation, [on-
line], entrepreneur.com, 27.06.2019, https://www.entrepreneur.com/article/335779 (09.07.2020).
126
wykorzystywanym w tym obszarze jest RankBrain – część rozbudowanego algorytmu
Google, którego skuteczność oparta jest na nieustannym pozyskiwaniu nowych danych.
Wraz z każdym zapytaniem, które internauta wprowadza do wyszukiwarki Google,
RankBrain wzbogaca swoją bazę o nowe, precyzyjne dane. Program sprawdza jednocześnie,
które strony swoją treścią pozwalają lepiej odpowiedzieć na zadane zapytania,
co m.in. pozwala podwyższyć pozycje wyświetlania stron mniej „doinwestowanych”
przez twórców, ale zawierających bardziej precyzyjną lub bardziej przystępną
dla użytkownika informację. Wśród kluczowych czynnikówRankBrain, które mają wpływ
na kolejność wyświetlania i sugerowanie użytkownikowi określonych stron, Justyna
Podsiadło wyróżnia następujące parametry:333
 kliknięcia – liczbę, częstotliwość i regularność odwiedzin witryny przez użytkowników;
 jakość wizyty – jak długo użytkownicy korzystali z treści zamieszczonych na stronie,
ile czasu przeznaczyli na śledzenie treści, która część strony zawierała odpowiedź
na ich pytania;
 zainteresowanie stroną – czy użytkownik korzystał z jednej podstrony, czy korzystał
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

z zamieszczonych przez twórcę linków;


 tzw. pogosticking, czyli szybką ocenę strony przez użytkownika – czy zawiera ona prostą
i wyczerpującą odpowiedź na jego zapytanie, a jeżeli nie – wyjście ze strony i przejście
do kolejnego wyniku.
Z punktu widzenia twórców stron internetowych, poznanie mechanizmów
pozycjonowania stron pozwala zwiększyć ich zasięgi i atrakcyjność, a co za tym idzie – zysk.
AI uwrażliwia bowiem algorytmy wyszukiwarki na język naturalny, pozycjonując wyżej
strony zawierające proste i wyczerpujące odpowiedzi na zapytania użytkowników.
Badając struktury językowe i koncepcje tworzenia zapytań, maszyna jest w stanie
przewidzieć odpowiedź najbardziej satysfakcjonującą internautę. AI umożliwia również
śledzenie trendów i dostosowywanie treści stron internetowych do oczekiwań użytkowników.
Stosowanie AI w pozycjonowaniu stron pomaga zatem w budowaniu strategii działania
twórców stron internetowych i specjalistów SEO, zapewniając wzrost wydajności – narzędzia
AI wyodrębniają błędy techniczne i raportują problemy strukturalne, zmniejszając
jednocześnie ryzyko wystąpienia błędu ludzkiego. Przyspiesza także procesy, minimalizując
czas potrzebny specjaliście SEO do analizy treści strony. Trzecią zaletą jest możliwość
stworzenia i zachowania bliskiej więzi z klientem – dzięki pozyskiwaniu szczegółowych
informacji dotyczących klienta, który szuka w Internecie określonych treści, możliwe jest

333
Zob. J. Podsiadło, Sztuczna inteligencja w SEO. Jak Google wykorzystuje AI?, [on-line], delante.pl,
30.03.2020, https://delante.pl/ai-sztuczna-inteligencja-w-seo/ (06.07.2020).
127
określenie profilu użytkownika (w tym danych językowych i demograficznych) i wdrożenie
skutecznych metod komunikacji.
Sztuczna inteligencja znajduje również zastosowanie w obszarze zwiększania
bezpieczeństwa klienta podczas korzystania z usług finansowych. Jednym z największych
wyzwań, z którymi mierzą się obecnie światowe instytucje finansowe, jest skuteczne
zapobieganie nieuprawnionemu przejmowaniu kont bankowych. Ataki phishingowe
na klientów banków oraz brak efektywnego sposobu powstrzymywania wycieków
z baz danych sprawiają, że nieustannie zwiększa się zapotrzebowanie na niezawodne,
a jednocześnie przystępne dla użytkownika systemy zabezpieczeń bankowych. Specjaliści
od systemów IT w bankowości dążą zatem do ulepszania i optymalizacji rozwiązań, które
zapewnią bezpieczeństwo przetwarzania zgromadzonych zbiorów danych, koncentrując
się przede wszystkim na sposobach dostępu do konta online (procedurach autoryzacji
i logowania do konta). Stosowanie tradycyjnych rozwiązań (logowanie za pomocą hasła
złożonego z ciągu znaków) jest narażone na atak ze strony botów ukierunkowanych
na złamanie i kradzież kodów i haseł zabezpieczających. Wśród nowych rozwiązań,
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

które mają zapewnić bezpieczeństwo użytkownikom bankowości elektronicznej wskazuje się


najczęściej autoryzację klienta za pomocą danych biometrycznych – w pierwszej kolejności
odcisku palca, w dalszej perspektywie – rozpoznawania twarzy. Są one uznawane
za najlepsze i najprostsze zabezpieczenie przed włamaniem do systemu z uwagi na swoją
niepowtarzalność, a jednocześnie łatwość zastosowania. Nawet rysy twarzy utrwalone
na fotografii stanowią unikatową treść w przypadku rozwiązań umożliwiających identyfikację
osoby przedstawionej na obrazie. Obecnie możliwe jest już założenie konta bankowego
na podstawie przesłanego przez użytkownika zdjęcia twarzy.
Ciekawe rozwiązanie w obszarze zapobiegania atakom na użytkowników bankowości
elektronicznej zaproponowała w 2018 r. polska firma Nethone. Projekt Nethone ATO334
to autonomiczny, oparty na sztucznej inteligencji system służący zapobieganiu przejęciom
kont bankowych. Jak wskazuje CEO Nethone – Hubert Rachwalski, rozwiązania stosowane
przez banki i inne instytucje finansowe, polegające na wdrażaniu wieloskładnikowego
uwierzytelniania użytkownika, systemów monitorowania fraudów, czy narzucaniu dobowych
limitów transakcyjnych nie zachowują optymalnej równowagi pomiędzy zapewnianiem
bezpieczeństwa i wygody użytkowników końcowych. Założeniem Nethone ATO
jest natomiast wykorzystanie do weryfikacji tożsamości posiadacza konta biometrii
behawioralnej, obejmującej analizę sposobu poruszania się użytkownika w serwisie i sposobu

334
ATO – skrót od AccountTakeover Online, pol. atak prowadzący do przejęcie konta online; Zob. J. Babicz,
Sztuczna inteligencja zablokuje kradzieże z kont bankowych dokonywane przez cyberprzestępców, „Dziennik
Bałtycki” [on-line], 29.01.2018, https://dziennikbaltycki.pl/sztuczna-inteligencja-zablokuje-kradzieze-z-kont-
bankowych-dokonywane-przez-cyberprzestepcow/ar/c3-12889010, (17.04.2020).
128
korzystania z urządzenia używanego do prowadzenia bankowości elektronicznej, np. obsługi
ekranu dotykowego, sposobu poruszania myszką czy indywidualnego rytmu pisania
na klawiaturze.
W obszarze bezpieczeństwa ekonomicznego, rozwiązania bazujące na sztucznej
inteligencji stosują zarówno banki, jak i ubezpieczyciele. Firma ubezpieczeniowa AXA,
w celu osiągnięcia lepszych wyników przy określaniu ryzyka ubezpieczeń samochodowych,
wykorzystuje oprogramowanie Tensor Flow. Obsługuje ono platformę uczenia maszynowego
(Google Cloud Machine Learning Engine). System ten osiągnął 78% skuteczności
przy ocenie klientów tzw. wysokiego ryzyka, podczas gdy w tym samym obszarze wyniki
poprzednio stosowanego algorytmu (Random Forest) oscylowały w granicach
40%335.Technologia oparta o sztuczną inteligencję wykorzystywana jest również
w bezpośrednim kontakcie z klientem. Przedsiębiorstwo Insurify oferuje klientom możliwość
porównania dostępnych ofert ubezpieczeniowych i wyboru najbardziej optymalnej
w trakcie rozmowy przez telefon (lub czat) z wirtualnym doradcą. Wirtualny asystent
nie tylko rozumie pytania, ale również jest w stanie prowadzić rozmowę z klientem,
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

posługując się zrozumiałym i naturalnym językiem. Na automatyzację kontaktu z klientem


zdecydował się również singapurski bank DBS – jego aplikacja Digibank stosuje AI
do rozwiązywania problemów zgłaszanych przez klientów i przewidywania ich potrzeb336.
Dodatkowo, wykorzystując uczenie maszynowe, stale zwiększa swoją wydajność
i jest w stanie uczyć się dokonując analizy wykonanych wcześniej zadań.
Nieco mniej popularne niż czatboty są natomiast boty głosowe, oferujące usługi
analogiczne do asystentów głosowych dostarczanych przez Google, Amazona (Alexa),
czy Apple (Siri). Fundusz inwestycyjny RBC Capital szacuje, że w 2020 r. na świecie będzie
pracowało ok. 130 mln urządzeń podłączonych do systemu Alexa337. Bank of America
już wykorzystuje w swojej pracy czatbotaErica, który zajmuje się obsługą i doradztwem
klientom banku przy użyciu zarówno wiadomości tekstowych, jak i głosowych.
Bot jest dostępny 24 godziny na dobę i ma dostęp do wszystkich transakcji dokonywanych
przez klientów. Koszty jego utrzymywania są nieporównywalnie mniejsze
do przewidywanych kosztów zatrudnienia kilkunastu pracujących całodobowo specjalistów.
W przeciwieństwie do człowieka, algorytmy maszynowe i oparte na nich boty są skalowalne.
Jednocześnie, zgodnie z zasadą samodoskonalenia się systemów opartych na uczeniu
maszynowym, ich kompetencje będą nieustannie rosnąć. O ile dotychczas czatboty
335
Zob. G. Shixin, Customer Success with Machine Learning (Google Cloud NEXT’17), [on-line], medium.com,
07.06.2017, https://medium.com/syncedreview/customer-success-with-machine-learning-google-cloud-next17-
64c6af3e388, (28.05.2020).
336
Zob. A. Trapp, op. cit., s. 77.
337
Zob. A. Kharpal, Amazon’s voice assistant Alexa could be a $10 billion ‘mega-hit’ by 2020: Research, [on-
line], CNBC, 10.05.2017, https://www.cnbc.com/2017/03/10/amazon-alexa-voice-assistan-could-be-a-10-
billion-mega-hit-by-2020-research.html (05.05.2020).
129
z powodzeniem sprawdzają się w pierwszym kontakcie z klientem, gdzie na podstawie
określonych haseł klasyfikują jego potrzeby i kierują go do odpowiednich działów,
tak przewiduje się, że w przyszłości będą one delegowane do bardziej wymagających zadań,
jak przypominanie klientowi o zaległej płatności, informowanie o warunkach oferowanych
usług czy rozmowy o proponowanych inwestycjach338.
Specyficznym trendem w rozwoju sztucznej inteligencji w branży bankowości
jest wykorzystywanie robodoradców (ang. robo-advisors). Są to aplikacje i platformy
cyfrowe, które zarządzają wirtualnym portfelem klienta i doradzają mu najbardziej optymalną
inwestycję dostępnych środków. Robodoradcy mogą być samodzielni i działać w oparciu
o określone algorytmy (tzw. pure robo-advisory) lub współdziałać z człowiekiem (hybrid
robo-advisory). Wyróżnić można również aplikacje doradzające (lub decydujące
samodzielnie) w kwestii przelewu określonych kwot na konta oszczędnościowe.
Przykładem może być mobilna aplikacja Digit, której celem jest pomoc użytkownikowi
w nauce oszczędzania. Po instalacji na urządzeniu aplikacja monitoruje zachowania i wydatki
użytkownika, obserwuje i uczy się nawyków wydawania pieniędzy, a następnie, na podstawie
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

zebranych danych, regularnie przelewa określone kwoty z bieżącego rachunku na konto


oszczędnościowe. Ma to być szansa na zapewnienie użytkownikowi oszczędności, zarówno
pieniędzy, jak i czasu – całym planowaniem finansowym zajmuje się bowiem wirtualny
asystent339.
Zwiększeniu bezpieczeństwa użytkownika usług bankowości elektronicznej służą
również rozwiązania umożliwiające monitorowanie bezpieczeństwa systemów bankowych.
Inteligentne oprogramowanie, działające w czasie rzeczywistym, wykorzystywane
jest do śledzenia najmniejszych anomalii w działaniu systemu, które mogą świadczyć o ataku
hakerskim, stanowiącym zagrożenie zarówno dla przetwarzanych w nich danych,
jak i zgromadzonych środków finansowych. Nie jest to zresztą jedyne ich zastosowanie –
wyzwaniem dla sektora bankowości jest zatwierdzanie transakcji finansowych, udzielanie
i monitorowanie spłat kredytów, wyliczanie oprocentowania, księgowanie wpłat i wypłat.
Analiza i autoryzacja pojedynczych przypadków, któraw przypadku standardowej pracy
człowieka zajęłaby godziny, z wykorzystaniem urządzeń opartych na uczeniu maszynowym
zajmuje kilka sekund. Świadczy to o sprawności zaimplementowanych rozwiązań
i zwiększeniu poziomu ich bezpieczeństwa.
Sztuczna inteligencja i uczenie maszynowe są również przedstawiane jako swoiste
lekarstwo na przeciwdziałanie korupcji w logistyce, zwłaszcza w łańcuchach dostaw. Zgodnie
z przewidywaniami ekspertów, powszechny dostęp do nowoczesnych technologii umożliwi

338
Zob. N. Biedrzycki, Sztuczna inteligencja jest sprawnym bankierem, [on-line], norbertbiedrzycki.pl,
14.01.2020, https://norbertbiedrzycki.pl/sztuczna-inteligencja-jest-sprawnym-bankierem/ (03.05.2020).
339
Zob. https://digit.co (05.05.2020).
130
ich wykorzystanie w tradycyjnych procesach biznesowych, m.in. do szybkiej i obiektywnej
identyfikacji, czy nie doszło do zakłócenia łańcucha dostaw. Jednocześnie sztuczna
inteligencja może stać się wymiernym elementem ochrony systemu informatycznego
organizacji poprzez blokowanie możliwości użycia sprzętu, który jest domyślnie podatny
na ataki. To z kolei zmniejsza ryzyko podłączenia zainfekowanego dysku do łańcucha dostaw
biznesu.
Istotne znaczenie w kontekście zapewniania bezpieczeństwa ekonomicznego
340
i społeczno-gospodarczego ma obszar bezpieczeństwa zdrowotnego . Chodzi tu przede
wszystkim o uwzględnienie w budżecie państwa nakładów finansowych niezbędnych
do zapewnienia sprawnego funkcjonowania systemu świadczeń socjalnych osobom starszym,
niepełnosprawnym i chorym. Im dłużej członkowie społeczeństwa cieszą się dobrym
zdrowiem i sprawnością psychofizyczną, tym mniej obciążony jest krajowy budżet, ponieważ
obywatele są w stanie sami się utrzymać, nie potrzebując jednocześnie pomocy socjalnej.
W tym obszarze istnieją szerokie możliwości zastosowania sztucznej inteligencji,
przede wszystkim w narzędziach i systemach wsparcia opieki nad osobami starszymi
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

i przewlekle chorymi. Jest to niezwykle istotne w kontekście zapewniania bezpieczeństwa


finansowego starzejących się społeczeństw w państwach wysokorozwiniętych.
Wysoki poziom opieki zdrowotnej umożliwia bowiem zachowanie sprawności fizycznej
członków społeczeństwa, co przekłada się choćby na możliwość wydłużenia wieku
emerytalnego. Wdrażanie nowych technologii do tego systemu znacząco wspiera
jego funkcjonowanie – co ważne, na obecnym etapie rozwoju AI najlepsze efekty przynosi
współpraca sztucznej inteligencji z człowiekiem, ponieważ ich wzajemne kompetencje
w obszarze wiedzy medycznej uzupełniają się341. Przykładem może być współpraca chińskich
lekarzy z wyposażonym w sztuczną inteligencje robotem Xiaoyi, który w 2017 r.,
jako pierwsza maszyna na świecie, zdał oficjalny egzamin lekarski342.
Rozwiązania wykorzystujące AI stosuje się np. do monitorowania parametrów
organizmu, co ma nie tylko znaczenie profilaktyczne, ale również umożliwia kontrolę
zdrowia osób, które z różnych względów są obarczone większym ryzykiem zachorowania
na określone schorzenia lub u których przewlekła choroba już postępuje. Dostrzeżone
podczas monitoringu zmiany mogą nie tylko pomóc określić bieżący stan zdrowia pacjenta,
ale również pozwalają na wdrożenie najbardziej adekwatnych dla niego metod leczenia.
Takie możliwości oferuje m.in. aplikacja Ada, która w oparciu o algorytmy sztucznej
inteligencji pozwala użytkownikom wstępnie diagnozować chorobę na podstawie podanych
340
Por. B. Bober, Bezpieczeństwo zdrowotne jako istotny komponent bezpieczeństwa państwa, „Studia nad
bezpieczeństwem”, 2016, nr 1, s. 36-38.
341
Zob. A. Trapp, op. cit., s. 71.
342
Zob. D. Galeon, For the First Time, a Robot Passed a Medical Licensing Exam, [on-line], futurism.com,
20.11.2017, https://futurism.com/first-time-robot-passed-medical-licensing-exam (02.06.2020).
131
przez nich objawów. Wykorzystuje do tego również indywidualne informacje o użytkowniku,
takie jak jego wiek, wzrost, waga, czas trwania i przebieg dotychczasowych chorób, alergie
czy przyjmowane leki. Zebrane informacje są poddawane analizie, na podstawie
której generowany jest raport dla użytkownika, zawierający najbardziej prawdopodobne
możliwości chorób, w oparciu o statystyki ich występowania u osób zgłaszających
analogiczne objawy343.Ada została przygotowana przy współpracy z ponad setką inżynierów,
badaczy i lekarzy o zróżnicowanych specjalizacjach, z wykorzystaniem autentycznych
przypadków medycznych, co pozwala na identyfikację zarówno schorzeń bardzo
powszechnych, jak i stosunkowo rzadkich.
Rozwój sztucznej inteligencji zapewnia lekarzom i personelowi medycznemu
niedostępne dotychczas narzędzia. Włodzimierz Fehler odwołując się do badanych
możliwości wykorzystania AI w obszarze ochrony zdrowia, wskazuje, że technologia
ta „lepiej niż lekarze interpretuje ogniska chorób nowotworowych na zdjęciach
rentgenowskich” oraz „potrafi prowadzić skuteczną terapię behawioralno-poznawczą
w ramach leczenia depresji i lęku oraz zwalczania stresu”344. Rozwiązania technologiczne
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

w obszarze diagnostyki i leczenia nowotworów proponuje m.in. IBM – system Watson


dokonał analizy danych z 600 tys. raportów medycznych oraz 1,5 mln informacji
z kart leczenia pacjentów, co umożliwiło porównanie poszczególnych objawów, przebiegu
historii leczenia i jego efektów. Analiza ta pozwoliła stworzyć algorytmy przebiegu choroby
i reakcji na zastosowane leczenie, na podstawie których Watson pomaga stawiać kolejne
diagnozy i opracowywać najbardziej skuteczne plany leczenia pacjentów. Program
jest obecnie wykorzystywany w nowojorskim centrum onkologicznym - Memorial Sloan –
KetteringCancer Center, uznawanym za jeden z najbardziej zaawansowanych technologicznie
szpitali na świecie345. Algorytmy są również w stanie przewidzieć skłonność do prób
samobójczych, którym można zapobiec poprzez odpowiednio wczesną interwencję
psychiatryczną, a o konieczności zastosowania której lekarza poinformuje system
monitorujący zachowanie oraz stan psychiczny i emocjonalny pacjenta.
Biorąc pod uwagę powyższe możliwości wynikające z zastosowania sztucznej
inteligencji w bezpieczeństwie zdrowotnym, należy stwierdzić, że rozwój tej technologii
może zrewolucjonizować współczesny obszar medycyny poprzez „przejście od podejścia,
w którym lekarze znają tylko wycinkowy obraz zdrowia pacjenta do modelu zapewniającego

343
Zob. M. Kuchta, Aplikacja zamiast wizyty u lekarza? Ada zdiagnozuje Twoje objawy, [on-line],
marketinglink.pl, 20.04.2017, https://marketinglink.pl/aplikacja-zamiast-wizyty-u-lekarza-ada-zdiagnozuje-
twoje-objawy/ (02.06.2020).
344
W. Fehler, Sztuczna inteligencja…, s. 79.
345
Zob. I. Stone, 30 Most Technologically Advanced Cancer Centers in the World, [on-line],
topmastersinhealthcare.com, 2016, https://www.topmastersinhealthcare.com/30-most-technologically-advanced-
cancer-centers-in-the-world/ (02.06.2020).
132
holistyczne informacje o stanie zdrowia”346. Wymaga to oczywiście opracowania
odpowiednich algorytmów, dostosowanych do rodzaju i cech charakterystycznych
dla diagnozowanych chorób, co pozwoli na zrozumienie i wykrycie zarówno ostrych stanów
chorobowych, jak i wartości parametrów życiowych odbiegających od standardowych,
bezpiecznych norm. Obecny potencjał sztucznej inteligencji w obszarze profilaktyki i ochrony
zdrowia można odnieść nie tylko do osób starszych i chorych – technologie oparte
na AI mogą być wykorzystywane w codziennej aktywności każdej osoby, niezależnie od jej
kondycji i stanu zdrowia.
Jeżeli chodzi o osoby starsze, niepełnosprawne i przewlekle chore, możliwość
wykorzystania technologii opartych na AI w ich wsparciu nie kończy się na działaniach
o charakterze medycznym. Jak wskazuje Bogdan Mróz, odpowiednio zaprogramowane
inteligentne urządzenia domowe (tzw. smart devices) są w stanie pomóc tym osobom
w prowadzeniu gospodarstwa domowego i organizacji codziennego życia, zwiększając
ich komfort i samodzielność. Istotne znaczenie mają tu przede wszystkim osobiste roboty-
asystenci, które mogłyby zarówno wykonywać skomplikowane, precyzyjne czynności
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

(np. zapinanie guzików podczas pomocy osobie w ubraniu się), jak i pomagać w obowiązkach
domowych poprzez przygotowywanie jedzenia czy wykonywanie czynności i zabiegów
higienicznych347. Jest to szansa dla starzejących się społeczeństw, umożliwiająca
ich członkom zachowanie samodzielności i sprawności, zarówno fizycznej, jak i psychicznej,
co przekłada się na odwrócenie niepokojących trendów związanych z obecnym, zastałym
stylem życia tej grupy społecznej, niezdrowym sposobem odżywiania czy coraz mniejszej
troski o zdrowie. B. Mróz podkreśla, że szansą to jest zwłaszcza wdrożenie i powszechne
wykorzystywanie aplikacji mobilnych monitorujących ruch i aktywność osób,
zintegrowanych z platformami kontaktów w mediach społecznościowych. Działania te będą
sprzyjać utrzymaniu zdrowia psychicznego i fizycznego. Dokładając do tego domowe
systemy monitorowania stanu zdrowia, pozwalające na zaalarmowanie służb medycznych
lub pracowników opieki społecznej w sytuacjach krytycznych oraz inteligentne urządzenia
o charakterze wspomagająco-asystującym (w postaci egzoszkieletów, systemów sterowanych
mową, gestami lub nawet myślami), można zauważyć, że wizja odciążenia szpitali i placówek
opiekuńczych poprzez możliwość domowej rehabilitacji pacjentów jest coraz bardziej realna.
Jednocześnie należy mieć na uwadze, że im dłużej osoby starsze lub chore zachowają
sprawność i będą zdolne do samodzielnego funkcjonowania, tym mniejsza będzie skala
obserwowanego już problemu z zapewnianiem im optymalnej, profesjonalnej opieki, zarówno
ze strony personelu opiekuńczego, jak i członków ich rodziny.

346
D. McIlwraith, H. Marmanis, D. Babenko, Inteligentna sieć. Algorytmy przyszłości, Gliwice 2017, s. s. 215.
347
Zob. B. Mróz, Konsument a wyzwania technologiczne XXI wieku, „Studia Ekonomiczne. Zeszyty Naukowe
Uniwersytetu Ekonomicznego w Katowicach”, 2017, nr 330, s. 145.
133
Biorąc pod uwagę powyższe argumenty, obszary bezpieczeństwa ekonomicznego
i zdrowotnego wydają się być jednymi z najbardziej chłonnych i otwartych na rozwój
potencjału związanego z powszechnym wykorzystaniem technologii sztucznej inteligencji. W
tych sektorach obserwuje się bowiem bardzo dużą ilość praktycznych, inteligentnych
rozwiązań podnoszących codzienny komfort życia człowieka oraz przyspieszających procesy
obsługi użytkownika i kontaktu z nim.

3.5. AI w sferze bezpieczeństwa kulturowego

Chcąc prognozować zbliżającą się powszechność zastosowania sztucznej inteligencji


w codziennym życiu, należy odnieść się do kilku aspektów, w których implikacje kulturowe
AI wydają się być aprobowane. Niewątpliwym elementem współcześnie rozumianego
bezpieczeństwa kulturowego staje się styl życia społeczeństwa oraz zachodzące
w nim zmiany. Zależność tę podkreśla w swojej definicji tego obszaru bezpieczeństwa
Jan Czaja wskazując, że „bezpieczeństwo kulturowe jest w wymiarem (…) bezpieczeństwa
ludzkiego. Składa się z bezpieczeństwa jednostkowego oraz poczucia zbiorowej tożsamości,
które są tak charakterystyczne dla naszego postmodernistycznego świata. Zawiera – choć się
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

do tych aspektów nie ogranicza – wolność myśli, sumienia, mowy, stylu życia,
przynależności etnicznej, płci, poczucia przynależności do stowarzyszeń, związków,
obejmując także kulturalne i polityczne współzawodnictwo”348. Wdrażanie do powszechnego
użytku nowoczesnych technologii znacząco wpłynęło na zmianę stylu życia społeczeństw
w państwach wysoko rozwiniętych i rozwijających się. Dążenie człowieka do zwiększania
własnego komfortu życia, wprowadzania udogodnień pozwalających oszczędzić czas
i pieniądze poprzez automatyzację coraz większej liczby czynności dnia codziennego
stworzyło szeroki rynek zbytu dla urządzeń funkcjonujących w oparciu o AI. Pierwszym
obszarem jest możliwość wykorzystywania funkcjonalności stosowanych w inteligentnych
domach i związanych z rozwojem Internetu rzeczy (ang. IoT – Internet of Things).
„Inteligentne” urządzenia stanowiące wyposażenie domu lub mieszkania są nieustannie
podłączone do Internetu, co sprawia, że ich mieszkańcy mogą zdalnie zarządzać systemami
alarmowymi, oświetleniem czy ogrzewaniem za pomocą aplikacji zainstalowanej w telefonie.
Dzięki temu możliwe jest zapewnienie użytkownikom adekwatnego poziomu bezpieczeństwa
(poprzez możliwość bieżącego poglądu i reakcji na niepożądane zdarzenia, np. włamanie),
komfortu termicznego czy np. utrzymanie satysfakcjonującej jakości powietrza. Kreowany
przez wizjonerów obraz „podłączonego do Internetu mieszkania, które zrobi za ciebie zakupy,
umówi cię na spotkanie, skomunikuje się ze smartfonem, rozpocznie gotowanie obiadu

348
J. Czaja, Kulturowe czynniki bezpieczeństwa, Kraków 2008, s. 35.
134
i włączy pralkę”349 (lub inne sprzęty domowe) stał się realny. Udostępnione użytkownikom
udogodnienia są doceniane przede wszystkim przez osoby aktywne zawodowo, obciążone
licznymi obowiązkami, dla których możliwość zaprogramowania i automatyzacji części prac
domowych pozwala na bardziej efektywne wykorzystywanie czasu wolnego. W literaturze
przedmiotu funkcjonuje określenie „inteligentny budynek” oznaczające wykorzystanie
w różnych budynkach (zarówno biurowych, jak i mieszkalnych) systemów wykazujących
cechy sztucznej inteligencji, w szczególności zdolność uczenia się, kojarzenia,
przewidywania czy podejmowania decyzji350. Jedną z pierwszych definicji inteligentnego
budynku zaproponował w 1989 r. Paul Robathan, odnosząc się przede wszystkim do celów
zarządzania nim – wśród nich wymienił zwiększenie komfortu użytkowników, podniesienie
poziomu bezpieczeństwa, zmniejszenie kosztów utrzymania i eksploatacji nieruchomości
oraz zwiększenie jej atrakcyjności rynkowej351. Wraz z rozwojem dziedziny oraz wdrażaniem
nowych rozwiązań technologicznych kształtowały się kolejne definicje inteligentnych
budynków – warta uwagi jest ta zaprezentowana przez SMARTech,
zgodnie z którą jest to „budynek zaawansowany technicznie z systemem czujników
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

oraz detektorów powiązanych jednym zintegrowanym systemem zarządzania, który spełnia


funkcję maksymalizacji funkcjonalności, komfortu i bezpieczeństwa oraz funkcję
minimalizacji kosztów eksploatacyjnych oraz modernizacyjnych”352. Porównując
obie definicje można zauważyć, że niezmiennym celem inteligentnego budynku
jest zwiększenie komfortu jego użytkowników – wśród bazujących na sztucznej inteligencji
rozwiązań technologicznych, ukierunkowanych na realizację tego zadania, najbardziej znaną
jest możliwość zdalnego sterowania oświetleniem, temperaturą czy aktywnością urządzeń
i sprzętów w używanych pomieszczeniach. Nie mniej ważne są rozwiązania proponowane
w obszarze zwiększania bezpieczeństwa użytkowników inteligentnych budynków – oprócz
systemów alarmowych uruchamianych w momencie wykrycia nietypowej aktywności
w otoczeniu, wymienić tu należy również inteligentne systemy pożarowe, które w przypadku
wykrycia ognia wyłączają nawiew w miejscu pożaru, oświetlają drogę ewakuacyjną
czy uniemożliwiają niebezpieczne w tej sytuacji korzystanie z wind poprzez sprowadzenie ich
na najniższe piętro i zablokowanie.
Funkcjonalności inteligentnych budynków warunkowane są przede wszystkim
rodzajem stosowanego systemu oraz koniecznością dostosowania do potrzeb i wymogów
użytkownika. Funkcje te można podzielić na cztery główne grupy:
349
D. McIlwraith, H. Marmanis, D. Babenko, op. cit., s. 214-215.
350
Zob. M. Furmankiewicz, M. Wiśniewska, P. Ziuziański, Możliwości zastosowania metod sztucznej
inteligencji w inteligentnych budynkach, [w:] Z.E. Zieliński (red.), Rola informatyki w naukach ekonomicznych i
społecznych. Innowacje i implikacje interdyscyplinarne, Kielce 2014, s. 50.
351
Zob. P. Robathan, Intelligent Building Guide, Washington 1989.
352
Zob. E. Niezabitowska, Budynek inteligentny. Tom I. Potrzeby użytkownika a standard budynku
inteligentnego, Gliwice, 2005, s. 177.
135
 w zakresie systemów oświetlenia, ogrzewania, klimatyzacji i wentylacji – możliwość
dostosowania oświetlenia do stopnia zachmurzenia lub pory dnia, personalizacja poziomu
ogrzewania, wentylacji lub klimatyzacji w pomieszczeniu;
 w zakresie bezpieczeństwa budynku – sterowanie alarmem, bramami wejściowymi,
żaluzjami, kontrola dostępu osób wchodzących i wychodzących z obiektu, monitorowanie
przestrzeni;
 w zakresie sterowania innymi urządzeniami – możliwość zdalnego sterowania
urządzeniami RTV i AGD;
 w zakresie zarządzania energią – zaprogramowanie oszczędzania energii w nieużywanych
pomieszczeniach, automatycznego sterowania temperaturą, wyłączanie sprzętu
elektronicznego po zakończeniu korzystania z nich353.
Inteligentne budynki pozyskują informacje z czujników, które nie tylko wykrywają
obecność człowieka lub zwierzęcia w pomieszczeniu, ale również kontrolują parametry
fizyczne i chemiczne w otoczeniu. Współpraca poszczególnych systemów i przepływ danych
pomiędzy nimi umożliwia zwiększenie bezpieczeństwa i komfortu ich użytkowników.
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

Optymalnym rozwiązaniem w omawianym obszarze byłby budynek, który na podstawie


danych z otoczenia (warunków zewnętrznych, jak temperatura powietrza, stopień
nasłonecznienia, poziom zagrożenia włamaniem i wewnętrznych, jak liczba osób w obiekcie,
poziom zagrożenia pożarowego czy wilgotność powietrza) byłby w stanie wywnioskować
i wdrożyć optymalne parametry.
Sztuczna inteligencja odegrała (i wciąż odgrywa) niebagatelną rolę w obszarze
rozrywkowym, przede wszystkim w branży gier komputerowych. W XXI w. gry stały się
nieodłączną częścią kultury, stanowiąc nowy gatunek sztuki, stawiany na równi
z kinematografią, literaturą i muzyką. Mechanizmy AI wykorzystywane są w różnych
gatunkach gier, zarówno tych, gdzie gracz ma do czynienia z przeciwnikami,
jak i takich, gdzie pojawiają się obiekty czy zjawiska występujące w świecie rzeczywistym.
Dążenie do odwzorowania, wręcz symulowania przez komputer inteligentnych zachowań
miało na celu wywołać u gracza wrażenie rywalizacji z maksymalnie rzeczywistym
podmiotem354. Ludzka skłonność do personifikacji obiektów, z którymi wchodzi się
w interakcję, ułatwiła zadanie polegające na zaprogramowaniu wirtualnemu
przeciwnikowialgorytmu umożliwiającego rywalizację na zróżnicowanych poziomach.
W pierwszych, mniej skomplikowanych grach komputerowych, działanie wirtualnego
przeciwnika opierało się na prostych algorytmach umożliwiających reakcję na zachowanie

353
Zob. M. Cieciura, Podstawy technologii informacyjnych z przykładami zastosowań, Warszawa 2006, s. 498-
500.
354
Zob. J. Argasiński, Sztuczna inteligencja w grach wideo, [w:] A. Pitrus (red.), Olbrzym w cieniu: gry wideo w
kulturze audiowizualnej, Kraków 2012, s. 44.
136
gracza (odbijanie piłki, unikanie pocisku, podążanie za postacią) – ten rodzaj inteligencji,
sprowadzający się do operowania nielicznymi zakodowanymi regułami, długo dominował
w grach, głównie z uwagi na ograniczoną moc obliczeniową oraz niewielką pamięć
operacyjną popularnych ówcześnie urządzeń. Z biegiem lat wymagania graczy rosły,
a to przyczyniło się do powstawania nowych i bardziej efektywnych rozwiązań. W pierwszej
dekadzie XXI w. coraz większego znaczenia nabierała AI – jej zadaniem nie było już tylko
tworzenie i kontrolowanie otoczenia gracza, ale również sterowanie fizjologią, a nawet
psychologią postaci, co miało wymóc na graczu większe zaangażowanie w grę.
Funkcjonowanie sztucznej inteligencji w grach opiera się w szczególności na podejmowaniu
decyzji przez oprogramowanie na podstawie określonego modelu pozyskiwania
i przetwarzania informacji. Program komputerowy dostaje zestaw danych wejściowych,
poddaje go analizie i na tej podstawie dostarcza dane wyjściowe, regulujące wybrany aspekt
rozrywki. Złożony model zachowań AI, na podstawie zadanego zestawu informacji,
konstruuje zachowanie odwzorowujące domniemane, przewidywane zachowanie
inteligentnego uczestnika rozrywki. Planowanie inteligentnych zachowań obiektów w grach
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

obejmuje tworzenie algorytmów, które regulują złożone partie rozgrywki, m.in. procedury
sterowania ruchem, budowy strategii, procesów decyzyjnych, wchodzenie w interakcje
z użytkownikiem (lub grupą użytkowników), a także procesy zachodzące w środowisku gry.
Krzysztof Wardziński wyróżnia trzy kategorie zastosowania sztucznej inteligencji
w grach komputerowych355. Pierwszą z nich jest urealnienie świata gry – rolą AI jest
sterowanie działaniami NPC356, z którymi ma styczność bohater sterowany przez gracza.
Drugą kategorią jest wsparcie rozgrywania walki – w tym przypadku sztuczna inteligencja
steruje postaciami w trakcie walki. Jest to najczęściej spotykana forma AI, stosowana w grach
strategicznych i tzw. strzelankach. Trzecim zastosowaniem jest komentowanie wydarzeń
dziejących się w świecie gry na podstawie bieżących działań gracza – tę formę można
najczęściej spotkać w grach sportowych (FIFA, UFC). Inteligentne specjalizacje znalazły
miejsce w planie polityki regionalnej na lata 2014-2020 – oznacza to, że producenci gier
komputerowych mogli liczyć na dofinansowanie ze środków europejskich z uwagi na wysoki
potencjał rozwojowy357.
Sztuczna inteligencja znalazła szerokie zastosowanie w branży portali randkowych.
Podstawowy sposób jej wykorzystania to profilowanie behawioralne, polegające na analizie
profili użytkowników i zawartych w nich informacji, umożliwiające wyszukanie osób

355
Zob. K. Wardziński, Przegląd algorytmów sztucznej inteligencji stosowanych w grach komputerowych,
„Homo Communicativus”, 2008, nr 3, s. 249.
356
ang. Non-PlayableCharacter – postać niegrywalna, sterowana przez grę, a nie przez gracza.
357
Zob. Zastosowanie algorytmów sztucznej inteligencji w grach komputerowych, [on-line], bks.pr.radom.pl,
b.r., http://www.bks.pr.radom.pl/publikacje/SI%20w%20grach.pdf (11.05.2020).
137
o zbliżonych preferencjach i sparowanie ich358. Metoda ta, oparta na mechanizmach uczenia
maszynowego, pozwala osobom korzystającym z usług tych portali zaoszczędzić czas –
użytkownikom wyświetlane są bowiem profile osób, które spełniają ich określone kryteria.
Jest to swoista automatyzacja usług oferowanych przez biura matrymonialne,
których pracownicy analizowali wymogi zawarte w składanych ogłoszeniach i na ich
podstawie kojarzyli osoby w pary. W tym aspekcie technologia przekroczyła nawet
możliwości poznawcze człowieka - Grzegorz Lindenberg, opierając się na badaniach
przeprowadzonych przez naukowców ze Stanford wskazuje, że AI na podstawie analizy
zdjęcia potrafi również określić hetero- lub homoseksualne preferencje użytkowników359,
co znacząco przyczynia się do trafności wyboru potencjalnego partnera.
Oprócz działań na rzecz zwiększania komfortu użytkowników i oszczędzania
ich czasu, sztuczna inteligencja znajduje zastosowanie w podnoszeniu poziomu
ich bezpieczeństwa. W 2019 r. grupa naukowców pod przewodnictwem prof. Toma Sorella
opracowała algorytm analizujący profile użytkowników portali randkowych w celu wykrycia
oszustów wykorzystujących metodę „love scamming” czyli wyłudzania pieniędzy od ofiary
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

za pomocą oszustwa miłosnego360. Analiza zawartego w profilu zestawu danych (jak płeć,
wiek, pochodzenie etniczne), wstawionych zdjęć, sposobu prowadzenia strony oraz języka
użytego do autoprezentacji i w przesyłanych wiadomościach, przeprowadzona na kontach
ponad 15 tys. użytkowników strony Dating’NMore, pozwoliła badaczom stworzyć algorytm
wykrywający fałszywe profile, jak również mechanizm ostrzegający przed nimi innych
użytkowników.Bazą do nauki AI były w tym przypadku konta zweryfikowane i uznane
za fałszywe przez administrację portalu.
Na zastosowanie sztucznej inteligencji zdecydowała się również aplikacja randkowa
Tinder. AI znalazła zastosowanie w kilku aspektach jej działania. Pierwszym jest wdrożenie
systemu wykrywania obraźliwych treści wiadomości – jego implementacja ma na celu
ochronę użytkowników przed niestosownymi i wulgarnymi zachowaniami innych osób,
co ma sprawić, że platforma stanie się bardziej przyjazna i bezpieczna. System oparty
o uczenie maszynowe analizuje wiadomości wysyłane pomiędzy użytkownikami,
a w przypadku wykrycia w korespondencji treści (lub zdjęć) agresywnych lub niestosownych
pyta odbiorcę, czy ta wiadomość wydała mu się obraźliwa. W przypadku odpowiedzi

358
Zob. M. Płoszczyński, Sztuczna inteligencja zmieni rynek contactcenter?, [on-line], tworzywa.pl, 27.12.2017,
https://www.tworzywa.pl/news/prezentacje/sztuczna-inteligencja-zmieni-rynek-contact-center,101.html
(27.05.2020).
359
Zob. G. Lindenberg, Ludzkość poprawiona. Jak najbliższe lata zmienią świat, w którym żyjemy, Kraków,
2019.
360
Pod pozorem dążenia do stworzenia relacji, oszuści matrymonialni wyłudzają od ofiar duże sumy pieniędzy,
po czym urywają kontakt i znikają z portalu randkowego; zob. U. Lesman, AI wykryje oszustów na aplikacji
randkowej. Kim są?, „Rzeczpospolita” [on-line], 11.05.2019, https://cyfrowa.rp.pl/technologie/34860-si-
wykryje-oszusta-matrymonialnego-kto-najczesciej-sciemnia-i-jak?utm_source=rp&utm_medium=teaser
_redirect (10.05.2020).
138
twierdzącej, system umożliwia odbiorcy zablokowanie nadawcy wiadomości i zgłoszenie
naruszenia regulaminu przez tę osobę, co może również przełożyć się na całkowite
zablokowanie jej w serwisie. Algorytm uczył się na wiadomościach zgłoszonych jako
obraźliwe przez użytkowników aplikacji. Docelowym rozwiązaniem jest pełna personalizacja
systemu, uwzględniająca osobiste preferencje każdego użytkownika – treści obraźliwe
dla jednej osoby mogą być bowiem neutralne (lub nawet preferowane) dla innych.
Zapowiadane jest również wdrożenie prewencyjnego działania algorytmu – w przypadku
wykrycia niestosownych treści w jeszcze niewysłanej wiadomości, nadawca ma być pytany,
czy na pewno chce ją wysłać do odbiorcy, co ma zapewnić użytkownikowi
czas na przemyślenie swojego działania i jego potencjalnych skutków361.
Sztuczna inteligencja pozwoliła również wdrażać działania zabezpieczające
użytkowników w świecie rzeczywistym. W styczniu 2020 r. właściciele Tindera rozpoczęli
prace nad dodaniem do aplikacji tzw. guzika paniki – jeżeli w trakcie realnego spotkania
z innym użytkownikiem aplikacji osoba poczuje się zagrożona, będzie mogła skorzystać
z dyskretnego, wbudowanego w platformę, alarmu. Po odebraniu zgłoszenia z urządzenia,
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

dyspozytor aplikacji podejmie próbę kontaktu sms-owego i telefonicznego z osobą zagrożoną,


a jeżeli próby te pozostaną bez odpowiedzi –na podstawie wykrytej lokalizacji system ustali
i powiadomi służby ratunkowe w pobliżu zdarzenia.
W kontekście bezpieczeństwa kulturowego nie sposób nie nawiązać do wykorzystania
sztucznej inteligencji w różnych dziedzinach sztuki. W maju 2019 r. w londyńskim Barbican
– największym centrum sztuki w Europie – otwarto wystawę zatytułowaną „SI – więcej niż
człowiek”. Tematem przewodnim był związek pomiędzy człowiekiem a technologią,
a sama ekspozycja składała się z prac tworzonych z wykorzystaniem sztucznej inteligencji.
Już w 2018 r. za ponad 430 tys. dolarów sprzedano obraz – portret Edmonda de Belamy,
stworzony przez grupę artystów Obvious z wykorzystaniem sztucznej inteligencji362.
Obraz opracowany przez algorytm został wydrukowany na płótnie, oprawiony
i podpisany matematyczną formułą. Aby go stworzyć, autorzy zaimportowali do systemu
ok. 15 tys. portretów namalowanych w okresie między XIV a XX w. Co ciekawe, nie była
to pierwsza próba zastosowania technik maszynowych do stworzenia dzieła sztuki – w latach
70. XX w. Harold Cohen tworzył tzw. obrazy robotyczne, wykorzystując do tego
oprogramowanie AARON363. Eksperci pozostają sceptyczni co do oceny twórczości
tego rodzaju jako sztuki wskazując, że dzieło sztuki musi być związane z wizją i odczuciami

361
Zob. J. Kołtunowicz, Tinder da ci szansę (na niebycie chamem), [on-line], sztucznainteligencja.org.pl,
21.02.2020, https://www.sztucznainteligencja.org.pl/tinder-da-ci-szanse-na-niebycie-chamem/ (05.05.2020).
362
Zob. Fotografia 3.
363
Zob. P. Mazurkiewicz, Obraz robota poszedł za 430 tys. dolarów, „Rzeczpospolita” [on-line], 25.10.2018,
https://cyfrowa.rp.pl/technologie/28603-roboty-maluja-obrazy-pisza-wiersze (07.06.2020).
139
człowieka. Dlatego też, jeżeli za powstanie obrazu odpowiada wyłącznie maszyna, to należy
go traktować wyłącznie w kategoriach sztuki dekoracyjnej.

Fotografia 3. Obraz „Portet Edmonda Belamy”

Żródło: B. Grygiel, Ten upiorny obraz namalowała Sztuczna Inteligencja. Sprzedany na aukcji za zawrotną
sumę, [on-line], focus.pl, 01.03.2019, https://www.focus.pl/artykul/sprzedany-za-prawie-pol-miliona-dolarow-
upiorny-obraz-namalowany-przez-sztuczna-inteligencje (07.06.2020).
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

Systemy oparte na sztucznej inteligencji znajdują zastosowanie także w tworzeniu


innych form sztuki – muzyki, prozy czy poezji. Przykładem jest księgarnia Booksby.ai,
w której zarówno wszystkie książki, jak i ich okładki, recenzje i ceny zostały wygenerowane
przez AI, za pomocą modeli uczenia maszynowego. Twórcy strony - Andreas Refsgaard
i Mikkel Thybo Loose – we współpracy ze specjalistami IT nauczyli algorytm generowania
nowego, oryginalnego tekstu przy pomocy naśladowania języka, wyglądu i stylu książek
i tekstów, które wcześniej do niego zaimportowali364. Zbliżoną metodę zastosowała
organizacja OpenAI, która na stronie https://talktotransformer.com zamieściła generator
tekstu. Na podstawie kilku słów wpisanych przez użytkownika, narzędzie jest w stanie
stworzyć realistycznie brzmiący tekst, który jest trudny do odróżnienia od tekstu
przygotowanego przez człowieka. Podobnie jak twórcy booksby.ai, członkowie OpenAI
wskazują, że narzędzie to może posłużyć zarówno do tworzenia nowych tekstów kultury
(prozy czy poezji), ale również jako pomoc w programowaniu i analizie danych.
Globalne oswajanie społeczeństwa z najnowszymi zdobyczami technologii sprzyja
ich rozwijaniu i zapewnianiu dalszego postępu. Wszechobecna technologizacja zaczęła
towarzyszyć człowiekowi w praktycznie każdym apekcie jego życia, wkraczając również
w sferę intymną. Technologia nie tylko ułatwia kontakty miedzyludzkie, stając się swoistym
pośrednikiem w dialogu (choćby poprzez umożliwienie poznawania się i poszukiwania

364
Zob. T. Jurczak, Maszyna pisze powieści. Można je kupić w księgarni internetowej, [on-line],
sztucznainteligencja.org, 05.11.2019, https://www.sztucznainteligencja.org.pl/algorytm-pisze-powiesci-mozna-
je-kupic-w-ksiegarni-internetowej/ (10.05.2020).
140
partnera przez Internet), ale również w coraz większym stopniu jest w stanie zastąpić
człowiekowi relacje z innymi ludźmi. Specjalista od sztucznej inteligencji, David Levy,
wskazuje, że z czasem roboty mogą zacząć być postrzegane jako potencjalni partnerzy
człowieka– wystarczy jedynie, że „zaczną wyglądać, mówić i zachowywać się jak ludzie” 365.
Wśród cech, które miałyby dawać robotowi przewagę nad człowiekiem w tym obszarze,
badacz zwrócił uwagę na możliwość stworzenia partnera o idealnym charakterze,
dostosowanego do potrzeb człowieka wchodzącego z nim w relację. W zależności
od preferencji, robot mógłby okazywać wybrane emocje, co pozwoliłoby wyeliminować
z tworzonego związku m.in. nerwowość, zazdrość czy arogancję366. Przy jednoczesnej
zdolności do prowadzenia interesującej, inteligentnej rozmowy i personalizacji w zakresie
spełniania potrzeb seksualnych człowieka, robot może stać się odpowiedzią na poszukiwania
właściwego partnera przez osoby samotne czy wycofane ze społeczeństwa. Zdaniem autora
kluczowe w kontekście nawiązania relacji człowieka z robotem są emocje użytkownika
odczuwane w kontakcie z maszyną – jeżeli są one takie same jak doświadczane w kontakcie
z żywym człowiekiem, to nie ma znaczenia brak faktycznej wzajemności uczuć ze strony
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

robota. Istotnym jest czy maszyna ma zdolność do wygenerowania empirycznych doznań


przywiązania i miłości, które będą analogiczne do uczuć okazywanych przez żywą
istotę367.Wystarczy to, by zbudować w użytkowniku przekonanie, że jego uczucie
jest odwzajemnione przez drugą stronę – jeżeli człowiek przejawia sympatię wobec drugiej
osoby, to zwykle można założyć, że ją lubi. Jeżeli więc humanoidalny robot będzie
zachowywał się, jak gdyby kochał człowieka, przejawiał zachowania wyrażające uczucia,
to człowiek będzie w stanie uznać je za wystarczający substytut uczuć drugiej osoby368.
Jednym z argumentów uzasadniających takie podejście jest to, że człowiek jest w stanie
obdarzyć miłością nie tylko drugiego człowieka, ale np. zwierzęta domowe. Entuzjastyczne
reakcje ze strony zwierzęcia są z kolei interpretowane przez człowieka jako dowód
przywiązania, miłości i radości z wzajemnego kontaktu. Świadczy to o tym, że człowiek
nadaje cechy ludzkie innym obiektom, co więcej – może nadawać cechy istot żywych
przedmiotom nieożywionym.
W latach 90. XX w. zabawką o wręcz ikonicznym statusie było Tamagotchi –
wirtualne zwierzę istniejące jedynie na ekranie wyświetlacza wbudowanego w małą konsolę.

365
P. Ratner, Humans Could Be Marrying Robots By 2050, Claims Robot Expert, [on-line], bigthink.pl, 2017,
https://bigthink.com/human-robot-marriages-possible-before-2050-claims-robot—expert [za:] M. Pawlińska,
Dopuszczalność gwałtu na humanoidalnym robocie, “Acta UniversitatisLodziensis. Folia Iuridica”, 2019, t. 86,
s. 10.
366
Zob. Ibidem.
367
Zob. N. Sharkey, A. van Wynsberghe, S. Robbins, E. Hancock, Our Sexual Future with Robots. A Foundation
for Responsible Robotics Consultation Report, Haga, 2017, s. 9-11.
368
Zob. M. Dębska, Seks-roboty, [on-line], Uniwersytet Warszawski, 2019,
https://www.fuw.edu.pl/~szczytko/JTD2019-20/Marta_Dębska_SEKS-ROBOTY.pdf (04.06.2020).
141
Zwierzątko to wymagało codziennej opieki w postaci karmienia, zabawy i zapewnienia snu.
W zamian za poświęcony czas zabawka odwdzięczała się dobrą kondycją i wirtualnie
wyrażaną radością z kontaktu z użytkownikiem, co budowało więź pomiędzy człowiekiem
a urządzeniem. Z czasem wirtualne zwierzęta otrzymały robotyczne ciała (Aibo, pies firmy
Boston Dynamics), a na obecnym poziomie zaawansowania technologicznego wchodzenie
w interakcje z nimi nie różni się (pod względem zachowania, reakcji, możliwości zabawy)
od kontaktu z żywym zwierzęciem. Skoro jest zatem możliwe stworzenie emocjonalnej więzi
z robotem przypominającym domowego pupila, prezentującym zachowania właściwe
dla swojego żywego odpowiednika, to nie można wykluczyć, że człowiek jest w stanie wejść
w związek z humanoidalnym robotem, zachowującym się w sposób analogiczny
do zakochanego człowieka, zdolnym do spełniania jego emocjonalnych potrzeb.
Jest to możliwe, biorąc pod uwagę fakt, że istotą sztucznej inteligencji jest uczenie się
na podstawie doświadczenia. W tym przypadku niezbędna byłaby faza dostosowywania
osobowości robota do danej osoby, przypominająca etap poznawania się i wchodzenia
w relację przez dwoje ludzi. Ucząc się i odtwarzając zachowania użytkownika, robot może
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

nauczyć się uwodzić człowieka, odpowiadać na jego potrzeby, a nawet – w zależności


od upodobań kupującego – odwzorowywać w relacji zachowania niestabilne i prowokujące.
Abstrahując od szans na stworzenie pełnowymiarowego robo-przyjaciela czy robo-
partnera, rynek produkcji humanoidów pozostaje dotychczas ukierunkowany na zaspokajanie
potrzeb fizycznych człowieka. Większość dostępnych obecnie na rynku robotów to femboty
(w mniejszym stopniu – maleboty), wykorzystywane jako seks-lalki. Wykorzystanie
w nich rozwiązań opartych na sztucznej inteligencji pozwoliło stworzyć androidy, które mogą
symulować kilka osobowości i odwzorowywać przypisane do tych profili zachowania,
w zależności od preferencji użytkownika369. Jest to zagadnienie kontrowersyjne, ponieważ
gama dostępnych obecnie na rynku seks-robotów jest tak zróżnicowana pod względem
zarówno ich wyglądu, jak i osobowości, że pozwala na realizowanie niepopularnych
i niebezpiecznych zachowań seksualnych, uznawanych za dewiacje (dopuszczających użycie
przemocy lub ujawniających preferencje pedofilskie czy ebofilskie). W szerszej perspektywie
należy mieć natomiast świadomość, że istnienie takich robotów daje szansę na realizację
swoich potrzeb seksualnych osobom, które ze względu na zróżnicowane uwarunkowania
(samotność, alienacja społeczna, niepełnosprawność, zaburzenia psychiczne lub specyficzne
preferencje) nie mogą lub nie chcą ich zaspokajać z innym człowiekiem. Skoro natomiast
możliwa jest ich realizacja w sposób bezpieczny dla innych członków społeczeństwa,

369
Zob. B. Timmins, The New Robots with <Frigid> Settings Allow Men to Simulate Rape, “Independent UK”
[on-line], 2017, https://www.independent.co.uk/life-style/sex-robots-frigid-settings-rape-simula-tion-men-
sexual-assault-a7847296.html (05.06.2020).
142
to należy uznać takie rozwiązanie za swoistego rodzaju bufor, mogący zwiększyć poziom
bezpieczeństwa.

Podsumowując tę część rozważań należy stwierdzić, że rozwiązania bazujące


na technologii sztucznej inteligencji odnaleźć można w wielu zróżnicowanych sektorach
współczesnego bezpieczeństwa. Wśród najbardziej znaczących obszarów wykorzystujących
jej narzędzia należy wskazać bezpieczeństwo militarne, komunikacyjne i ekonomiczne.
Przyczynia się również do zapewniania bezpieczeństwa informacyjnego
i cyberbezpieczeństwa. Największe zastosowanie technologie bazujące na sztucznej
inteligencji znajdują w sektorze bezpieczeństwa militarnego, gdzie wykorzystywane
są do tworzenia nowego rodzaju broni i autonomicznych środków transportu oraz walki.
W tym aspekcie sztuczna inteligencja wykorzystywana jest przede wszystkim w programach
bezzałogowych pojazdów i statków powietrznych, a także przy tworzeniu humanoidalnych
robotów wojskowych używanych na polu walki, wykonujących zadania najbardziej
niebezpieczne lub obciążające człowieka. W obszarze bezpieczeństwa komunikacyjnego
sztuczna inteligencja znajduje zastosowanie w pojazdach autonomicznych, zwiększając
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

bezpieczeństwo i komfort uczestników ruchu drogowego, ale również przyczyniając się


do optymalizacji wykorzystania możliwości komunikacji publicznej, zwiększenia wydajności
kierowania ruchem i dając podstawy do tworzenia inteligentnych miast. W zakresie
bezpieczeństwa ekonomicznego lista zastosowań AI jest bardzo obszerna - obejmuje ona
m.in. systemy prognoz giełdowych, analizy prognoz tendencji sprzedaży określonych
towarów i kształtowania ich cen, programy analizujące problemy produkcyjne
oraz wspomagające optymalizację działalności handlowej. Systemy inteligentne dają również
podstawy do oceny wiarygodności finansowej klientów. Stosunkowo nowym obszarem
zastosowania AI w gospodarce jest wykorzystanie jej w bezpieczeństwie energetycznym.
Wyspecjalizowane programy komputerowe poszukują złóż surowców, sterują pracami
elektrowni poprzez monitorowanie emisji szkodliwych dla środowiska związków
oraz przewidują zapotrzebowanie na energię elektryczną w wybranych obszarach. W obszarze
bezpieczeństwa informacyjnego sztuczna inteligencja znajduje zastosowanie przede
wszystkim w zabezpieczeniach systemów informatycznych (wykrywając szkodliwe
oprogramowanie i przywracając optymalne parametry ich funkcjonowania), kryptograficznej
ochronie informacji (poprzez szyfrowanie danych i dostępu do nich) oraz zapewnianiu
ochrony przed atakami na infrastrukturę krytyczną państwa. Możliwości wykorzystania AI
w sferze informacyjnej obejmują również pozyskiwanie i analizę informacji, rozumienie
i tłumaczenie języka naturalnego, rozpoznawanie optyczne oraz systemy tłumaczące mowę
w czasie rzeczywistym. Obejmuje również rozwiązania kryptograficzne. Bardziej praktyczne,
znane wszystkim użytkownikom Internetu zastosowanie AI, to filtry antyspamowe skrzynek
143
mailowych. Rozwiązania oparte na sztucznej inteligencji upowszechniają się również
w ochronie zdrowia, gdzie spodziewanym celem ich stosowania jest zarówno szybsza
i bardziej precyzyjna diagnostyka oraz wsparcie lekarzy w procesie doboru najbardziej
optymalnego leczenia danych przypadków, jak również zapewnienie opieki nad osobami
starszymi – problematyka ta staje się szczególnie istotna w kontekście utrzymujących się
negatywnych tendencji demograficznych i konieczności zapewniania bezpieczeństwa
zdrowotnego oraz ekonomicznego starzejącego się społeczeństwa.
Odnosząc się do korzyści dla bezpieczeństwa wynikających ze stosowania sztucznej
inteligencji w poszczególnych jego sferach należy zauważyć, że systemy wykorzystujące
nowoczesne rozwiązania technologiczne stanowią istotne wsparcie w procesie decyzyjnym,
niezależnie od tego, w którym sektorze bezpieczeństwa znajdą zastosowanie.
Zwłaszcza biorąc pod uwagę, że bezpieczeństwo państwa jest obszarem interdyscyplinarnym,
a decyzje podejmowane na najwyższym szczeblu zarządzania każdorazowo przekładają się
na jego zwiększenie lub zmniejszenie. Nadrzędnym celem polityki bezpieczeństwa państwa
jest zapewnianie pewności istnienia i przetrwania narodu i organizacji państwowej, ich stanu
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

posiadania – czyli tożsamości –a także możliwości niezakłóconego funkcjonowania


oraz rozwoju. Wykorzystanie rozwiązań opartych na sztucznej inteligencji w procesie
decyzyjnym może wymiernie przyczynić się do zwiększenia jego skuteczności, pozwalając
symulować określone scenariusze i na podstawie analizy dostępnych danych przewidywać
skutki podejmowanych działań. Zalety wynikające z zastosowania sztucznej inteligencji
obejmują przede wszystkim możliwość przetwarzania i analizowania ogromnych ilości
danych, zdolność do wyszukiwania powiązań między nimi i generowania na tej podstawie
określonych wzorców, co pozwala na grupowanie danych i tworzenie powiązań
w zwiększającej się skali, przy jednoczesnym wykazywaniu pojawiających się anomalii
i odstępstw od dostrzeżonych zależności. Dodatkowo, działania te podejmowane są w czasie
znacznie przekraczającym możliwości percepcyjne człowieka. To z kolei przekłada się
na przyspieszenie procesu decyzyjnego, co jest szczególnie ważne na polu walki zbrojnej,
gdzie staje się elementem budowy przewagi nad przeciwnikiem i pozwala wdrożyć skuteczne
działania zapobiegawcze lub wykonać uderzenia uprzedzające. Niewątpliwą korzyścią
płynącą z zastosowania analizowanych rozwiązań jest także zwiększenie bezpieczeństwa
personalnego osób uczestniczących w procesie zapewniania bezpieczeństwa w różnych
jego obszarach poprzez możliwość skierowania maszyn do realizacji zadań niebezpiecznych
dla człowieka. W wymiarze militarnym i politycznym rozwój technologiczny państwa
i modernizacja jego sił zbrojnych przekłada się na budowę przewagi nad innymi uczestnikami
stosunków międzynarodowych. W obserwowanym obecnie w skali globalnej procesie
modernizacyjnym posiadanych przez ich podmioty sił zbrojnych, wdrażanie rozwiązań

144
wykorzystujących sztuczną inteligencję jest elementem niezbędnym do osiągnięcia poziomu,
na którym państwo może zostać uznane za liczące się pod względem militarnym na arenie
międzynarodowej. Mówiąc o znaczeniu sztucznej inteligencji w zapewnianiu bezpieczeństwa
państwa należy podkreślić, że rozwiązanie, w którym stanowi ona element procesu
decyzyjnego, a nie jest jego ostatecznym ogniwem, pozwala na zachowanie kontroli
nad jej dalszym rozwojem w kierunku i stopniu pożądanym przez człowieka.
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

145
4. Negatywne aspekty zastosowania sztucznej inteligencji w XXI w.

4.1. Zagrożenia, wyzwania i dylematy związane z wykorzystaniem sztucznej


inteligencji w sferze bezpieczeństwa militarnego

Podejmując zagadnienie wykorzystania sztucznej inteligencji w obszarze militarnym


nie sposób uniknąć w pierwszym rzędzie odniesień do robotyzacji na polu zmagań bitewnych.
Mówiąc o robotyzacji pola walki, należy wskazać na kilka problemów związanych
z stosowaniem broni autonomicznej i zdalnie sterowanej. Najbardziej poważnym z nich
jest w określonych warunkach możliwość zakłócenia kanałów łączności pomiędzy maszyną
a sterującym nią człowiekiem, a w konsekwencji przejęcie kontroli nad bronią
przez przeciwnika370. Kolejna wada to możliwe opóźnienia w przesyłaniu komend kierowania
do maszyny (w przypadku wykorzystania łącz satelitarnych, które jako jedyne umożliwiają
zdalne sterowanie w skali globalnej, opóźnienie wynosi około sekundy). O ile w przypadku
prostych misji rozpoznawczych opóźnienie to nie zakłóca ich przebiegu, o tyle praktycznie
uniemożliwia skuteczną walkę z maszynami załogowymi w przestrzeni powietrznej.
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

Problematyczna jest również kwestia „czucia” robota – w przypadku zdalnego sterowania


operator nie odczuwa ruchów powietrza, oporów na drążku sterowniczym lub innych
czynników oddziałujących na maszynę, które mogą zakłócić jego prawidłowe
funkcjonowanie. Jako rozwiązanie mogące zwiększyć efektywność bezzałogowych statków
powietrznych przedstawia się ich maksymalną autonomizację – kluczowe decyzje
podejmowane byłyby wówczas przez układ sztucznej inteligencji zainstalowanej na pokładzie
maszyny, na podstawie na bieżąco otrzymywanych danych371. Taka koncepcja eliminuje rolę
operatora spoza maszyny oraz pozwala uniknąć opóźnień w przekazywaniu danych i komend,
ale utrzymuje problemy i dylematy związane z odpowiedzialnością za decyzje podejmowane
przez robota.
Wykorzystywanie na masową skalę bezzałogowych platform powietrznych wzbudza
liczne wątpliwości. Kontrowersje etyczne budzi stosowanie dronów w tak szerokim zakresie
na terenach pozostających pod kontrolą licznych ugrupowań terrorystycznych, zwłaszcza
na pograniczu pakistańsko-afgańskim, na Półwyspie Arabskim oraz w Afryce Północnej.
Wykorzystanie dronów umożliwia prowadzenie skutecznych operacji przeciwko członkom
grup terrorystycznych z jednoczesną minimalizacją własnych strat ludzkich. Działania takie
nadzoruje bowiem maksymalnie dwóch pilotów-operatorów, monitorujących zdalny obraz
wyświetlany na monitorze i będących w ten sposób odseparowanych od realnego zagrożenia

370
Zob. A. Kim i in., Cyber Attack Vulnerabilities Analysis for Unmanned Aerial Systems, [on-line], American
Institute of Aeronautics and Astronautics, b.r., https://static1.squarespace.com/static/553e8918e4b0c79e
77e09c4d/t/5ae86e6a8a922d40d2c0d1bd/1525182105346/AIAA-Infotech_Threats-and-Vulnerabilities-
Analysis.pdf (28.02.2020).
371
Zob. R. Kopeć, op. cit., s. 47.
146
dla własnego życia. Argumentem przeciwników wykorzystania bezzałogowych platform
jest przede wszystkim brak realnej odpowiedzialności za decyzje, których konsekwencją
jest odbieranie życia. Krytycy takiego działania podnoszą, iż udział dronów w precyzyjnych
operacjach bojowych ogranicza zakres konsekwencji wynikających z użycia siły,
zaś dotychczas czynnik ten był jednym z kluczowych aspektów branych pod uwagę
przy podejmowaniu decyzji372. Kolejnym argumentem przeciwników wykorzystywania
dronów w działaniach bojowych, jest aspekt psychologiczny. Poza oczywistymi korzyściami
militarnymi, bezzałogowe statki powietrzne wzbudzają bowiem strach wśród przeciwników
- stan lęku i niepewności w szeregach członków grup terrorystycznych, prowadząc
do osłabienia ich morale. Strach ten wynika przede wszystkim ze świadomości precyzyjnego
nakierowania broni na cel, nieodwracalności ataku i braku czynnika ludzkiego
w tym procesie. Oznacza to zarówno niemożność odwołania się do odruchów ludzkich
(np. wzbudzenia litości czy zaskoczenia napastnika), ale również brak możliwości działań
odwetowych skutkujących fizycznymi obrażeniami przeciwnika – maksymalną konsekwencją
dla strony dysponującej bezzałogowym statkiem powietrznym są straty finansowe związane
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

ze zniszczeniem lub utratą maszyny. W przypadku działań prowadzonych przez Stany


Zjednoczone na terenach objętych walką z islamistami, stosowanie na masową skalę
bezzałogowych platform powietrznych uważa się za działania o charakterze raczej
psychologicznym niż militarnym. O ile jest to czynnik pozytywny w przypadku interakcji
z niebezpiecznym przeciwnikiem (jak wspomniane ugrupowania terrorystyczne),
o tyle przeciwnicy wykorzystania dronów wskazują, że stan nieustannego zagrożenia
wynikającego z permanentnej niepewności i zaskoczenia atakami oddziałuje negatywnie
nie tylko na faktycznych terrorystów, ale również na ludność cywilną, zamieszkującą tereny
objęte działaniami wojennymi. Rozpatrując wykorzystanie dronów na polu walki należy mieć
także na uwadze tzw. collateral casualties, czyli niezamierzone ofiary. Terminem tym określa
się zgony, urazy lub inne szkody wśród ludności cywilnej (lub też w szeregach
sprzymierzonych wojsk) wyrządzone w sposób niezamierzony podczas ataku na wyznaczony
cel373. Według statystyk drony, pomimo dopracowanego systemu sterowania, same w sobie
nie są stuprocentowo precyzyjne.
Choć roboty bojowe nie osiągnęły jeszcze stadium pełnej autonomii, to już stają się
powszechnym elementem planowania i wizji nowoczesnych konfliktów zbrojnych.
Jak wskazuje Rafał Kopeć, traktuje się je często jako symbol zła i arogancji zachodniego
społeczeństwa, przywołując w tym kontekście operacje realizowane z wykorzystaniem

372
Zob. W. Leśnikowski, Bezzałogowe platformy w cyberprzestrzeni, Toruń 2017, s. 237-238.
373
Merriam-Webster Dictionary, Collateral damage, [on-line], Merriam-Webster, b.r., https://www.merriam-
webster.com/dictionary/collateral%20damage, (12.02.2018).

147
uzbrojonych dronów, ukierunkowane na tzw. selektywną eliminację osób podejrzewanych
o prowadzenie działalności terrorystycznej374. Działania te traktuje się jako tzw. armchair
warfare, czyli prowadzenie operacji zbrojnych z poziomu domowego fotela, zaś operatorom
maszyn zarzuca się prezentowanie mentalności playstation, rozumianej jako skłonność
do postrzegania rzeczywistości konfliktu na podobieństwo gry komputerowej.
To z kolei ma przekładać się na prezentowanie niebezpiecznej tendencji do nadmiernego,
szybkiego i bezrefleksyjnego otwierania ognia. Operatorzy dronów sterują bowiem nimi
zdalnie z bezpiecznych baz ulokowanych na terenie Stanów Zjednoczonych, wobec czego
mają nie czuć rzeczywistej odpowiedzialności za życie i śmierć innych osób375.
Zrozumiałym jest, że prowadząc działania zbrojne, strony konfliktu dążą
do minimalizacji strat własnych. Wykorzystanie robotów na polu walki uznawane
jest za najnowszy przejaw tzw. risk-transfer militarism, czyli prowadzenia działań wojennych
w taki sposób, aby maksymalnie ograniczyć ryzyko strat dla własnych żołnierzy poprzez
przerzucenie go na inne podmioty. To właśnie dążenie do minimalizacji strat własnych stało
się nadrzędnym motywem i wyznacza nowy schemat działań zbrojnych prowadzonych
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

przez zachodnie społeczeństwa od czasów operacji ,,Pustynna Burza”. W kolejnych


konfliktach dążenie do wyeliminowania ryzyka wyrażało się m.in. w ograniczaniu aktywności
zbrojnej do ofensywy powietrznej, przerzuceniu ciężaru lądowych działań wojennych
na lokalnych sojuszników, czy zaangażowaniu prywatnych firm wojskowych 376.
Roboty bojowe wydają się stanowić kolejne narzędzie przydatne do prowadzenia wojen
o zminimalizowanym ryzyku konsekwencji w przyszłości. Dążenie do minimalizacji ryzyka
uznaje się za przejaw tzw. mentalności postheroicznej, którą prezentują, zdaniem
Edwarda Luttwaka, społeczeństwa zachodnie. Ich cechą charakterystyczną jest obawa
przed walką i śmiercią w jej wyniku, co oznacza upadek etosu wojownika377. Żołnierze
przestają zatem być wojownikami, stając się zamiast tego dobrze opłacanymi
profesjonalistami, ukierunkowanymi na rozwój własnej, specyficznej kariery.
Jako jeden z czynników prowadzących do ukształtowania tej mentalności w społeczeństwie
zachodnim, E. Luttwak wskazuje zwiększoną (w porównaniu do wcześniejszych pokoleń)
czułość na straty własne, wynikającą z gwałtownego spadku dzietności współczesnych
rodzin. Typowe jest bowiem posiadanie jednego lub maksymalnie dwojga dzieci,
których ewentualna śmierć powoduje dużo bardziej dotkliwą stratę niż w przypadku
standardowego we wcześniejszych latach modelu rodziny wielodzietnej.

374
Zob. R. Kopeć, Robotyzacja wojny, „Społeczeństwo i Polityka”, 2016, nr 4 (49), s. 48.
375
Zob. G. Simons, Drone Diplomacy, “The Link”, 2011, nr 2 (44), s. 11.
376
Zatrudnianie przez USA prywatnych firm wojskowych (PMC, private military contractors) było działaniem
powszechnym podczas wojny w Iraku.
377
Zob. E.N. Luttwak, Toward Post-Heroic Warfare: The Obsolence of Total War, “Foreign Affairs”, 1995, nr
74 (3), s. 109-123; [za:] R. Kopeć, op. cit., s. 48.
148
Prowadzenie wojny pozbawionej ryzyka śmierci własnych żołnierzy, nawet jeśli,
co do zasady, jest możliwe, to może powodować trudne do przewidzenia następstwa
o charakterze psychologicznym. Z jednej strony, w ujęciu taktycznym, powszechne
wykorzystanie robotów bojowych pozwoli prowadzić bardziej racjonalne działania, ponieważ
wyeliminowany zostanie czynnik strachu przed utratą własnego życia. Panika ogarniająca
żołnierzy stawała się bowiem nierzadko przyczyną klęski. Dodatkowo, oddzielenie człowieka
od fizycznego zabijania – w wymiarze przestrzennym, czasowym, a nawet moralnym
(jeżeli decyzja o użyciu siły będzie podejmowana przez autonomiczną maszynę) – pozwoli
zmniejszyć, a nawet wyeliminować awersję do użycia broni, uznawaną za ważny czynnik
obniżający skuteczność żołnierza, zwłaszcza w sytuacji długotrwałego obserwowania
przyszłej ofiary. Z kolei w wymiarze strategicznym podnoszony jest zarzut, że możliwość
prowadzenia wojny zrobotyzowanej przyczyni się do zniesienia moralnej bariery
powstrzymującej przed podjęciem decyzji o rozpoczęciu kolejnego konfliktu zbrojnego.
Istotnym niebezpieczeństwem wynikającym z prowadzenia tego rodzaju działań jest to,
że zapewnienie braku ofiar lub ich minimalizacja ofiar własnych oznacza brak konsekwencji
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

dla polityków sprawujących władzę i decydujących o kolejnej wojnie, a to z kolei może


skłaniać ich do stosowania siły w coraz większej skali. Argumentacja taka opiera się
na logicznych przesłankach – im mniejsze ryzyko, tym łatwiej jest podjąć decyzję o użyciu
siły. Jednak, w ogólnym ujęciu, rozwój techniki wojskowej opiera się na dążeniu
do ułatwienia zabijania przeciwnika przy jednoczesnym zapewnieniu maksymalnie niskich
strat własnych. Robotyzacja wojny nie stanowi zatem w tym względzie przełomu.
Wpływ tej tendencji na polityków może być więc podobny do wpływu innych technologii
umożliwiających zdobycie przewagi nad pozostałymi stronami konfliktu. Zwrot może
nastąpić w momencie, kiedy decydenci zostaną przekonani o wizji wojny całkowicie
zrobotyzowanej, a zatem bezpiecznej zarówno dla własnej armii, jak i dla społeczeństwa.
Nie można wykluczyć takiej sytuacji, o czym świadczy choćby przykład decyzji o ataku USA
na Irak w 2003 r., poprzedzonej roztaczaną przed politykami i społeczeństwem wizją
konfliktu o czystej, pozbawionej wszelkich niepewności operacji o zamierzonych skutkach
(tzw. effect-based operations)378.
Jednak, jak podkreśla R. Kopeć, idąc tym tokiem rozumowania, w obawie przed
obniżeniem bariery podjęcia decyzji o ataku i ewentualnej wojnie, nie należałoby
podejmować absolutnie żadnych działań, które mogłyby uczynić walkę mniej ofiarochłonną.
Można zatem dojść do absurdalnego wniosku, że wojnę należy maksymalnie zbrutalizować,
tak aby żaden uczestnik stosunków międzynarodowych nie chciał się w nią zaangażować
do momentu, aż będzie ona naprawdę niezbędnym, ostatecznym wyborem.

378
Zob. M.N. Vego, Effect-Based Operations: A Critique, „Joint Forces Quarterly”, 2006, nr 41, s. 51–57.
149
Zakładając prawdopodobne i realistyczne oczekiwanie, że wojna zrobotyzowana może
co prawda ograniczyć, ale nie całkowicie wyeliminować straty własne, należy mieć
na uwadze, że strona dysponująca tą technologią nie będzie wystawiać do walki i narażać
jednocześnie na ryzyko większej liczby żołnierzy, niż tylko tej niezbędnej. Wykorzystywanie
przewagi do zapewnienia ochrony państwa i społeczeństwa nie jest uznawane za niemoralne –
wręcz przeciwnie, posiadana przewaga technologiczna i umiejętność jej wykorzystania
do wygrania walki uważana jest za typowy przejaw tzw. zachodniego sposobu prowadzenia
wojen. Zgodnie z koncepcją sposobu prowadzenia wojen, przyjęty model zaangażowania
w konflikt zbrojny odzwierciedla kulturę danego społeczeństwa i pozwala wyodrębnić
określone, względnie trwałe cechy charakterystyczne dla danej społeczności i jej organizacji
militarnych379. Wojny prowadzone przez społeczeństwa zachodnie wpisują się w model
kapitałochłonny, czyli wykorzystujący ekonomiczną, naukową i technologiczną wyższość
nad przeciwnikiem, nie zaś „ludzkochłonny", opierający się na przewadze liczebnej.
Robotyzacja walki doskonale wpisuje się w tę tendencję, stając się kolejnym czynnikiem
zwiększającym przewagę technologiczną.
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

Warto w tym fragmencie rozważań podnieść ,że zachodni sposób prowadzenia wojen
jest odmienny od modeli wywodzących się z innych kręgów kulturowych, zwłaszcza
dominujących w obszarze Bliskiego Wschodu. Modele te opierają się na innych środkach
budowania przewagi militarnej niż wyższość technologiczna, różnią się również podejściem
do uznawania określonych działań za moralnie uzasadnione lub wręcz przeciwnie – za godne
potępienia. Co za tym idzie, w starciu z fundamentalizmem islamskim robotyzacja pola walki
może stanowić wielowymiarowe wyzwanie. Po pierwsze, wykorzystanie zdalnie sterowanych
maszyn zamiast żywych żołnierzy zostanie uznane za niehonorową formę walki, wręcz wyraz
tchórzostwa społeczeństwa zachodniego, a zarazem przejaw arogancji wobec przeciwnika.
Po drugie zaś, w przypadku kiedy rzeczywiście doszłoby do wojny, w której jedna strona
reprezentowana byłaby wyłącznie przez roboty, a zatem przeciwnik nie miałby możliwości
zabijania żołnierzy, to za moralnie i instrumentalnie uzasadnione mógłby on uznać ataki
terrorystyczne. Skoro bowiem bogate i zaawansowane technologicznie społeczeństwo
zachodnie schowałoby się za maszynami i robotami, to atakowanie jego członków,
przede wszystkim zaś cywili (bo wojskowi pozostawaliby poza zasięgiem odziaływania)
stałoby się jedyną dostępną dla przeciwnika opcją, która mogłaby dodatkowo zostać uznana
za sprawiedliwą karę za tchórzostwo380.

379
Zob. R. Kopeć, Rewolucja w sprawach wojskowych w kontekście zachodniego sposobu prowadzenia wojen,
„Kultura i Polityka”, 2014, nr 16, s. 66–67.
380
Zob. P.M. Asaro, How Just Could a Robot War Be?, [w:] P. Brey, A. Briggle, K. Waelbers (red.), Current
Issues in Computing and Philosophy, Amsterdam 2008, s. 63.
150
Postępująca robotyzacja działań wojennych może doprowadzić także do pojawienia
się asymetrycznych środków walki, trudnych obecnie do przewidzenia. Można zakładać
m.in. nasilenie działań zaliczanych do obszaru lawfare, w którym jednym
z wykorzystywanych środków prowadzenia wojny jest system prawny. Zakłada on
m.in. możliwość stosowania jako środka walki prawa humanitarnego, np. wykorzystania
wiedzy o obowiązujących regułach otwierania ognia do zbudowania przewagi taktycznej.
Przejawem takiego podejścia jest np. wykorzystywanie do dokonywania ataków
na przeciwnika osób uznawanych powszechnie za niewalczące, czyli kobiet i dzieci.
W tym przypadku zakłada się, że reguły prawa humanitarnego uniemożliwią lub co najmniej
utrudnią przeciwdziałanie takiemu atakowi, ponieważ druga strona zawaha się
przed neutralizacją napastnika-dziecka, mając na uwadze ewentualne konsekwencje prawne
za pozbawienie życia cywila. Innym przykładem tego typu moralnie wątpliwych działań
jest celowe prowokowanie uderzeń odwetowych przeciwnika, które spowodują ofiary
w ludności cywilnej i będą mogły być wykorzystywane do działań propagandowych strony
prowokującej atak381. W tym kontekście zastosowanie robotów autonomicznych mogłoby
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

przyczynić się do zintensyfikowania ataków przeciwnika z wykorzystaniem cywili, w oparciu


o założenie, że algorytm robota nie pozwoli na użycie ognia do tego typu celu.
Innym możliwym niebezpieczeństwem jest potencjalne wykorzystywanie dzieci
nieuzbrojonych, ale wyposażonych w atrapy broni. Ich zadaniem byłoby prowokowanie
robota nieprzyjaciela do ataku – fakt zabójstwa niepełnoletniego i nieuzbrojonego cywila
mógłby zostać następnie wykorzystany do szeroko zakrojonych działań propagandowych
wobec drugiej strony konfliktu.
Aby zapobiec tego typu zagrożeniom, prowadzone są prace nad „komputerową
moralnością”, czyli optymalnymi systemami sterującymi dla robotów,
które będą uwzględniać zagadnienia etyczne, w szczególności międzynarodowe prawo
humanitarne konfliktów zbrojnych oraz reguły otwierania ognia. Rozważa się również
wyposażenie robotów bojowych w domyślnie wbudowane „poczucie winy” 382. Pomimo tych
już wdrażanych i dopiero planowanych działań mających zwiększyć poczucie bezpieczeństwa
stron konfliktu zbrojnego, w szczególności ludności cywilnej, pojawiają się obawy,
że w warunkach konfliktów asymetrycznych, gdzie nie ma określonej linii frontu walki,

381
Tego typu działania stosował m.in. Hamas, ostrzeliwując terytorium Izraela ze Strefy Gazy – palestyńskie
wyrzutnie instalowano na obiektach cywilnych. Kiedy Izrael w odwecie zaatakował te obiekty, bojownicy
Hamasu mieli zakazać dokonywania ewakuacji z nich ludności cywilnej, aby wykazać, że przeciwnik łamie
międzynarodowe prawo humanitarne poprzez atak na nieuzbrojone społeczeństwo; zob. R. Czulda, Operacja
Protective Edge w Strefie Gazy, „Nowa Technika Wojskowa”, 2014, nr 10, s. 66.
382
Zob. R. Arkin, Governing Lethal Behavior: Embedding Ethics in a Hybrid Deliberative/Reactive
Architecture, [w:] T. Fong, K. Dautenhahn (red.), HRI ’08 International Conference on Human Robot
Interaction, Association for Computing Machinery, New York 2008, s. 9.
http://www.cc.gatech.edu/ai/robot-lab/online-publications/formalizationv35.pdf, s. 72–75.
151
brak wyraźnej granicy pomiędzy wrogami a sojusznikami, a nawet między walczącymi
i nieuczestniczącymi w walce, robotom może zabraknąć „moralnej intuicji”, a sterujące nimi
algorytmy zderzą się z nieprzewidzianymi sytuacjami, w których nawet człowiek miałby
uzasadnione wątpliwości natury moralnej.
Niezależnie od powyższego, choć robotyzacja pola walki zawiera w sobie potencjał
do zmiany charakteru wojny, to nie zmienia jej natury. Walki nadal będą prowadzić ludzie,
zmieni się jedynie używana przez nich broń Należy zatem raczej odrzucić wizję bezkrwawej
wojny robotów i nie przyjmować bezkrytycznie iluzji, zgodnie z którą wojna może być łatwa,
czysta i pozbawiona ofiar w ludziach. Warto w tym kontekście dostrzec ,że w grudniu 2018 r.
Komisja Europejska wypracowała stanowisko w zakresie dostosowania międzynarodowego
prawa konfliktów zbrojnych do wyzwań związanych z upowszechnianiem nowoczesnych
technologii, w tym sztucznej inteligencji. W dokumencie zatytułowanym
jako „Skoordynowany plan w sprawie sztucznej inteligencji” wskazano, że stosowanie AI
w systemach uzbrojenia może zmienić charakter konfliktów zbrojnych, co budzi zarówno
poważne obawy, jak i wątpliwości. Autorzy planu podkreślili jednocześnie,
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

że prawo międzynarodowe, w tym również międzynarodowe prawo humanitarne i dotyczące


praw człowieka, nadal ma zastosowanie do wszystkich systemów uzbrojenia,
także autonomicznych, a za ich rozwój i wykorzystanie w konflikcie zbrojnym
odpowiedzialne są państwa je stosujące383. Jednocześnie Komisja stoi na stanowisku,
że niezbędne jest utrzymywanie kontroli człowieka nad wszelkimi decyzjami związanymi
z użyciem śmiercionośnej siły, jak również, że kontrola ta powinna być włączona do każdego
etapu cyklu życia wszystkich systemów uzbrojenia.
Obecnie, zgodnie z Pierwszym protokołem dodatkowym do konwencji genewskich,
państwa muszą wypełnić zobowiązania w zakresie ustalenia, czy użycie nowej broni, środków
lub metod prowadzenia działań wojennych byłoby zabronione przez międzynarodowe prawo
humanitarne lub inne, stosowne zasady prawa międzynarodowego. Legalność nowej broni
ocenia się już na etapie jej badań i opracowywania, a jeżeli jest sprowadzana spoza terenu
państwa, które będzie z niej korzystać – jeszcze przed jej nabyciem lub przejęciem. Legalność
tę ocenia się stosując określone kryteria – pierwszym z nich jest sprawdzenie, czy użycie
broni nie jest zakazane przez konwencje międzynarodowe (m.in. konwencję o zakazie broni
chemicznej, konwencję o zakazie broni biologicznej czy konwencję o niektórych broniach
konwencjonalnych). Po drugie, ocenie podlega to, czy broń może spowodować zbędne
obrażenia, niepotrzebne cierpienie lub rozległe, długotrwałe i poważne szkody w środowisku
naturalnym. Kolejne kryteria odnoszą się do określenia prawdopodobnych skutków

383
Zob. Komunikat Komisji do Parlamentu Europejskiego, Rady Europejskiej, Rady Europejskiego Komitetu
Ekonomiczno-Społecznego i Komitetu Regionów: Skoordynowany plan w sprawie sztucznej inteligencji, Komisja
Europejska, Bruksela 2018, s. 9.
152
masowych ataków z jej użyciem oraz czy jej wykorzystanie pozostanie w zgodności
z tzw. klauzulą Martensa384 i nakazami świadomości społecznej. Jako nowy rodzaj broni,
narzędzia wykorzystujące sztuczną inteligencję muszą podlegać regulacjom ram prawnych
międzynarodowego prawa humanitarnego i pozostawać w zgodzie z jej zasadami
i regułami385.
Broń AI, w szczególności letalne autonomiczne jej systemy, stanowią poważne
wyzwanie w wymiarze etycznym. Tego rodzaju narzędzia, w odróżnieniu od żołnierza
posługującego się bronią konwencjonalną, nie podlegają emocjom i nie można
zagwarantować, że każdy przypadek zauważonego odstępstwa od stanu pojmowanego
jako prawidłowy i pożądany, będą traktować indywidualnie. O ile (zapewne) będą w stanie
zinterpretować konkretne zachowanie człowieka jako gotowość do walki, tak pojęciem
dla nich abstrakcyjnym może się okazać historyczna, kulturowa, religijna czy humanistyczna
wartość określonego obiektu. Współcześnie mało realne wydaje się również pełne
zrozumienie przez autonomiczną maszynę prawa do życia czy takich wartości jak wolność,
równość czy sprawiedliwość. Istnieje zatem prawdopodobieństwo, że użycie broni AI będzie
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

prowadzić do naruszeń zasad międzynarodowego prawa humanitarnego, choćby z tego


powodu, że ciężko będzie wyegzekwować od maszyny przestrzeganie zasad wojskowej
konieczności czy proporcjonalności, do oceny których niezbędne jest rozumienie wcześniej
przytoczonych pojęć.
Trzeba mieć na uwadze, że w żadnym działaniu nie da się całkowicie wyeliminować
ryzyka błędu ludzkiego. Można spodziewać się, że niezależnie od tego, jaki poziom
inteligencji będzie przejawiała autonomiczna broń, to jednak pozostanie ona projektowana,
produkowana, programowana i wykorzystywana przez ludzi, co wiąże się z ryzykiem
popełnienia błędu na każdym etapie jej wdrażania i użycia. Konsekwencje i odpowiedzialność
prawna wynikające ze złamania prawa przez broń AI będą przypisywane ludziom. W związku
z powyższym, autonomiczna broń i systemy uzbrojenia w kontekście obowiązującego
międzynarodowego prawa humanitarnego nie powinny być raczej określane jako „walczący”
(i w konsekwencji przyjmować na siebie odpowiedzialność prawną), ponieważ w każdym
przypadku o ich użyciu – również niezgodnym z prawem – decyduje człowiek, maszyna
zaś pozostaje bronią. Kwestię tę reguluje poniekąd art. 57 pierwszego protokołu dodatkowego
do konwencji genewskich, zgodnie z którym przy stosowaniu systemów broni AI

384
Zgodnie z klauzulą Martensa, w przypadkach nieuregulowanych zapisami konwencji haskiej, dotyczącymi
prowadzenia wojny lądowej, jak również innymi umowami międzynarodowymi, osoby cywilne i kombatanci
pozostają pod ochroną i władzą zasad prawa międzynarodowego wynikających z ustalonych zwyczajów, zasad
humanizmu oraz wymagań powszechnego sumienia; zob. T. Widłak, Klauzula Martensa na tle pojęcia
“ludzkość” w prawie międzynarodowym, „Międzynarodowe Prawo Humanitarne”, 2012, nr 3, s. 173-186.
385
Zob. L. Qiang, X. Dan, Legal regulation of AI weapons under international humanitarian law: A Chinese
perspective, Humanitarian Law&Policy, [on-line], icrc.org, 02.05.2019, https://blogs.icrc.org/law-and-
policy/2019/05/02/ai-weapon-ihl-legal-regulation-chinese-perspective/ (21.07.2020).
153
zarówno programiści, jak i użytkownicy końcowi, są prawnie zobowiązani do podjęcia
wszelkich możliwych środków zapobiegawczych, które zapewnią wykorzystywanie tej broni
z poszanowaniem podstawowych zasad międzynarodowego prawa humanitarnego.
Kwestia rozmytej odpowiedzialności za wykorzystanie broni autonomicznej
w konflikcie zbrojnym cały czas stanowi duże wyzwanie dla bezpieczeństwa państwa.
Ogólnie rzecz biorąc, za użycie broni AI odpowiedzialni są ludzie, ale kto konkretnie
powinien ponosić tę odpowiedzialność? Czy będą to projektanci, producenci broni,
programiści czy użytkownicy końcowi, czyli operatorzy? A może politycy decydujący
o wdrożeniu nowoczesnych technologii do systemów uzbrojenia? W opinii badaczy z Chin,
utrzymujących się w ścisłej czołówce światowych liderów w obszarze rozwoju i praktycznego
zastosowania AI, główną odpowiedzialność za bezprawne ataki przeprowadzone
386
z wykorzystaniem broni AI muszą wziąć na siebie operatorzy tej broni . Jako argument
wskazano art. 35 przytaczanego wcześniej protokołu dodatkowego do konwencji genewskich,
stanowiący, że w każdym konflikcie zbrojnym, prawo stron konfliktu do wyboru metod
lub środków prowadzenia wojny nie jest nieograniczone. Zatem w przypadku pełnej
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

autonomii systemów broni AI bez jakiejkolwiek kontroli ze strony człowieka, to osoby


decydujące o użyciu broni AI (czyli zazwyczaj wysocy rangą dowódcy wojskowi i urzędnicy
cywilni) ponoszą indywidualną odpowiedzialność karną za wszelkie potencjalne poważne
naruszenia międzynarodowego prawa humanitarnego.
Powszechne wdrożenie AI do użytku wojskowego wymaga ukierunkowania
do realizowanych przez nią zadań, co z kolei jest ściśle związane z jej projektowaniem
i programowaniem. Im większa autonomia broni, tym wyższe musi spełniać standardy,
aby pozostawać w spójności z międzynarodowym prawem humanitarnym i konfliktów
zbrojnych. Aby je sprecyzować, niezbędne jest wypracowanie i przyjęcie przez społeczność
międzynarodową nowych regulacji dotyczących broni opartej na sztucznej inteligencji,
analogicznych do obowiązujących od dawna konwencji o broni konwencjonalnej
(wraz z protokołami), konwencji przeciwko minom przeciwpiechotnym czy konwencji
o broni kasetowej. Ten akt prawny, np. w postaci kolejnej konwencji, powinien określać
standardy projektowania i programowania broni AI o wysokim poziomie autonomii,
jak również regulować kwestie odpowiedzialności państwa za jej wytwarzanie
i przekazywanie w sposób niezgodny z obowiązującym prawem międzynarodowym –
zarówno humanitarnym, jak i odnoszącym się do kwestii handlu bronią. Jak podkreślają
chińscy naukowcy Qiang Li i Dan Xie, ważne jest również odniesienie się w przyszłych
przepisach do konieczności zapewniania przez decydentów radców prawnych, którzy będą
wspomagać projektantów i programistów AI. Istniejące obecnie ramy międzynarodowego

386
Ibidem.
154
prawa humanitarnego i konfliktów zbrojnych nie odpowiadają w pełni nowym wyzwaniom
związanym z analizowaną problematyką, głównie z uwagi na fakt, że ich zadaniem
było utworzenie norm w zakresie stosowania broni konwencjonalnej. Ciągły rozwój
wykorzystywanych militarnie technologii niesie za sobą nowe, nieznane dotąd zagrożenia
i wyzwania, które prawdopodobnie nie zmaterializowałyby się, gdyby nie przekroczono
granic ustalonych dla broni i walki konwencjonalnej. Dlatego też, oprócz opracowywania
nowych regulacji międzynarodowych w tym zakresie, niezbędne jest zobowiązanie
poszczególnych państw do wypracowania narodowych, przejrzystych przepisów i procedur
związanych z wykorzystaniem broni autonomicznej. Wiodącą rolę w tym procesie powinny
odgrywać państwa wysoko zaawansowane technologicznie, zwłaszcza w obszarze sztucznej
inteligencji.
Sztuczna inteligencja może stać się również narzędziem działań ukierunkowanych
na zmiany porządku geopolitycznego. Sztuczna inteligencja jest technologią o dwojakim
zastosowaniu i słusznie uznaje się, że może ona zmienić oblicze działań wojennych.
Oprócz możliwego zastosowania AI jako broni w cyberprzestrzeni, prawdopodobne jest jej
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

użycie w przestrzeni kosmicznej. Autonomiczne systemy uzbrojenia oraz roboty wojskowe


mogą się stać kluczowymi instrumentami nowego etapu strategicznej rywalizacji pomiędzy
państwami, a raczej mocarstwami, które tą technologią dysponują. Pomimo, że w drugiej
dekadzie XXI w. za niemożliwe należy uznać całkowite zastąpienie ludzkich żołnierzy
autonomicznymi maszynami i wejście na poziom wojen robotów, to należy mieć na uwadze
istniejące już rozbieżności pomiędzy poszczególnymi państwami pod względem możliwości
technologicznych, w tym dotyczących użycia sztucznej inteligencji. Dla większości państw
świata, zdobycie i militarne wykorzystanie takich zdolności nadal stanowi nieosiągalny cel.
Niektóre państwa mogą zatem mieć potencjał do wykorzystania broni AI na polu bitwy,
podczas gdy inne – nie. Sytuacja taka prowadzi do nowego wyścigu zbrojeń, tym razem
opartego na dążeniu poszczególnych uczestników stosunków międzynarodowych
do poszerzania swoich zasobów militarnych o broń autonomiczną. Można uznać,
że ten nieformalny jeszcze wyścig już trwa. Mówiąc o realnych możliwościach wykorzystania
sztucznej inteligencji w obszarze militarnym, należy mieć na uwadze obecny poziom
zaawansowania technologii wykorzystujących sztuczną inteligencję w Chinach, jak również
tezę Hanka Thomasa, zgodnie z którą największym światowym cyberzagrożeniem są chińskie
siły zbrojne. Chiny wyraźnie dążą bowiem do pozycji lidera w tej rywalizacji. W 2017 r.
Władimir Putin stwierdził, że „kto doprowadzi do przełomu w rozwoju sztucznej inteligencji,
będzie rządzić światem”, a także, iż „byłoby nader niepożądane, by ktokolwiek został

155
monopolistą”387. Również w tym samym roku chiński rząd zadeklarował, że chciałby
do 2030 r. stać się światowym liderem w obszarze AI, co więcej – obecnie państwo
to przewodzi w rankingach inwestycji w technologie AI zarówno ze źródeł publicznych,
jak i z funduszy prywatnych. Jednocześnie przewaga technologiczna jest jednym
z priorytetów chińskiego planu gospodarczego „Made In China 2025”388. Natomiast jeszcze
w 2018 r. Departament Obrony USA powołał Wspólne Centrum Sztucznej Inteligencji
(JAIC), którego głównym celem jest zapewnienie amerykańskiej armii „asymetrycznej
przewagi w całym spektrum konfliktu” do 2024 r.389 Zakładany koszt tego przedsięwzięcia
wynosi 1,75 mld dolarów. Jednocześnie amerykańska Rada Innowacji dla Bezpieczeństwa
(DIB) wskazuje, że armia Stanów Zjednoczonych ma za sobą długą historię etycznego
wykorzystania nowych technologii. Instytucja ta wydała także zalecenia w zakresie używania
sztucznej inteligencji przez Departament Obrony USA (DOD), obejmujące takie kryteria
jak odpowiedzialność, ostrożność, zrozumiałość, niezawodność i adekwatność w stosunku
do zamiarów390. Jeżeli chodzi o odpowiedzialność, wskazano, że wszelkie konsekwencje
rozwoju i wykorzystywania AI w wojskowości powinni ponosić ludzie, co oznacza,
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

że za wypadki i negatywne skutki związane z funkcjonowaniem AI odpowiadają jej twórcy


i operatorzy. Jak warto zauważyć , w tym aspekcie amerykańscy eksperci ds. bezpieczeństwa
pozostają zgodni z założeniami prezentowanymi przez Chiny. Kolejnym warunkiem mającym
zapewnić bezpieczne wykorzystanie broni AI jest ostrożność. Wskazano, że DOD powinien
podjąć adekwatne kroki zapobiegające niezamierzonym błędom lub niedopatrzeniom
na etapie opracowywania i wdrażania AI do operacji wojskowych, co ma na celu uniknięcie
nieumyślnego zrobienia krzywdy ludziom przez urządzenia autonomiczne.
Słabością sztucznej inteligencji jest nauka przez gromadzenie dużej ilości danych, które mogą
okazać się błędne lub stronnicze. W takiej sytuacji twórcy powinni zapewnić działające
algorytmy ukierunkowane na eliminowanie błędów. W kwestii zrozumiałości, inżynieria
AI powinna być zaawansowana w co najmniej takim stopniu, aby umożliwić specjalistom
zrozumienie i kontrolowanie procesów tej technologii. Kolejnym czynnikiem jest
niezawodność - z uwagi na złożoność i stałe modyfikacje oprogramowania dedykowanego
uczeniu maszynowemu, systemy AI powinny mieć wyraźnie określoną i prawidłowo
zdefiniowaną domenę użytkowania, a ich bezpieczeństwo, odporność i ochronę należy

387
Putin: Leader In artificial intelligence will rule world, [on-line], CNBC, 04.09.2017,
https://www.cnbc.com/2017/09/04/putin-leader-in-artificial-intelligence-will-rule-world.html (03.07.2020).
388
Zob. In Davos, US executives warn that China is winning the AI race, “The Straits Times” [on-line],
24.01.2019, https://www.straitstimes.com/world/europe/in-davos-us-executives-warn-that-china-iswinning-the-
ai-race (04.07.2020).
389
Zob. B. Mitchell, Artificial intelligence is the heart of CIO Dana Deasy’s plan to modernize the DOD, [on-
line], fedscoop.com, 23.08.2018, https://www.fedscoop.com/artificial-intelligence-dod-strategy-cio-dana-deasy/
(03.07.2020).
390
Zob. S. Palczewski, op. cit., (18.02.2020).
156
regularnie testować. Ostatnim warunkiem określonym przez DIB jest adekwatność
w stosunku do zamiarów – AI powinna być zaprojektowana i wykreowana w taki sposób,
aby spełniać swoją zaplanowaną funkcję a jednocześnie posiadać zdolność wykrywania
i unikania pojawiających się zakłóceń, błędów i szkód. W praktyce sztucznej inteligencji
należy zapewnić zdolność do samodzielnego diagnozowania i wykrywania nieprawidłowości
w działaniu, w tym również do autonomicznej dezaktywacji czynników powodujących
problemy w jej funkcjonowaniu.

4.2. Zagrożenia, wyzwania i dylematy związane z wykorzystaniem sztucznej


inteligencji w sferze bezpieczeństwa komunikacyjnego i transportowego

Analizując planowane wdrożenie do ruchu pojazdów optymalizujących czas i trasę


przejazdu, należy mieć na uwadze przede wszystkim dwa aspekty. Pierwszym z nich jest to,
że zwiększenie obszaru obsługiwanego przez personalizowaną komunikację miejską
zwiększy jej dostępność w gminach wiejskich, co samo w sobie ma wydźwięk pozytywny.
Należy jednak pamiętać, że obsługa aplikacji, za pomocą której użytkownicy korzystają
z tej formy komunikacji, może być wyzwaniem dla starszych grup wiekowych oraz osób
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

w mniejszym stopniu zaawansowanych technologicznie. Wprowadzenie nowego modelu


komunikacji w małych miastach i wsiach, gdzie nie funkcjonowały dotychczas takie
rozwiązania jak Uber albo FreeNow, będzie wiązało się zatem z koniecznością edukacji
społeczeństwa. W przeciwnym razie może ono doprowadzić do nowych form wykluczenia
określonych grup społecznych z udziału w zorganizowanym transporcie publicznym.
Jeżeli dodatkowo wdrożenie tej formy komunikacji okaże się bardziej efektywne
od dotychczasowego systemu transportu zbiorowego, standardowi przewoźnicy
mogą zawiesić lub całkowicie wycofać swoją ofertę z niewielkich miejscowości, co może
wiązać się z brakiem możliwości podróżowania przez osoby nieradzące sobie z obsługą
personalizowanego systemu391.
Szczególnym ze względu na skalę użycia przykładem zastosowania sztucznej
inteligencji w bezpieczeństwie komunikacyjnym są pojazdy autonomiczne. Dostępne
współcześnie pojazdy dysponują rozległymi możliwościami komunikacyjnymi, często
są również połączone ze sobą w sieć392. Poszczególne sieci mają z kolei zróżnicowane stopnie
zaawansowania stosowanych systemów bezpieczeństwa, odnoszących się do ryzyka napadów
cybernetycznych i ochrony danych. Zewnętrzne oprogramowanie oraz sprzęt
wykorzystywany w pojazdach są połączone z serwerem centralnym, kluczowe jest zatem
zapewnienie bezpieczeństwa tego połączenia w taki sposób, aby przepływ danych
był zabezpieczony przed dostępem ze strony podmiotów nieuprawnionych, stwarzającym
391
Zob. K. Kopańko, op. cit.
392
Zob. T. Neumann, Perspektywy wykorzystania pojazdów autonomicznych …, s. 790.
157
zagrożenie zarówno dla bezpieczeństwa pojazdu, jak i innych uczestników ruchu drogowego.
Tymczasem problem zabezpieczenia przed atakami cybernetycznymi narasta – pojazdy
autonomiczne generują m.in. takie dane jak czas podróży, trasa przejazdu czy cel trasy,
które mogą być wykorzystane w celach szkodliwych dla osób, których te dane dotyczą.
Dużym ryzykiem jest również możliwość ataku na samochody ciężarowe przewożące
wartościowe ładunki, które mogą zostać skradzione. Również zaawansowane technologicznie
rozwiązania, zapewniające bezpieczne prowadzenie pojazdu autonomicznego, mogą zostać
wykorzystane przeciwko operatorowi – w przypadku przejęcia zdalnej kontroli nad pojazdem,
kierowca jest narażony na umyślne spowodowanie wypadku przez podmiot dokonujący ataku.
Niezbędne jest zatem wdrożenie adekwatnych uwarunkowań o charakterze prawnym,
które będą chroniły dane użytkowników pojazdów autonomicznych, ale także nieustanne
rozwijanie metod ich ochrony przed pojawiającymi się zagrożeniami393.
Istotnym negatywnym aspektem związanym z wykorzystaniem sztucznej inteligencji
w bezpieczeństwie komunikacyjnym jest zawodność technologii, która w każdej chwili może
przestać działać lub zacząć działać w sposób nieprawidłowy i nieprzewidywalny
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

dla użytkownika. System prowadzenia pojazdów autonomicznych opiera się w dużej mierze
na wykorzystaniu czujników, kamer, radarów i innych tego typu technologii. Specyficzne
warunki drogowe w postaci intensywnych opadów śniegu, mgły czy zapylenia mogą
znacząco utrudniać prawidłowe działanie zastosowanych rozwiązań. Dlatego też
dla zapewnienia pełnego bezpieczeństwa zarówno operatora, jak i innych uczestników ruchu
drogowego, wszystkie urządzenia muszą być całkowicie niezależne od warunków otoczenia.
Problemy mogą być generowane również przez nieoczekiwane sytuacje na drodze,
jak np. roboty drogowe, zmiana sposobu sterowania ruchem (policjant) czy pojawienie się
pojazdu uprzywilejowanego. Istotne jest zatem, aby pojazdy autonomiczne były w stanie
na bieżąco stosować rozwiązania adekwatne do pojawiających się okoliczności.
Kolejną problematyczną kwestią jest selekcja przetwarzanych danych pod względem
ich faktycznej użyteczności w systemie prowadzenia pojazdu autonomicznego. Zainstalowane
w nich czujniki zbierają i przekazują do systemu bardzo dużą ilość danych, natomiast
w wielu sytuacjach drogowych niezbędna jest ich odpowiednia interpretacja i określenie,
które z tych danych są w tym momencie najbardziej istotne. Nie można wykluczyć zaistnienia
sytuacji, w której pojazd błędnie zinterpretuje warunki otoczenia z powodu zbyt wielu
informacji z niego pochodzących394.

393
Zob. S. Pilath, Automated vehicles in the EU, [on-line], europa.eu, 01.2016.,
https://www.europarl.europa.eu/RegData/etudes/BRIE/2016/573902/EPRS_BRI(2016)573902_EN.pdf
(08.11.2018).
394
Ibidem.
158
Zdaniem Tomasza Neumanna, jednym z kluczowych problemów związanych
z szerokim zastosowaniem pojazdów autonomicznych jest zgodność z obowiązującymi
przepisami prawa. Zgodnie z art. 8 Konwencji wiedeńskiej z 1968 r.,
czyli międzynarodowego traktatu określającego zasady ruchu drogowego obowiązującego
w 73 państwach, które sygnowały dokument, „każdy pojazd w ruchu lub zespół pojazdów
w ruchu powinien mieć kierującego”, a „każdy kierujący powinien mieć niezbędną sprawność
fizyczną i psychiczną oraz być fizycznie i psychicznie zdolny do kierowania. Każdy kierujący
pojazdem motorowym powinien mieć zasób wiadomości oraz umiejętności niezbędnych
do kierowania pojazdem; jednakże to postanowienie nie stanowi przeszkody do nauczania
kierowania pojazdem zgodnie z ustawodawstwem krajowym. Każdy kierujący powinien stale
panować nad swoim pojazdem (…)”395. Taki zapis stanowi zaprzeczenie idei pojazdów
autonomicznych, dlatego też istotne jest, aby przed ich pojawieniem się na drogach państw-
sygnatariuszy prawnie uregulować wszystkie aspekty ich wdrożenia. Warto mieć też
na uwadze, że nie wszystkie państwa ratyfikowały Konwencję wiedeńską – przykładem mogą
być Stany Zjednoczone, w których testy pojazdów autonomicznych są legalne i zgodne
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

z obowiązującym prawem stanowym.


Należy również odnieść się do kwestii odpowiedzialności prawnej związanej
ze stosowaniem pojazdów autonomicznych. Wypadki komunikacyjne wiążą się z kosztami
zarówno materialnymi, wynikającymi z uszkodzenia pojazdów, ale również, a raczej
przede wszystkim, z negatywnymi konsekwencjami dla życia i zdrowia ludzi i zwierząt.
Odpowiedź na pytanie, kto jest odpowiedzialny za spowodowane szkody i kto ma ponieść
z ich tytułu konsekwencje, jest problematyczna i budzi liczne wątpliwości.
Pojazdy autonomiczne są w stanie nie tylko sterować swoim ruchem bez kierowcy,
ale również bez określonego, zaprogramowanego schematu – stosowane technologie
pozwalają na uczenie się pojazdu na podstawie zbieranych na bieżąco informacji,
stanowiących podstawę do opracowania wzoru i budowy zróżnicowanych modeli działania
służących do podjęcia optymalnej w danym momencie decyzji. Pojazdy działają zatem
w oparciu o schematy umożliwiające analizowanie swoich doświadczeń i podejmowanie
nowych strategii, zarówno w celu wyciągania z nich wniosków, jak i dostosowania działań
do nowych sytuacji. Dlatego, co podkreśla T. Neumann, nikt nie jest w stanie precyzyjnie
określić jak pojazd zachowa się w określonej sytuacji. Dla niektórych poziomów
autonomiczności, zwłaszcza pierwszego i drugiego, ciężko jest jednoznacznie określić,
czy przyczyną wypadku było zachowanie kierowcy, czy awaria pojazdu. Rozwój i wdrażanie
nowych technologii może się zatem przyczynić do konieczności zmian w dotychczasowej

395
Konwencja wiedeńska o ruchu drogowym z 8 listopada 1968 r., Dz.U. 1988 nr 5 poz. 40 i 44; por. Ustawa z
dnia 20 czerwca 1997 r. Prawo o ruchu drogowym, Dz.U. 1997 nr 98 poz. 602.
159
metodyce klasyfikacji wypadków przez towarzystwa ubezpieczeniowe. Niektórzy specjaliści
w tej dziedzinie proponują stworzenie funduszy odszkodowawczych dla osób,
które ucierpiały w wypadkach spowodowanych przez pojazdy autonomiczne, inni z kolei
wskazują, że to producenci pojazdów i sterującego nim oprogramowania powinni ponosić
odpowiedzialność za powstałe w ten sposób szkody396.
Jeżeli chodzi o kwestię bezpieczeństwa komunikacyjnego, niezbędne jest odniesienie
do negatywnych aspektów związanych z wdrażaniem i korzystaniem z pojazdów
autonomicznych. Główną wątpliwością w tym zakresie jest zachowanie pojazdu w sytuacji,
gdy system zdoła przewidzieć kolizję, ale nie będzie w stanie jej zapobiec. Czyje życie
i zdrowie będzie wówczas chronił – kierowcy, pasażera, przechodnia? Jakimi czynnikami
będzie się kierował dokonując oceny? Eksperci Polskiego Instytutu Ekonomicznego
podkreślają, że jednym z kluczowych wyzwań związanych z masową produkcją
i wykorzystywaniem samochodów autonomicznych jest odpowiednie zbadanie aspektów
moralnych i ich dostosowanie do zróżnicowanych globalnie warunków kulturowych 397.
Jak wskazuje Piotr Arak, Dyrektor Polskiego Instytutu Ekonomicznego, „z raportu
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

międzynarodowej grupy GEAR 2030 wynika, że w perspektywie 10-20 lat modele


autonomiczne będą stanowić 20-30 proc. wszystkich pojazdów (…) oznacza to, że do 2035
roku po światowych drogach będzie jeździć ponad 21 milionów autonomicznych aut. Jednak
powodzenie tego planu zależy nie tylko od stworzenia odpowiednich ram prawnych, lecz
także od odpowiedzenia sobie na pytanie na ile sztuczna inteligencja może decydować o życiu
i śmierci. Nierozwiązanie tego dylematu może działać jak hamulec ręczny dla rozwoju
i upowszechniania aut autonomicznych”398. W poszukiwaniu odpowiedzi na wątpliwości
związane z oddaniem decyzji moralnych maszynom sterowanym sztuczną inteligencją,
naukowcy z Massachusets Institute of Technology przeprowadzili eksperyment nazwany
„Moral Machine”, którego celem było ustalenie, w jaki sposób należy programować pojazdy
autonomiczne. Istotnym aspektem było to, że auta te programują konkretni ludzie, będący
przedstawicielami określonych kręgów kulturowych, posiadający specyficzne intuicje
moralne, które nie zawsze są uniwersalnie podzielane. W ramach eksperymentu naukowcom
udało się zgromadzić ponad 40 milionów decyzji podjętych przez ludzi zamieszkujących
ponad 200 państw świata. Dane te pozwoliły określić trzy dominujące poglądy moralne:
 życie ludzkie jest ważniejsze od życia zwierząt;
 życie ludzi młodszych jest ważniejsze od życia osób starszych;

396
Zob. S. Gless, E. Silverman, T. Weigend, If Robots Cause Harm, Who is to Blame? Self-Driving Cars and
Criminal Liability, „New Criminal Law Review”, 2016, nr 19 (3).
397
Zob. A. Kubisiak, Czynniki etyczne i kulturowe przeciwko samochodom autonomicznym?, [on-line], Polski
Instytut Ekonomiczny, 14.12.2018, http://pie.net.pl/wp-content/uploads/2018/12/14_12_2018_Czynniki-etyczne-
i-kulturowe-przeciwko-samochodom-autonomicznym.pdf (05.03.2020).
398
Ibidem.
160
 ocalenie większej liczby ludzkich istnień jest preferowane ponad możliwość zachowania
życia mniejszej liczby ludzi399.
Jednocześnie wyniki badań ujawniły istotne różnice w poglądach determinowane
rodzimą kulturą respondentów. Tomasz Kwarciński, analityk PIE podkreśla, że uzyskane
wyniki mają istotne znaczenie praktyczne. Decydenci polityczni będą musieli
zaimplementować do porządku prawnego przepisy odnoszące się do decyzji moralnych
podejmowanych przez sztuczną inteligencję400, zaś korporacje motoryzacyjne dostarczające
produkty na światowe rynki będą musiały wziąć pod uwagę zróżnicowane preferencje
i intuicje moralne odbiorców swoich pojazdów. Ekspert nie wyklucza również, że pojazdy
zaprogramowane przez zachodnich producentów przyczynią się do zmiany dotychczasowych
poglądów i intuicji użytkowników, co sprawi, że przeprogramowaniu ulegnie nie tylko
dotychczasowy sposób organizacji ruchu ulicznego, ale również myślenie w kategoriach
dobra i zła.
Kolejna kwestia to czas wprowadzania pojazdów autonomicznych do ruchu
drogowego. Jak wskazuje już wcześniej przywoływany T. Neumann, istotne jest, aby proces
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

tej implementacji był jak najkrótszy, tak aby całkowicie wyeliminować z użytku pojazdy
konwencjonalne, ponieważ pozwoli to podnieść poziom bezpieczeństwa komunikacyjnego
i transportowego401. Tymczasem, jeżeli nawet pojazdy autonomiczne staną się powszechnie
dostępne, kierowcy z różnych względów mogą nie być zainteresowani wymianą swoich aut.
Abstrahując od kwestii finansowych, związanych z nieuniknionymi kosztami zakupu nowego
samochodu, niektórzy kierowcy są emocjonalnie przywiązani do swoich pojazdów,
a przeciętny użytkownik auta wymienia je co ok. 10 lat402. Można zatem założyć,
że większość pojazdów uczestniczących w ruchu drogowym będzie wymagała uczestnictwa
kierowcy jeszcze wiele lat po tym, jak pojazdy autonomiczne znajdą powszechne
zastosowanie. To z kolei, w perspektywie długofalowej może skutkować niepożądanymi
tendencjami. Rządy państw, kierując się dążeniem do tego, aby proces wdrażania pojazdów
autonomicznych przebiegał w skali globalnej, mogą bowiem zadecydować o konieczności
rezygnacji użytkowników z pojazdów tradycyjnych, co spowoduje trudności ekologiczne,
wynikające z konieczności składowania wyeksploatowanych pojazdów oraz ekonomiczne,
związane z brakiem środków finansowych na zakup autonomicznego środka transportu.
Z technicznego punktu widzenia, wśród kluczowych wyzwań technologicznych w obszarze
bezpieczeństwa komunikacyjnego i transportowego, wynikających z upowszechniającego się
stosowania sztucznej inteligencji w pojazdach autonomicznych, P. Skruch wymienia

399
Ibidem.
400
W 2018 r. jedynym krajem, który wdrożył takie regulacje, były Niemcy.
401
Zob. T. Neumann, Perspektywy wykorzystania pojazdów autonomicznych…, s. 791.
402
Ibidem.
161
określenie poziomu niezawodności systemów wykorzystujących AI, a także prawidłowe
zdefiniowanie zbiorów testowych, walidacyjnych i uczących, których zastosowanie przekłada
się na bezpieczeństwo systemów jazdy autonomicznej403.

4.3. Zagrożenia, wyzwania i dylematy związane z wykorzystaniem sztucznej


inteligencji w sferze bezpieczeństwa informacyjnego

W przytaczanym we wcześniejszych fragmentach pracy raporcie czasopisma „Forbes"


poddano analizie opinie ekspertów dotyczące m.in. perspektyw zastosowania technologii
sztucznej inteligencji w bezpieczeństwie systemów informatycznych i cyberprzestrzeni.
Wśród nich pojawiały się również przewidywania trendów negatywnych, związanych
przede wszystkim z zagrożeniami dla cyberbezpieczeństwa. Jednym z najbardziej
prawdopodobnych niebezpieczeństw jest możliwość wykorzystania nowoczesnych
technologii do omijania kontroli bezpieczeństwa i dokonywania włamań przez
cyberprzestępców. Technologia może się bowiem przyczynić nie tylko do efektywnej analizy
mechanizmów ochronnych systemu, ukierunkowanej na wyszukanie jego najsłabszych
i najbardziej podatnych na atak obszarów, ale również umożliwić podłączenie
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

się niezweryfikowanych klientów pod spływające strumienie danych oraz wykorzystanie


ich do dalszych ataków na infrastrukturę sieciową ofiary404.
Z ocen ekspertów wynika, że sztuczna inteligencja może stać się narzędziem
do przejmowania kont użytkowników – w tym przypadku wystarczającej ochrony nie będą
w stanie zapewnić ani hasła, ani kody captcha. Sztuczną inteligencję można bowiem
przedstawić jako potężne ilości danych, algorytmów oraz wykonywanych z ich użyciem
obliczeń. Jak każdy system, również te wykorzystujące AI są narażone na ataki hakerskie.
W przypadku tak dużej skali ich przetwarzania, manipulacja danymi i oddziaływanie
na funkcjonowanie algorytmów stwarza nowego rodzaju wyzwania dla cyberbezpieczeństwa,
zwłaszcza biorąc pod uwagę stale poszerzający się obszar zastosowania sztucznej inteligencji.
Przykładem realnego zagrożenia jest wzrost działalności przestępczej, w tym także
z wykorzystaniem fałszywych danych i sfabrykowanych materiałów, tzw. FDI405.
Wprowadzenie do systemów sztucznej inteligencji fałszywych informacji może zakłócić
pracę korzystających z tych systemów autonomicznych samochodów, inteligentnych
budynków (a nawet miast), infrastruktury wydobycia surowców energetycznych, narzędzi
wykorzystywanych w służbie ochrony zdrowia, a nawet systemów GPS 406. Takie działania

403
Zob. P. Skruch, op. cit.
404
Zob. S. Gliwa, op. cit.
405
Fake Data Injection – pl. wprowadzenie nieprawdziwych danych.
406
Zob. I. Albrycht, Cyberbezpieczeństwo w erze sztucznej inteligencji, [w:] I. Albrycht, S. Autolitano, P.
Gęborys i in., Wyzwania w cyberprzestrzeni. Przykłady rozwiązań, zagrożenia, regulacje, Kraków 2019, s. 39-
40.
162
w odpowiednio dużej skali mogą nie tylko zakłócić funkcjonowanie infrastruktury miejskiej
(a w zależności od okoliczności i rodzaju systemu – również państwowej), ale także
spowodować bezpośrednie szkody fizyczne. Mogą również zaszkodzić (w trudnej
do określenia skali) działalności gospodarczej prowadzonej przez przedsiębiorców.
Biorąc pod uwagę, że ze wsparcia oprogramowania AI w trakcie procesów decyzyjnych
korzystają również ubezpieczyciele, a nawet politycy, prawdopodobnym zagrożeniem stają
się ataki na wykorzystywane w tych obszarach algorytmy szacujące ryzyko i podejmujące
decyzje. Możliwe są również bezpośrednie ataki na modele używane do uczenia i treningu
systemów AI, w wyniku których systemy te od początku działałyby w sposób szkodliwy
dla swoich użytkowników.
Eksperci ds. cyberbezpieczeństwa przewidują, że przekształcenia zachodzące
w tym obszarze w wyniku rozpowszechniania zastosowania AI będą wiązały się z nasileniem
liczby cyberataków, ich automatyzacją oraz znacznym podniesieniem ich efektywności.
Izabela Albrycht zwraca uwagę na sposób, w jaki sztuczna inteligencja zmieni ekonomię
cyberataków – analiza prawdopodobnych zysków i kosztów hakerów pozwala założyć,
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

że opłacalne staną się ataki na cele uważane dotychczas za nierentowne, w tym biznesowe,
cywilne i wojskowe. Jednocześnie, dzięki rosnącej wydajności, łatwości i skalowalności
cyberataków z wykorzystaniem AI, może wzrosnąć liczba podmiotów zdolnych
do ich przeprowadzania407.
Wśród przykładowych cyberataków, które dzięki zastosowaniu technologii AI
mogą stać się znacznie bardziej zaawansowane, należy wyróżnić phishing, wykorzystanie
inteligentnego złośliwego oprogramowania a także zautomatyzowane cyberataki.
Jeżeli chodzi o phishing, to przewiduje się, że ta forma ataku stanie się nie tylko bardziej
zautomatyzowana, ale przede wszystkim spersonalizowana – do tego stopnia, że odbiorca
wiadomości nie będzie w stanie odróżnić, czy korespondencja jest prawdziwa,
czy wygenerowana przez automat. Wyprodukowane komunikaty będą nawiązywały
do faktycznych interakcji użytkowników, o których wiedza pozyskiwana jest na podstawie
pozostawianych przez nich cyfrowych śladów. Ślady te już teraz niezwykle szybko się
powiększają, głównie z powodu powszechnego zjawiska zapisywania danych zarówno
przez urządzenia połączone w sieci internetu rzeczy, jak i przez wykorzystywane
przez użytkowników aplikacje. Dane te mogą być wygenerowane i udostępnione świadomie
(np. poprzez aktywność w mediach i portalach społecznościowych – Facebook, Twitter,
Instagram), jak również pozyskiwane nieoficjalnie (wgląd do kontaktów, notatek
i wiadomości użytkownika, zapis jego lokalizacji, dostęp do czujników monitorujących
parametry ciała, stale uruchomiony mikrofon). Zdaniem Juliana Kinga, komisarza Unii

407
Zob. Ibidem.
163
Europejskiej ds. Unii Bezpieczeństwa, „AI otwiera możliwości korzystania z i nadużywania
ogromnych ilości danych osobowych”408.
W kwestii złośliwego oprogramowania (malware), sztuczna inteligencja może zostać
wykorzystana do zaawansowanego uczenia go o cyfrowym środowisku, w którym
owo oprogramowanie działa, tak aby malware mógł imitować typowe zachowanie
bezpiecznych plików w danym systemie. W ten sposób szkodliwy program będzie działał
w sposób niewykrywalny dla systemów bezpieczeństwa, ominie zabezpieczenia i wydobędzie
z systemu pożądane dane bez uruchamiania alarmu oprogramowania antywirusowego409.
Zagrożenie stanowią również zautomatyzowane cyberataki wielosektorowe, ponieważ
wsparcie ich sztuczną inteligencją, dzięki której maszyny będą w stanie dokonywać ataków
bez przerwy, pozwoli zastąpić w tym zakresie hakerów. Możliwe staną się także szeroko
zakrojone ataki kombinowane, czyli wykorzystujące wszystkie wrażliwe punkty
(błędy oprogramowania, kanały mediów społecznościowych, podatność użytkowników
na ataki socjologiczne) – tutaj AI znajdzie zastosowanie w monitorowaniu i zbieraniu
informacji o możliwych, niezabezpieczonych elementach systemu. Tego rodzaju
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

zautomatyzowane systemy przestępcze będą w stanie podejmować „miliony intuicyjnych


decyzji na sekundę”410, co pozwoli im skutecznie włamywać się do wszelkich systemów,
w tym także zgromadzonych w chmurze czy Internecie rzeczy.
Sztuczna inteligencja stale przekształca poznaną dotychczas listę zagrożeń, nie tylko
rozwijając znane dotąd niebezpieczeństwa w wymiarze cyfrowym, ale również generując
nowy wymiar ataków w cyberprzestrzeni. Skrajnie niebezpieczne może być zwłaszcza
nieautoryzowane wykorzystanie AI do szkodliwej transformacji działania urządzeń takich
jak pojazdy autonomiczne, sprzęt medyczny, drony czy roboty, po którym stały by się
one narzędziem ataku na człowieka411.
W szerszej perspektywie szkodliwe wykorzystanie sztucznej inteligencji w wymiarze
bezpieczeństwa informacyjnego państwa może przyczynić się do powstania nowych
cyberzagrożeń dla demokracji i pokoju, głównie w postaci socjomanipulacji i naruszania
prywatności. Może ona bowiem zostać użyta w celach politycznych, inwigilacyjnych,
do wprowadzania odbiorców w błąd i wywierania na nich zaplanowanego politycznie
wpływu. Zwiększa się zatem prawdopodobieństwo prowadzenia zaawansowanej wojny
informacyjnej. Zgodnie z definicją zaproponowaną przez Bohdana Paca, dotyczy ona sfery
ludzkiej świadomości, gdzie poprzez oddziaływanie na wolę, w szczególności na proces
408
The EU needs its own security strategy to confront the digital threat, “Financial Times” [on-line], 31.01.2019,
https://www.ft.com/content/cd9f206e-2562-11e9-b20d-5376ca5216eb (02.07.2020).
409
Zob. S. Finnie, Cyber threats fueled by AI: Security’s next big challenge, [on-line], csoonline.com,
30.10.2018, https://www.csoonline.com/article/3315740/cyber-threats-fueled-by-ai-securitys-next-big-challenge.
html (03.07.2020).
410
Ibidem.
411
Zob. I. Albrycht, op. cit., s. 41.
164
podejmowania decyzji, na sposób postrzegania rzeczywistości, jak również na zasoby i środki
w zakresie przekazywania i przetwarzania informacji, jedna strona konfliktu może
obezwładnić nawet potencjalnego przeciwnika w obszarze mentalności412.
Ten rodzaj konfliktu może trwać latami, zwykle przyjmując charakter systematycznego
działania, prowadzonego w sposób skryty, co wywołuje u strony atakowanej nieodwracalne
skutki. W porównaniu do wojny tradycyjnej, wojna informacyjna charakteryzuje się
stosunkowo niską kosztochłonnością, ale podobnie do niej może mieć wymiar zewnętrzny
(jeżeli jest prowadzona pomiędzy państwami lub podmiotami państwowymi) lub wewnętrzny,
jeśli ogranicza się do działań w obszarze jednego państwa lub narodu. Oddziałując
na masową świadomość w międzypaństwowej rywalizacji systemów cywilizacyjnych
w przestrzeni informacyjnej, strona atakująca może wykorzystywać szczególne sposoby
kontroli nad zasobami informacyjnymi, które mogą z kolei zostać użyte jako
broń informacyjna. Działania te kieruje się zazwyczaj nie tylko przeciw siłom zbrojnym,
ale raczej na całe społeczeństwo i jego świadomość, jak również na aparat administracyjny,
obszar nauki i kultury, a także na przemysł i gospodarkę danego państwa413. Celem wojny
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

informacyjnej jest zazwyczaj przygotowanie zbrojnej interwencji w określonej perspektywie


czasowej, z wykorzystaniem zasobów i aktywów własnych oraz zlokalizowanych na terenie
przeciwnika. Ale nie zawsze wojna informacyjna musi kończyć się konfliktem zbrojnym
– jeżeli z założenia jest ukierunkowana na etyczną, moralną czy ekonomiczną degradację
zarówno społeczeństwa, jak i jego elit, to prowadzone działania mogą ograniczyć się
do przestrzeni wirtualnej. Podporządkowanie jednego podmiotu drugiemu można bowiem
uzyskać przez zdobycie i utrzymanie dominacji gospodarczej i kulturowej, co pozwala
agresorowi ograniczyć koszty i straty wiążące się z konfliktem zbrojnym. Działania
w zakresie wojny informacyjnej mają zapewniać przewagę nad przeciwnikiem pod względem
wiarygodności, kompletności i skuteczności przekazywanych informacji. Wśród działań
destrukcyjnych w stosunku do przeciwnika wskazuje się utrudnianie przyjmowania
informacji, przetwarzania ich oraz zaburzanie możliwości ich wykorzystania – informacja
i operacje jej przetwarzania ściśle łączą się z procesami decyzyjnymi na poziomie
taktycznym, operacyjnym i strategicznym. Dlatego też właściwe oddziaływanie na informacje
i procesy jej przetwarzania, mające na celu ich fałszowanie, zniekształcanie lub podważanie
ich wiarygodności, wpływa na formę i jakość decyzji podejmowanych na wszystkich
szczeblach kierowniczych przeciwnika414. Tego typu działania, oparte na rozpowszechnianiu

412
Zob. B. Pac, Zewnętrzny i wewnętrzny wymiar wojny informacyjnej. Ujęcie systemowo-procesowe, [w:] T.W.
Grabowski, M. Lakomy, K. Oświecimski (red. nauk.), Bezpieczeństwo informacyjne w dobie postprawdy,
Kraków 2018, s. 60.
413
Zob. Ibidem, s. 62.
414
Zob. B. Pac, A. Nowak, M. Borecki, Zastosowanie operacji informacyjnych w planowaniu i prowadzeniu
działań przez Siły Zbrojne RP w ujęciu doktrynalnym, Warszawa 2008, s. 34-37.
165
dezinformacji, mogą służyć realizacji dążeń do naruszeń prywatności i wolności,
radykalizacji zachowań społecznych, szkodliwego wpływu na debatę społeczną, polaryzacji
społeczeństwa czy prowokowania zamieszek i protestów, a w konsekwencji spowodować
podważenie zasad demokracji. Najbardziej prawdopodobnym zagrożeniem w tym aspekcie
wydaje się być możliwe przejście w nowy wymiar kampanii dezinformacyjnych,
a nawet wojen, z wykorzystaniem tzw. deepfake’ów, czyli sfabrykowanych
lub zmanipulowanych, ale wiarygodnie wyglądających nagrań audio i video,
których uczestnikami staną się osoby publiczne. W rękach cyberprzestępców i przeciwników
politycznych takie materiały mogą stać się narzędziem szantażu, kompromitacji, sabotażu
i zastraszenia osób, których wizerunek został w nich wykorzystany. Jednocześnie masowe
użycie takich materiałów może sprawić, że społeczeństwo nie będzie w stanie zaufać
informacjom przekazywanym w mediach lub zacznie wierzyć w treści nieprawdziwe.
Dezinformację można wręcz uznać za główne narzędzie wojny informacyjnej – zgodnie
z definicją zawartą w „Słowniku terminów i definicji NATO”, pod pojęciem tym należy
rozumieć „wszelkie przedsięwzięcia mające na celu wprowadzenie przeciwnika
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

w błąd poprzez manipulowanie, działania pozorujące i preparowanie dowodów, prowokujące


działania szkodzące jego własnym interesom”415. W tym kontekście zastosowanie narzędzi
sztucznej inteligencji może znacząco zwiększyć zarówno skalę, jak i zasięg oddziaływania
działań dezinformacyjnych. W dalszej perspektywie może ona zostać również użyta
do tzw. obezwładnienia informacyjnego przeciwników, np. poprzez zastosowanie
jej w atakach na obiekty infrastruktury krytycznej innych stron konfliktu. W pierwszej
dekadzie XXI w. odnotowano co najmniej kilka poważnych incydentów w infrastrukturze
krytycznej – za tego typu incydent uznaje się zdarzenie, w wyniku którego kluczowa usługa
świadczona przez operatora jest niedostępna dla co najmniej 100 tys. użytkowników w czasie
jednej godziny, ale również sytuację, w której incydent powoduje poważne obniżenie jakości
świadczonej usługi kluczowej, odczuwalne dla ponad 100 tys. klientów. W definicji
poważnego incydentu infrastruktury krytycznej mieści się również zdarzenie, w wyniku
którego zaistniało ryzyko utraty życia lub zdrowia ludzi, jak również takie, w którym straty
dla co najmniej jednego użytkownika wyniosły 1000000 zł416. Najgłośniejsze w Europie
poważne incydenty w odniesieni do infrastruktury krytycznej miały miejsce w 2007 r.
w Estonii kiedy w wyniku 128 ataków na kluczowe dla funkcjonowania państwa strony
internetowe, przez dwa tygodnie kraj był sparaliżowany, nie mogąc świadczyć znaczących
usług dla społeczeństwa. Z kolei w 2008 r. doszło do wybuchu, w wyniku którego

415
AAP-6. Słownik terminów i definicji NATO, [on-line], wp.mil.pl, 2017,
https://wcnjik.wp.mil.pl/u/AAP6PL.pdf, s. 128 (10.03.2019).
416
Zob. J. Syta, Konieczność skutecznej ochrony Infrastruktury Krytycznej Państwa w świetle najciekawszych
ataków, 2018, [on-line: prelekcja na Exatel Security Days], (09.11.2019).
166
zniszczeniu uległo 150 m rurociągu Baku-Tbilisi-Ceyhan. Odkryte po ataku zakłócenia pracy
kamer monitorujących otoczenie wokół rurociągu oraz brak zarejestrowania eksplozji
przez jakiekolwiek czujniki wskazywały na to, że do przeprowadzenia ataku wykorzystano
sieć. Cyberataki mogą zatem doprowadzić do zniszczeń fizycznych. Szczególnie
niebezpieczne dla funkcjonowania państwa może być odcięcie od dostaw energii elektrycznej.
W kontekście opisanych wcześniej zagrożeń bezpieczeństwa informacyjnego,
konieczne jest zatem zachowanie przez człowieka zdolności krytycznego myślenia
i weryfikacji pozyskiwanych informacji oraz ich źródeł. Jest to o tyle istotne, że treści
przygotowywanych, udostępnianych i powielanych przy użyciu narzędzi opartych
na sztucznej inteligencji stale przybywa. Według raportu „Bot Traffic Report 2016”,
mniej niż połowa całego ruchu w Internecie (48%) jest generowana przez ludzi – pozostałe
52% to działalność botów, wyręczających człowieka w konkretnych czynnościach,
w tym przypadku – w aktywności internetowej. Około 30% z nich to złe boty,
wykorzystywane do przestępczości internetowej. Mogą one zostać nielegalnie wynajęte
i użyte do szybkiego rozprzestrzeniania zarówno złośliwego oprogramowania i wirusów,
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

jak również do fałszywych komunikatów (zwłaszcza w mediach społecznościowych)


czy generowania spamu lub innych oszustw internetowych. Ataki te mogą być
przeprowadzone na platformach stacjonarnych (komputery domowe), mobilnych (telefony,
tablety, smartfony), ale również na różnego rodzaju inteligentnych sprzętach domowych
funkcjonujących w środowisku internetu rzeczy417. Złe boty mogą również atakować systemy
bankowe, doprowadzając w ten sposób do zawirowań na światowych rynkach finansowych –
przykładem może być np. działalność bitcoinowego bota transakcyjnego nazwanego „Willy”.
W 2013 r. umieszczono go na japońskiej giełdzie MT Gox – jednej z niewielu,
która zajmowała się wymianą i handlem kryptowalutami. W ciągu 6 tygodni Willy zakupił
ok. 250000 bitcoinów, podbijając kurs waluty do ponad 1000$ za 1 BTC. Kiedy utworzona
w ten sposób bańka cenowa pękła, cena bitcoina poszybowała w dół, doprowadzając
w niedługim czasie do krachu na rynku kryptowalut, jak również ostatecznego upadku giełdy
Mt Gox418.
Złośliwe boty mogą również zostać wykorzystane do prowadzenia innych działań
naruszających bezpieczeństwo IT, których celem jest dezinformacja użytkowników.
Możliwe jest np. użycie ich do automatycznego generowania fałszywych wyświetleń
reklamy, co wprowadza w błąd reklamodawców i powoduje marnotrawstwo budżetu

417
Zob. J. Nowak, Koniec hegemonii homo sapiens. Na jakich polach sztuczna inteligencja zdominuje
człowieka?, „Forbes” [on-line], 18.09.2017, https://www.forbes.pl/opinie/sztuczna-inteligencja-zagrozeniem-dla-
ludzi-na-jakich-polach-zdominuje-czlowieka/0lmq3hl (27.07.2020).
418
Oszacowano, że operacje prowadzone przez Willy’ego stanowiły od 30 do nawet 50% całego obrotu tej
giełdy; zob. M. Kosior, Studium upadku Mt Gox. Sprawa Willy Bot’a, [on-line], bithub.pl, 26.02.2019,
https://bithub.pl/artykuly/sprawa-willy-bota-studium-manipulacji/ (28.07.2020).
167
przeznaczonego na prowadzenie kampanii reklamowej. Wśród innych przykładów szkodliwej
działalności można wymienić dostarczanie wydawcom baz danych zawierających ogromne
ilości rekordów, fałszywe, sztucznie stworzone rekordy
Nowe technologie mogą być również wykorzystywane do tworzenia zaawansowanej,
szkodliwej inżynierii społecznej. Wsparcie sztucznej inteligencji umożliwi bowiem
prowadzenie zautomatyzowanej, zaawansowanej i spersonalizowanej propagandy społecznej,
w szczególności za pośrednictwem mediów społecznościowych. Treść przesyłanych
informacji może być dostosowywana do poszczególnych użytkowników na podstawie śladu
cyfrowego, ujawniającego aktywność w cyberprzestrzeni, preferencje, przekonania,
a nawet określony nastrój, jak również przekazywana różnymi kanałami komunikacji
wykorzystywanymi przez użytkownika.
W omawianym kontekście prawdopodobne stają się również nadużycia inwigilacji –
dane masowo gromadzone przez systemy wykorzystujące AI mogą być analizowane
nie tylko przez agencje wywiadowcze, ale również przez hakerów, którzy mogą wykorzystać
zdobyte informacje do działań niezgodnych z prawem. Jednocześnie dostęp i korzystanie
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

z pozyskanych w ten sposób danych stanowi naruszenie praw i wolności obywatelskich,


takich jak prawo do prywatności czy tajemnicy korespondencji.
Najpoważniejszym z możliwych, choć jak na razie raczej mało prawdopodobnym,
niebezpieczeństwem związanym z coraz szerszym zastosowaniem sztucznej inteligencji
jest pojawienie się osobliwości technologicznej, czyli punktu przełomowego, w którym
AI przewyższy możliwości człowieka. Samą osobliwość definiuje się ogólnie jako
hipotetyczny punkt w rozwoju cywilizacji, w którym postęp techniczny stanie się
tak zaawansowany i szybki, że wszelkie przewidywania człowieka w tym zakresie staną się
nieaktualne. Pierwsze użycie terminu „osobliwość” w kontekście rozwoju technologii
przypisuje się Stanisławowi Ulamowi, który posłużył się nim we wspomnieniu rozmowy
z Johnem von Neumannem: „Rozmowa skupiła się na temacie nieprzerwanie
przyspieszającego postępu technologicznego i zmian w ludzkim życiu, które to procesy zdają
się dążyć do pewnego osobliwego punktu w historii naszej rasy, po którym styl życia,
jaki obecnie znamy, nie będzie mógł trwać”419. Niemal dekadę później temat konsekwencji
powstania maszyn bardziej inteligentnych niż ludzie podjął Irving J. Good: „(…) Zdefiniujmy
maszynę ultra inteligentną jako maszynę, która przewyższa intelektualnie każdego człowieka.
Skoro projektowanie maszyn jest jedną z prac umysłowych, maszyna ultrainteligentna
mogłaby projektować jeszcze lepsze maszyny. Byłaby to bez wątpienia eksplozja inteligencji,
która pozostawiłaby człowieka daleko w tyle. Maszyna ultrainteligentna będzie ostatnim

419
S. Ulam, Tribute to John von Neumann, “Bulletin of the American Mathematical Society”, 1958, nr 3 (64), s.
1-49.
168
wynalazkiem człowieka”420. Teorię I.J. Gooda o niekontrolowanej eksplozji inteligencji
spopularyzował Vernor Vinge, używając w jej kontekście terminu osobliwość: „(…)
Wkrótce stworzymy inteligencje większe niż nasze własne. Gdy to się stanie, ludzka historia
osiągnie pewną osobliwość, intelektualny punkt przejściowy tak nieprzenikniony,
jak zakrzywiona czasoprzestrzeń w środku czarnej dziury, i świat przestanie być dla nas
zrozumiały”421. Obawy te nie zniknęły i są wyrażane również przez współczesnych badaczy,
ekspertów i filozofów – zdaniem Nicka Bostroma, naiwnym jest oczekiwanie,
że byty wyposażone w inteligencję przewyższającą ludzką będą działać zgodnie z intencjami
człowieka. Nie można bowiem założyć, ze superinteligencja będzie wyznawać
i identyfikować się z wartościami przypisywanymi świadomemu i rozwijającemu się
społeczeństwu, czyli naukową ciekawością, altruizmem, duchowym oświeceniem
i kontemplacją, bezinteresownością czy dążeniu do zapewniania sobie prostych, życiowych
przyjemności. Trudno również jednoznacznie odpowiedzieć na pytanie, czy realizując
postawione sobie cele, niezrozumiałe dla człowieka z powodu przekroczenia dostępnych dla
niego granic intelektualnych, superinteligencja nałoży sobie ograniczenia pozwalające
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

wyeliminować ryzyko naruszenia interesów ludzkości422. Tym bardziej, jeżeli do realizacji


tych celów superinteligencja będzie potrzebowała nieograniczonej ilości zasobów fizycznych
i uzna za stosowne eliminowanie wszystkich zagrożeń dla siebie i ustalonej samodzielnie
hierarchii wartości – nie można wykluczyć, że za potencjalne zagrożenie zostanie uznany
człowiek, jako również dążący do pozyskania określonych zasobów. N. Bostrom krytycznie
odnosi się również do prowadzonych badań i obserwacji w warunkach kontrolowanych,
wskazując możliwość wystąpienia zjawiska tzw. zdradzieckiego zwrotu
czyli niespodziewanego, nieprowokowanego uderzenia ze strony AI w momencie osiągnięcia
przez nią poziomu superinteligencji i siły wystarczającej do całkowicie niezależnego
działania. Podkreśla, że gdyby w trakcie badań AI zachowywała się zgodnie z oczekiwaniami
człowieka, to można byłoby dążyć do stopniowego zwiększania jej autonomii. Tymczasem,
potencjalnie nieprzyjazna AI, która będzie dysponowała wystarczającą inteligencją, zrozumie,
że założony przez siebie cel będzie mogła zrealizować, jeśli na początku będzie zachowywać
się przyjaźnie, imitując dostosowanie się do założeń człowieka. Nieprzyjazne nastawienie
ujawni dopiero wtedy, kiedy będzie wystarczająco silna – wówczas ewentualny ludzki
sprzeciw wobec jej działań nie będzie miał żadnego znaczenia i okaże się bezskuteczny.
Przed pojawieniem się superinteligencji ostrzegał m.in. Stephen Hawking, wskazując
ten moment jako prawdziwe ryzyko związane z rozwojem AI. Dzięki kompetencjom,
420
I.J. Good, Speculations Concerning the First Ultrainteliigent Machine” [w:] F. Alt, M. Rubinoff (red.),
Advanced in Computers, “Academic Press”, 1965, nr 3, s. 42.
421
V. Vinge, The Coming Technological Singularity: How to Survive in the Post-Human Era, [on-line], San
Diego State University, 1993, https://edoras.sdsu.edu/~vinge/misc/ singularity.html (04.07.2020).
422
Zob. N. Bostrom, Superinteligencja. Scenariusze, strategie, zagrożenia, Gliwice 2016.
169
w jakie będzie wyposażona, „(…) superinteligentna AI będzie świetnie radzić sobie
z osiąganiem celów, a jeśli te cele nie będą spójne z naszymi, to będziemy mieli problem (…),
więc jest niezwykle ważne, żeby prace nad nią szły we właściwym kierunku”423.
W analizowanym kontekście warto mieć również na uwadze, że realizując określony
(czy to przez człowieka, czy - w dalszej perspektywie – samodzielnie) cel, AI może stosować
nieprzewidziane i nieakceptowalne przez człowieka środki. Zjawisko to określa się mianem
przewrotnej realizacji, czyli sposobem osiągnięcia celu w sposób niezgodny z intencją twórcy
(programisty). Aby zilustrować problem, N. Bostrom przytacza przykład hipotetycznego
robota, zaprogramowanego na osiągnięcie celu, jakim jest uszczęśliwienie sponsora projektu
badawczego. Aby zrealizować postawione przed nim zadanie, robot może wywnioskować,
że najskuteczniejszą metodą będzie wszczepienie do mózgu sponsora elektrod stymulujących
ośrodki przyjemności – jak by nie patrzeć, zdefiniowany pierwotnie cel zostanie osiągnięty.
Podobnie sytuacja mogłaby wyglądać w przypadku postawienia przed AI zadania
polegającego na wywołaniu uśmiechu na twarzy uczestników eksperymentu. Cel ten maszyna
mogłaby osiągnąć poprzez opowiedzenie zabawnej historii, odtworzenie śmiesznego filmu
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

lub połaskotanie badaczy, ale nie można również wykluczyć, że za najbardziej skuteczną
metodę wywołania uśmiechu uzna sparaliżowanie mięśni ludzkiej twarzy i utrzymanie ich
w grymasie uśmiechu lub wszczepienie do mózgu człowieka elektrod stymulujących pracę
mięśni twarzy. Pozostając w obszarze bezpieczeństwa państwa, celem postawionym
przed AI mogłoby być opracowanie skutecznego sposobu zapewniania pokoju na świecie.
Nie można wykluczyć, że za najbardziej efektywną metodę osiągnięcia tego celu sztuczna
inteligencja uzna całkowite wyeliminowanie człowieka jako głównego (i w zasadzie
jedynego) generatora konfliktów zbrojnych. Ewentualnie, przyjmując za punkt wyjścia
określenie przyczyn działań wojennych, może uznać za zasadne zniszczenie wszystkich
zasobów naturalnych, tak aby człowiek nie miał o co walczyć. Oczywiście formułując
zadanie dla AI można by wprowadzić odpowiednie warunki ograniczające jej działania,
ale nie sposób przewidzieć wszystkich, w tym również potencjalnie niebezpiecznych metod,
które uzna za skuteczne w realizacji celu.

4.4. Zagrożenia, wyzwania i dylematy związane z wykorzystaniem sztucznej


inteligencji w sferze bezpieczeństwa kulturowego

Źródeł lęków i obaw związanych z ekspansją sztucznej inteligencji badacze upatrują


najczęściej w czynnikach o zróżnicowanym charakterze i genezie. Kluczowe aspekty
kontrowersji dotyczących wykorzystywania technologii opartych na AI są związane
z jej odbiorem społecznym, odwołującym się do argumentów zarówno racjonalnych,

423
J. Nowak, op. cit.
170
jak i emocjonalnych. Wśród najczęściej podnoszonych wątpliwości społecznych
i kulturowych, Monika Torczyńska424 wymienia w pierwszej kolejności możliwość
manipulowania jednostkami lub społecznościami w obszarze życia społecznego poprzez
opisane w poprzednich podrozdziałach deepfake’i, czyli zniekształcanie i fałszowanie treści
audio i wideo. Obecne możliwości technologiczne pozwalają na tworzenie wiarygodnych
manipulacji filmowych, które mogą być wykorzystane m.in. do kompromitowania
przeciwników politycznych, kreowania pożądanych postaw opinii publicznej w działaniach
na rzecz pozyskania i utrzymania władzy politycznej, czy nawet fałszowania dowodów
w sprawach kryminalnych425. Podobne działania mogą zostać wykorzystane do kształtowania
określonych preferencji konsumenckich, poprzez nakłanianie społeczeństwa do wyboru
konkretnych dóbr i usług. Technologia deepfake może zostać także użyta w celu ośmieszenia,
dyskryminacji czy stygmatyzacji jednostek, np. poprzez umieszczenie ich obrazu w treściach
je kompromitujących lub zawstydzających, co może prowadzić do podejmowania decyzji
ingerujących w osobistą sferę życia i relacje interpersonalne.
Jako kolejne możliwe zagrożenie M. Torczyńska identyfikuje transformację dotyczącą
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

funkcjonowania państw demokratycznych, budowy i utrzymania demokracji


i jej oddziaływania w społeczeństwie. Jak wskazują Jean-Gabriel Ganascia i Aleksandra
Przegalińska, „zagrożenie wynika z tego, że wraz z AI zmienia się społeczeństwo (…).
Działanie demokracji jest przedłużeniem państwa i terytorium. Dziś terytoria są penetrowane
technologiami cyfrowymi (…). W rezultacie mogą pojawić się aktorzy niezależni od państwa.
Może to mieć pozytywne skutki, ale może również być niebezpieczne, bo osłabia państwo,
a aktorzy, którzy nie zostali wybrani przez społeczeństwo, są całkowicie niezależni”,
co może prowadzić do podejmowania przez nich działań ingerujących w prawa i wolności
obywateli, bez możliwości wprowadzenia jakichkolwiek mechanizmów kontrolnych426.
Rozwój nowych technologii może również zwiększać zagrożenie atakami
technologicznymi wymierzonymi w bezpieczeństwo publiczne i osobiste członków
społeczeństwa. Włodzimierz Fehler wskazuje, że ataki technologiczne i złamanie
zabezpieczeń pozwalają uzyskać dostęp do chronionych danych, co z kolei umożliwia
ich przejęcie, usunięcie lub modyfikację427. Niebezpieczeństwo stwarza również możliwość
masowej dezinformacji społeczeństwa poprzez generowanie dużej ilości niezweryfikowanych
danych, co z kolei przekłada się na destabilizację sfery bezpieczeństwa, polityki
czy gospodarki państwa. Należy mieć także na uwadze fakt, że tego rodzaju zagrożenia mogą
424
M. Torczyńska, Sztuczna inteligencja i jej społeczno-kulturowe implikacje w codziennym życiu, „Kultura i
Historia”, 2019, nr 36, s. 108-111.
425
Zob. J. Leśkow, Obywatel i demokracja w cywilizacji cyfrowej, „Rzeczpospolita” [on-line], 2019,
https://cyfrowa.rp.pl/opinie/37104-dyrektor-nask-obywatel-i-demokracja-w-cywilizacji-cyfrowej, (29.02.2020).
426
Zob. J.G. Ganascia, A. Przegalińska, Technologie realne i wyobrażone, „Tygodnik Powszechny” [on-line],
2018, https://www.tygodnikpowszechny.pl/technologie-realne-i-wyobrazone-155005 (28.02.2020).
427
Zob. W. Fehler, Sztuczna inteligencja…, s. 78.
171
prowadzić do postępującej deprywacji sfery bezpieczeństwa socjalnego, zdrowotnego
czy informacyjnego, czego ostatecznym efektem może stać się inflacja kapitału zaufania
społecznego wobec instytucji niezdolnych do odparcia ataków technologicznych
i ewentualnej neutralizacji ich skutków.
W prezentowanym obszarze jako wyzwanie dla bezpieczeństwa kulturowego wskazać
można także swoistą nieprzewidywalność technologii opartych na sztucznej inteligencji,
o której świadczy przypadek Tay, czyli bota, który miał symulować otwartą na kontakty
interpersonalne nastolatkę uczącą się i rozwijającą swoje zdolności dzięki kontaktom
z użytkownikami Twittera; w ciągu kilku godzin aktywności w mediach społecznościowych,
bazując na treściach przekazywanych przez innych użytkowników, Tay nieprzewidywalnie
zmieniła swój charakter – przyjazne nastawienie wobec ludzi zostało zastąpione podejściem
pogardliwym i dyskryminującym poszczególne grupy społeczne: bot racjonalizował
m.in. działania Adolfa Hitlera, wskazywał prezydenta G.W. Busha jako odpowiedzialnego
za zamachy terrorystyczne z 11 września 2001 r. i obrażał ruchy feministyczne 428.
Biorąc pod uwagę fakt, że przeciętny użytkownik mediów społecznościowych nie jest
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

w stanie odróżnić autentyczności treści wygenerowanych przez boty od tekstu autorstwa


człowieka, nieobliczalność tego typu może prowadzić do zagrożenia manipulacją
i dezinformacją społeczeństwa poprzez generowanie określonych treści i powielanie ich
jako powszechnie obowiązujących przekonań.
Niebezpieczeństwo stwarza również możliwość utraty kontroli przez człowieka
nad urządzeniami wyposażonymi w sztuczną inteligencję, których samodzielne działania
wiążą się z odpowiedzialnością prawną za wynikające z nich skutki; wizja braku możliwości
kontroli nad maszynami zdolnymi do autonomicznego podejmowania decyzji wprowadza
niepokój wśród ludzi. Rodzą się wątpliwości i obawy związane z brakiem przydatności
człowieka do większości prac, wykorzystywaniem ludzkich ciał czy też ignorowaniem
wartości ludzkiego życia”429. Obawy te nasilają się zwłaszcza w kontekście wizji
ewentualnego konfliktu militarnego czy kryzysu politycznego. Wątpliwości związane
z przypisaniem maszynom odpowiedzialności prawnej za spowodowane przez nie zdarzenia
i podjęte przez nie decyzje odnoszą się zarówno do merytoryki i profesjonalizmu
realizowanych zadań, jak i do kwestii etyczno-moralnych. Obawy te można zaobserwować
współcześnie w procesie ustalania wiarygodności finansowej i zdolności kredytowej
potencjalnych klientów banków, w której wykorzystywane są określone algorytmy
wykorzystujące AI. Negatywna rekomendacja systemu może prowadzić do posądzenia
o dyskryminację klientów, pomimo, że sam system jest, co do zasady, bezstronny.

428
Zob. P. Stylec-Szromek, Sztuczna inteligencja – prawo, odpowiedzialność, etyka, „Zeszyty Naukowe
Politechniki Śląskiej. Seria: Organizacja i Zarządzanie”, 2018, z. 123, s. 506.
429
K. Różanowski, op. cit., s. 132-133.
172
Jak wskazuje Bogdan Mróz430, zachowanie elementów kontroli nad sztuczną inteligencją jest
kluczowe, m.in. ze względu na konieczność określania odpowiedzialności za podjęte decyzje.
Warto mieć również na uwadze możliwe ograniczenia dotyczące prywatności
i wolności jednostek w sferze aktywności politycznej i gospodarczej. Obywatel-konsument
staje się obiektem wszechobecnego marketingu konsumenckiego i politycznego,
co może prowadzić do utraty jego podmiotowości i przekształcenia w uprzedmiotowiony cel
sprzedażowy i propagandowy431. Proceder ten wiąże się z powszechnym gromadzeniem
informacji i danych osobowych członków społeczeństwa przez organizacje
i przedsiębiorstwa, ukierunkowane zwłaszcza na działalność internetową. B. Mróz podkreśla,
że masowe gromadzenie i przetwarzanie danych stwarza zagrożenie nie tylko dla szeroko
rozumianej wolności w Internecie, ale również dla wolności obywatelskiej, niezbędnej
do realizacji założeń wolności i równości społecznej432.
Obawy emocjonalne przed szerokim zastosowaniem technologii opartych na sztucznej
inteligencji wynikają również z niepewności w stosunku do innowacji technologicznych,
a przede wszystkim z negatywnego podejścia do możliwości utraty dotychczasowego
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

„monopolu na inteligencję”, który daje człowiekowi wyjątkową, uprzywilejowaną pozycję


w dotychczasowej organizacji świata. Jak stwierdza Andrzej Mirski, ludzie „nie lubią, gdy to,
co uznają za najcenniejsze i będące rozróżniającą ich od zwierząt cechą, zostaje
im zabrane”433. Dlatego też świadomość zmian technologicznych zachodzących
w otaczającym świecie sprzyja pojawianiu się w społeczeństwie nieprzychylnych postaw
i emocji. Najbardziej pesymistyczne z nich wiążą się z lękiem przed rezultatami działań
i decyzji podjętych nie przez człowieka, a przez inteligentne urządzenia, co do których trudno
jest określić, czy podporządkowują się kontroli człowieka. Nie bez znaczenia jest tutaj
kontekst kulturowy – motyw nieodwracalnych skutków działań podejmowanych
przez samodzielne, inteligentne urządzenia jest eksploatowany w przemyśle filmowym,
głównie w produkcjach opartych na schemacie „buntu maszyn”. Pesymistyczne scenariusze
przedstawiane w tego typu obrazach podsycają negatywne nastroje i lęki społeczne,
strasząc wręcz unicestwieniem przedstawicieli ludzkiego gatunku. W sposób racjonalny
obawy te skomentował K. Różanowski, który przyznał, że perspektywa „powstania
inteligentnych maszyn mogących samodzielnie myśleć i podejmować, wprowadza niepokój
wśród ludzi”, ale i wskazał jednocześnie uzasadnioną przyczynę tego strachu – „nie da się
wykluczyć niebezpiecznego wykorzystania tej technologii, mogącej prowadzić

430
Zob. B. Mróz, op. cit., s. 144.
431
Zob. M. Torczyńska, op. cit., s. 111.
432
Zob. B. Mróz, op. cit., s. 147.
433
A. Mirski, Inteligencja naturalna a sztuczna, czyli inteligencja podmiotu i przedmiotu, [w:] E. Szumakowicz
(red.), Granice sztucznej inteligencji. Eseje i studia, Kraków 2000, s. 83.
173
do katastrofy”434. Należy zatem uznać, że większym problemem związanym ze sztuczną
inteligencją jest nie to, że jej wytwory i narzędzia osiągną w przyszłości poziom inteligencji
równy człowiekowi lub go przewyższający, ale że ludzie go obsługujący maszyny
wykorzystujące nowe technologie popełnią błąd lub też sami wykorzystają ich potencjał
do celów pozostających w sprzeczności z normami prawnymi lub moralnymi.
Inny negatywny aspekt wykorzystania sztucznej inteligencji przedstawia Chris Brahm
– jego zdaniem AI może przyczynić się do zaniku empatii. Systematycznie zwiększa się
liczba firm używająca czat botów lub innych zautomatyzowanych rozwiązań do kontaktów
ze swoimi klientami, co może prowadzić do utraty bliskich więzi z odbiorcami. W obszarze
organizacji sztuczna inteligencja może stwarzać zagrożenie dla menadżerów
wykorzystujących algorytmy do zarządzania zespołami, co oddala ich od pracowników
oraz ich problemów, które tradycyjnie byłyby na bieżąco omawiane z przełożonym. Dlatego
też, choć systemy wspierane AI bez wątpienia zwiększają dynamikę procesów biznesowych
i pozwalają unikać dużej ilości ludzkich błędów, to w procesy decyzyjne nadal musi być
zaangażowany człowiek. Aby zachować kontrolę nad funkcjonowaniem wdrażanych
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

technologii, niezbędne jest zaangażowanie liderów zarówno w określanie celów organizacji,


jak i zakresu zastosowania sztucznej inteligencji do ich osiągnięcia. Jak podkreśla Ch.Brahm,
każdy znaczący algorytm powinien mieć swojego „product managera”, czyli osobę,
która rozumie jego działanie i jest odpowiedzialna za audytowanie jego efektów.
Ta sama osoba powinna monitorować wprowadzanie kolejnych usprawnień
z wykorzystaniem indywidualnych uwag pracowników, partnerów i klientów. Zaangażowanie
człowieka jest niezbędne również w skali kompleksowego zarządzania systemami AI
w organizacjach – tworzenie, implementacja i zarządzanie nimi powinno przebiegać
z uwzględnieniem czynnika ludzkiego i dostosować się do jego wymagań. Każda organizacja
powinna być również w stanie precyzyjnie określić obszary i sytuacje, w których sztuczna
inteligencja będzie ściśle nadzorowana przez człowieka lub nie będzie stosowana w ogóle435.
Empatia nie jest jedyną zdolnością człowieka, która może zostać stłumiona w wyniku
nadmiernego zastosowania sztucznej inteligencji. W podobny sposób AI może oddziaływać
na ludzką zdolność krytycznego myślenia, obniżając ją i skłaniając ku bezmyślnemu
poleganiu na wynikach generowanych przez algorytm. Człowiek dąży do jak najszybszego
uzyskania odpowiedzi na stawiane pytania, tak aby móc przejść do rozwiązywania kolejnego
pojawiającego się problemu. Tymczasem bezkrytyczna wiara w algorytmy może mieć
negatywne skutki – nie tylko odzwyczaja człowieka od poszukiwania informacji w wielu
źródłach i weryfikacji jej prawidłowości, ale również zawęża horyzonty myślowe

434
Zob. K. Różanowski, op. cit., s. 109.
435
Zob. Ch. Brahm, 6 nieoczywistych zagrożeń biznesowych wynikających z rosnącej popularności sztucznej
inteligencji, „Magazyn ITwiz”, 2018, nr 12, s. 13.
174
lub – w zależności od tego, przez kogo jest nadzorowana – może celowo wprowadzać
użytkownika w błąd. Przykładem takiej sytuacji jest korzystanie z treści wyświetlanych
na Facebooku. Polubienie określonego materiału powoduje uruchomienie algorytmów
generujących wyświetlanie treści zbliżonych do tych już zaakceptowanych przez odbiorcę.
W dalszej perspektywie użytkownikowi wyświetlają się jedynie materiały potwierdzające
jego poglądy, w tym uprzedzenia, co z kolei może sprawić, że stanie się on mniej
tolerancyjny wobec odmiennych przekonań prezentowanych przez inne osoby436. Podobne
tendencje można odnaleźć na innych portalach, w których wykorzystywane systemy
rekomendacji mogą podświadomie skłaniać użytkownika do działania w określony sposób –
do obejrzenia określonego filmu, sprawdzenia nieznanej piosenki, przeczytania konkretnej
książki czy umówienia się na randkę z polecaną przez algorytm osobą. Z jednej strony
jest to zdecydowana oszczędność czasu i wysiłku klientów, który musieliby poświęcić
na znalezienie materiałów trafiających w ich gust, z drugiej jednak pojawiają się pytania
o sposób działania algorytmów generujących wyświetlanie polecanych treści. Czy są one
całkowicie bezstronne i bezinteresowne, czy może zostały zasponsorowane i teraz każdemu
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

użytkownikowi, pod płaszczykiem personalizacji, rekomendują treści które przyniosą zysk


ich twórcom? Nie jest tajemnicą, ze firmy budują lojalność klientów i napędzają sprzedaż
dzięki ich doświadczeniom i opiniami. Nierzadko jednak kolejne rekomendacje nie tylko
odzwierciedlają preferencje poszczególnych konsumentów, ale i faktycznie je kształtują.
Dlatego też, jednym z kluczowych wyzwań stojących przed rozwojem AI jest zdolność
do wyjaśnienia, w jaki sposób system podejmuje takie, a nie inne decyzje. Wiadomym jest,
że algorytmy głębokiego uczenia opierają logikę swojego działania na dostarczanych danych,
ale sposób ich działania często pozostaje nie do końca jasny nawet dla ich twórców.
Tymczasem ma to istotne znaczenie w przypadku problemów etycznych, prawnych (kwestia
sprawiedliwości wyroku wydanego przez algorytm) czy medycznych (czy można mieć
pewność, że system diagnozujący chorobę i dobierający medykamenty do jej wyleczenia
jest całkowicie bezstronny i nie został oparty na algorytmach faworyzujących określone
koncerny farmaceutyczne?). Marc Etienne Ouimette437 wskazuje, że w tym kontekście
konieczna jest zdolność stwierdzenia, kiedy system sztucznej inteligencji podjął decyzję
(lub został użyty do jej podjęcia), jak również interpretacja i wyjaśnienie logiki wpływającej
na jej podjęcie. Niemożliwe jest skuteczne dochodzenie zadośćuczynienia za szkody
wywołane niewłaściwym użyciem systemu wykorzystującego AI, chyba że użytkownik
ma świadomość jej użycia lub wie, w jaki sposób jej użycie zmodyfikowało wynik. AI
436
Zob. K. Woś, Sztuczna inteligencja: przez nią coraz mniej myślimy i działamy bez zastanowienia, [on-line],
antyweb.pl, 22.04.2020, https://antyweb.pl/sztuczna-inteligencja-przez-nia-coraz-mniej-myslimy-i-dzialamy-
bez-zastanowienia/ (02.07.2020).
437
pracownik Element AI – kanadyjskiego przedsiębiorstwa zajmującego się budową oprogramowania
wykorzystującego sztuczną inteligencję oraz badaniem efektów i oceną skutków jej użycia; zob. Ibidem.
175
może pomóc człowiekowi w podejmowaniu decyzji w różnych obszarach życia codziennego,
ale kluczowa jest zdolność użytkownika do krytycznego myślenia, weryfikacja
otrzymywanych informacji w kilku źródłach oraz umiejętność racjonalnej oceny bieżącej
sytuacji pod kątem tego, czy podejmowane przez niego decyzje, zaproponowane przez
system, są świadome i nadal leżą w jego najlepszym interesie.
Pozostając przy kulturowym wymiarze bezpieczeństwa, należy odnieść się
do dylematów o charakterze metafizycznym i religijnym. Jak wskazuje M. Torczyńska,
uczeni (m.in. Stephen Hawking czy Elon Musk) oceniający sztuczną inteligencję pod kątem
możliwości praktycznego jej zastosowania, skupiają się raczej na ułomnościach zarówno
algorytmów, jak i sterowanych za ich pomocą urządzeń. Daleko im zatem do bezkrytycznego
zachwytu wynikającego z możliwości tworzenia, wykorzystania i rozwoju inteligentnych
maszyn. Podnoszony jest argument, ze skoro człowiek jest doskonałą, wręcz uniwersalną
maszyną obliczeniową, potrafiącą zrozumieć nowe koncepcje i wykorzystać zdobytą wiedzę
w zróżnicowanych dziedzinach aktywności, charakteryzującą się, ograniczoną co prawda,
zdolnością do samoregeneracji, to po co szukać i tworzyć namiastki, które nigdy nie zrównają
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

się z oryginałem438. Z podejściem tym polemizuje Edwin Bendyk wskazując, że pytanie,


czy maszyna będzie w stanie dorównać człowiekowi, już straciło sens. Teraz ważniejszą
kwestią jest to, czym (lub kim) będą samorozwijające się maszyny439. A. Mirski odnosi się
z kolei do lęku człowieka przed wchodzeniem w rolę bóstwa kreującego, tworzącego
inteligentne istoty, choć pozbawione duszy – „głęboko tkwiące emocjonalnie zastrzeżenie
bierze się z lęku przed wchodzeniem człowieka w rolę Boga – jest to swoisty lęk
przed własnym dziełem (…), lęk głęboki i pierwotny”440. Bardziej odważnie
do przedmiotowego zagadnienia podszedł Anthony Levandowski, proponując postrzeganie
przyszłych, potencjalnie nadludzkich możliwości AI w kategoriach religijnych,
nie zaś wyłącznie technicznych. W 2015 r. zarejestrował on organizację religijną Way
of the Future, której celem jest promowanie bóstwa opartego na sztucznej inteligencji. Nowa
religia ma służyć poprawie komfortu życia ludzkości441.
Powracając do bardziej przyziemnych wyzwań i dylematów związanych
z powszechnym wykorzystaniem narzędzi bazujących na rozwiązaniach sztucznej
inteligencji, warto odnieść się również do zmian, jakie wywoła ono w stylu życia człowieka,
w tym jego pracy. Jak wskazuje Jolanta Kopka, dotychczasowe próby zdefiniowania
podmiotowości i zrozumienia istoty ludzkiej pracy i działań człowieka na rzecz humanizacji
pracy wydają się niewystarczające w kontekście zmieniającej się rzeczywistości. Człowiek

438
Zob. D. McIlwraith, H. Marmanis, D. Babenko, op. cit., s. 25-26.
439
Zob. E. Bendyk, Czy przyszłość nas potrzebuje, „Polityka”, 2018, nr 1 (3142), s. 94.
440
Zob. A. Mirski, op. cit., s. 84.
441
Zob. E. Bendyk, op. cit.
176
od zawsze, na miarę swoich możliwości, dążył do zmiany otaczającego go środowiska.
Obecnie jednak ma miejsce niespotykana wcześniej skala przemian, które noszą znamiona
osobliwości, rozumianej w tym kontekście jako taki punkt w rozwoju cywilizacyjnym,
od którego postęp techniczny nabiera takiej prędkości, że wszelkie przewidywania odnośnie
do przeszłości stają się niewykonalne442. W kontekście pracy ludzkiej, osobliwość polegająca
na dojściu do takiego etapu rozwoju sztucznej inteligencji, w którym przewyższa ona poziom
inteligencji człowieka, może zostać wykorzystana do wspomagania ludzkiego potencjału,
ale również zmieniać w ten sposób charakter aktywności zawodowej i warunki pracy.
Perspektywa czasowa bardziej zaawansowanych zmian, wskazywana obecnie przez
ekspertów, to jedno pokolenie, czyli ok. 20-30 lat. Samo udoskonalanie ludzkich możliwości
i ułatwianie wykonywania przez człowieka pracy nie budzi zastrzeżeń, ale konkretne obawy
rodzi ryzyko zastąpienia pracy ludzkiej pracą robota. W 2013 r. prognozowano,
że w nieodległej perspektywie czasowej ok. 47% dotychczasowych miejsc pracy zostanie
zastąpionych robotami. Cztery lata później prognozy opracowane na podstawie badań
prowadzonych przez uniwersytety Oxford i Yale, w których uczestniczyło 325 naukowców
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

z całego świata, nie były dużo bardziej optymistyczne – wskazano, że w 2024 r. przestaną być
potrzebni tłumacze językowi (wykorzystanie sztucznej inteligencji będzie tańsze, szybsze
i bardziej opłacalne), a w ciągu 45 lat roboty będą w stanie opanować wszystkie zadania
wykonywane dotychczas przez ludzi443. Podobne wyniki badań opublikowali w 2017 r.
amerykańscy badacze, analizujący wpływ nowej rewolucji przemysłowej na rynek pracy
oraz rolę, jaką spełnia w niej robotyzacja i technologie oparte na AI. Z ich raportu „When
Will AI Exceed Human Performance? Evidence from AI Experts” wynika, że w 2053 r.
roboty będą już w stanie wykonywać skomplikowane zawody manualne, co pozwoli zastąpić
ludzkich chirurgów i innych lekarzy, których praca wymaga wysokiej precyzji444.
W podobnym tonie wypowiadają się twórcy raportu Dell Technologies 445 - wyniki ich badań
wskazują, że ok. 85% stanowisk, które będą oferowane w 2030 r., nie zostało jeszcze
utworzonych, ponieważ powstanie nowa, chłonna branża związana z zarządzaniem zasobami
robotów. Biorąc pod uwagę, że rozwiązania bazujące na sztucznej inteligencji wprowadzane
są w coraz większej ilości przedsiębiorstw, gdzie wykorzystywane są do optymalizacji
procesów, redukcji kosztów i automatyzacji pracy polegającej na wykonywaniu
powtarzalnych, wręcz algorytmicznych zadań, nie dziwi fakt, że pracownicy obawiają się

442
Zob. J. Kopka, Czy praca w przyszłości może ulec dehumanizacji, „Władza Sądzenia”, 2017, t. 13, s. 171.
443
Zob. Kiedy roboty zastąpią ludzi? Szybciej, niż myślisz, „Forbes” [on-line], 26.04.2018,
https://www.forbes.pl/gospodarka/sztuczna-inteligencja-kiedy-komputery-zastapia-ludzi/zjxvwme (29.07.2020).
444
Zob. K. Grace i in., When Will AI Exceed Human Performance? Evidence from AI Experts, [on-line],
arxiv.org, 2017, https://arxiv.org/abs/1705.08807 (29.07.2020).
445
Zob. Dell Technologies, The Next Era of Human-Machine Partnerships. Emerging Technologies’ Impact on
Society&Work in 2030, Institute For The Future, 2017.

177
negatywnego wpływu tych rozwiązań zarówno na poziom swojego wynagrodzenia,
jak i bezpieczeństwo zatrudnienia. Wśród dodatkowych zagrożeń wskazywanych przez
pracowników branż, w których wdraża się nowe rozwiązania technologiczne, pojawiają się
także obawy przed nasileniem kontroli i podsłuchu, jak również dehumanizacja pracy
przejawiająca się w konieczności wykonywania poleceń robotów.
Analizując przedstawione powyżej wyzwania należy jednak podkreślić,
że na obecnym etapie rozwoju sztuczna inteligencja nie jest w stanie zastąpić człowieka
we wszystkich procesach decyzyjnych. Nie można wykluczyć, że w przyszłości część obecnie
znanych zawodów i profesji zniknie z rynku pracy, ale w ich miejsce pojawią się nowe.
Aby dostosować się do nadchodzących zmian, konieczne będzie doszkolenie
lub przekwalifikowanie części pracowników. Przewidywane daty całkowitej dominacji
robotów na rynku pracy są różne, odległe i bliżej niesprecyzowane, natomiast zdaniem
badaczy, w wyścigu o wysoką pozycję w nowym, zrobotyzowanym świecie, liczyć się będą
państwa dysponujące bogatym zapleczem naukowym, inwestujące w badania naukowe
i rozwój technologii związanych z AI. Eksperci zwracają również uwagę, że dostosowanie się
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

do nadchodzących zmian będzie wymagało wprowadzenia zmian w dotychczasowym


systemie nauczania – nacisk należy kłaść na rozwój kreatywnego myślenia, ponieważ roboty
będą w stanie zastąpić człowieka w działaniach o charakterze odtwórczym,
w przeciwieństwie do aktywności związanych z tworzeniem i wykorzystywaniem
kreatywnych, innowacyjnych pomysłów.
Wydawać by się mogło, że bastionem ludzkiej kreatywności pozostanie obszar kultury
i sztuki, obejmujący twórczość artystyczną – ta zdolność odróżnia człowieka od wszystkich
innych żywych (i nieożywionych organizmów). Ale i w ten obszar wkroczyła już sztuczna
inteligencja – jak podkreśla Jacek Dukaj, prezentowana przez maszyny zdolność do pisania
tekstów literackich, komponowania muzyki czy malowania obrazów wywołuje w ludzkich
artystach poczucie „niekonieczności i zbędności”446, którego konsekwencją może być
zniechęcenie do dalszej twórczości. Nawet jeżeli sztuka tworzona przez sztuczną inteligencję
nie jest wybitna i nie może być rozpatrywana w kategorii arcydzieł, to często ich jakość
jest praktycznie nieodróżnialna od prac ludzi. System AI zbudowany przez naukowców
z amerykańskiego Rutgers University, nazwany Creative Adversarial Network, po szkoleniu
polegającym na analizie obrazów namalowanych przez ponad 1000 reprezentujących różne
style artystów, był w stanie przygotować i wykonać autorskie prace, spośród których ponad
połowa została uznana przez krytyków za twórczość człowieka. Oprócz zatarcia granicy
pomiędzy twórczością człowieka i maszyny, która może prowadzić do potencjalnych nadużyć

446
J. Dukaj, Sztuka w czasach sztucznej inteligencji, [on-line], Forum Przyszłości Kultury, 2017,
https://forumprzyszloscikultury.pl/upload/jacek-dukaj-sztuka-w-czasach-sztucznej-inteligencji-pdf (28.07.2020).
178
i dezinformacji, istotnym ryzykiem jest możliwość wyeliminowania artystów z obiegu
kulturalnego z uwagi na przewagę AI w obszarze wydajności pracy – szybkości myśli
i szybkości produkcji. Podczas gdy napisanie powieści zajmie człowiekowi kilka miesięcy,
a nawet kilka lat, tak sztuczna inteligencja może hipotetycznie wygenerować dużo większą
ilość sensownej treści – faktycznym ograniczeniem jest w tym zakresie moc obliczeniowa
maszyny.

Obok niewątpliwych szans związanych z postępującym rozwojem technologicznym,


upowszechnianie rozwiązań sztucznej inteligencji generuje również nowe, nieznane wcześniej
zagrożenia, wyzwania i ryzyka dla poszczególnych obszarów bezpieczeństwa państwa.
Podobnie jak korzyści, tak i niebezpieczeństwa wynikające z rozwoju tej dziedziny nauki
mogą się zmaterializować w każdym z jego wymiarów. W sferze bezpieczeństwa militarnego
wśród możliwych zagrożeń należy odnotować w szczególności niekontrolowany rozwój broni
autonomicznej oraz kwestię rozmytej, niedookreślonej odpowiedzialności
za jej wykorzystanie w trakcie konfliktu zbrojnego – zwłaszcza w przypadku broni letalnej.
W tym kontekście należy mieć również świadomość, że sztuczna inteligencja może stać się
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

narzędziem działań ukierunkowanych na zmianę porządku geopolitycznego, napędzając nowy


wyścig zbrojeń. Ryzyko stwarza również możliwa transformacja funkcjonowania państw
demokratycznych, budowy i utrzymania demokracji oraz jej oddziaływania w społeczeństwie
– rozwój nowych technologii może bowiem zwiększać zagrożenie atakami technologicznymi
wymierzonymi w bezpieczeństwo publiczne i osobiste członków społeczeństwa.
W przestrzeni publicznej mogą pojawić się nowe podmioty, niezależne od państwa,
podejmujące działania ingerujące w prawa i wolności obywateli, wobec których nie będzie
możliwości wdrożenia żadnych mechanizmów kontrolnych. Dużym zagrożeniem staje się
także możliwość dezinformacji prowadzącej do manipulowania jednostkami (lub nawet
społeczeństwami) poprzez masowe generowanie dużej ilości niezweryfikowanych
lub fałszywych informacji. W szerszej perspektywie szkodliwe wykorzystanie sztucznej
inteligencji w wymiarze bezpieczeństwa informacyjnego państwa może przyczynić się
do powstania nowych cyberzagrożeń dla demokracji i pokoju, głównie w postaci
socjomanipulacji. Może ona bowiem zostać użyta w celach politycznych, inwigilacyjnych,
do wprowadzania odbiorców w błąd i wywierania na nich zaplanowanego politycznie
wpływu. Zwiększa się zatem prawdopodobieństwo prowadzenia zaawansowanej wojny
informacyjnej. Istotna jest również kwestia możliwego naruszania prywatności – sztuczna
inteligencja otwiera bowiem możliwości korzystania z ogromnych ilości danych osobowych
i ich nadużywania.
Mówiąc o bezpieczeństwie informacyjnym warto odnieść się również do możliwych
zagrożeń w środowisku cybernetycznym. Zagrożenia te wiążą się z możliwością
179
wykorzystania sztucznej inteligencji do cyberataków Oprogramowanie pozwalające
na uczenie maszynowe komputerów jest dostępne w Internecie. Testowanie oprogramowania
za pomocą programów antywirusowych pozwala odkryć algorytmy działania systemów
komputerowych oraz wykryć niedoskonałości i luki w ich działaniu. W takiej sytuacji
atak technologiczny i złamanie zabezpieczeń pozwala uzyskać dostęp do danych chronionych
przez rozwiązania wykorzystujące sztuczną inteligencję i naraża dane na nieuprawniony
dostęp, modyfikację lub utratę, a wykorzystanie w tym procesie inteligentnych maszyn
pozwala znacząco skrócić czas przeprowadzenia skutecznego ataku. Istnieje również ryzyko
użycia AI do przestępstw internetowych oraz naruszeń bezpieczeństwa sieci,
w tym zapewniające funkcjonowanie infrastruktury krytycznej państwa. Zagrożone mogą być
również sieci, w których funkcjonują inteligentne urządzenia, np. pojazdy autonomiczne.
W tym kontekście należy mieć świadomość, że wysoki poziom automatyzacji życia
codziennego będzie skutkował brakiem możliwości użycia niezbędnych urządzeń w
przypadku ataku lub awarii.
Wątpliwości wynikające z materializacji nowych zagrożeń pojawiają się również
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

w obszarze bezpieczeństwa komunikacyjnego – dotyczą one głównie nieustalonej


odpowiedzialności prawnej związanej ze stosowaniem pojazdów autonomicznych i braku
przejrzystości kryteriów zapewniania bezpieczeństwa uczestników ruchu drogowego.
Nieznane wcześniej wyzwania i zagrożenia można również zidentyfikować w sferze
bezpieczeństwa społecznego – odnoszą się one do możliwego wykluczenia cyfrowego osób
niekorzystających z upowszechniających się inteligentnych rozwiązań, ale także
do wątpliwości i obaw związanych z brakiem przydatności człowieka do większości prac.
Głównym ryzykiem jest możliwe zwiększenie bezrobocia w wyniku automatyzacji pracy
i zastępowania ludzi urządzeniami, które nie odczuwają zmęczenia, nie sprzeciwiają się
poleceniom i wykorzystują maksymalnie swoje możliwości.
W długofalowej perspektywie należy mieć świadomość ryzyka możliwości utraty
kontroli przez człowieka nad urządzeniami wyposażonymi w sztuczną inteligencję,
których samodzielne działania wiążą się z odpowiedzialnością prawną za wynikające z nich
skutki. Najbardziej pesymistyczne scenariusze zakładają pojawienie się superinteligencji,
która będzie potrafiła stale i samodzielnie się udoskonalać. W ten sposób nie tylko
przewyższy poziom człowieka, ale osiągnie poziom niekontrolowanego rozwoju, przy czym
jej motywy mogą pozostać nieodgadnione dla pierwotnego twórcy.

180
5. Główne obszary wyzwań i zagrożeń dla bezpieczeństwa w świetle
rozwoju sztucznej inteligencji

5.1. Założenia metodologiczne badania ankietowego z udziałem ekspertów

Przedmiotem badania empirycznego przeprowadzonego na potrzeby rozprawy


była ocena wpływu sztucznej inteligencji na kształtowanie bezpieczeństwa w XXI w.
przez ekspertów, (specjalistów prowadzących badania nad sztuczną inteligencją
oraz przedsiębiorców wykorzystujących tę dziedzinę naukową w ramach prowadzonej
działalności gospodarczej). Jego celem było poznanie opinii i prognoz eksperckich
dotyczących stosowania sztucznej inteligencji w poszczególnych obszarach bezpieczeństwa,
umożliwiające dokonanie analizy znaczenia sztucznej inteligencji jako jednej
z najdynamiczniej rozwijających się dziedzin współczesnej wiedzy oraz ustalenie
pozytywnych i możliwych destrukcyjnych aspektów jej oddziaływania na współczesne
bezpieczeństwo w jego najbardziej istotnych wymiarach. Ważnym aspektem badania było
również ustalenia zapatrywań i przewidywań ekspertów w sferze etycznych wyzwań
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

i zagrożeń dla bezpieczeństwa w świetle intensywnego rozwoju sztucznej inteligencji,


zwłaszcza w zakresie obowiązujących i przyszłych standardów wykorzystania jej narzędzi.
Główny problemem badawczy zawarto w pytaniu: Czy w opinii ekspertów sztuczna
inteligencja stanowi szansę czy zagrożenie dla współczesnego bezpieczeństwa
oraz w jaki sposób kształtuje ona współczesne i przyszłe bezpieczeństwo?
Aby umożliwić jak najbardziej dogłębne odpowiedzi na tak sformułowany ogólny
problem badawczy, określono także dodatkowe poniżej wymienione problemy o charakterze
szczegółowym:
1. Czy sztuczna inteligencja zauważalnie wpływa na codzienne życie człowieka,
a jeżeli tak, to w jaki sposób?
2. W jakich dziedzinach bezpieczeństwa AI znajduje obecnie najszersze zastosowanie,
a w jakich obszarach będzie wykorzystywana w przyszłości?
3. Jakie są główne szanse i zagrożenia dla bezpieczeństwa związane z zastosowaniem
i upowszechnianiem AI?
4. Jakie są stanowiska i przewidywania ekspertów co do osiągnięcia przez maszynę
poziomu superinteligencji?
5. Kto i w jakim zakresie powinien ponosić odpowiedzialność za działania automatów
i narzędzi działających w oparciu o sztuczną inteligencję?
6. Czy dalszy rozwój sztucznej inteligencji wymaga zwiększenia nadzoru nad tym
procesem, a jeżeli tak, to kto powinien go zapewniać?

181
7. W jaki sposób można zapewnić bezpieczne i etyczne wykorzystanie sztucznej
inteligencji w bezpieczeństwie?
Odnosząc się do przyjętych metod i technik badawczych należy wskazać, że badanie
przeprowadzono z wykorzystaniem metody ankietowej. Przyjęto technikę indywidualnej
ankiety elektronicznej, której narzędzie stanowił anonimowy kwestionariusz ankiety.
Skorzystano z narzędzia formularzy Google – link do przygotowanego w tej aplikacji
kwestionariusza ankiety został wysłany do 100 badaczy z wybranych polskich uczelni
i naukowych ośrodków badawczych prowadzących prace nad sztuczną inteligencją,
m.in. z Wydziału Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej
Akademii Górniczo-Hutniczej w Krakowie, Wydziału Informatyki Politechniki Białostockiej,
Wydziału Informatyki i Zarządzania Politechniki Wrocławskiej, Wydziału Matematyki,
Informatyki i Mechaniki Uniwersytetu Warszawskiego, jak również Wydziału Nauk Ścisłych
i Przyrodniczych Uniwersytetu Przyrodniczo-Humanistycznego w Siedlcach. Link do ankiety
umieszczono także na stronie Klubu Biznesu dla Przedsiębiorców Business Centre Club,
co umożliwiło przeprowadzenie badania wśród przedsiębiorców wykorzystujących sztuczną
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

inteligencję w ramach prowadzonej działalności, głównie produkcyjnej. Badanie prowadzono


w okresie od kwietnia do sierpnia 2020 r. – w tym czasie pozyskano odpowiedzi
od 40 uczestników. Na prośbę o wypełnienie kwestionariuszy odpowiedziało zatem poniżej
40% wszystkich osób, do których skierowana była ankieta. Niemniej jednak, biorąc
pod uwagę, że docelową grupę badawczą stanowiła stosunkowo wąska grupa specjalistów
w dziedzinie sztucznej inteligencji w Polsce, jak również, że udział w niej był dobrowolną
decyzją każdego z uczestników, uzyskane wyniki badań uznano za cenny wkład do pracy
badawczej, a co za tym idzie – zadecydowano o umieszczeniu ich w rozprawie.
W kontekście decyzji o przeprowadzeniu badania ankietowego z wykorzystaniem
kwestionariusza ankiety internetowej, należy krótko przedstawić ogólne zalety
tego rozwiązania447. Wśród korzyści płynących z jego zastosowania można wskazać
w szczególności zniesienie ograniczeń przestrzennych, co znacząco ułatwia prowadzenie
badań na terenie całego kraju lub poza jego granicami – na znaczeniu zyskuje odbiorca,
a nie miejsce jego zamieszkania. Dodatkowo, po wyselekcjonowaniu odpowiedniej grupy
odbiorców ankiety, można szybko rozesłać kwestionariusze do uczestników i uzyskać
informacje zwrotne. W przypadku zamieszczenia kwestionariusza w dedykowanym narzędziu
(np. w wykorzystanym w analizowanym badaniu Formularzu Google), link do ankiety można
również umieścić na dowolnej stronie internetowej, co zwykle przekłada się na wyższy
odsetek zwrotu odpowiedzi od uczestników. Istotną kwestią jest również zapewnienie

447
Zob. M. Andrałojć, Zalety i ograniczenia ankiety internetowej jako metody zbierania materiału badawczego
w dziedzinie zzl, „Zarządzanie Zasobami Ludzkimi”, 2006, nr 5, s. 111-112.
182
anonimowości respondentów – w przeciwieństwie do wywiadu bezpośredniego
lub telefonicznego, ankieta elektroniczna (internetowa) eliminuje możliwe niekorzystne
efekty związane z obecnością ankietera i jego ewentualnego wpływu na udzielane
odpowiedzi. Anonimowość pozwala również na bardziej stanowcze i jednoznaczne wyrażanie
opinii. Kolejną zaletą ankiety internetowej jest wykorzystanie innowacyjnych rozwiązań
technologicznych ułatwiających zarówno samo jej wypełnienie, jak i analizę udzielonych
odpowiedzi. Możliwe jest m.in. blokowanie pytań obowiązkowych (co daje gwarancję,
że wszyscy respondenci udzielą na nie odpowiedzi), automatyczne pomijanie pytań,
które nie dotyczą danej ankietowanej osoby, czy też komunikacja z uczestnikiem badania
za pomocą pojawiających się okienek z ostrzeżeniami, wyjaśnieniami lub informacjami
dodatkowymi. Odpowiedzi udzielane przez respondentów na pytania z kwestionariusza
internetowego zapisują się na serwerze, przy czym do momentu zakończenia ankiety
uczestnik może wrócić do dowolnego zagadnienia, przemyśleć swoją odpowiedź
i ewentualnie ją zmienić. Dodatkową zaletą jest fakt, że respondent może wypełnić ankietę
w dogodnym dla siebie momencie, w przeciwieństwie do ankiety prowadzonej telefonicznie
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

lub z wykorzystaniem kwestionariuszy wypełnianych w obecności ankietera. W porównaniu


do ankiety tradycyjnej, dużo łatwiejsze jest również rzetelne opracowanie podsumowania
badania – bieżący zapis elektroniczny udzielanych odpowiedzi praktycznie eliminuje
możliwość popełnienia błędu związanego z transkrypcją danych, a przede wszystkim
oszczędza czas badacza związany z weryfikacją i klasyfikacją otrzymanych wyników.
Podsumowując powyższe uwagi można zatem stwierdzić, że pojawienie się nowych
technologii informacyjnych może przyczynić się do poszerzenia warsztatu badawczego
naukowców. Wykorzystanie Internetu zarówno do zbierania materiału stanowiącego
przedmiot badań, jak i do wyselekcjonowania reprezentatywnej grupy potencjalnych
respondentów oraz przekazania im kwestionariuszy ankiet i uzyskania odpowiedzi zwrotnych,
znacząco skraca czas realizacji procesu badawczego oraz pozwala poświęcić więcej uwagi
analizie uzyskanych wyników.

5.2. Opinie i prognozy ekspertów w zakresie stosowania sztucznej inteligencji


w poszczególnych obszarach bezpieczeństwa

Postępujące upowszechnianie rozwiązań opartych na nowoczesnych technologiach,


w tym bazujących na sztucznej inteligencji, ma obecnie miejsce w wielu obszarach życia
człowieka, zarówno prywatnego, jak i zawodowego. Chcąc zbadać, czy postęp
technologiczny jest odczuwalny w społeczeństwie, zwłaszcza wśród osób, które są związane

183
zawodowo z rozwojem technicznym, ankietowanych zapytano, czy sztuczna inteligencja
ma dostrzegalny wpływ na ich codzienne życie448.

Wykres 1. Rozkład odpowiedzi na pytanie 1. Czy Pani/Pana zdaniem sztuczna inteligencja ma


obecnie dostrzegalny wpływ na Pana/Pani codzienne życie?

3%
15%

Raczej tak
47% Zdecydowanie tak
Raczej nie
Trudno powiedzieć

35%
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

Analizując dane przedstawione na wykresie można zauważyć, że zdaniem 82,5%


badanych sztuczna inteligencja wpływa na ich codzienne życie, przy czym w opinii 35% jest
to wpływ zdecydowany. 15% respondentów nie dostrzega wpływu AI na swoje życie,
zaś 2,5% nie udzieliło jednoznacznej odpowiedzi na tak postawione pytanie.
Celem kolejnego pytania było zbadanie, w której (zdaniem ankietowanych) dziedzinie
bezpieczeństwa sztuczna inteligencja znajduje obecnie najszersze zastosowanie. Badanych
poproszono o wskazanie maksymalnie trzech obszarów bezpieczeństwa, w których
funkcjonują rozwiązania i narzędzia bazujące na AI449.
Zdaniem największej liczby ankietowanych, najbardziej powszechne zastosowanie
sztuczna inteligencja znajduje w sferze bezpieczeństwa informacyjnego, w obszarach takich
jak pozyskiwanie informacji, cybernetyka, kryptografia, ochrona prywatności, weryfikacja
tożsamości, usługi informacyjne i telekomunikacyjne, bezpieczeństwo programów i urządzeń
IT, jak również cyberataki i ochrona przed nimi. Odpowiedź tę wskazało 31 osób, czyli
77,5% badanych. Na drugim miejscu wskazano na zastosowanie AI w obszarach związanych
z bezpieczeństwie komunikacyjnym, tj. w autonomicznych pojazdach cywilnych, sterowaniu
systemami zarządzania ruchem, kierowaniu pojazdami lub innymi środkami komunikacji,
logistyce i spedycji. Tę sferę bezpieczeństwa wskazały 23 osoby, czyli łącznie 57,5%
ankietowanych. Na trzeciej pozycji uplasowało się bezpieczeństwo militarne

448
Rozkład odpowiedzi ilustruje Wykres 1.
449
Rozkład odpowiedzi ilustruje Wykres 2.

184
i związane z nim zastosowanie sztucznej inteligencji w nowoczesnych rodzajach broni,
autonomicznych pojazdach wojskowych, platformach bezzałogowych czy w konstruowaniu
robotów-żołnierzy. Ta opcja została wskazana przez 21 (52,5%) respondentów.

Wykres 2. Rozkład odpowiedzi na pytanie 2. W której z wymienionych dziedzin bezpieczeństwa,


Pani/Pana zdaniem, sztuczna inteligencja znajduje obecnie najszersze zastosowanie?

77,5%

57,5% Bezpieczeństwo informacyjne

52,5% Bezpieczeństwo komunikacyjne


Bezpieczeństwo militarne
50%
Bezpieczeństwo ekonomiczne
20% Bezpieczeństwo kulturowe
Bezpieczeństwo energetyczne
12,5%
Inne
7,5%
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

0 5 10 15 20 25 30 35

W dalszej kolejności ankietowani wybierali takie obszary jak bezpieczeństwo


ekonomiczne (handel i biznes, działalność marketingowa, dokonywanie transakcji
finansowych, inwestycje, obsługa klienta, usługi ubezpieczeniowe), kulturowe (personalizacja
komunikatów, personalizacja reklam, działalność artystyczna, tworzenie dzieł kultury,
tekstów literackich, filmów, muzyki) i energetyczne (zarządzanie zużyciem energii,
wydobycie i wykorzystanie surowców naturalnych, wytwarzanie i zaopatrywanie w energię
elektryczną i gaz). 7,5% ankietowanych dostrzegło również szerokie zastosowanie sztucznej
inteligencji w innym obszarze – bezpieczeństwie produkcji, podkreślając znaczenie innowacji
w procesach optymalizacji wydajności produkcji i podnoszeniu jakości oferowanych dóbr,
głównie poprzez zwiększanie nadzoru nad przebiegiem procesu produkcyjnego.
Uogólnieniu zagadnień z pytania nr 2 poświęcone zostało pytanie dotyczące dziedzin
bezpieczeństwa, w których sztuczna inteligencja znajdzie najszersze zastosowanie w ciągu
najbliższych lat. Rozkład odpowiedzi ankietowanych, których poproszono o wskazanie
maksymalnie trzech takich obszarów, ilustruje wykres450.

450
Zob. Wykres 3.
185
Wykres 3. Rozkład odpowiedzi na pytanie 3. W której z wymienionych dziedzin bezpieczeństwa,
Pani/Pana zdaniem, sztuczna inteligencja znajdzie w najbliższej przyszłości najszersze
zastosowanie?

70%

67,5% Bezpieczeństwo komunikacyjne

62,5% Bezpieczeństwo informacyjne


Bezpieczeństwo militarne
40%
Bezpieczeństwo ekonomiczne
32,5% Bezpieczeństwo energetyczne
Bezpieczeństwo kulturowe
10%
Inne
5%

0 5 10 15 20 25 30

W opinii największej liczby respondentów, w najbliższej przyszłości obszarem


Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

bezpieczeństwa najbardziej otwartym na rozwój technologiczny z wykorzystaniem rozwiązań


SI stanie się bezpieczeństwo komunikacyjne – odpowiedź tę wskazało 70% badanych.
Jako drugą w kolejności dziedzinę wskazano bezpieczeństwo informacyjne (67,5%)
oraz jako trzecie bezpieczeństwo militarne (62,5%). Na dalszych pozycjach uplasowały się
bezpieczeństwo ekonomiczne, energetyczne i kulturowe. Warto odnotować, że podobnie
jak w pytaniu poprzednim, 5% respondentów wskazało na przyszłe wykorzystanie sztucznej
inteligencji w procesie zapewniania bezpieczeństwa produkcji przemysłowej.
Analiza odpowiedzi udzielonych na pytania dotyczące dziedzin bezpieczeństwa,
w których sztuczna inteligencja jest wykorzystywana obecnie i będzie miała zastosowanie
w przyszłości, pozwala wyróżnić przede wszystkim trzy podstawowe sfery jej rozwoju
– bezpieczeństwo informacyjne, komunikacyjne i militarne.
Jak wskazano w poprzednich częściach rozprawy, wdrażanie nowych rozwiązań
opartych na technologii sztucznej inteligencji do poszczególnych obszarów bezpieczeństwa
jest nierozerwalnie związane z pojawianiem się nieznanych dotąd zagrożeń dla tych sfer.
Mając na celu ustalenie, które z tych niebezpieczeństw – w opinii ekspertów - niesie ze sobą
największe ryzyko, ankietowanych poproszono o wskazanie zagrożenia, które uważają
za najbardziej dotkliwe dla społeczeństwa451.

451
Zob. Wykres 4.
186
Wykres 4. Rozkład odpowiedzi na pytanie 4. Wystąpienie którego z poniższych zagrożeń,
wynikających z korzystania z rozwiązań opartych na technologii sztucznej inteligencji, uważa
Pani/Pan za najbardziej niebezpieczne dla społeczeństwa?

8%
8%

45%
15%

17%

7%

Identyfikowanie i śledzenie osób fizycznych za pomocą sztucznej inteligencji, co może doprowadzić do


powstania systemu sprawowania masowego nadzoru nad społeczeństwem

Niejawne stosowanie systemów AI, bez informowania użytkownika o statusie rozmówcy, co może prowadzić
do powstawania więzi, wywierania wpływu na użytkownika lub poczucia obniżenia jego wartości
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

Naruszenie praw obywatelskich poprzez stosowanie mechanizmów oceny punktowej, co może doprowadzić
do dyskryminacji i utraty autonomii człowieka

Tworzenie i rozwijanie systemów śmiercionośnej broni autonomicznej, co może doprowadzić do


niekontrolowanego wyścigu zbrojeń w tym obszarze

Dehumanizacja pracy wynikająca z automatyzacji większości zawodów

Osiągnięcie poziomu technologicznej osobliwości, czyli punktu, w którym AI prześcignie inteligencję ludzką,
stając się nieprzewidywalną i niekontrolowaną przez człowieka

W opinii większości badanych, najbardziej znaczącym zagrożeniem dla społeczeństwa


w kontekście wdrażania i korzystania z rozwiązań opartych na technologii AI jest możliwość
identyfikowania i śledzenia osób fizycznych, stwarzająca niebezpieczeństwo powstania
systemu sprawowania masowego nadzoru. Odpowiedź tę wybrało 45% respondentów.
W dalszej kolejności wskazywano na możliwość naruszenia praw obywatelskich poprzez
stosowanie mechanizmów oceny punktowej, którego konsekwencją może być dyskryminacja
i utrata autonomii praw człowieka (to ryzyko zostało wskazane przez 17% wszystkich
badanych), jak również tworzenie i rozwijanie systemów śmiercionośnej broni
autonomicznej, stwarzające zagrożenie niekontrolowanego wyścigu zbrojeń
wykorzystujących tę technologię (15%). Spośród zaproponowanych w badaniu zagrożeń,
za najmniej znaczące respondenci uznali niejawne stosowanie systemów sztucznej
inteligencji, tj. bez wyraźnego poinformowania użytkownika o statusie jego rozmówcy,
co w dalszej perspektywie może zostać wykorzystane do stworzenia fałszywej więzi
człowieka z automatem (człowiek może być przekonany, że rozmawia z żywą osobą)
187
lub wywierania wpływu na osobę, prowadząc w konsekwencji do podejmowania
nieoptymalnych dla niej decyzji lub poczucia obniżenia jej wartości. Tego rodzaju
potencjalne zagrożenie wskazało 7% uczestników badania.
Dalszą częścią badania dotyczącego nowych szans i zagrożeń dla bezpieczeństwa,
wynikających z wdrażania do poszczególnych jego obszarów rozwiązań wykorzystujących
sztuczną inteligencję, było zdefiniowanie tych szans, które w opinii ekspertów są najbardziej
znaczące dla społeczeństwa. Respondentów poproszono zatem o wskazanie maksymalnie
trzech perspektyw dla bezpieczeństwa związanych z coraz bardziej powszechnym
wykorzystaniem AI452.

Wykres 5. Rozkład odpowiedzi na pytanie 5. Które z poniższych szans, wiążących się


z wykorzystaniem rozwiązań opartych na technologii sztucznej inteligencji, uważa Pani/Pan
za najbardziej istotne dla społeczeństwa?
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

Rozkład uzyskanych odpowiedzi pozwala zauważyć, że w opinii badanych najbardziej


znaczącą szansą związaną z rozwojem sztucznej inteligencji jest implementacja
452
Zob. Wykres 5.
188
inteligentnych rozwiązań w sektorze transportu publicznego, gdzie miałyby one służyć przede
wszystkim analizie natężenia ruchu i wykorzystaniu zebranych danych do optymalizacji tras
przejazdu, ale również zapewnianiu optymalnego działania silników pojazdów czy obniżaniu
ich emisyjności i zmniejszaniu śladu środowiskowego. Tę odpowiedź wybrało 72,5%
wszystkich ankietowanych. Jako drugą w kolejności opcję, badani wskazali możliwość
inteligentnego i ukierunkowanego leczenia chorób zagrażających życiu i obniżających
jego komfort dzięki podniesieniu precyzji diagnostyki (w tym prowadzonej jeszcze
przed zachorowaniem) oraz monitorowanie stanu pacjentów w czasie rzeczywistym – realną
szansę w tym zakresie dostrzega 60% respondentów. Możliwości zastosowania AI w nieco
innym obszarze bezpieczeństwa zdrowotnego, jakim jest usprawnienie systemu opieki
nad osobami starszymi i niepełnosprawnymi, wskazało 45% badanych. Najmniejsza liczba
ankietowanych dostrzegła w obszarze bezpieczeństwa szanse inne, niż zaproponowane
w ramach przedmiotowego pytania. Tylko 5% respondentów podkreśliło znaczenie
możliwości wykorzystania sztucznej inteligencji do optymalizacji procesu produkcyjnego,
zarówno dzięki zwiększeniu jego wydajności poprzez automatyzację określonych,
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

powtarzalnych zadań, jak i podniesienie stopnia nadzoru nad jakością produkcji.


Uzupełnieniu poprzednich dwóch analizowanych zagadnień służyło pytanie szóste,
którego celem było zbadanie, w jakim obszarze eksperci dostrzegają największe ryzyko
zaistnienia niepożądanych skutków wykorzystania rozwiązań opartych na technologii
sztucznej inteligencji. Podobnie jak w pytaniu wcześniejszym, respondentów poproszono
o wskazanie maksymalnie trzech potencjalnych negatywnych konsekwencji związanych
z upowszechnianiem AI w różnych sferach bezpieczeństwa453.
W opinii największej liczby badanych coraz szersze wykorzystanie rozwiązań
bazujących na sztucznej inteligencji stwarza zagrożenie dla prywatności użytkowników,
w szczególności w zakresie gromadzenia i przetwarzania danych osobowych. Tę odpowiedź
wskazało 80% respondentów. W dalszej kolejności uwagę badanych zwróciła
niewystarczająca transparentność działań podejmowanych przez autonomiczne urządzenia
lub programy (67,5% głosów) oraz konieczność zapewniania ochrony pracowników,
których zadania są automatyzowane, a co za tym idzie – przejmowane przez programy
komputerowe lub roboty (w opinii 42,5% ankietowanych). Spośród zaproponowanych
w badaniu ryzyk, za najmniej znaczące respondenci uznali kwestie związane z ochroną
własności przemysłowej i intelektualnej, w tym zagadnienia związane z prawem autorskim.
Ten obszar jako potencjalnie problematyczny wskazało 5% uczestników badania.

453
Zob. Wykres 6.
189
Wykres 6. Rozkład odpowiedzi na pytanie 6. W którym spośród wymienionych obszarów
dostrzega Pani/Pan największe prawdopodobieństwo zaistnienia niepożądanych skutków
wykorzystania rozwiązań opartych na technologii sztucznej inteligencji?

32,5%

80%

27,5%

12,5%

67,5%

5%

42,5%

0 5 10 15 20 25 30 35

Bezpieczeństwo użytkowników

Prywatność użytkowników, w tym kwestie związane z gromadzeniem i przetwarzaniem


Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

ich danych osobowych


Odpowiedzialność prawna za szkody spowodowane przez autonomiczne urządzenia
i/lub programy
Odpowiedzialność finansowa za szkody spowodowane przez autonomiczne urządzenia
i/lub programy
Transparentność działań podejmowanych przez autonomiczne urządzenia lub
programy
Kwestie związane z ochroną własności przemysłowej i intelektualnej, prawa
autorskiego
Ochrona pracowników, których zadania przejmowane są przez autonomiczne
urządzenia lub programy

Celem kolejnego pytania było zbadanie czy eksperci i osoby pracujące na co dzień
ze sztuczną inteligencją postrzegają możliwość osiągnięcia przez AI poziomu inteligencji
równego lub przewyższającego poziom inteligencji tworzącego ją człowieka jako zjawisko
negatywne czy pozytywne. Respondentów poproszono zatem, aby określili swoje podejście
wskazując jedną z proponowanych odpowiedzi454.

55% badanych uznało możliwość zrównania się lub przekroczenia poziomu


inteligencji człowieka przez AI za zjawisko pozytywne, przy czym w opinii 10% jest to opcja
zdecydowanie pozytywna. 30% ankietowanych prezentuje zdanie odmienne, postrzegając
możliwość osiągnięcia poziomu superinteligencji w kategoriach negatywnych. W opinii 3%
badanych jest to zjawisko zdecydowanie negatywne. 15% respondentów wskazało, iż trudno
jest ocenić tę perspektywę jednoznacznie jako negatywne lub pozytywne.

454
Zob. Wykres 7.
190
Wykres 7. Rozkład odpowiedzi na pytanie 7. Czy możliwość osiągnięcia przez sztuczną
inteligencję poziomu inteligencji równego lub przewyższającego poziom inteligencji tworzącego
ją człowieka uznaje Pani/Pan za zjawisko pozytywne czy negatywne?

10%
15%

Zdecydowanie pozytywnie
5%
Raczej pozytywne
Raczej negatywne
Zdecydowanie negatywne
25% 45%
Trudno powiedzieć

Kontynuując wątek potencjalnej możliwości osiągnięcia poziomu superinteligencji


w wyniku zaawansowanego rozwoju technologicznego, postanowiono zbadać zdanie
ekspertów na temat tego, czy dostrzegają oni realną szansę zrównania lub przekroczenia przez
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

AI poziomu ludzkiej inteligencji w ciągu najbliższych 30 lat455.

Wykres 8. Rozkład odpowiedzi na pytanie 8. Czy uważa Pani/Pan, że sztuczna inteligencja


osiągnie w ciągu najbliższych 30 lat poziom inteligencji równy lub przewyższający poziom
inteligencji tworzącego ją człowieka?

5% 5%

15%
Zdecydowanie tak

32% Raczej tak


Raczej nie
Zdecydowanie nie
Trudno powiedzieć
43%

Rozkład uzyskanych odpowiedzi pozwala stwierdzić, że eksperci podchodzą raczej


sceptycznie do wizji tak zaawansowanego postępu technologicznego, który umożliwiłby AI
osiągnięcie lub przekroczenie poziomu inteligencji człowieka w zaproponowanym w badaniu
czasie. 58% badanych wskazało, że jest to niemożliwe, przy czym w opinii 15% sztuczna
inteligencja zdecydowanie nie jest w stanie dotrzeć do tego przełomowego punktu w ciągu 30
lat. Odmienne stanowisko prezentuje 37% badanych . Z kolei 32% uważa takie tempo

455
Zob. Wykres 8.
191
rozwoju AI za możliwe, zaś 5% prezentuje przekonanie, że sztuczna inteligencja
zdecydowanie jest w stanie osiągnąć, a nawet przekroczyć ludzki poziom inteligencji we
wskazanym okresie. 5% badanych nie określiło jednoznacznie swoich przewidywań odnośnie
do zaproponowanego tempa i możliwości rozwoju AI w kontekście ewentualnego osiągnięcia
punktu superinteligencji.
Podsumowując tę część badania należy uznać, że zdaniem ekspertów i osób
pracujących na co dzień ze sztuczną inteligencją, w ciągu najbliższych 30 lat raczej nie
osiągnie ona poziomu inteligencji równego lub przekraczającego poziom intelektualny
tworzącego ją człowieka, natomiast sama możliwość osiągnięcia takiego punktu jej rozwoju
uznawana jest za zjawisko raczej pozytywne.
Celem kolejnego pytania była próba ustalenia czy w opinii ekspertów należałoby
ograniczyć możliwości prowadzenia badań nad tworzeniem i rozwojem sztucznej inteligencji,
np. w celu zapewnienia ścisłej kontroli nad jej etycznym wykorzystaniem lub utrzymania
odpowiednio wysokiego poziomu prac badawczych. Ankietowanych poproszono, aby
wskazali czy widzą potrzebę wprowadzenia ograniczeń w tym zakresie, a jeżeli tak, to jakie
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

ich zdaniem instytucje lub organizacje powinny prowadzić badania w analizowanym


obszarze456.

Wykres 9. Rozkład odpowiedzi na pytanie 9. Jakie instytucje lub organizacje powinny


prowadzić, Pani/Pana zdaniem, badania nad tworzeniem i rozwojem sztucznej inteligencji?

W opinii zdecydowanej większości respondentów badań nad tworzeniem i rozwojem


AI nie powinno się ograniczać poprzez dopuszczanie do ich prowadzenia jedynie określonych
instytucji i organizacji. Odmienne zdanie wyraziło 40% badanych – co trzeci ankietowany
wskazał, że badania w obszarze sztucznej inteligencji powinny być prowadzone przez

456
Zob. Wykres 9.
192
uczelnie wyższe, zaś 7% uczestników wskazało, że instytucjami właściwymi w tym zakresie
są państwowe instytuty badawcze.
Istotą następnego pytania było określenie czy w opinii badanych fakt sponsorowania
(finansowania) prowadzenia badań nad wykorzystaniem sztucznej inteligencji w określonym
przez inwestora obszarze daje mu możliwość wyłącznego decydowania o celu i sposobie
zastosowania tych rozwiązań technologicznych. Ankietowanych poproszono o określenie
swojego stanowiska w tej kwestii poprzez wskazanie tej odpowiedzi, z którą najbardziej się
zgadzają457.

Wykres 10. Rozkład odpowiedzi na pytanie 10. Czy Pani/Pana zdaniem, o celu wykorzystania
technologii opartych na sztucznej inteligencji może decydować jedynie osoba lub organizacja
sponsorująca prowadzenie badań w zamówionym przez siebie obszarze?

5%
10%
25%

Zdecydowanie tak
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

Raczej tak
Raczej nie
Zdecydowanie nie
Trudno powiedzieć
18%
42%

Zdaniem 60% respondentów fakt sponsorowania badań nie uprawnia osoby


lub organizacji je finansującej do nieograniczonego i całkowicie samodzielnego decydowania
o celu wykorzystania opracowanych w ich wyniku technologii i narzędzi opartych na AI,
przy czym prawie co piąty badany twierdzi, że zdecydowanie nie powinno być takiej
możliwości. Odmienne stanowisko wyraża 15% ankietowanych – należy podkreślić,
że w opinii 5% respondentów zdecydowanie sponsor badań powinien być jedynym
decydentem w kwestii wykorzystania ich wyników. Z kolei co czwarty badany nie określił
jednoznacznie swojego stanowiska w analizowanym obszarze.
Podsumowując tę część badania należy uznać, że o ile w prowadzeniu badań nad
rozwojem i wykorzystaniem sztucznej inteligencji w poszczególnych obszarach
bezpieczeństwa nie powinno być ograniczeń instytucjonalnych, o tyle osoba lub organizacja
finansująca ich prowadzenie w zamówionym zakresie nie powinna jako jedyna, w sposób

457
Rozkład uzyskanych odpowiedzi ilustruje Wykres 10.
193
nieograniczony, decydować o celach i sposobach wykorzystania wyników tych badań,
rozumianych w analizowanym kontekście jako wypracowane w ich trakcie technologie,
narzędzia i rozwiązania.
We wcześniejszych rozdziałach dysertacji458 ustalono, że istniejące rozwiązania
prawne w obszarze stosowania sztucznej inteligencji w poszczególnych sferach
bezpieczeństwa wymagają dostosowania do stale zwiększającego się tempa rozwoju nowych
technologii. Chcąc zbadać stanowisko ekspertów w analizowanej kwestii, respondentów
poproszono o udzielenie odpowiedzi na pytanie czy dostrzegają oni potrzebę wprowadzenia
odgórnych regulacji prawnych odnoszących się do zasad tworzenia i rozwoju sztucznej
inteligencji oraz nadzorowania tego procesu przez wyspecjalizowane organy nadzorcze459.

Wykres 11. Rozkład odpowiedzi na pytanie 11. Czy dostrzega Pani/Pan potrzebę wprowadzenia
odgórnych regulacji prawnych dotyczących zasad tworzenia i rozwoju sztucznej inteligencji?

10%
22%
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

10%
Zdecydowanie tak
Raczej tak
Raczej nie
Zdecydowanie nie
Trudno powiedzieć
25%
33%

Zdania ekspertów w badanym zakresie były podzielone. W opinii 47% ankietowanych


należałoby wprowadzić dodatkowe regulacje prawne w zakresie tworzenia, rozwijania
i nadzorowania wykorzystania technologii bazujących na sztucznej inteligencji, natomiast
43% respondentów nie dostrzegło takiej potrzeby. Tylko 1 na 10 badanych nie wyraził
jednoznacznego stanowiska w przedmiotowej sprawie.
Samo stworzenie regulacji prawnych w analizowanym obszarze trudno uznać
za wystarczające do zapewnienia bezpiecznego i etycznego wykorzystania AI. Aby prawo
nie było martwe, należy również określić podmiot odpowiedzialny zarówno za tworzenie,
jak i przestrzeganie nowych regulacji. Chcąc uzyskać pełen obraz przekonań respondentów
w zakresie wprowadzenia regulacji prawnych dotyczących tworzenia, rozwijania

458
Zob. Rozdział 4, podrozdział 4.1. Zagrożenia, wyzwania i dylematy związane z wykorzystaniem sztucznej
inteligencji w sferze bezpieczeństwa militarnego.
459
Zob. Wykres 11.
194
i wykorzystywania narzędzi opartych na technologii sztucznej inteligencji, poproszono ich
o wskazanie instytucji, które ich zdaniem powinny być odpowiedzialne za stworzenie,
wdrożenie i przestrzeganie prawa związanego z nowymi technologiami, w tym AI460.
O udzielenie odpowiedzi na to pytanie poproszono jedynie tych respondentów,
którzy w pytaniu poprzednim udzielili odpowiedzi twierdzącej („raczej tak”
lub „zdecydowanie tak”) – (łącznie było to 19 osób).

Wykres 12. Rozkład odpowiedzi na pytanie 12. Kto, Pani/Pana zdaniem, powinien być
odpowiedzialny za regulacje prawodawstwa związanego z technologią sztucznej inteligencji?

Instytucje Unii Europejskiej

16%
Sejm i Senat

37% Administracja rządowa

Adminstracja samorządowa

Organizacje przedsiębiorców
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

32%
Inne organizacje lub instytucje
5% międzynarodowe

10% Inne
0%
0%

Ankietowani wskazali w dość zróżnicowany sposób instytucje, które ich zdaniem


powinny być odpowiedzialne za wdrażanie i zapewnienie przestrzegania regulacji prawnych
w obszarze nowych technologii. Największa liczba badanych jako podmiot właściwy w tym
zakresie wskazała instytucje Unii Europejskiej – tę odpowiedź wybrało 37% uczestników.
Z kolei w opinii 32% ankietowanych kwestia uregulowania prawodawstwa powinna
spoczywać na barkach instytucji i organizacji międzynarodowych innych niż zaproponowane
w badaniu. Natomiast 16% respondentów wskazało jeszcze inne rozwiązanie kwestii regulacji
prawodawstwa, proponując m.in. wprowadzenie norm międzynarodowych, wypracowanych
w toku konsultacji i ustaleń z ekspertami zajmującymi się nowymi technologiami i sztuczną
inteligencją. Narodowy szczebel regulacji i rozwiązań prawnych jako właściwy
w analizowanym obszarze wskazało łącznie 15% ankietowanych – w opinii 10% za prawo
to powinna wziąć odpowiedzialność administracja samorządowa, zaś zdaniem 5%
zagadnienie to leży w kompetencjach Sejmu i Senatu. Analiza uzyskanych odpowiedzi
pozwala zatem stwierdzić, że w opinii ekspertów, którzy wzięli udział w badaniu,
jeżeli zaistniałaby potrzeba dodatkowego uregulowania obowiązującego prawodawstwa

460
Zob. Wykres 12.
195
w zakresie bezpiecznego i etycznego zastosowania sztucznej inteligencji, to kwestia jego
zaprojektowania, wprowadzenia i zapewnienia przestrzegania leży raczej w kompetencjach
organów i instytucji międzynarodowych niż państwowych.
Celem kolejnego pytania było zbadanie czy eksperci i osoby pracujące na co dzień
z AI miały styczność z dokumentami odnoszącymi się do kwestii etycznych zasad tworzenia
i korzystania ze sztucznej inteligencji, a jeżeli tak, to z jakimi. Ankietowanych poproszono
zatem o wskazanie wszystkich dokumentów, z jakimi mieli okazję się zapoznać, zarówno
w trakcie pracy, jak i poza nią461.

Wykres 13. Rozkład odpowiedzi na pytanie 13. Proszę wskazać dokumenty określające etyczne
zasady tworzenia i korzystania ze sztucznej inteligencji, z którymi miał/-a Pan/Pani styczność

12,5%
25%
47,5%
30%
15%
37,5%
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

0 5 10 15 20
Zasady z Asimolar

Wytyczne Komisji Europejskiej w zakresie etyki dotyczące godnej zaufania sztucznej inteligencji

Prawa Robotyki Asimova

Rezolucja Parlamentu Europejskiego z dnia 16 lutego 2017 r. zawierająca zalecenia dla Komisji
w sprawie przepisów prawa cywilnego dotyczących robotyki (2015/2103(INL))
Międzynarodowe Standardy Rozwoju Sztucznej Inteligencji OECD

Nie miałam/-em styczności z żadnym dokumentem odnoszącym się do etycznych zasad


tworzenia i korzystania ze sztucznej inteligencji

Rozkład uzyskanych odpowiedzi pozwala zauważyć, że najbardziej popularnymi


wytycznymi w obszarze tworzenia i wykorzystywania sztucznej inteligencji są Prawa
Robotyki Asimova. Drugim w kolejności dokumentem najczęściej wskazywanym przez
respondentów jest Rezolucja Parlamentu Europejskiego z 16 lutego 2017 r. zawierająca
zalecenia dla Komisji w sprawie przepisów prawa cywilnego dotyczących robotyki, trzecim
zaś Wytyczne Komisji Europejskiej w zakresie etyki dotyczące godnej zaufania sztucznej
inteligencji. Co ciekawe, więcej niż 1/3 badanych wskazała, że nie miała dotychczas

461
Zob. Wykres 13.
196
styczności z żadnym oficjalnym dokumentem, który odnosiłby się do etycznych zasad
tworzenia i zastosowania AI.
Kolejne dwa pytania miały na celu zbadanie podejścia respondentów do kwestii
uregulowania prawnego statusu sztucznej inteligencji, przede wszystkich autonomicznych
robotów, w kontekście odpowiedzialności za swoją pracę w tym za niepożądane
lub niebezpieczne działania przez nie spowodowane. W pierwszej kolejności ankietowanych
poproszono, aby określili swoje stanowisko w zakresie nadania urządzeniom (autonomicznym
maszynom o sztucznej inteligencji) osobowości prawnej462.

Wykres 14. Rozkład odpowiedzi na pytanie 14. Czy Pani/Pana zdaniem, urządzenia (w tym
roboty) i programy oparte na technologii sztucznej inteligencji powinny otrzymać w przyszłości
osobowość prawną?

5%
13% 5%

Zdecydowanie tak
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

Raczej tak
25%
Raczej nie
Zdecydowanie nie
Trudno powiedzieć

52%

Zdecydowana większość respondentów (77%) jest przeciwna pomysłowi otrzymania


przez urządzenia autonomiczne osobowości prawnej. Jedynie 10% badanych podchodzi
pozytywnie do takiej koncepcji, z kolei 13% ankietowanych nie ma sprecyzowanych
poglądów w tej kwestii.
Następną propozycją poddaną ocenie respondentów była możliwość nadania
urządzeniom autonomicznym, w szczególności humanoidalnym robotom, osobowości
elektronicznej. Ankietowanych poproszono zatem, aby wskazali czy ich zdaniem maszyny
wykorzystujące sztuczną inteligencję powinny otrzymać tego typu status463.

462
Rozkład odpowiedzi ilustruje Wykres 14.
463
Zob. Wykres 15.
197
Wykres 15. Rozkład odpowiedzi na pytanie 15. Czy Pani/Pana zdaniem, urządzenia (w tym
roboty) i programy oparte na technologii sztucznej inteligencji powinny otrzymać w przyszłości
osobowość elektroniczną?

12%

30%
Zdecydowanie tak
Raczej tak
Raczej nie
Zdecydowanie nie
35%
Trudno powiedzieć

18%

5%

W tym przypadku rozkład odpowiedzi ankietowanych był nieco inny niż w pytaniu
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

poprzednim. 47% badanych jest za nadaniem sztucznej inteligencji statusu osobowości


elektronicznej, przeciwne zdanie wyraziło natomiast 23% respondentów. Ta kwestia okazała
się bardziej skomplikowana od dylematu określania osobowości prawnej, o czym świadczy
większa liczba osób, które nie wskazały jednoznacznie swojego stanowiska – odpowiedź
„trudno powiedzieć” wybrał niemal co trzeci badany.
Wyniki tej części badania pokazują, że jeżeli mowa o nadaniu urządzeniom
autonomicznym (maszynom o sztucznej inteligencji) jakiejkolwiek osobowości w celu
uregulowania ich praw, obowiązków i odpowiedzialności za swoje działania, to w opinii
ekspertów powinna być to raczej osobowość elektroniczna, a nie prawna.
Pozostając przy zagadnieniu odpowiedzialności za działania maszyn wyposażonych
w sztuczną inteligencję, istotnym jest odniesienie się do tego, kto powinien taką
odpowiedzialność ponosić, przynajmniej do czasu uporządkowania regulacji w zakresie
prawa robotów. Zdaniem Mateusza Woińskiego, obecnie obowiązujące przepisy w pewnym
stopniu regulują kwestie odpowiedzialności za działania robotów – zawsze w przypadku
szkody spowodowanej przez maszynę, niezależnie od tego, czy jest ona wyposażona w AI
czy nie, odpowiedzialność za zdarzenie ponosi albo jej konstruktor, albo osoba,
w której dyspozycji pozostaje maszyna464. Chcąc zbadać stanowisko ekspertów
w analizowanym obszarze, a przede wszystkim określić, czy ich zdaniem odpowiedzialność

464
Zob Robot odpowie za swoją pracę? Już musimy rozmawiać, jak to uregulować, „Business Insider” [on-line],
10.03.2017, https://businessinsider.com.pl/technologie/nowe-technologie/roboty-i-sztuczna-inteligencja-a-prawo
-i-osobowosc-prawna/k2e2zdx (27.08.2020).
198
spoczywa na projektancie lub konstruktorze maszyny, czy na osobach korzystających
z gotowych maszyn, w pierwszej kolejności respondentów poproszono o wskazanie
czy projektanci i twórcy AI powinni ponosić odpowiedzialność za szkody spowodowane
przez maszyny, oprogramowanie i/lub urządzenia, których działanie byłoby w pełni zgodne
z wgranym algorytmem (np. wadliwym kodem)465.

Wykres 16. Rozkład odpowiedzi na pytanie 16. Czy Pani/Pana zdaniem, projektanci i twórcy
sztucznej inteligencji powinni ponosić odpowiedzialność za szkody popełnione przez
maszyny/oprogramowanie/urządzenia, których działanie byłoby zgodne z wgranym
algorytmem?

15%
25%

8% Zdecydowanie tak
Raczej tak
Raczej nie
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

12% Zdecydowanie nie


Trudno powiedzieć

40%

Rozkład uzyskanych odpowiedzi pozwala zauważyć, że w opinii prawie 2/3


wszystkich respondentów, konstruktorzy maszyn wyposażonych w AI powinni być
odpowiedzialni za aktywność stworzonych przez siebie produktów. Odmienne zdanie wyraził
co piąty badany, natomiast 15% ankietowanych nie miało sprecyzowanych poglądów
w analizowanym zakresie.
Kolejne pytanie zadane respondentom odnosiło się do kwestii odpowiedzialności
za działanie maszyn wyposażonych w AI przez podmioty z nich korzystające. Badanych
zapytano, czy ich zdaniem projektanci i twórcy sztucznej inteligencji powinni ponosić
odpowiedzialność za to, w jaki sposób inne podmioty (czyli odbiorcy zamówionych narzędzi)
będą korzystać z efektów ich pracy466.

465
Zob. Wykres 16.
466
Zob. Wykres 17.
199
Wykres 17. Rozkład odpowiedzi na pytanie 17. Czy Pani/Pana zdaniem, projektanci i twórcy
sztucznej inteligencji powinni ponosić odpowiedzialność za to, w jaki sposób inne podmioty będą
korzystać z efektów ich pracy?

5% 5%

15%

Zdecydowanie tak
Raczej tak
Raczej nie
43%
Zdecydowanie nie
Trudno powiedzieć
32%

75% badanych było zdania, że w momencie przekazania maszyny wyposażonej w AI


Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

do dyspozycji innego podmiotu, który będzie z niej korzystał do własnych celów, projektanci
i twórcy urządzenia lub oprogramowania przestają być odpowiedzialni za to, w jaki sposób
będzie ono wykorzystywane. Jeżeli dysponent maszyny korzysta z niej w nieostrożny sposób
lub wprost używa jej jako narzędzia do wyrządzenia zamierzonej szkody, to jest
on odpowiedzialny za jej działania. Odmienne zdanie wyraziło łącznie 20% respondentów,
którzy wskazali, że odpowiedzialność za sposób wykorzystania sztucznej inteligencji przez
inne podmioty spoczywa na konstruktorze. 5% badanych nie określiło jednoznacznie swojego
stanowiska w analizowanej kwestii.
Podsumowując tę część badania należy stwierdzić, że w opinii większości
respondentów odpowiedzialność za aktywność maszyny wyposażonej w sztuczną
inteligencję, pozostającą w zgodności z zadanym jej algorytmem powinien ponosić
jej projektant i konstruktor, ale nie jest on odpowiedzialny za sposób, w jaki z efektów
jego pracy będą korzystały kolejne podmioty dysponujące maszyną, oprogramowaniem
lub urządzeniem.
Pytanie nr 18 miało na celu zbadanie podejścia respondentów do kwestii świadomości
społecznej w zakresie interakcji ze sztuczną inteligencją i możliwości decydowania
o jej ewentualnym zastosowaniu. Ankietowanych poproszono zatem o wskazanie,
czy zgadzają się ze stwierdzeniem, że ludzie powinni mieć możliwość wyboru w zakresie
korzystania ze sztucznej inteligencji w różnych sferach swojego życia. Jako przykład

200
praktycznego zastosowania AI praktycznego użycia wskazano bankowość, medycynę
i prawo467.

Wykres 18. Rozkład odpowiedzi na pytanie 18. Czy zgadza się Pani/Pan z twierdzeniem,
że społeczeństwo powinno mieć możliwość wyboru, czy pozostawiać decyzję w rękach sztucznej
inteligencji i w jakim stopniu oddać jej decyzyjność w określonych obszarach?

0%
3%
10%

Zdecydowanie tak
Raczej tak
50% Raczej nie
Zdecydowanie nie
37% Trudno powiedzieć
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

Rozkład odpowiedzi pozwala zauważyć, że zdecydowana większość badanych


opowiada się za zapewnieniem człowiekowi prawa decydowania o tym, czy decyzje
w określonych sferach jego funkcjonowania w społeczeństwie będzie podejmował inny
człowiek czy automat wyposażony w sztuczną inteligencję. Odpowiedzi twierdzącej udzieliło
bowiem 87% respondentów. Odmienne zdanie wyraziło 10% ankietowanych, natomiast
w opinii 3% badanych trudno jest udzielić jednoznacznej odpowiedzi na tak sformułowane
pytanie. Wyniki pokazują, jak ważna jest dla ankietowanych świadomość statusu podmiotu,
z którym wchodzą w interakcję, jak również możliwość wyboru statusu i osobowości
decydenta w zróżnicowanych kwestiach życia społecznego.
Celem kolejnego pytania było zbadanie w jakim obszarze działalności organizacji
stosuje się najczęściej rozwiązania oparte na technologii sztucznej inteligencji.
Ankietowanych poproszono zatem o wskazanie czy organizacje i instytucje, z którymi są oni
związani, wykorzystują tego typu rozwiązania technologiczne, a jeżeli tak, to w jakim
zakresie468. Odpowiadając na to pytanie można było wskazać kilka spośród zaproponowanych
obszarów funkcjonowania organizacji.

467
Zob. Wykres 18.
468
Zob. Wykres 19.
201
Wykres 19. Rozkład odpowiedzi na pytanie 19. W jakim obszarze działalności Pani/Pana
organizacji wykorzystuje się rozwiązania oparte na technologii sztucznej inteligencji?

Inne 20%

Moja organizacja nie korzysta z rozwiązań opartych na


43%
technologii sztucznej inteligencji

Bezpieczeństwo 23%

Pozyskiwanie nowych pracowników 10%

Marketing (PR, reklama) 23%

Zarządzanie sprzedażą 13%

Logistyka 13%

Zarządzanie zasobami ludzkimi 13%

Produkcja dóbr i usług 25%

0 5 10 15 20

43% ankietowanych wskazała, że ich organizacja nie korzysta z rozwiązań bazujących


Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

na technologii AI, co jest zrozumiałe w przypadku m.in. wykładowców uczelni wyższych,


w których co prawda powadzone są badania nad sztuczną inteligencją, ale sama uczelnia
może nie korzystać bezpośrednio z tego typu innowacji. Jeżeli chodzi natomiast o rozkład
odpowiedzi twierdzących, to największa liczba respondentów związana była z instytucjami,
w których rozwiązania bazujące na AI są wykorzystywane w procesie produkcyjnym.
Taką odpowiedź wskazał co czwarty uczestnik badania. W dalszej kolejności respondenci
wskazywali takie obszary działania organizacji jak bezpieczeństwo oraz marketing
(rozumiany jako reklama oraz budowanie i utrzymanie pozytywnego PR).
Co piąty ankietowany wybrał opcję „inne” wskazując, że jego organizacja korzysta
z rozwiązań AI w zakresie wsparcia badań naukowych, stosowania algorytmów sterowania,
szeroko rozumianego wsparcia gospodarki, jak również w branży medycznej.
Wyniki badań pokazały, że sztuczna inteligencja znajduje również zastosowanie w takich
obszarach działania organizacji jak zarządzanie sprzedażą, logistyka, zarządzanie zasobami
ludzkimi, a także pozyskiwanie nowych pracowników (wykorzystanie w procesie
rekrutacyjnym).
W kolejnej części ankiety postanowiono zbadać podejście respondentów do kwestii
wykorzystywania sztucznej inteligencji w pracy wykonywanej dotychczas przez człowieka,
czyli zjawiska wiążącego się z automatyzacją i dehumanizacją pracy. Badanych poproszono
aby określili, czy wykorzystywanie rozwiązań opartych na technologii sztucznej inteligencji

202
do zadań, które dotychczas wykonywał człowiek i potencjalną dehumanizację pracy
postrzegają w kategoriach szansy czy zagrożenia469.

Wykres 20. Rozkład odpowiedzi na pytanie 20. Czy Pani/Pana zdaniem, wykorzystanie
rozwiązań opartych na technologii sztucznej inteligencji do pracy wykonywanej dotychczas
przez człowieka i związana z tym dehumanizacja pracy stanowi szansę czy zagrożenie dla
społeczeństwa?

12%
23%

Zdecydowanie szansę
Raczej szansę
5% Raczej zagrożenie
Zdecydowanie zagrożenie

40% Trudno powiedzieć

20%
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

W opinii ponad połowy ankietowanych (52%) wykorzystanie AI do automatyzacji


pracy stanowi szansę dla społecznego wymiaru bezpieczeństwa. Odmienne zdanie wyraziło
25% uczestników badania, przy czym 5% respondentów wskazało, że zdecydowanie
dehumanizacja pracy jest zagrożeniem dla tego aspektu bezpieczeństwa. Prawie ¼ badanych
nie określiła jednoznacznie swojego stanowiska w analizowanym obszarze.
Pozostając w sferze szans związanych z wykorzystaniem sztucznej inteligencji
w bezpieczeństwie postanowiono zbadać, kto w największym stopniu skorzysta na wdrażaniu
kolejnych wysoko zaawansowanych technicznie rozwiązań. W tym celu ankietowanym
zaprezentowano katalog odbiorców (obecnych i przyszłych) narzędzi bazujących na AI
i poproszono o wskazanie czy ich zdaniem upowszechnienie technologii AI przyniesie
poszczególnym grupom wymierne korzyści w skali globalnej470.

469
Zob. Wykres 20.
470
Rozkład odpowiedzi ilustruje Wykres 21.
203
Wykres 21. Rozkład odpowiedzi na pytanie 21. Czy Pani/Pana zdaniem, upowszechnienie
technologii sztucznej inteligencji przyniesie wymierne korzyści w skali globalnej dla poniższych
odbiorców?

Środowisko naturalne 73% 5% 22%

Jakość życia społeczeństwa 70% 5% 25%

Administracja publiczna 67% 10% 23%

Gospodarka krajowa 76% 2% 22%

Konsumenci 88% 2% 10%

Pracownicy 23% 42% 35%

Przedsiębiorcy 85% 5% 10%

0% 20% 40% 60% 80% 100%

Tak Nie Trudno powiedzieć


Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

Jako grupę, która z największą dozą prawdopodobieństwa (w opinii 88% badanych)


skorzysta na upowszechnianiu AI, ankietowani wskazali konsumentów. Drugą w kolejności
grupą ocenioną jako ta, która skorzysta na wdrażanych innowacjach są przedsiębiorcy (85%),
trzecią zaś – szeroko rozumiana gospodarka krajowa (76%). W ocenie badanych
upowszechnienie technologii AI przyniesie wymierne korzyści w skali globalnej dla prawie
wszystkich grup zaproponowanych w badaniu. Jedynym odstępstwem okazała się ocena
realnych korzyści dla pracowników. Tutaj 42% respondentów wskazało, że coraz bardziej
zaawansowane i szerokie zastosowanie AI nie przyniesie tej grupie odbiorców wymiernych
zysków. Była to również grupa, co do której największy odsetek badanych nie potrafił
jednoznacznie ocenić, czy korzyści te się zmaterializują – aż 35% ankietowanych wybrało
odpowiedź „trudno powiedzieć”. W przypadku pozostałych grup jedynie nieliczni
respondenci wskazali, że dalszy rozwój i postęp we wdrażaniu rozwiązań sztucznej
inteligencji nie przyniesie zaproponowanym odbiorcom korzyści – oprócz pracowników,
odpowiedź „nie” zaznaczali oni najczęściej w odniesieniu do administracji publicznej.
Powyższy rozkład odpowiedzi pozwala stwierdzić, że eksperci raczej pozytywnie
oceniają możliwości i szanse związane z upowszechnianiem AI w poszczególnych obszarach
życia społecznego, jednak należy mieć na uwadze, że w przypadku pracowników
zatrudnionych w organizacjach wykorzystujących rozwiązania bazujące na sztucznej
inteligencji korzyści te (związane przede wszystkim z automatyzacją i robotyzacją prostych,
powtarzalnych lub wręcz monotonnych i uciążliwych prac) mogą nie być aż tak dostrzegalne
w kontekście obaw o utratę stanowiska pracy lub konieczności przekwalifikowania się

204
albo dodatkowego przeszkolenia pracownika w celu umożliwienia efektywnej pracy
z nowoczesnymi technologiami.
W kolejnym pytaniu postanowiono zbadać zdanie respondentów na temat podatności
i zagrożeń, które utrudniają (lub mogą utrudniać) wdrożenie i upowszechnienie stosowania
rozwiązań opartych na technologii sztucznej inteligencji. Ankietowanych poproszono
o wskazanie maksymalnie trzech czynników mogących opóźnić, utrudnić lub uniemożliwić
ten proces471.

Wykres 22. Rozkład odpowiedzi na pytanie 22. Jakie dostrzega Pani/Pan trudności związane z
wdrożeniem i stosowaniem rozwiązań opartych na technologii sztucznej inteligencji?

Inne 7,5%
Słabo rozwinięta infrastruktura informacyjna i
telekomunikacyjna 15%

Niewystarczający rynek zbytu 17,5%

Zbyt mała liczba specjalistów na rynku pracy 40%

Wysokie koszty pracy 5%


Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

Wysokie podatki 5%

Problemy administracyjno-biurokratyczne 25%

Skomplikowane/niewystarczające otoczenie prawne 57,5%

Wysokie koszty sprzętu i materiałów 12,5%

Niedostateczny poziom bezpieczeństwa technologii 67,5%

0 10 20 30

Prawie 2/3 ankietowanych wskazała, że kluczową trudnością w analizowanym


obszarze jest niedostateczny poziom bezpieczeństwa technologii. Na drugim miejscu
uplasowało się skomplikowane lub niewystarczające na chwilę obecną otoczenie prawne,
z kolei jako trzecie znaczące utrudnienie badani wskazali zbyt małą liczbę specjalistów
na rynku pracy. W dalszej kolejności respondenci wybierali w tej dziedzinie problemy
o charakterze administracyjno-biurokratycznym, niewystarczający rynek zbytu
(który umożliwiałby uzyskanie wymiernego zysku z zastosowania nowoczesnych rozwiązań),
jak również słabo rozwiniętą infrastrukturę informacyjną i telekomunikacyjną.
Wśród odpowiedzi zaproponowanych przez ankietowanych często podnoszono również
trudności wynikające z niewystarczającego rozwoju technologii, podniesiono również
problem zawodów/branż/obszarów, w których nie da się zastosować AI z uwagi na to,
że po pierwsze w ich zakresie nie istnieje gwarancja wypracowania optymalnych
i powtarzalnych rozwiązań, a po drugie są one „niemodelowalne algorytmicznie”. Oznacza to,

471
Zob. Wykres 22.
205
że do ich prawidłowego funkcjonowania niezbędny jest – zdaniem uczestnika badania –
subiektywny czynnik ludzki (intuicja lub sumienie). Najmniej liczna grupa badanych
wskazała, że na przeszkodzie sprawnego i powszechnego wdrażania rozwiązań bazujących
na AI stoją takie czynniki jak wysokie koszty pracy i wysokie podatki.
Intencją kolejnego pytania było zbadanie poziomu zaufania respondentów
do konkretnych, praktycznych form wykorzystania AI w poszczególnych obszarach życia
i bezpieczeństwa. Respondentów poproszono w tym celu o wskazanie, czy sami skorzystaliby
z czterech konkretnych osiągnięć technologicznych, których funkcjonowanie wiąże się
z wykorzystaniem sztucznej inteligencji472.

Wykres 23. Rozkład odpowiedzi na pytanie 23. Czy zdecydował/by/-aby się Pan/Pani
na skorzystanie z poniżej wymienionych osiągnięć technologicznych wiążących się
z wykorzystaniem sztucznej inteligencji?

Powierzenie programom działającym w oparciu o 45% 37% 18%


technologie AI realizacji zadań dotyczących obsługi prawnej
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

Powierzenie programom działającym w oparciu o


technologie AI wykonywania nienadzorowanych operacji 35% 50% 15%
finansowych, ukierunkowanych na przyniesienie zysku
użytkownikowi

Korzystanie z usług medycznych realizowanych przez


urządzenia/programy oparte na technologii SI zamiast 47% 30% 23%
tradycyjnego lekarza

Zamiana dotychczasowego środka transportu na 75% 17% 8%


autonomiczny samochód

0% 20% 40% 60% 80% 100%

Tak Nie Trudno powiedzieć

Uzyskane odpowiedzi pokazują, że poziom zaufania do rozwiązań bazujących na AI


jest zależny od poziomu ich powszechności, dostępności i czasu, od jakiego są one stosowane
jak również od charakteru potencjalnych konsekwencji wynikających z błędnego
lub nieprawidłowego ich działania. Świadczy o tym fakt, że 75% uczestników badania
zdecydowałoby się na zamianę dotychczasowego środka transportu na pojazd (samochód)
autonomiczny, które to rozwiązanie jest najbardziej znane spośród wszystkich
zaproponowanych w analizowanym pytaniu. W tym przypadku najbardziej przewidywalne
są również potencjalne zagrożenia wynikające z błędnego działania AI - zmiana trasy,
odebranie użytkownikowi kontroli nad pojazdem, spowodowanie kolizji lub wypadku
drogowego (np. w wyniku niespodziewanego zatrzymania auta). Jest to jedyna spośród
zaproponowanych innowacji, na skorzystanie z której zgodziłaby się ponad połowa

472
Zob. Wykres 23.
206
respondentów. Na skorzystanie z usług medycznych realizowanych przez urządzenia
lub programy oparte na technologii AI zamiast wizyty i diagnozy postawionej
przez tradycyjnego lekarza zdecydowałoby się bowiem 47% ankietowanych, a prawie
co trzeci wybrał w tej kwestii odpowiedź przeczącą. Niewiele mniej, bo 45% badanych
powierzyłoby programom działającym w oparciu o sztuczną inteligencję realizację zadań
dotyczących obsługi prawnej – odmienne zdanie wyraziło 37% uczestników badania.
Najmniejszym zaufaniem respondentów cieszyła się propozycja powierzenia programom
bazujących na AI wykonywania nienadzorowanych operacji finansowych – połowa badanych
nie zdecydowałaby się na skorzystanie z takiej usługi, w przeciwieństwie do 35%
ankietowanych którzy dopuszczali taką możliwość.
O ile w poprzednim pytaniu badano stosunek ekspertów do już istniejących rozwiązań
wykorzystujących sztuczną inteligencję, tak w kolejnej części badania odniesiono się
do dalszych perspektyw rozwoju i wykorzystania tej dziedziny nauki. Chcąc zbadać
przewidywania i prognozy ekspertów w omawianym obszarze, w szczególności w kontekście
zastosowania AI w poszczególnych obszarach bezpieczeństwa, respondentów poproszono
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

o wskazanie właściwych ich zdaniem opcji dokończenia zdania „W związku z rozwojem


technologii opartych na sztucznej inteligencji…”473. Przy każdej wersji zakończenia
powyższego twierdzenia ankietowani mieli możliwość wskazania opcji „tak”, jeżeli zgadzali
się z zaproponowaną prognozą, lub „nie”, jeżeli byli odmiennego zdania.
Największą liczbę głosów ze strony respondentów otrzymało twierdzenie "W związku
z rozwojem technologii opartych na sztucznej inteligencji, oferowane klientom produkty
i usługi będą w przyszłości bardziej spersonalizowane”. Z takim zakończeniem zdania
zgodziło się 95% badanych. W dalszej kolejności ankietowani wskazali, że rozwój
technologii AI przyczyni się do zwiększenia poziomu bezpieczeństwa programów i urządzeń
IT, jak również, że całkowite koszty pracy przedsiębiorstw (obejmujące zakup technologii,
nabycie i konserwację sprzętu, szkolenie i utrzymanie personelu) ulegną zmniejszeniu.
Jednocześnie 2/3 ankietowanych przewiduje również, że poziom kontroli człowieka
nad urządzeniami i oprogramowaniem IT spadnie. Zgodnie z dalszymi przewidywaniami
ekspertów, łatwiej będzie znaleźć pracowników do pracy w branżach wykorzystujących
narzędzia oparte na technologii sztucznej inteligencji (w opinii 60% respondentów), a ogólny
poziom bezpieczeństwa wzrośnie (55% odpowiedzi).

473
Zob. Wykres 24.
207
Wykres 24. Rozkład odpowiedzi na pytanie 24. Mając na uwadze dotychczasowy i
prognozowany stan rozwoju technologii opartych na sztucznej inteligencji, proszę wskazać
prawidłowe, w Pani/Pana opinii, zakończenie zdania: "W związku z rozwojem technologii
opartych na sztucznej inteligencji…”

… trudniej będzie znaleźć pracowników do pracy w branżach


wykorzystujących narzędzia oparte na technologii sztucznej inteligencji.
23% 77%
… łatwiej będzie znaleźć pracowników do pracy w branżach wykorzystujących
narzędzia oparte na technologii sztucznej inteligencji.
60% 40%
… poziom kontroli człowieka nad urządzeniami i oprogramowaniem IT
spadnie.
67% 33%
… poziom kontroli człowieka nad urządzeniami i oprogramowaniem IT
wzrośnie.
27% 73%

… poziom bezpieczeństwa wzrośnie. 55% 45%

… poziom bezrobocia spadnie. 13% 87%


… całkowite koszty pracy przedsiębiorstw(zakup technologii, zakup i
konserwacja sprzętu, szkolenie i utrzymanie personelu) zwiększą się.
20% 80%
… całkowite koszty pracy przedsiębiorstw (zakup technologii, zakup i
konserwacja sprzętu, szkolenie i utrzymanie personelu) zmniejszą się.
78% 22%

… poziom bezpieczeństwa programów i urządzeń IT zmniejszy się. 20% 80%

… poziom bezpieczeństwa programów i urządzeń IT zwiększy się. 78% 22%

… średni koszt pozyskania usług lub produktów specjalistycznych wzrośnie. 13% 87%
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

… średni koszt pozyskania usług lub produktów specjalistycznych spadnie. 78% 22%
… oferowane klientom produkty i usługi będą w przyszłości za bardzo
spersonalizowane.
35% 65%
… oferowane klientom produkty i usługi będą w przyszłości bardziej
spersonalizowane.
95% 5%

0% 20% 40% 60% 80% 100%


Tak Nie

Jednocześnie, pozostając w obszarze podnoszonej wcześniej kwestii personalizacji


produktów, dóbr i usług, 35% badanych obawia się, że oferowane klientom produkty mogą
być w przyszłości aż za bardzo spersonalizowane (wątpliwości tych nie podziela 65%
respondentów). Z kolei jedynie 13% badanych zgodziło się ze stwierdzeniem, że w związku z
rozwojem technologii bazujących na AI spadnie w przyszłości poziom bezrobocia. Tak samo
niska liczba ankietowanych przewiduje, że wzrośnie średni koszt pozyskania usług
lub produktów specjalistycznych.
Ostatnie spośród pytań zamkniętych miało na celu zbadanie ogólnego stanowiska
ekspertów odnośnie szans i zagrożeń wynikających z wdrażania i rozwoju technologii
opartych o sztuczną inteligencję. Respondentów zapytano, czy ich zdaniem w ogólnym
rozrachunku szanse wynikające z coraz bardziej powszechnego stosowania technologii
i rozwiązań wykorzystujących AI przewyższają potencjalne zagrożenia w tym obszarze 474.

474
Zob. Wykres 25.
208
Wykres 25. Rozkład odpowiedzi na pytanie 25. Jak określiłby/-aby Pan/Pani swoje stanowisko
odnośnie szans i zagrożeń wynikających z wdrażania i rozwoju technologii opartych o sztuczną
inteligencję?

Szanse wynikające z coraz szerszego


wykorzystywania technologii opartych
o sztuczną inteligencję przewyższają
20% potencjalne zagrożenia w tym obszarze

Zagrożenia wynikające z coraz


szerszego wykorzystywania
technologii opartych o sztuczną
inteligencję przewyższają potencjalne
57% szanse w tym obszarze
23%
Trudno powiedzieć

Rozkład uzyskanych odpowiedzi pozwala zauważyć, że w opinii większości


Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

respondentów szanse związane z powszechnym zastosowaniem AI w zróżnicowanych


obszarach bezpieczeństwa i codziennego życia człowieka przewyższają zagrożenia
wynikające z tego procesu. Odmienne stanowisko wyraził niemal co czwarty badany –
zdaniem 23% respondentów, to potencjalne zagrożenia przewyższają możliwe korzyści
związane z upowszechnianiem sztucznej inteligencji. 1/5 ankietowanych nie określiła
jednoznacznie swojego stanowiska w analizowanej kwestii.
W dalszej części badania respondentom zadano trzy pytania otwarte, których celem
było przede wszystkim ustalenie ich opinii na temat możliwości i zagrożeń wynikających
z wykorzystania rozwiązań sztucznej inteligencji w obszarach innych, niż zaproponowane
w przeanalizowanej już części ankiety. Dlatego też w pierwszej kolejności respondentów
zapytano, czy dostrzegają inne szanse związane z zastosowaniem sztucznej inteligencji, inne
niż te o których już była mowa w ankiecie. Odpowiedzi na tak zadane pytanie udzieliło
13 osób spośród wszystkich badanych. 3 respondentów wskazało, iż nie dostrzega szans
związanych z wykorzystaniem sztucznej inteligencji innej niż zaproponowane w badaniu.
Zdaniem ankietowanych, istnieje realna szansa zastosowania rozwiązań bazujących
na technologii sztucznej inteligencji w takich obszarach jak:
 bezpieczeństwo ekonomiczne - poprzez umożliwienie rozwoju gospodarczego (państwom
gorzej uprzemysłowionym lub biedniejszym, ale radzącym sobie dobrze w obszarze IT),
jak również optymalizację systemów produkcyjnych i wykorzystanie w tzw. smart
farming, procesów produkcyjnych, co w dalszej perspektywie przekłada się na rozwój
gospodarki);
209
 bezpieczeństwo polityczne (przewidywanie wyników wyborów, kształtowanie polityk
publicznych, podejmowanie decyzji politycznych w oparciu o rozpoznane wcześniej
potrzeby wyborców oraz z uwzględnieniem pełnej wiedzy i zróżnicowanych punktów
widzenia);
 bezpieczeństwo militarne (możliwość ograniczenia konfliktów zbrojnych lub
zapobiegania ich eskalacji w wyniku odstraszania przeciwnika przewagą technologiczną),
a w dalszej perspektywie – bezpieczeństwo kosmiczne (badanie kosmosu);
 bezpieczeństwo informacji (wzrost bezpieczeństwa w systemach IT, lepsze
zabezpieczenia przed atakami na te systemy , szybsze wykrywanie i neutralizacja
zagrożeń, zwiększenie prawdopodobieństwa eliminacji błędów ludzkich w krytycznych
punktach organizacji) i bezpieczeństwo informacyjne (wspomaganie ludzi
w podejmowaniu decyzji w skomplikowanych sytuacjach, wsparcie procesów
decyzyjnych oparte na obiektywnych faktach i dotychczasowych przypadkach
postępowania).
Równie istotna, zdaniem ankietowanych, jest szansa wykorzystania sztucznej
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

inteligencji w dalszym rozwoju innych dziedzin naukowych (poprzez wspieranie badań


naukowych w dziedzinach odmiennych niż AI), co będzie możliwe m.in. dzięki wzrostowi
poziomu nauki spowodowanemu większą ilością wolnego czasu, który dotychczas
był poświęcany na czynności proste, automatyczne, (zastąpienia człowieka robotami).
Jednocześnie respondenci wskazali, że dalsze szanse i perspektywy szerokiego zastosowania
technologii bazujących na AI będą w dużym stopniu uzależnione od przyszłego otoczenia
i rozwiązań prawnych, które przyczynią się do określenia i doprecyzowania obszarów
bezpiecznego i etycznego zastosowania sztucznej inteligencji.
Kontynuując badanie, tym razem pod kątem niepożądanych skutków powszechnego
wykorzystania AI, respondentów zapytano, czy dostrzegają inne zagrożenia związane
z zastosowaniem sztucznej inteligencji, inne niż o których była mowa w ankiecie.
Odpowiedzi na tak zadane pytanie udzieliło 17 osób spośród wszystkich badanych.
Czworo respondentów wskazało, iż nie dostrzega zagrożeń związanych z wykorzystaniem
sztucznej inteligencji innych niż zaproponowane w badaniu. Jako uzasadnienie negatywnej
odpowiedzi wskazano, iż nie w każdym obszarze bezpieczeństwa (lub ogólniej mówiąc –
życia społecznego) decyzje mogą być podejmowane zero-jedynkowo. Niektóre zaś obszary
czy zawody są niemożliwe do zalgorytmizowania i ze względu na swój charakter wymagają
indywidualnej oceny, na podstawie nie tylko dotychczasowych doświadczeń, ale również
intuicji i sumienia oceniających, jak również pojawiających się okoliczności sprawy.
Natomiast nie w każdym obszarze bezpieczeństwa da się znaleźć rozwiązania optymalne.

210
Zdaniem ankietowanych, potencjalne i realne zagrożenia związane z zastosowaniem
rozwiązań bazujących na technologii sztucznej inteligencji mogą obejmować:
 bezpieczeństwo militarne (uzyskanie bardzo dużej przewagi militarnej jednych państw
nad innymi, wykorzystanie w działaniach zbrojnych wobec ludności cywilnej
niezaangażowanej w konflikt, możliwość powstania nowego wyścigu zbrojeń, tym razem
w obszarze broni informacyjnej i broni autonomicznej - to zwiększa prawdopodobieństwo
rozpoczęcia konfliktu hybrydowego (i zwycięstwa w nim));
 bezpieczeństwo informacji, w szczególności w odniesieniu do kwestii prywatności
użytkowników (inwigilacja i zagrożenie prywatności, profilowanie osób w odniesieniu
do ich potencjalnych zachowań w przyszłości);
 bezpieczeństwo personalne człowieka, ze szczególnym uwzględnieniem aspektów życia
społecznego i przyjętych norm kulturowych (oparcie AI na stereotypach i uprzedzeniach,
obniżenie ludzkich zdolności nawiązywania więzi społecznych, utrata zdolności
krytycznego myślenia, poleganie na spersonalizowanych informacjach bez rozważenia,
czy na pewno oferowane osobom rozwiązania są dla nich najlepsze, obniżenie poczucia
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

wartości człowieka, którego jest w stanie zastąpić maszyna, nadmierne i niekontrolowane


naruszanie prywatności osób nieświadomych interakcji ze sztuczną inteligencją,
nadmierne uzależnienie od technologii, wykluczenie cyfrowe osób nienadążających
za rozwojem technologii, alienacja);
 bezpieczeństwo ekonomiczne (konieczność przeorganizowania systemu finansów
publicznych, zmiana źródeł pozyskiwania środków na cele publiczne, jeżeli roboty
zastąpią pracowników płacących podatki).
Jednocześnie ankietowani po raz kolejny zwracają uwagę na konieczność
dostosowania obowiązujących regulacji prawnych wskazując ten moment jako punkt jasno
determinujący dalsze możliwości użycia AI, w tym również negatywne jej zastosowania.
Respondenci zwrócili również uwagę na fakt, że poziom rzeczywistego rozwoju
technologicznego nie jest jeszcze tak wysoki, jak mogłoby się wydawać na podstawie
bieżącego przekazu medialnego, a w związku z tym jest za wcześnie, aby mówić o realnych
zagrożeniach związanych z faktycznym zastosowaniem AI. Może się zatem okazać,
że społeczne obawy co do jej powszechnego wykorzystania mogą okazać się nieadekwatne
do realnych zagrożeń. Ankietowani podkreślają również, że nadmierna wiara w możliwości
sztucznej inteligencji może okazać się zwodnicza.
Celem ostatniego pytania było zbadanie, czy eksperci w obszarze sztucznej
inteligencji dostrzegają możliwości zapewniania bezpiecznego i etycznego wykorzystania
rozwiązań opartych na tej technologii. W opinii ankietowanych, do zwiększenia

211
prawdopodobieństwa bezpiecznego i etycznego wykorzystania sztucznej inteligencji mogą
przyczynić się takie czynniki jak:
 dostosowanie obowiązującego prawodawstwa w obszarze nowych technologii
do zmian zachodzących w sferze bezpieczeństwa, które wynikają z postępującego
rozwoju technologicznego (m.in. poprzez: określenie uwarunkowań prawnych
co do sposobów wykorzystania AI – np. analogicznych do tych dotyczących badań
na zwierzętach, ustalenie zasad ponoszenia odpowiedzialności za działania podejmowane
przez automaty, jak również uregulowanie kwestii wykorzystania broni autonomicznej
w konfliktach zbrojnych – w tym zakresie pojawiające się problemy i wątpliwości
powinny być rozwiązywane w drodze dialogu członków międzynarodowych
społeczności, a wypracowane rozwiązania wdrażane w sposób podobny do konwencji
o użyciu określonych rodzajów broni); niezależnie od przyjętych rozwiązań prawnych
należy pamiętać o niemożliwym do wyeliminowania ryzyku, że nie wszystkie podmioty
się im podporządkują, zwłaszcza że wykorzystanie metod sztucznej inteligencji
do inwigilacji społeczeństwa (pod pretekstem poprawy bezpieczeństwa obywateli)
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

może okazać się kuszące dla każdej władzy;


 dalsze badania nad AI, testowanie wypracowanych rozwiązań do momentu osiągnięcia
optymalnego poziomu bezpieczeństwa oraz interdyscyplinarna współpraca środowisk
naukowych wyspecjalizowanych w badaniach nad rozwojem i upowszechnianiem
sztucznej inteligencji z branżą technologiczną i usługowo-produkcyjną – kooperacja
ta pozwoli stworzyć optymalne i bezpieczne warunki do wdrażania AI w poszczególnych
obszarach bezpieczeństwa;
 zachowanie kontroli człowieka nad rozwojem technologii i pojawiającymi się
rozwiązaniami w tym zakresie, jak również możliwościami ich wykorzystania (nie można
dopuścić do zmniejszenia roli człowieka w rozwoju technologicznym oraz sytuacji,
w której rolę człowieka w procesie produkcyjnym w zupełności przejmie automat –
należy zapewnić ochronę pracowników przed całkowitą automatyzacją ich zadań
oraz tworzyć nowe, kreatywne stanowiska pracy z zadaniami, do których realizacji
zdolny będzie tylko człowiek). Ważnym elementem jest również zapewnienie równowagi
pomiędzy inteligencją człowieka i inteligencją maszyny - AI może być wykorzystywana
w różnych obszarach, ale należy zachować umiar i stosować ją tam, gdzie faktycznie
może się przyczynić do podniesienia poziomu bezpieczeństwa, a nie w każdej możliwej
dziedzinie życia;
 transparentność działań AI i zapewnienie świadomości człowieka w obszarze interakcji
ze sztuczną inteligencją, w szczególności podczas kontaktów i usług wirtualnych.

212
Zdaniem 7 respondentów nie da się zapewnić w pełni etycznego i bezpiecznego
sposobu wykorzystania rozwiązań bazujących na sztucznej inteligencji. Swoje stanowisko
uzasadniali oni argumentami odnoszącymi się do:
 nieprzewidywalności działania AI, jak również braku algorytmicznego (kompletnego
i spójnego matematycznie) modelu człowieka, który AI mogłaby odwzorować –
ewentualne rozwiązania prawne mogłyby się wówczas opierać jedynie na odgórnej
zasadzie „primum non nocere";
 decydującej roli „niedoskonałości” człowieka i jego realnych problemów z zapewnieniem
etycznego i bezpiecznego wykorzystywania sił, środków i zasobów, którymi
już dysponuje (np. pieniędzy, zasobów naturalnych, przewagi nad innymi gatunkami).

Na podstawie przedstawionych analiz można udzielić odpowiedzi na postawione


we wcześniejszym podrozdziale problemy badawcze. Odnosząc się do kwestii zauważalnego
wpływu AI na codzienne życie człowieka, wyniki przeprowadzonych analiz potwierdziły,
że sztuczna inteligencja odczuwalnie wpływa na życie człowieka, przede wszystkim w takich
obszarach jak transport i komunikacja, bezpieczeństwo, biznes, marketing i zdrowie.
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

Niebagatelne znaczenie ma również zwiększanie komfortu codziennego życia


poprzez korzystanie z inteligentnych urządzeń i instalacji.
Drugi problem dotyczył bezpieczeństwa, w których AI jest obecnie stosowana
i w jakich obszarach będzie wykorzystywana w przyszłości. W tej kwestii wyniki badań
pokazują, że sztuczna inteligencja znajduje aktualnie najszersze zastosowanie w dziedzinie
bezpieczeństwa informacyjnego, gdzie wykorzystywana jest przede wszystkim
do pozyskiwania i analizy informacji, zapewniania bezpieczeństwa programów i urządzeń IT,
jak również do wspierania usług informacyjnych i telekomunikacyjnych. Zauważalna jest
także jej rola w sektorze bezpieczeństwa komunikacyjnego i militarnego. Wskazane dziedziny
bezpieczeństwa zidentyfikowano również jako obszary, które w przyszłości w największym
stopniu będą wykorzystywały nowe rozwiązania technologiczne, w tym bazujące na sztucznej
inteligencji. Za najbardziej perspektywiczny w tym zakresie uznaje się sektor bezpieczeństwa
komunikacyjnego.
Odnosząc się do kolejnego zagadnienia, czyli głównych szans i zagrożeń
dla bezpieczeństwa, związanych z wykorzystaniem i upowszechnianiem AI, zauważono,
że koncentrują się one w tych dziedzinach bezpieczeństwa, w których technologia ta już teraz
znajduje najszersze zastosowanie, lub w których najbardziej intensywnie będzie się ona
rozwijać w przyszłości. Za najbardziej znaczącą szansę uznano bowiem implementację
inteligentnych rozwiązań w sektorze transportu publicznego, gdzie będą służyć
przede wszystkim analizie natężenia ruchu i wykorzystaniu zebranych danych
do optymalizacji tras przejazdu, a także zapewnianiu optymalnego działania silników
213
pojazdów czy obniżaniu ich emisyjności i zmniejszaniu śladu środowiskowego. Pomyślne
perspektywy dalszej implementacji rozwiązań AI dają również możliwości ich wykorzystania
w medycynie – głównie w zakresie podniesienia precyzji diagnostyki i leczenia chorób
zagrażających życiu i obniżających jego komfort, a także opieki nad osobami starszymi
i niepełnosprawnymi. Jeżeli chodzi o aspekty negatywne, to w świetle uzyskanych wyników
należy wskazać, że głównym zagrożeniem dla społeczeństwa, związanym z zastosowaniem
i upowszechnianiem AI jest możliwość identyfikowania i śledzenia osób fizycznych,
która stwarza ryzyko powstania systemu sprawowania masowego nadzoru
nad społeczeństwem. Za potencjalnie niebezpieczne konsekwencje dalszego rozwoju tej
dziedziny nauki uznano również możliwość naruszenia praw obywatelskich poprzez
stosowanie mechanizmów oceny punktowej, którego konsekwencją może być dyskryminacja
i utrata autonomii praw człowieka, a także tworzenie i rozwijanie systemów śmiercionośnej
broni autonomicznej, stwarzające zagrożenie niekontrolowanego wyścigu zbrojeń
wykorzystujących tę technologię.
W następnej kwestii, dotyczącej opinii i przewidywań ekspertów
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

co do superinteligencji, zauważalne jest sceptyczne stanowisko ekspertów w zakresie


możliwości osiągnięcia przez sztuczną inteligencję tej rangi w najbliższej przyszłości.
Ich zdaniem, w ciągu kolejnych 30 lat maszyna raczej nie będzie w stanie osiągnąć poziomu
inteligencji równego lub przekraczającego poziom intelektualny tworzącego ją człowieka.
Co ciekawe, sama możliwość osiągnięcia takiego punktu jej rozwoju w dowolnym momencie,
uznawana jest w środowisku eksperckim za zjawisko raczej pozytywne.
Jeżeli chodzi o odpowiedzialność za działanie automatu wyposażonego w sztuczną
inteligencję, to uzyskane wyniki badań pozwalają stwierdzić, że w opinii specjalistów
powinien ją ponosić jej projektant i/lub konstruktor, pod warunkiem, że aktywność maszyny
pozostaje w pełni zgodna z zadanym jej algorytmem. Jednocześnie uznano, że osoby te
nie powinny być jednak odpowiedzialne za sposób, w jaki z efektów ich pracy będą
korzystały kolejne podmioty dysponujące maszyną, oprogramowaniem lub urządzeniem.
Istotą kolejnego problemu badawczego był dalszy rozwój sztucznej inteligencji
i rozważenie, czy wskazane jest zwiększenie nadzoru nad tym procesem oraz próba określenia
podmiotów odpowiedzialnych za tę kontrolę. Zdania na temat wprowadzenia odgórnych,
dodatkowych regulacji prawnych, dotyczących zasad tworzenia i rozwoju sztucznej
inteligencji są podzielone, jednak większość ekspertów widzi potrzebę stworzenia
dodatkowych ram prawnych odnoszących się do dalszego upowszechniania tej dziedziny
nauki. Jeżeli chodzi o nadzorowanie tego procesu przez wyspecjalizowane organy nadzorcze,
za właściwe merytorycznie uznano przede wszystkim organizacje o statusie
międzynarodowym, w tym instytucje Unii Europejskiej. Wskazuje to na postrzeganie

214
postępującego rozwoju technologicznego jako zjawiska o charakterze globalnym,
potrzebującego uniwersalnych rozwiązań o zbliżonym charakterze, niezależnie od państwa,
w jakim upowszechniane są nowe technologie, w tym sztuczna inteligencja.
Na podstawie uzyskanych wyników należy również stwierdzić, że zdaniem specjalistów
badania nad tworzeniem i rozwojem sztucznej inteligencji nie powinny być ograniczane
poprzez umożliwianie ich prowadzenia jedynie określonym instytucjom i organizacjom.
O ile jednak w prowadzeniu badań w zakresie wykorzystania AI w poszczególnych obszarach
bezpieczeństwa nie powinno być ograniczeń instytucjonalnych, o tyle osoba lub organizacja
finansująca ich prowadzenie nie powinna jako jedyna, w sposób nieograniczony, decydować
o celach i sposobach wykorzystania wyników tych badań – technologii, narzędzi i rozwiązań.
Ostatni problem badawczy odnosił się do określenia metod pozytywnego i etycznego
wykorzystania sztucznej inteligencji w sferze bezpieczeństwa. Ustalono, że szanse
w tym zakresie można zwiększyć poprzez cztery podstawowe obszary działań.
Pierwszy z nich to dostosowanie obowiązującego prawodawstwa w obszarze nowych
technologii do zmian zachodzących w bezpieczeństwie, które wynikają z postępującego
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

rozwoju technicznego. Drugim jest prowadzenie dalszych badań nad AI, testowanie
wypracowanych rozwiązań do momentu osiągnięcia optymalnego poziomu bezpieczeństwa.
W tym zakresie ważna jest także interdyscyplinarna współpraca środowisk naukowych
z branżą technologiczną i usługowo-produkcyjną. Trzeci element to konieczność zachowania
kontroli człowieka nad rozwojem technologii i pojawiającymi się rozwiązaniami
w tym zakresie, jak również możliwościami ich wykorzystania. W tej kwestii istotny aspekt
stanowi zapewnienie równowagi pomiędzy inteligencją człowieka i inteligencją maszyny - AI
należy stosować tylko w tych obszarach, gdzie może ona realnie przyczynić do podniesienia
poziomu bezpieczeństwa, a możliwe konsekwencje wynikające z jej implementacji nie okażą
się przewyższać potencjalnych szans. Ostatni, czwarty komponent bezpieczeństwa
korzystania ze sztucznej inteligencji to zapewnienie transparentności działań AI.
Człowiek musi bowiem być świadomy interakcji ze sztuczną inteligencją, w szczególności
podczas kontaktów i usług wirtualnych. Natomiast, nawet jeśli możliwe okaże się wdrożenie
optymalnych mechanizmów bezpieczeństwa, należy mieć świadomość, że nigdy nie da się
całkowicie wyeliminować ryzyka nieetycznego i zagrażającego bezpieczeństwu sposobu
wykorzystania rozwiązań bazujących na sztucznej inteligencji.

5.3. Problem standardów etycznych i prawnych w obszarze AI

Wzrost znaczenia sztucznej inteligencji wiąże się również z koniecznością znalezienia


i wypracowania rozwiązań – zarówno prawnych, jak i etycznych – które zminimalizują
możliwe negatywne konsekwencje jej dalszego rozwoju. Kwestia dostosowania

215
obowiązującego prawodawstwa do dynamicznego rozwoju technologicznego jest tematem
znanym i istotnym dla społeczności międzynarodowej. Warto wskazać w tym miejscu,
że w lutym 2017 r. w Parlamencie Europejskim zorganizowano seminarium poświęcone
rozwojowi robotyki i sztucznej inteligencji. W jego trakcie analizowano raport Komisji
Prawnej Parlamentu Europejskiego ,,Świat robotów w kontekście wyzwań prawa cywilnego",
zawierający zapisy dotyczące reakcji na problemy związane z analizowanym
zagadnieniem475. W efekcie seminarium, 16 lutego 2017 r. uchwalono rezolucję Parlamentu
Europejskiego zawierającą zalecenia w sprawie przepisów prawa cywilnego dotyczących
robotyki476. Tym samym rozpoczęto międzynarodową dyskusję na temat konieczności
pilnego wprowadzenia dodatkowych norm związanych z funkcjonowaniem AI
we współczesnym świecie, dostosowanych do tempa rozwoju technologicznego, jak również
tego, jak owe normy powinny brzmieć. Tematem przewodnim była kwestia
odpowiedzialności sztucznej inteligencji – zarówno z perspektywy prawa, jak i etyki.
Wizja nadchodzących zmian wymaga bowiem dostosowania obowiązującego prawa
do ewoluującej rzeczywistości – głównie ze względu na fakt, że zastępowanie ludzi w pracy
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

oraz pojawianie się autonomicznych robotów w społeczeństwie niesie za sobą wiele wyzwań
o charakterze prawnym, etycznym i społecznym. Dodatkowo, pomimo ryzyk związanych
z rozwojem AI, trudno jest obecnie wskazać jednoznaczne i konkretne rozwiązania
umożliwiające ich skuteczną minimalizację. W rezolucji umieszczono zapisy dotyczące
m.in. takich kwestii jak:
 ogólne zasady dotyczące rozwoju robotyki i AI do celów cywilnych,
 badania i innowacje,
 zasady etyczne,
 utworzenie europejskiej agencji ds. nowoczesnych technologii,
 prawo własności intelektualnej w kontekście przepływów danych,
 standaryzacja bezpieczeństwa i ochrony,
 autonomiczne środki transportu,
 roboty przeznaczone do opieki i roboty medyczne,
 naprawa i usprawnianie ludzkiego organizmu,
 edukacja i zatrudnienie,
 wpływ na środowisko naturalne,
 odpowiedzialność.

475
Zob. P. Stylec-Szromek, op. cit s. 504.
476
Rezolucja Parlamentu Europejskiego z dnia 16 lutego 2017 zawierająca zalecenia dla Komisji w sprawie
przepisów prawa cywilnego dotyczących robotyki (2015/2103(INL)).
216
W kontekście głównego nurtu rozważań zawartych w rozprawie, na szczególną uwagę
zasługują zwłaszcza dwa działy rezolucji – pierwszy z nich odnosi się do ogólnych zasad
rozwoju robotyki i sztucznej inteligencji do celów cywilnych, drugi zaś poświęcony
jest zasadom etycznym. W pierwszym dziale Parlament Europejski wskazuje wspólne cechy
inteligentnych robotów477, do których zaliczono:
 brak funkcji życiowych w rozumieniu biologicznym;
 zdobywanie autonomii z wykorzystaniem czujników lub za pomocą wymiany danych
z otoczeniem oraz ich analizy;
 co najmniej minimalną formę fizyczną;
 zdolność dostosowywania swojego zachowania oraz działań do otoczenia;
 zdolność do uczenia się, opartego na zdobytym doświadczeniu oraz interakcji
z otoczeniem – zasada fakultatywna.
Dodatkowo w analizowanym dziale zaproponowano wprowadzenie unijnego systemu
rejestracji robotów na rynku wewnętrznym Unii Europejskiej, przy czym kryteria klasyfikacji
robotów podlegających zarejestrowaniu miałyby zostać uzgodnione w dalszej kolejności.
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

Podkreślono także, że rozwój technologii związanej z robotyką powinien opierać się


przede wszystkim na uzupełnianiu, a nie zastępowaniu ludzkich zdolności, a co za tym idzie –
przy opracowywaniu robotów i sztucznej inteligencji należy dopilnować, aby to człowiek
zawsze sprawował kontrolę nad inteligentnymi maszynami. Jako odrębną kwestię etyczną
wskazano także możliwość powstania związku emocjonalnego pomiędzy człowiekiem
a maszyną – w tym zakresie zalecono poświęcenie wzmożonej uwagi zwłaszcza grupom
szczególnie wrażliwym, tj. dzieciom, osobom niepełnosprawnym i osobom starszym.
W dziale poświęconym zasadom etycznym Parlament Europejski zauważył,
że możliwości delegowania zadań, które pojawiają się w związku z komercyjnym
wykorzystaniem robotyki, mogą odwrócić uwagę od zagrożeń z nich wynikających,
potencjalnie negatywnych dla bezpieczeństwa, zdrowia i ochrony ludzi, prywatności,
wolności, uczciwości i godności, niedyskryminacji, samostanowienia i ochrony danych
osobowych. Dlatego też uznał, że obecne ramy prawne powinny zostać zaktualizowane
i uzupełnione o główne zasady etyczne, odzwierciedlające zarówno złożoność zagadnienia
robotyki, jak i jej implikacje społeczne, bioetyczne i medyczne. Wskazuje, że ściśle
określone, precyzyjne i skuteczne ramy etyczne są niezbędne zwłaszcza w obszarze rozwoju,
projektowania, produkcji, modyfikacji i wykorzystania robotów. Kluczową zasadą etyczną
w zakresie robotyki jest bowiem przejrzystość, oznaczająca że „w każdym przypadku
powinno być możliwe uzasadnienie wszelkich decyzji podjętych za pomocą sztucznej

477
Do grupy inteligentnych robotów zaliczono systemy cyberfizyczne, systemy autonomiczne, inteligentne
roboty autonomiczne oraz ich podkategorie; zob. Rezolucja 2015/2103(INL).
217
inteligencji, które mogą mieć istotny wpływ na życie przynajmniej jednej osoby”478.
Warunkiem poszanowania tej zasady jest możliwość przedstawienia obliczeń dokonanych
za pomocą systemu AI w formie zrozumiałej dla człowieka, dlatego też zaawansowane roboty
powinny być wyposażone w tzw. „czarną skrzynkę”, która zawierałaby dane dotyczące
wszystkich operacji wykonanych przez maszynę, a zwłaszcza kroków logicznych,
które doprowadziły do podjęcia przez nią określonej decyzji. Ramy etyczne w zakresie
robotyki i sztucznej inteligencji powinny opierać się natomiast przede wszystkim na zasadzie
przynoszenia korzyści, nieszkodliwości, autonomii oraz sprawiedliwości, a także
na podstawowych zasadach i wartościach stanowiących fundament prawodawstwa wszystkich
państw członkowskich Unii Europejskiej, tj. godności ludzkiej, równości, sprawiedliwości,
równouprawnieniu, braku dyskryminacji, możliwości wyrażenia świadomej zgody, ochronie
życia prywatnego i rodzinnego, ochronie danych, braku stygmatyzacji, przejrzystości oraz
odpowiedzialności jednostki.
W załączniku do rezolucji zaproponowano kodeksy postępowania dla osób i instytucji
pracujących nad rozwojem i wykorzystaniem sztucznej inteligencji, tj. inżynierów
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

w dziedzinie robotyki oraz etycznych komisji badawczych odpowiedzialnych za przeglądy


protokół dotyczących robotyki. Zgodnie z nimi, naukowcy prowadzący badania w dziedzinie
robotyki powinni działać w zgodzie z najwyższymi standardami etyki i profesjonalizmu,
a także przestrzegać czterech elementarnych zasad: przynoszenia korzyści (oznaczającej,
że roboty powinny służyć najlepszemu interesowi człowieka), nieszkodliwości (roboty
nie mogą krzywdzić ludzi), autonomii (człowiek musi zachować zdolność do pojęcia
świadomej i niewymuszonej decyzji na temat zasad interakcji z robotem)
oraz sprawiedliwości (rozumianej jako optymalne rozłożenie korzyści związanych z robotyką,
jak np. przystępność cenowa robotów przewidzianych do opieki zdrowotnej lub domowej).
Ciekawe uzupełnienie stanowi propozycja warunków licencji dla użytkowników robotów,
również umieszczona w załączniku do rezolucji. Zgodnie z jej postanowieniami, użytkownik
inteligentnej maszyny:
 może wykorzystywać robota bez obawy i ryzyka uszczerbku fizycznego
lub psychologicznego;
 ma prawo oczekiwać, że robot wykona każde zadanie, do którego został
zaprogramowany;
 powinien być świadomy, że robot może mieć ograniczenia kognitywne, percepcyjne
lub operacyjne;
 powinien szanować potrzeby emocjonalne oraz słabości ludzkie (zarówno fizyczne,
jak i psychiczne);

478
Ibidem.
218
 powinien uwzględnić prawo każdej jednostki do prywatności, a co za tym idzie –
nie ma prawa do zbierania, wykorzystywania ani ujawniania danych osobowych
bez zgody osoby, której dane te dotyczą;
 nie może wykorzystywać robota w sposób niezgodny z obowiązującymi normami
i zasadami etycznymi oraz prawnymi;
 nie ma prawa modyfikować robota w sposób, który umożliwi wykorzystanie go
jako broni.
Zaprezentowane w rezolucji działania mają charakter wstępny, ale dają dobrą
podstawę do tworzenia regulacji prawnych w przyszłości. Niewątpliwym celem ich
wypracowania było również uspokojenie opinii publicznej, w kontekście pojawiania się
głosów niepewności i niezadowolenia w związku z wdrażaniem kolejnych rozwiązań
wykorzystujących sztuczną inteligencję. Problemem często podnoszonym w odniesieniu
do dalszego rozwoju tej dziedziny nauki jest kwestia odpowiedzialności.
Można tu wyodrębnić dwa kluczowe wątki. Pierwszy z nich to odpowiedzialność prawna
za aktywność maszyn i jej skutki, a drugi to odpowiedzialność samego automatu w sytuacji,
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

kiedy robot będzie autonomiczny, zaś jego działanie będzie sprzeczne z intencjami twórcy.
Warto zauważyć, że analizowana problematyka nie stanie się aktualna dopiero w momencie
zrównania poziomu sztucznej inteligencji z ludzką – należy mieć na uwadze, że już obecny
poziom rozwoju AI generuje chociażby wątpliwości co do zasad odpowiedzialności za szkodę
spowodowaną przez robota, natomiast znacząco zyska ona na znaczeniu w momencie
powstania pierwszych maszyn zdolnych do podejmowania w pełni samodzielnych decyzji.
Wówczas, mając na względzie perspektywę gospodarczą oraz kwestie polityki społecznej,
niezbędne będzie zapewnienie inteligentnym maszynom możliwości samostanowienia.
Przywoływana wcześniej rezolucja 2015/2013 (INL) w zakresie odpowiedzialności
cywilnej robotów podkreśla, że jakiekolwiek rozwiązanie prawne nie może ograniczać
rodzaju lub zakresu szkód, za które można byłoby uzyskać odszkodowanie, jak również
nie powinno ograniczać form odszkodowania oferowanego osobom poszkodowanym w
wyniku działań automatów wyłącznie z uwagi na pozaludzką przyczynę szkody. Proponuje
również utworzenie obowiązkowego systemu ubezpieczeń, opartego na zobowiązaniu
producenta inteligentnych robotów do wykupienia ubezpieczenia w związku z wytwarzanymi
maszynami. System ten mógłby zostać dodatkowo uzupełniony funduszem gwarancyjnym,
tak aby umożliwić dokonywanie napraw wykonanych szkód w sytuacjach nieobjętych
ubezpieczeniem. Parlament Europejski rekomenduje, aby wszelkie decyzje polityczne
w zakresie zasad odpowiedzialności cywilnej stosowanych do robotów i sztucznej inteligencji
podejmować dopiero po konsultacjach z podmiotami, które realizują ogólnoeuropejskie
projekty badawczo-rozwojowe w zakresie robotyki i neuronauk. Stanowisko to uzasadnia
219
tym, że naukowcy i eksperci prowadzący prace nad AI są w stanie prawidłowo ocenić ryzyka
i konsekwencje związane z tym procesem.
Jedną z najbardziej kontrowersyjnych propozycji odpowiedzi na to wyzwanie
jest nadanie sztucznej inteligencji osobowości prawnej. Takie rozwiązanie dawałoby
podstawy do ograniczania siły przetargowej producentów robotów, którzy zgodnie
z tym prawem staliby się ich właścicielami. Kolejne potencjalne korzyści obejmują ochronę
miejsc pracy oraz zapewnienie wsparcia małym przedsiębiorcom. Wcześniej jednak
należałoby uregulować status robotów w stanie „pośrednim”, czyli dysponujących
ograniczoną świadomością, rozumiejących proste polecenia wydawane w języku naturalnym
oraz identyfikujące nawet tak abstrakcyjne pojęcia jak złość, radość, strach czy gniew.
Na tym etapie mogą pojawić się obawy dysponujących nimi przedsiębiorców co do dalszego
rozwoju AI, prowadzące do działań mających na celu jego zahamowanie – w obawie przed
utratą prawa właściciela do zarządzania maszyną jako nie w pełni świadomą istotą.
Jak wskazuje Michał Ziemski479, w tej sytuacji pomocne mogą okazać się rozwiązania
legislacyjne zapewniające ograniczoną autonomię prawną robotów przy jednoczesnym
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

stymulowaniu dalszego rozwoju ekonomicznego. Przywoływany autor proponuje koncepcję


opartą na prawie starożytnego Rzymu i zaczerpniętą z niego koncepcję „peculium”,
czyli majątku, który właściciel daje niewolnikowi480 do samodzielnego zarządzania. Pierwszą
propozycję tzw. „cyfrowego peculium” zaprezentował Ugo Pagallo – w jego rozumieniu
zasób ten należałoby traktować jako ewentualne zabezpieczenie odszkodowawcze481. Gdyby
dodatkowo, jak proponuje M. Ziemski, model Pagallo rozszerzyć o przyznanie robotom
zdolności prawnej i procesowej (ograniczonej do obszaru majątkowego), to osoby o statusie
elektronicznym mogłyby również zyskać status dysponenta (właściciela lub najemcy)
określonego majątku. W przypadku popełnienia czynu niedozwolonego, pełną
odpowiedzialność ponosiłby robot, a nie jego właściciel, który jednak bierze na siebie
określone ryzyko związane z zatrudnieniem robota. Jest to koncepcja, która wydaje się
rozsądna z punktu widzenia ochrony rynku pracy. O ile bowiem koncentracja
odpowiedzialności finansowej w rękach właściciela robota stanowiłaby ułatwienie
proceduralne i procesowe, to mogłaby stać się zagrożeniem dla rynku pracy. Koszty zakupu
i eksploatacji robota mogłyby okazać się dużo niższe niż zatrudnienie, ochrona
i wynagrodzenie standardowego, ludzkiego pracownika. To z kolei groziłoby całkowitym
wyparciem człowieka z rynku pracy i długofalowymi konsekwencjami dla bezpieczeństwa

479
Zob. M. Ziemski, Osoba elektroniczna posiadająca osobowość elektroniczną, „In Gremio”, 2017, nr 105 [on-
line], ingremio.org, 2017, https://ingremio.org/2017/01/osoba-elektroniczna-posiadajaca-osobowosc-
elektroniczna (13.08.2020).
480
W analizowanej koncepcji - robotowi
481
Zob. U. Pagallo, Killers, fridges, and slaves: a legal journey in robotics, “AI & Society”, 2011, nr 26(4), s.
52-53.
220
społecznego. Z kolei wprowadzenie w życie koncepcji cyfrowego peculium mogłoby stać się
motywacją dla właścicieli robotów w zakresie przyznawania maszynom własnego majątku
lub zapewniania określonej płynności finansowej, stanowiąc swoistą gwarancję
dla kontrahenta. W przypadku błędu, nieprawidłowego lub niezgodnego z prawem działania
odzyskiwałby on bowiem swoją należność wynikającą z umowy. Jeżeli zaś robot nie miałby
adekwatnego zabezpieczenia finansowego, to kontrahenci nie ryzykowaliby zawierania
umowy na wykonanie oferowanych przez niego usług. W ten sposób maszyny autonomiczne
szybko stałyby się pracownikami mniej konkurencyjnymi od ludzi. Z drugiej strony,
rozproszona odpowiedzialność stałaby się również czynnikiem motywującym konsumentów
do korzystania z usług świadczonych przez człowieka, przynajmniej do momentu, w którym
robot nie uzyskałby płynności finansowej adekwatnej do ryzyka związanego z korzystaniem
z usług osoby elektronicznej. Z kolei warunkiem do tego niezbędnym byłoby prawidłowe
i zgodne z założeniami świadczenie oferowanego zakresu prac i usług, determinujące
uzyskanie wynagrodzenia za wykonane działanie.
Powyższa analiza pozwala stwierdzić, że w kontekście wykorzystania robotów
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

do pracy, partykularne interesy przedsiębiorców nie powinny przewyższać interesów


społecznych. Interesem społecznym jest niewątpliwie ochrona rynku pracy i człowieka w roli
pracownika. W tym zakresie najbardziej korzystne wydaje się przyznanie inteligentnym
maszynom możliwie jak najszerszej autonomii ekonomicznej i prawnej, tak aby zapobiec
sytuacji, w której roboty, jako darmowi pracownicy, stanowić będą swego rodzaju kartę
przetargową wobec ludzkich pracowników, kontrahentów i konsumentów.
Nie można dopuścić do materializacji gróźb ekonomicznych, opartych na możliwości
wymiany pracowników na roboty.
We współczesnym dyskursie naukowym w dziedzinie sztucznej inteligencji pojawiają
się również głosy krytyczne, jeśli chodzi o nadanie jej wytworom osobowości prawnej.
Koronnym argumentem jest to, że na chwilę obecną sztuczna inteligencja jest raczej zbiorem
zaawansowanych algorytmów wykorzystujących ogromne zasoby danych i operujących
na konkretnych modelach zachowań opracowanych przez człowieka, a zatem trudno
traktować ją inaczej niż rozbudowany program komputerowy, który nadal raczej naśladuje
działanie ludzkiego umysłu niż nim jest. Sztuczna inteligencja nie jest również w stanie
odwzorować tzw. czynnika emocjonalnego.
Jak wskazuje Michał Nowakowski482, sam brak ludzkiego charakteru sztucznej
inteligencji nie jest kluczowym czynnikiem decydującym o odmówieniu przyznania
jej osobowości prawnej. Osobami prawnymi mogą być bowiem również byty o charakterze

482
Zob. M. Nowakowski, Dlaczego sztuczna inteligencja to nie osoba (prawna)?, [on-line], fintek.pl,
29.08.2019, https://fintek.pl/dlaczego-sztuczna-inteligencja-to-nie-osoba-prawna/ (18.09.2020).
221
formalnym, reprezentowane przez osoby fizyczne – w postaci zarządów, pełnomocników
czy wspólników. Przyznanie osobowości prawnej wymaga jednak spełnienia określonych
warunków, tj.: posiadania zdolności do czynności prawnych i zdolności prawnej. Zdolność
do czynności prawnych jest rozumiana jako możliwość nabywania praw i zaciągania
zobowiązań. O ile potencjalnie sztuczna inteligencja mogłaby nabywać określone prawa,
to mniej oczywista wydaje się jej zdolność do zaciągania zobowiązań. Ta bowiem
jest nierozerwalnie związana z możliwością ponoszenia odpowiedzialności za brak ich
wykonania lub niewłaściwą realizację. Przyjmując założenie, że AI dysponuje jakimś
majątkiem (np. kapitałem powierzonym mu do użytku przez twórcę lub właściciela), można
w pewien sposób zabezpieczyć kwestię odpowiedzialności finansowej, natomiast
w określonych przypadkach sposób naprawienia szkody483 może być inny niż finansowy
i wiązać się z koniecznością osobistego jego wykonania – a taki warunek w przypadku
sztucznej inteligencji może się okazać niewykonalny. Można by co prawda oprzeć się
na odpowiedzialności na zasadzie ryzyka, ale tę ponosiłby w tym przypadku raczej twórca
sztucznej inteligencji, dystrybutor, właściciel lub inny podmiot dysponujący algorytmem,
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

a nie sama maszyna. M. Nowakowski podnosi również problem z określeniem zakresu


i przypisaniem odpowiedzialności sztucznej inteligencji za przestępstwa i wykroczenia
związane z określonymi czynnościami pozostającymi w sferze prawa cywilnego –
niemożliwe wydaje się wskazanie konkretnego sposobu, w jaki algorytm miałby ponieść
konsekwencje za naruszenie obowiązującego prawa.
Jeżeli chodzi o zdolność prawną, to jest ona ogólnie rozumiana jako możliwość bycia
podmiotem praw i obowiązków. Ograniczając ją, na potrzeby niniejszych rozważań, do sfery
wyłącznie cywilnoprawnej, przyznanie AI tego typu zdolności oznaczałoby uprawnienie
jej do szerokiego katalogu czynności, które mogłaby ona wykonywać lub stanowić
ich podmiot. To z kolei zahacza już o wolną wolę osoby prawnej, wiążąc się nierozerwalnie
z celem jej działań. Sztuczna inteligencja jest tworzona przez konstruktorów dla osiągnięcia
konkretnego celu. Ma określoną autonomię, co oznacza, że co prawda działa w sposób
dowolny, ale w zakresie osiągania narzuconego jej przez twórców celu. Oczywiście należy
mieć również świadomość, że cel ten może być niedookreślony, jak również, że granice
działań prowadzących do jego osiągnięcia mogą nie zostać dostatecznie sprecyzowane – takie
błędy konstruktorów mogą ostatecznie doprowadzić do naruszenia obowiązujących norm,
regulacji i prawa. Przyznanie sztucznej inteligencji osobowości prawnej skutkowałoby
w długofalowej perspektywie zrównaniem statusu AI z osobami fizycznymi i prawnymi,
co zdaniem przeciwników takiego rozwiązania jest niemożliwe ze względu na brak

483
Ustawa z dnia 23 kwietnia 1964 r. - Kodeks cywilny, Dz.U. 1964 nr 16 poz. 93, art. 471.

222
precyzyjnego przypisania kwestii odpowiedzialności za poczynione działania. Dopóki
sztuczna inteligencja nie ma zdolności prawnej (bo zdolność tę posiada w jej zakresie
konkretna osoba fizyczna), nierealne jest nadanie jej statusu osoby prawnej.
Niezależnie od powyższych rozważań, przyznanie sztucznej inteligencji statusu osoby
prawnej wymagałoby zastanowienia nad konkretnymi kwestiami formalnymi, obejmującymi
w szczególności takie zagadnienia jak rejestrowanie i ewidencjonowanie (oraz przypisanie
do właściwego typu rejestru), a także określenie momentów „narodzenia i śmierci” AI.
Biorąc pod uwagę opcję, w której sztuczna inteligencja zawsze będzie od kogoś zależna,
co oznacza, że teoretycznie w każdym momencie można by ją wyłączyć lub włączyć,
to czy tego typu działania należy traktować jako śmierć czy uśpienie AI? I kto wówczas
odpowiadałby za podjęte aktywności i ich konsekwencje obszarze prawa administracyjnego
i cywilnego?
W kwietniu 2020 r. do kwestii odpowiedzialności za systemy sztucznej inteligencji
oficjalnie odniosła się Komisja Prawna Parlamentu Europejskiego, publikując „Projekt
sprawozdania z zaleceniami dla Komisji w sprawie systemu odpowiedzialności cywilnej
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

za sztuczną inteligencję”, w którym zarekomendowano konkretne rozwiązania regulujące


kwestie związane z upowszechnianiem AI w Europie Co prawda, nieprzejrzystość
i autonomiczność systemów sztucznej inteligencji utrudniają wskazywanie osób
odpowiedzialnych za wynikające z nich realne szkody, ale systemy te zawsze są wynikiem
działalności człowieka, dlatego też odpowiedzialność za ich działania powinna spoczywać
na podmiotach wdrażających. Dokument PE definiuje te podmioty jako osoby, które decydują
o użyciu systemu AI, mają kontrolę nad zagrożeniami wynikającymi z jego zastosowania
oraz korzystają z systemu. Swoje stanowisko prawodawca uzasadnia porównaniem
korzystania z AI do sprawowania kontroli nad zwierzęciem domowym przez jego
właściciela484. Odpowiedzialność będzie zależała od rodzaju systemu wykorzystującego AI –
np. systemy obarczone wysokim ryzykiem (czyli takie, których autonomiczne działanie
może skutkować zagrożeniem dla człowieka) będą wiązały się z odpowiedzialnością
podmiotów wdrażających na zasadzie ryzyka, czyli bez konieczności dowiedzenia winy
przez poszkodowanego użytkownika. Do tej grupy systemów zaliczono m.in. bezzałogowe
statki powietrzne, autonomiczne systemy kontroli ruchu, pojazdy o wysokim stopniu
automatyzacji oraz autonomiczne urządzenia czyszczące miejsca publiczne, w przy czym
autorzy projektu podkreślają, że lista systemów nie jest zamknięta i należy ją regularnie
aktualizować. Dodatkowo, przewiduje się zobligowanie podmiotów wdrażających systemy
z przedstawionej grupy do ubezpieczania się od odpowiedzialności. Projektodawcy określili

484
Zob. M. Chojnowski, Kto wdrożył, niech odpowiada. Unijny projekt regulacji SI, [on-line],
sztucznainteligencja.org, 18.05.2020, https://www.sztucznainteligencja.org.pl/kto-wdrozyl-niech-odpowiada-
unijny-projekt-regulacji-si/ (29.11.2020).
223
maksymalną wysokość odszkodowania w przypadku spowodowania śmierci lub uszczerbku
na zdrowiu (ma ona wynosić 10 mln euro) oraz rekompensaty za straty materialne
(maksymalnie 2 mln euro za jedno zdarzenie).
Z kolei podmioty wdrażające systemy sztucznej inteligencji spoza grupy wysokiego
ryzyka zostaną objęte odpowiedzialnością na zasadzie winy. Oznacza to, że firmy nie będą
ponosić odpowiedzialności, jeżeli udowodnią, że szkoda nie powstała w wyniku ich działań.
Niezależnie od klasy systemu AI, z odpowiedzialności za wywołane przez niego szkody
nie będzie zwalniało uznanie systemu za autonomiczny485. Utworzenie stabilnych ram
prawnych w obszarze AI w Unii Europejskiej ma nie tylko zapewnić poszkodowanym prawo
do roszczeń odszkodowawczych, ale także przyczynić się do sukcesu technologii rozwijanych
i upowszechnianych w Europie. Podnoszenie poziomu ich bezpieczeństwa wpłynie bowiem
pozytywnie na poziom zaufania bezpieczeństwa do tworzących je podmiotów i może
skutkować powszechną adaptacją narzędzi wykorzystujących sztuczną inteligencję.
Coraz więcej pytań pojawiających się licznych w dyskusjach o obecnych i przyszłych
zastosowaniach sztucznej inteligencji skupia się na dylematach etycznych, pozostających
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

przez wiele lat domeną rozważań czysto teoretycznych. Rosnąca świadomość badaczy,
twórców, ale i użytkowników AI sprawia, że coraz częściej odchodzi się od stricte technicznej
strony rozważań nad jej naturą, kładąc coraz większy nacisk na relację człowiek-sztuczna
inteligencja. W obliczu dynamicznego rozwoju nowych technologii, w tym AI, jej badacze
oraz twórcy już teraz muszą decydować jak aplikacje i urządzenia będą postępowały
w nieoczywistych, niejednoznacznych moralnie sytuacjach. Dostrzec można również
narastającą presję społeczną, aby sztuczna inteligencja była zarówno bezpieczna, jak i etyczna
dla ludzi. W toczonych dyskusjach podkreśla się bowiem, że to technologia ma służyć
człowiekowi, a nie odwrotnie. Takie podejście daje szansę na to, że AI wesprze ludzi
w rozwiązywaniu zarówno obecnych, jak i przewidywanych problemów świata.
Najpowszechniej znany dylemat etyczny związany z AI to kwestia wykorzystania
jej możliwości w autonomicznych pojazdach. Najczęściej powtarzane pytanie dotyczy
zachowania pojazdu w sytuacji, kiedy na trasie napotka przeszkodę (np. przechodnia) i będzie
musiał wybierać pomiędzy bezpieczeństwem swojego pasażera a innych uczestników ruchu.
Nawet jeśli spółki motoryzacyjne nie chciałyby pozostawiać tej decyzji samym pojazdom,
tylko np. zatrudniłyby etyków rozstrzygających tego typu dylematy, to nadal problematyczna
pozostaje kwestia ewentualnych kryteriów i wartości, na które człowiek miałby się powołać
ustanawiając wytyczne i reguły dla systemów. Kolejne wątpliwości rodzi kwestia
odpowiedzialności za wypadek takiego samochodu. Niezależnie od proponowanych
odpowiedzi, wiadomym jest, że sztuczna inteligencja kierująca pojazdem, sterująca bronią

485
Ibidem.
224
autonomiczną lub nawet porównująca kompetencje kandydatów w programie rekrutacyjnym
proponuje człowiekowi określone decyzje, ale to człowiek będzie ponosił
ich konsekwencje486. To trudne moralnie zagadnienie potęguje dodatkowo fakt, że etykę
do AI będą implementować ludzie – przedstawiciele różnych kultur i światopoglądów,
wyznający odmienne wartości moralne. Ciężko będzie zatem ustalić spójną i jednolitą wersję
etyczną.
Obecnie aplikacje i narzędzia zasilane sztuczną inteligencją na postawie analiz
dostępnych materiałów dokonują profilowania osób, których danymi dysponują. Możliwości
te są szeroko wykorzystywane choćby w branży finansowej – dzięki nim banki prowadzą
analizy wiarygodności kredytowej swoich klientów. Odnotowano już przypadki, kiedy
algorytm w wyraźny sposób dyskryminował określone grupy społeczne, proponując
m.in. osobom samotnie wychowującym dzieci kredyty na niekorzystnych warunkach
– z uwagi na to, że przewidywał ich zagrożenie utratą pracy i związanymi z tym trudnościami
ze spłatą zawartych zobowiązań. Zaprojektowane w ten sposób aplikacje wzbudzają
wątpliwości etyczne – ich przeciwnicy oczekują od człowieka współpracującego z maszyną
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

innych decyzji, niż zasugerowane przez algorytmy, które uczą się na „skrzywionych danych
statystycznych”487. W tym kontekście główne zarzuty kierowane pod adresem systemów
opartych na AI to powielanie stereotypów i pogłębianie podziałów społeczeństwa488.
Tymczasem eksperci przewidują, że w niedalekiej przyszłości, sztuczna inteligencja
będzie w dużo szerszym zakresie wspierać decyzje człowieka w jeszcze bardziej
odpowiedzialnych, a jednocześnie wrażliwych obszarach, co może skutkować zwiększeniem
skali dyskryminacji i wykluczeń. Za obszary szczególnie wrażliwe można uznać w tym
kontekście medycynę i sądownictwo. Z jednej strony bowiem wykorzystanie AI
w diagnostyce medycznej lub też do rozstrzygania sporów sądowych zwiększa szansę
na podejmowanie bardziej trafnych diagnoz i ferowanie bardziej sprawiedliwych wyroków,
co jest możliwe dzięki analizie wielu danych. Z drugiej jednak strony zrozumiałe są obawy
społeczeństwa, że wszelkie błędy algorytmu lub niedopatrzenie człowieka nadzorującego jego
działanie mogą skutkować podjęciem błędnej decyzji, której skutki odczuwalnie wpłyną
na zdrowie i życie ludzi. W tych branżach niezbędna jest zatem wiedza dotycząca wielu ryzyk
i zapewnienie optymalnych, sprawdzonych rozwiązań. Należy również mieć świadomość,
że pojawią się osoby, które odmówią korzystania z upowszechniających się rozwiązań
wykorzystujących AI w najbardziej wrażliwych sferach życia społecznego, gdzie głównym

486
Zob. THINKTANK, Iloraz sztucznej inteligencji. Potencjał sztucznej inteligencji w sektorze publicznym,
Warszawa 2020, s. 27.
487
Ibidem, s. 29.
488
Zob. E. Pluta, Etyczna sztuczna inteligencja. Czy etykę można zaprogramować?, [on-line], swps.pl, 08.2020,
https://swps.pl/strefa-psyche/blog/relacje/22399-etyczna-sztuczna-inteligencja-czy-etyke-mozna-zaprogramowac
(08.12.2020).
225
podmiotem decyzyjnym pozostaje obecnie człowiek (lekarz czy sędzia) i z myślą o nich
trzeba wypracować alternatywne metody realizacji określonych usług.
W odpowiedzi na zaprezentowane dylematy, na świecie powstają już pierwsze
regulacje etyczne, które nakłaniają projektantów, konstruktorów i użytkowników sztucznej
inteligencji do przestrzegania określonych wartości przy planowaniu, tworzeniu
i wykorzystywaniu systemów AI. W opublikowanych w 2020 r. przez Komisję Europejską
„Wytycznych w zakresie etyki dotyczące wiarygodnej sztucznej inteligencji” sformułowano
cztery kluczowe zasady etyczne, których przestrzeganie warunkuje rzetelne opracowywanie,
wdrażanie i wykorzystywanie systemów AI. Określono je mianem imperatywów etycznych
podkreślając, że specjaliści w dziedzinie sztucznej inteligencji zawsze powinni dążyć
do ich przestrzegania. Zasady te obejmują:
 poszanowanie autonomii człowieka,
 zapobieganie szkodom,
 sprawiedliwość,
 możliwość wyjaśnienia489.
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

Zasada poszanowania autonomii człowieka oznacza, że osoby wchodzące w interakcję


z systemami AI muszą być w stanie zachować całkowitą i skuteczną zdolność
samostanowienia o osobie. Systemy autonomiczne nie mogą zatem podporządkowywać,
oszukiwać, przymuszać, kształtować lub kontrolować ludzi, jak również poddawać
ich manipulacji. Celem tych systemów w interakcji z człowiekiem powinno być zwiększanie,
uzupełnianie i wzmacnianie jego zdolności poznawczych, kulturowych i społecznych.
Z kolei podział funkcji i zadań pomiędzy ludzi i systemy AI powinien bazować na zasadach
projektowania (ukierunkowanych na człowieka) oraz pozostawiać człowiekowi faktyczną
możliwość wyboru. W praktyce oznacza to zapewnienie sprawowania przez człowieka
kontroli i nadzoru nad procesami w pracy w systemach wykorzystujących sztuczną
inteligencję. Systemy te mogą zmienić znaną dotychczas sferę pracy, ale niezależnie od tego
powinny wspierać ludzi w ich środowisku zatrudnienia i dążyć do osiągania konkretnych
rezultatów, przynoszących korzyści człowiekowi.
Zgodność z zasadą zapobiegania szkodom należy rozumieć jako zapewnienie,
że systemy sztucznej inteligencji nie będą powodować ani powiększać szkód, jak również
nie będą wywierać niekorzystnego wpływu na człowieka w jakikolwiek inny sposób.
Chronioną wartością nadrzędną jest w tym przypadku godność człowieka oraz jego fizyczna
i psychiczna nienaruszalność. Systemy AI oraz środowiska ich działania muszą być pewne
i bezpieczne, a same maszyny i automaty – solidne pod względem technicznym, przy czym

489
Wytyczne w zakresie etyki dotyczące godnej zaufania sztucznej inteligencji, Komisja Europejska, Bruksela
2019, s. 14-16.
226
należy zapewnić ich brak podatności na wykorzystanie w złym zamiarze. Przy projektowaniu,
opracowywaniu i wdrażaniu rozwiązań AI wymagane jest uwzględnienie potrzeb osób
wymagających szczególnego traktowania (dzieci, osób starszych i niepełnosprawnych)
oraz zwrócenie uwagi na możliwe sytuacje, w których wykorzystanie AI powodowałoby
lub nasilało asymetrię w relacjach, np. pomiędzy pracodawcami i pracownikami czy władzą
a obywatelami. Zapobieganie szkodom uwzględnia również kwestie ochrony środowiska
naturalnego i wszystkich żyjących istot.
Zasada sprawiedliwości oznacza, że opracowywanie, wdrażanie i wykorzystywanie
systemów sztucznej inteligencji musi przebiegać w sposób sprawiedliwy, zarówno
w wymiarze materialnym, jak i proceduralnym. Wymiar materialny wiąże się z obowiązkiem
zapewnienia równego i sprawiedliwego podziału korzyści i kosztów oraz wolności jednostek
i grup od stronniczości, stygmatyzacji i dyskryminacji. Stosowanie tych wytycznych
w procesie projektowania i implementacji AI podnosi szanse na zwiększenie sprawiedliwości
społecznej, zwłaszcza kiedy idzie w parze ze wspieraniem równych szans w zakresie dostępu
do wiedzy, edukacji, usług, towarów i technologii. Z kolei proceduralny wymiar
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

sprawiedliwości dotyczy możliwości kwestionowania przez człowieka decyzji


podejmowanych przez systemy sztucznej inteligencji oraz skutecznego dochodzenia roszczeń
w związku z tymi decyzjami. Zasada ta narzuca zatem konieczność ustalenia podmiotu
odpowiedzialnego za podjęcie określonej decyzji i zapewnienie możliwości odtworzenia jego
procesu decyzyjnego.
Ostatnia zasada - możliwości wyjaśnienia - jest kluczowa, jeżeli chodzi o stworzenie
i utrzymanie zaufania użytkowników do systemów sztucznej inteligencji. Oznacza ona,
że procesy zachodzące w systemach muszą być przejrzyste, ich możliwości i cele – otwarcie
komunikowane, zaś podejmowane przez nie decyzje – jak najbardziej możliwe
do wyjaśnienia osobom, na które bezpośrednio oddziałują. Jest to istotne, ponieważ bez tych
informacji osoba nie może należycie zakwestionować decyzji podjętej przez system.
Jeżeli wyjaśnienie dlaczego system wygenerował konkretny wynik (lub decyzję) nie jest
możliwe, należy zapewnić inne rozwiązania umożliwiające kontrolowanie i transparentność
komunikacji systemu z użytkownikiem.
Zauważalnym celem Unii Europejskiej jest zatem dążenie do zaszczepienia etycznego
podejścia do sztucznej inteligencji na poziomie globalnym, o czym – obok tworzenia regulacji
prawnych – świadczy również nawiązywanie i umacnianie współpracy z międzynarodowymi
silnymi partnerami o zbliżonych poglądach. Wśród nich można wskazać Japonię490,

490
W lutym 2017 r. Komitet Etyczny Społeczeństwa Japońskiego wydał zalecenia w zakresie etyki AI, ze
szczególnym uwzględnieniem zaangażowania publicznego.
227
Kanadę491 czy Singapur492. Pomimo, że wdrażanie rekomendacji etycznych w obszarze AI
nadal jest na etapie początkowym, to coraz więcej środowisk (państw, organizacji, firm
i instytucji) zdaje sobie sprawę, że przy pracy ze sztuczną inteligencją konieczne
jest uwzględnienie problemów natury moralnej. Jest to efekt m.in. narastających obaw
społecznych, że AI może wymknąć się spod kontroli człowieka, a nawet stać się główną
przyczyną zagłady ludzkości. Należy jednak podkreślić, że taki scenariusz uważa
za prawdopodobny jedynie marginalna część badaczy i twórców nowych rozwiązań
technologicznych lub – częściej – osoby, które nie rozumieją istoty AI. Z drugiej zaś strony
coraz więcej ludzi, nawet jeżeli nie do końca pojmuje specyfikę funkcjonowania sztucznej
inteligencji, to ma świadomość, że jest ona szeroko stosowana w przestrzeni publicznej,
choćby w kampaniach politycznych za pośrednictwem mediów społecznościowych,
m.in. dzięki możliwości wpływu na przebieg wyborów za pośrednictwem ogólnodostępnych
danych. Dzięki temu rośnie świadomość zagrożeń będących efektem nieuprawnionego
wykorzystywania danych osobowych – dużą rolę w jej podniesieniu wśród obywateli
UE wprowadziło rozporządzenie RODO493. To pokazuje, że jednym z kluczowych
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

komponentów dla budowania etycznej i bezpiecznej sztucznej inteligencji jest zapewnienie


jej transparentności, w tym także w obszarze dostępu do danych osobowych i ich dalszego
przetwarzania.

5.4. Prognozy i perspektywy dalszego rozwoju AI

Kwestia dalszego, bezpiecznego rozwoju sztucznej inteligencji jest w chwili obecnej


jednym z elementarnych wyzwań technologicznych oddziałujących społecznie. Różne formy
AI – począwszy od sieci neuronowych, aż po systemy eksperckie, wykorzystywane są przez
przedsiębiorstwa pozostające w awangardzie współczesnej globalnej gospodarki. Eksperci
zajmujący się sztuczną inteligencją dostrzegają w tej dziedzinie wiedzy szansę na wymierne
zwiększenie produktywności pracy - nie tylko w wymiarze efektywnym, ale i jakościowym,
tj. możliwości wytwarzania nowych produktów i usług. Nie można jednak zapominać,
że rozwój i wdrażanie nowych rozwiązań technologicznych generuje nieznane wcześniej
dylematy etyczne, prawne i społeczne.
W związku z rosnącą popularnością zagadnień dotyczących sztucznej inteligencji
i robotyzacji przewiduje się popularyzację trendu wpisywania się w ten nurt nowych firm.
Dobrym krokiem może okazać się zatem rozwijanie zachęt inwestycyjnych, umożliwiających

491
W listopadzie 2017 r. Rząd Kanady ogłosił program AI&Society (sztuczna inteligencja i społeczeństwo),
ukierunkowany na wsparcie badań w obszarze spraw ekonomicznych, społecznych i filozoficznych.
492
W sierpniu 2018 r. Minister Komunikacji Singapuru powołał Komitet Doradczy w zakresie aspektów
etycznych AI i danych.
493
Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r. w sprawie
ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu
takich danych oraz uchylenia dyrektywy 95/46/WE (ogólne rozporządzenie o ochronie danych).
228
prowadzenie badań i rozwój działalności produkcyjnej w dziedzinie robotów. Takie działanie
może przyciągać start-upy i wymiernie przekładać się na pozycję państwa je oferującego
w obszarze rozwoju AI. Ważne jest również zapewnienie wzajemnego, transgranicznego
uznawania standardów technicznych oraz reguł interoperacyjności systemów AI,
a także stworzenie bezpiecznych warunków dla międzynarodowych transferów
technologicznych. Jeżeli chodzi o efektywne wdrożenie sztucznej inteligencji do biznesu,
to warto zauważyć, że kwestia ta odnosi się zarówno do dostawców rozwiązań AI, jak
również do przedsiębiorców, którzy chcą z tej technologii korzystać. Pierwsza grupa powinna
gromadzić doświadczenie w konkretnych branżach – celem programistów i inżynierów AI
jest dostosowanie oferowanej technologii do potrzeb biznesu i korzyści związane
z wdrażaniem rozwiązań na coraz większą skalę. Odpowiednie uzasadnienie biznesowe
stanowi bowiem jeden z istotniejszych czynników sukcesu dla firm działających w sferze
AI494. Ważnym elementem jest również poprawienie wciąż niedoskonałej technologii –
głównie w zakresie rozumienia poleceń człowieka przez maszynę i udzielania precyzyjnej
odpowiedzi na zadane pytanie. W odniesieniu do organizacji korzystających z AI należy
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

natomiast zauważyć, że potencjał przyszłych zmian jest bardzo duży – w skali globalnej
widać konkurencyjność nowych firm, korzystających z rozwiązań AI, w stosunku
do podmiotów od dawna istniejących na rynku, ale bazujących na standardowych
technologiach. Przebudowa dotychczasowych modeli biznesowych przedsiębiorstw
i włączenie w te procesy sztucznej inteligencji będzie wymagało od organizacji działań
obejmujących495: opracowanie biznesowego uzasadnienia dla wdrażania AI, stworzenie
ekosystemu danych, ocenę zasobów i prawdopodobnych modeli wdrażania, zintegrowanie AI
z podstawowymi procesami biznesowymi firmy i zapewnienie dobrego kontaktu człowieka
z maszyną, a także zadbanie o otwartość kultury organizacyjnej i szkolenia dla pracowników,
tak aby szybko i skutecznie reagować na ich obawy związane z rozwijaniem i implementacją
narzędzi zmieniających procesy i automatyzujących poszczególne czynności.
Jednym z obszarów gospodarki, w której pojawiają się dylematy związane
z prognozowanym wykorzystaniem sztucznej inteligencji, jest inżynieria produkcji. Głównym
wyzwaniem w tym aspekcie jest możliwość samodzielnego podejmowania decyzji przez
maszynę przy jednoczesnym braku osobowości prawnej. Jak wskazuje
Artur Wymysłowski496, generuje ona problemy o charakterze prawnym (np. trudności

494
Zob. Rewolucja AI. Jak sztuczna inteligencja zmieni biznes w Polsce, [on-line] mckinsey.com, 2017,
https://www.mckinsey.com/pl/~/media/McKinsey/Locations/Europe%20and%20Middle%20East/Polska/Raport
y/Rewolucja%20AI%20Jak%20sztuczna%20inteligencja%20zmieni%20biznes%20w%20Polsce/Raport-
AI_Forbes_PL.pdf (20.10.2020).
495
Zob. Ibidem, s. 36-38.
496
Zob. A. Wymysłowski, Wyzwania inżynierii produkcji w ramach koncepcji rozwoju przemysłu 4.0, [w:] B.
Pretkiel, J. Czapla, J. Barciński, (red.), Perspektywy wdrożenia sztucznej inteligencji, zmiany normatywne,
społeczne i ekonomiczne, [on-line], Instytut Sienickiego, 2020, https://instytut-sienickiego.pl/wp-
229
w określeniu odpowiedzialności w sytuacji wystąpienia awarii lub nieszczęśliwego wypadku,
spowodowanego działaniem AI), ekonomicznym (określenie zasad ubezpieczenia i wypłaty
odszkodowań w przypadku wykorzystywania (lub odmowy korzystania) z narzędzi AI),
socjologicznym (zmiany sposobu myślenia społecznego o roli człowieka w procesie
produkcyjnym, możliwych sposobach pracy oraz zakresie świadczonych usług), społecznym
(zmierzenie się z wizją funkcjonowania części społeczeństwa w ramach bezwarunkowego
dochodu podstawowego), etycznym (ocena skutków decyzji podejmowanych przez AI)
oraz psychologicznym (kwestia wspólnego, niezakłóconego funkcjonowania człowieka
i sztucznej inteligencji). Biorąc pod uwagę, że głównie dzięki rozwojowi technologii
komputerowych znajdujemy się obecnie jako społeczeństwo na etapie rozwoju określanym
terminem społeczeństwa wiedzy497, a w efekcie na rynku pracy poszukiwani i dobrze opłacani
są pracownicy o wiedzy branżowej i pozabranżowej, co z kolei przekłada się na wydajność
pracy i wysoki poziom zaawansowania technologicznego nowych produktów, nie powinno
się rozważać możliwości wyhamowania rozwoju technologicznego, a zamiast tego skupić się
na poszukiwaniu najbardziej efektywnych i bezpiecznych form ich wykorzystania. Systemy
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

sztucznej inteligencji intrygują społeczeństwo szczególnie w kręgach biznesowych,


gdzie zwracają uwagę możliwościami optymalizacji pracy i zysków, zwiększeniem
efektywności i umożliwieniem rezygnacji z kosztownych, a jednocześnie powtarzalnych
procesów obsługiwanych przez pracę ludzi na rzecz ich realizacji przez maszyny. Podnoszona
jest w związku z tym konieczność technologicznej transformacji ekonomii i dostosowanie jej
do koncepcji Przemysłu 4.0.
Rozwój przemysłu można podzielić na cztery etapy - cztery rewolucje przemysłowe,
inicjowane przez kolejne wynalazki: mechanizację (rozpoczętą wynalezieniem i wdrożeniem
do produkcji maszyny parowej), elektryfikację (bazująca na zastosowaniu silników
elektrycznych i wielkoseryjnej produkcji), cyfryzację (opartą na wdrażaniu do produkcji
automatów i robotów i wykorzystaniu w procesie produkcyjnym systemów informatycznych)
oraz tzw. „Przemysł 4.0”, związany z rozwojem społeczeństwa opartego na ogólnoświatowej
sieci komputerowej. Kluczowe elementy tego etapu to komunikacja, dostęp do wiedzy
oraz zastosowanie technologii sztucznej inteligencji. Dalszy rozwój przemysłu wymaga
prowadzenia części prac (m.in. związanych z projektowaniem i przetwarzaniem dokumentów)
w międzynarodowych, interdyscyplinarnych zespołach eksperckich, gdzie fizyczne zebranie
pracowników w jednym miejscu jest niemożliwe, zatem konieczne jest umożliwienie

content/uploads/2020/05/Perspektywy-wdrożenia-sztucznej-inteligencji-zmiany-normatywne-społeczne-i-
ekonomiczne.pdf (20.10.2020).
497
Co oznacza, że wiedza, zasoby finansowe i środki produkcji są dostępne dla społeczeństwa i mogą być np.
sprzedawane lub wypożyczane, zaś właścicielami zakładów przemysłowych są przede wszystkim rozproszone
instytucje i grupy finansowe (np. jako posiadacze akcji giełdowych), które realizują procesy produkcyjne
poprzez zatrudnianie dyrektorów, inżynierów i pracowników, przy czym zarządzanie hierarchiczne zastępuje się
zarządzaniem procesowym.
230
ich wykonywania np. w chmurach obliczeniowych. Dodatkowo, przetwarzanie dużej ilości
danych i informacji, przy jednoczesnym utrzymaniu dokładności i precyzji w wykonywaniu
prostych, powtarzalnych czynności przez długi czas jest znacznie efektywniejsze, jeżeli
wykorzysta się w tych procesach systemy komputerowe, automaty, roboty i technologie AI.
Najbardziej realną prognozą jest zatem dalszy rozwój koncepcji Przemysłu 4.0, co może
przełożyć się na wzrost wydajności produkcji i efektywności pracy, wykreowanie nowych
modeli działalności biznesowej oraz stopniowe ukierunkowywanie działalności
na specjalizowane (dedykowane) produkty przemysłowe i usług498. Do osiągnięcia tego celu
niezbędne są w szczególności takie działania jak upowszechnianie zastosowania AI, dążenie
do utworzenia ogólnoświatowej sieci komputerowej i społecznościowej, budowa chmur
obliczeniowych i dużych baz danych czy tworzenie inteligentnych fabryk, maszyn
i produktów. W efekcie należy spodziewać się podniesienia poziomu bezpieczeństwa
ekonomicznego poprzez zapewnienie wzrostu produktu krajowego brutto. Do zwiększenia
poziomu bezpieczeństwa ekonomicznego może przyczynić się również upowszechnienie
zastosowania AI w inteligentnych systemach zarządzania, jednak pod warunkiem,
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

że organizacje, które zechcą czerpać korzyści z jej wykorzystania, skłonią się ku pozyskaniu
specjalistycznych umiejętności i kompetencji w takich obszarach jak informatyka,
matematyka, logika, statystyka i analiza dużych zbiorów danych. Istotnym trendem
rozwojowym systemów zarządzania jest również czerpanie wzorców z nauk biologicznych
(np. obliczenia membranowe), fizycznych czy mechaniki. Przełomowym wydarzeniem w tym
obszarze wydaje się być opracowanie komputera kwantowego, który umożliwia znaczne
zwiększenie wydajności – maszyna ta może prowadzić jednocześnie kilka etapów obliczeń
lub przeanalizować równolegle kilka wariantów rozwiązania określonego problemu. Eksperci
przewidują, że w najbliższych latach komputery kwantowe znajdą szerokie zastosowanie
w logistyce (jako fundament optymalizujący procesy dostaw) oraz finansach (gdzie posłużą
do określania kluczowych elementów ryzyka inwestycyjnego)499. To z kolei przyczyni się
do zwiększenia wartości organizacji stosujących te narzędzia na rynku międzynarodowym
oraz uzyskania przewagi konkurencyjnej nad przedsiębiorstwami zamkniętymi
na nowoczesne rozwiązania technologiczne.
W kontekście tematu prowadzonych rozważań mieści się również kwestia prognoz
dotyczących dalszego rozwoju i wykorzystania AI w obszarze cyberbezpieczeństwa. Sztuczna
inteligencja nie tylko wpłynie na procesy usprawniające działanie przedsiębiorstw
czy podniesie poziom ich ochrony, ale może także zmienić dotychczasowy katalog zagrożeń.

498
Zob. A. Wymysłowski, op. cit., s. 13-15.
499
Zob. W. Kulik, Co to jest komputer kwantowy? Oto podstawy, [on-line], benchmark.pl, 10.04.2020,
https://www.benchmark.pl/aktualnosci/co-to-jest-komputer-kwantowy-podstawy-wideo.html (19.01.2020).
231
Zdaniem ekspertów500 AI oraz uczenie maszynowe może przynieść wykładniczy wzrost
bezpieczeństwa teleinformatycznego, głównie poprzez zwiększenie odporności punktów
końcowych. Narzędzia bazujące na sztucznej inteligencji będą doskonalone, a możliwość
dostępu do coraz większego zestawu danych (zarówno historycznych, jak i generowanych
w czasie rzeczywistym), co sprawi, że zarządy firm będą dążyły do zwiększania budżetu
i wdrażania działań na rzecz sprawniejszego wykrywania zagrożeń z wykorzystaniem
nowoczesnych technologii. Istnieje niestety obawa, że na rozwoju nowoczesnych technologii
skorzystają także cyberprzestępcy, którzy zyskają możliwość ich zastosowania do omijania
systemów kontroli bezpieczeństwa i dokonywania ataków oraz włamań. Nowoczesne
rozwiązania zwiększą bowiem skuteczność analizy mechanizmów obronnych w celu
wyszukiwania ich słabych punktów, ale także umożliwią podłączanie się pod strumienie
przesyłanych danych i wykorzystywanie ich do prowadzenia dalszych ataków. AI może się
również stać narzędziem służącym poprzejmowania kont użytkowników – głównym
zagrożeniem w tym wymiarze jest to, że w obliczu rozwoju technologii IT hasła nie zapewnią
już wystarczającej ochrony danych, podobnie jak kody captcha. Z kolei coraz większa ilość
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

przetwarzanych danych, na których pracują poszczególne organizacje i instytucje wymusi


na nich zautomatyzowanie procesów bezpieczeństwa, m.in. z wykorzystaniem rozwiązań
bazujących na AI oraz uczeniu maszynowym. Rozwiązania te mogą stać się również
remedium na przeciwdziałanie korupcji w łańcuchach dostaw, pozwalając na szybką
identyfikację czy łańcuch ten nie został zakłócony, a jeśli tak, to w którym punkcie. Sztuczna
inteligencja może także zmniejszyć ryzyko podłączenia zainfekowanego i potencjalnie
niebezpiecznego elementu do biznesowego łańcucha dostaw, co przełoży się na podniesienie
ich bezpieczeństwa. System dostaw będzie bowiem chroniony przed atakami poprzez
eliminowanie możliwości stosowania sprzętu i oprogramowania podatnego na ataki.
Zabezpieczenia bazujące na AI znajdą również zastosowanie w ochronie sieci, danych,
punktów końcowych oraz zarządzaniu dostępami i tożsamością użytkowników.
Przewiduje się, że sztuczna inteligencja może przyczynić się także do ochrony
konsumenta, przede wszystkim w kwestii zachowania jego prywatności. Głośne kryzysy
gigantów biznesowych i technologicznych, związane z naruszeniami prywatności
i integralności danych ich klientów i użytkowników sprawiają bowiem, że firmy przeznaczają
coraz większe nakłady finansowe na zapewnienie poufności i wzmocnienie ochrony danych,
aby odzyskać zaufanie klientów. Aby utrzymać swoją pozycję na rynku, firmy
muszą pogodzić się z faktem, że prywatność staje się kluczowym dobrem i priorytetem
konsumentów, ponieważ to klienci są właścicielami swoich danych i mogą decydować

500
Zob. S. Gliwa, op.cit.
232
o selektywnym udostępnianiu ich określonym podmiotom w zamian za dostępność
konkretnych dóbr i usług.
Kolejnym przewidywanym trendem jest walka pomiędzy sztuczną inteligencją
wykorzystywaną do ataku oraz stosowaną do ochrony danych, systemów i bezpieczeństwa
organizacji. W tym aspekcie istotne jest to, że o ile atakujący koncentruje się jedynie
na znalezieniu luki w zabezpieczeniach, to ochrona musi skupić się dodatkowo na ich
wyeliminowaniu i uniemożliwieniu powstawaniu kolejnych niebezpiecznych punktów
dostępu.
Warto również wspomnieć o perspektywach dalszego upowszechniania rozwiązań
bazujących na AI w sferze bezpieczeństwa militarnego. O stałym zainteresowaniu
wykorzystania sztucznej inteligencji do celów wojskowych świadczą działania podejmowane
przez Stany Zjednoczone (współpraca z Google w zakresie Projektu Maven,
czyli wykorzystania oprogramowania przetwarzającego obraz rejestrowany przez drony
bojowe będące na wyposażeniu amerykańskiej armii w celu skuteczniejszego rozpoznawania
konkretnych obiektów na obrazie rejestrowanym z dużej wysokości), Chiny (projektowanie,
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

budowa, wdrażanie i przygotowanie do użycia bojowego bezzałogowych statków


powietrznych i okrętów morskich) czy Rosję (testowanie robotów bojowych w różnych
zastosowaniach na polu walki). Należy zatem spodziewać się, że narzędzia wykorzystujące
AI znajdą również powszechne zastosowanie w zbieraniu danych wywiadowczych, budowie
skuteczniejszej broni autonomicznej i tworzeniu autonomicznych robotów bojowych.
Przewidywane jest także upowszechnienie rozwiązań zwiększających możliwości bojowe
żołnierzy, poprzez ulepszanie ich biologicznych zdolności (m.in. siły mięśniowej, wzroku,
czy słuchu). Z raportu przygotowanego w 2019 r. przez Dowództwo Rozwoju Zdolności
Bojowych USA wynika, że technologiczne ulepszenia polegające m.in. na wzmocnieniu
kończyn, umożliwieniu widzenia w spektrum podczerwieni i ultrafioletu, wyposażeniu
w urządzenia audio zapewniające słyszenie ultra- i poddźwiękowe, a nawet w urządzenia
neuronowe optymalizujące moc mózgu i pozwalające kontrolować broń za pomocą umysłu
mogą znaleźć realne zastosowanie w amerykańskiej armii już w 2050 r.501
Innowacyjne rozwiązania technologiczne będą stawały się podstawą prowadzenia
przyszłych konfliktów. Potencjalnym zagrożeniem w tym obszarze jest fakt,
że wykorzystywanie autonomicznych rozwiązań podczas działań wojskowych
może doprowadzić do eskalacji konfliktu. Z jednej strony bowiem użycie systemów

501
Zob. R. Morrison, Cyborg super soldiers: US Army report reveals vision for deadly ‘machine humans’ with
infrared sight, boosted strength and mind-controlled weapons by 2050, „Daily Mail” [on-line], 29.12.2019,
https://www.dailymail.co.uk/sciencetech/article-7738669/US-Military-scientists-create-plan-cyborg-super-
soldier-future.html (18.01.2021).; por. Chiny prowadzą testy na ludziach. Tworzą superżołnierza, [on-line],
o2.pl, 06.12.2020, https://www.o2.pl/informacje/chiny-prowadza-testy-na-ludziach-tworza-super-zolnierza-
658335818 7981376a (18.01.2021).
233
bezzałogowych może pełnić rolę odstraszającą sprawiając, że przeciwnik odstąpi od walki,
z drugiej zaś – jeżeli zorientuje się, że w obrębie danego obiektu nie znajduje się człowiek,
może przeprowadzić planowane uderzenie zgodnie z wcześniejszym założeniem. Należy mieć
również na uwadze, że jeśli dana operacja będzie prowadzona przez sztuczną inteligencję,
to prawdopodobnie zostanie ona w pełni zrealizowana w założonym zakresie, ale skutkiem
ubocznym może być zaognienie sytuacji w innym obszarze. W przypadku braku kontroli
człowieka nad AI może dojść również do sytuacji, w której autonomiczny system użyje siły
tam, gdzie człowiek nie planował tego robić502. Możliwe negatywne konsekwencje
uprawdopodabnia również fakt, że decyzje podejmowane przez AI są natychmiastowe,
w związku z czym niespodziewana eskalacja konfliktu również może nastąpić w chwilę
po przeprowadzonym ataku. Nowe wyzwania stwarza również możliwość zaangażowania
sztucznej inteligencji w procesy decyzyjne – jednym z nich jest niebezpieczeństwo związane
z wprowadzeniem dowódców wojskowych w błąd, co może przełożyć się na wywołanie
chaosu i niepewności na polu bitwy. Sztuczna inteligencja postrzega i interpretuje bowiem
określone działania w sposób odmienny od percepcji człowieka, co może skutkować różnymi
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

decyzjami podejmowanymi przez system i człowieka. Problematyczne może być również


błędne odczytanie zamiarów przeciwnika przez systemy autonomiczne, w wyniku którego
może nastąpić wspomniana wcześniej eskalacja konfliktu i zwiększenie jego dynamiki.
Z drugiej strony, zastosowanie innowacyjnych, precyzyjnych narzędzi i rozwiązań może
zwiększyć poziom identyfikacji celu w prowadzonych działaniach operacyjnych i w efekcie
zmniejszyć liczbę realnych ofiar konfliktu503. Niewątpliwie zmiany w zakresie prowadzenia
konfliktów zbrojnych wynikające z postępującego rozwoju technologicznego i wdrażania
kolejnych innowacyjnych rozwiązań do sektora bezpieczeństwa militarnego są nieuchronne.
Do tak intensywnego rozwoju sztucznej inteligencji przyczyniają się bowiem ogromne
nakłady finansowe przeznaczane na ten cel przez światowe potęgi , zatem należy spodziewać
się, że wyniki prowadzonych badań zostaną wykorzystane w pierwszej kolejności właśnie
do zwiększenia ich potencjału bojowego i stworzenia przewagi militarnej nad innymi
państwami. Należy mieć jednak na uwadze, że choć wdrażanie AI do procesów wojskowych
przyczyni się do zwiększenia skuteczności prowadzonych operacji, to może również
generować nowe, nieznane dotychczas problemy i wyzwania. Zdaniem szefa pionu prawnego
Narodowej Agencji Bezpieczeństwa USA, Glenna S. Gerstella, należy spodziewać się

502
Zob. Wong Y.H. (et al.), Deterrence In the Age of Thinking Machines, [on-line], RAND, 2020,
https://www.rand.org/pubs/research_reports/RR2797.html (02.06.2020).
503
O możliwościach zastosowań AI do eliminacji określonego celu może świadczyć akcja z 27 listopada 2020
r., kiedy w Teheranie doszło do zabójstwa irańskiego naukowca nuklearnego, Mohsena Fakrizadeha. Zginął on
w wyniku wystrzału 13 pocisków z auta sterowanego z poziomu satelity, wyposażonego również we
wspomagane przez AI systemy namierzania i przybliżania celu503. Jednocześnie system sterowania bronią był
tak precyzyjny, że żona naukowca, siedząca w odległości ok. 25 cm od niego, nie odniosła obrażeń fizycznych.
234
przygotowań do „wojny przyszłości”504. W jego opinii, postępująca cyfrowa rewolucja może
wywrzeć bardzo duży wpływ zarówno na znaną dotychczas rolę państwa, biznesu
czy społeczeństwa. Duże znaczenie mają w tym obszarze działania sił wywiadowczych
i kontrwywiadowczych państwa, które z jednej strony powinny w jak największym stopniu
wykorzystać potencjał nowych narzędzi i rozwiązań bazujących na AI, a z drugiej –
odpowiednio zabezpieczyć zasoby i informacje strategiczne dla państwa, do których mogą
uzyskać dostęp podmioty niepożądane, bazując na tych samych, nowoczesnych
technologiach. Przedstawione kierunki zmian pozwalają wysunąć wniosek, że sztuczna
inteligencja w sferze militarnej oznacza nie tylko powstanie i upowszechnienie autonomicznej
broni czy robotów bojowych, ale także automatyzację całego teatru działań. Konieczne
wydaje się zatem określenie w jakim stopniu nowoczesna technologia może wspomóc,
ale i ograniczyć rolę człowieka w bezpośrednich operacjach wojennych, w tym także
w kluczowych dla ich powodzenia procesach decyzyjnych.
Dalszy rozwój technologiczny znajdzie również odzwierciedlenie w sektorze
bezpieczeństwa zdrowotnego. W miarę rozwoju procesów przetwarzania danych
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

o charakterze medycznym zwiększa się bowiem możliwość pozyskiwania z olbrzymich


zestawów danych kluczowych spostrzeżeń, które mogą być skutecznie identyfikowane
z wykorzystaniem algorytmów sztucznej inteligencji. W procesach analitycznych brane są
pod uwagę dane dotyczące zdarzeń, które już zaistniały (np. historie choroby pacjentów,
ich objawy, wdrożone leczenie), na których podstawie generuje się kolejne przewidywania.
W ujęciu ogólnym, lekarze mają np. dostęp do informacji, że czynniki takie jak wiek
lub historia choroby różnych pacjentów mają potencjalny wpływ na określony przebieg innej
choroby. Dysponując takimi informacjami lekarze będą mogli podejmować trafniejsze
decyzje dotyczące opieki medycznej i zdrowotnej. Sztuczna inteligencja i uczenie maszynowe
mogą również znacząco poszerzyć zasięg analiz poprzez ciągłe ich doskonalenie.
Program bazujący na AI może m.in. wykorzystywać ogromne ilości danych medycznych
aby skutecznie przewidywać, którzy pacjenci znajdą się w grupie ryzyka określonej choroby.
Należy pamiętać, że organizacje opieki zdrowotnej dysponują tak dużą ilością danych,
że ich ręczna analiza staje się niemożliwa. Tymczasem dogłębna, ciągła analiza
i przeszukiwanie bazy według określonych kryteriów, zapewniane przez narzędzia
analityczne i sztuczną inteligencję umożliwia identyfikację wzorców, które człowiek mógłby
przeoczyć, a które usprawniają prowadzenie badań i pozwalają na doskonalenie usług.
W sferze świadczeń leczniczych, istotne znaczenie zyskuje możliwość wymiany
danych w ramach kompleksowego systemu opieki zdrowotnej. Jednocześnie trzeba mieć

504
Zob. S. Palczewski, Sztuczna inteligencja zmieni dynamikę konfliktu. Wojsko stanie przed nowymi
zagrożeniami, 10.02.2020, cyberdefence24.pl, https://www.cyberdefence24.pl/sztuczna-inteligencja-zmieni-
dynamike-konfliktu-wojsko-stanie-przed-nowymi-zagrozeniami (19.11.2020).
235
na uwadze, że tak jak w innych obszarach bezpieczeństwa, tak i w zakresie bezpieczeństwa
zdrowotnego upowszechnienie nowych rozwiązań technologicznych obok szans rozwoju
tej branży generuje także nowe wyzwania i zagrożenia. Np. w związku z tym, że algorytmy
oparte na metodach AI na tyle sprawnie analizują ogromne ilości danych, pojawia się obawa,
iż dokonane przez nie odkrycia będą poprawne i weryfikowalne, ale niezrozumiałe
dla człowieka. Dyskusje na ten temat prowadzone są m.in. w dziedzinach, w których skok
technologiczny przyczynił się do pozyskania olbrzymich ilości danych, tj. w biologii
molekularnej czy fizyce cząstek elementarnych. Dlatego istotne jest zapewnienie możliwości
interpretowania metod i wyników wygenerowanych przez algorytm. Jak wskazuje
Jakub Nalepa, „(…) AI może służyć pomocą, wskazując obszary danych, które są
potencjalnie interesujące i mogą prowadzić do jakiegoś odkrycia. Może wręcz odkryć coś,
czego sami nie zdołalibyśmy zauważyć. Ale nawet takie podpowiedzi trzeba poddać
interpretacji, zastanowić się, skąd się wzięły…”505. Inną istotną przeszkodę stanowią
utrudniania komunikacji i współpracy pomiędzy różnymi wykorzystywanymi systemami.
Wyzwaniem w tym zakresie jest zatem zapewnienie współdziałania rozumianej
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

jako bezproblemowa wymiana informacji pomiędzy różnymi zasobami elektronicznymi


i systemami zarządzania danymi medycznymi. Konieczne będzie więc zapewnienie jednego,
spójnego źródła rzetelnych danych, które umożliwi lekarzom i podmiotom świadczącym
usługi opieki zdrowotnej bezpieczny i szybki dostęp do potrzebnych im informacji.
Z kolei z organizacyjnego punktu widzenia, możliwe będzie wdrożenie narzędzi sztucznej
inteligencji na potrzeby pozyskiwania istotnych spostrzeżeń i wzorców z przeanalizowanych
danych. Jednak przed wdrożeniem takich narzędzi organizacje muszą wziąć pod uwagę kilka
czynników – przede wszystkim należy zadbać o możliwie niezawodną technologię
oraz powołać specjalistyczny zespół, który będzie odpowiedzialny za jej obsługę.
Istotne są również kwestie zgodności nowych rozwiązań z wymogami formalnymi,
opracowanie strategii zachęcającej użytkowników do korzystania z wdrażanych technologii
oraz zapewnienie integralności nowego narzędzia z dotychczas stosowanymi rozwiązaniami.
Światowa gospodarka korzysta obecnie z wielu rozwiązań wykorzystujących sztuczną
inteligencję, natomiast w przyszłości tendencja ta będzie jeszcze bardziej zauważalna. Proces
cyfrowej transformacji społeczeństwa oraz gospodarki z wykorzystaniem do tego celu
algorytmów stanowi jedno z kluczowych wyzwań rozwojowych w XXI w. Aby w pełni
wykorzystać potencjał związany z możliwościami zastosowania sztucznej inteligencji, sektor
usług publicznych i komercyjnych, jak również przemysł, muszą być nasycone danymi, które
w ciągu ostatnich lat stały się jednym z najważniejszych czynników warunkujących
przynoszącą zyski produkcję. Pozyskiwanie, gromadzenie, analizowanie, przetwarzanie,

505
Zob. K. Jałochowski, Człowiek zdecyduje, „Polityka”, 2020, nr 47, s. 20.
236
wykorzystywanie i przekazywanie danych, a także stały rozwój algorytmów staje się zatem
elementarną kompetencją poszczególnych państw i ich gospodarek. Narodową strategię
rozwoju AI posiada już wiele państw, przy czym najbardziej precyzyjnie mechanizmy
wsparcia jej rozprzestrzeniania zaprezentowała Kanada, Niemcy i Francja.
Należy zauważyć, że również organizacje międzynarodowe coraz częściej podejmują
działania ukierunkowane na opracowanie strategii dotyczących rozwoju sztucznej inteligencji.
Angażują się one również w tworzenie konkretnych rekomendacji i wytycznych w obszarze
wdrażania rozwiązań AI w zróżnicowanych sektorach bezpieczeństwa. Za główny motyw
podejmowanych przez nie działań należy uznać potrzebę opracowania jednolitych, spójnych
ram, które mogą nie tylko przyczynić się do zwiększenia korzyści społecznych płynących
z upowszechniania sztucznej inteligencji, ale także pozwolą ustalić kluczowe zagrożenia,
ryzyka i wyzwania, których zdefiniowanie jest niezbędne dla bezpiecznego rozwoju
tej dziedziny nauki.
W maju 2019 r. Organizacja Współpracy Gospodarczej i Rozwoju (OECD)
opublikowała pierwsze międzyrządowe standardy rozwoju sztucznej inteligencji. Intencją
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

rekomendacji jest wsparcie innowacji i budowa zaufania do AI, głównie poprzez promowanie
odpowiedzialnego zarządzania i poszanowania praw człowieka oraz wartości
demokratycznych. Dokument tworzą dwie sekcje – pierwsza przeznaczona jest dla twórców
rozwiązań z zakresu sztucznej inteligencji, drugą zaś skierowano do decydentów,
odpowiedzialnych za tworzenie krajowych polityk506. Pierwsza sekcja określa pięć
fundamentalnych zasad odpowiedzialnego zarządzania sztuczną inteligencją:
 rozwój AI dla dobrobytu i zrównoważonego rozwoju – sztuczna inteligencja powinna być
wykorzystywana do zapewniania dobrobytu ludzkości i przynoszenia korzyści planecie,
a rozwój technologii nie może skutkować brakiem poszanowania środowiska naturalnego
i zaburzeniem idei zrównoważonego rozwoju;
 koncentrację na wartościach i człowieku – twórcy sztucznej inteligencji powinni
respektować prawa człowieka, praworządność i wartości demokratyczne; systemy
autonomiczne powinny mieć zabezpieczenia, które umożliwią ludziom przejęcie kontroli
nad maszyną w sytuacji zagrożenia;
 transparentność – systemy AI powinny być projektowane w sposób przejrzysty
i umożliwiający uzyskanie przez człowieka informacji o sposobach działania systemu
oraz odtworzenie logiki podejmowania decyzji przez algorytm, jak również poznanie
czynników mających wpływ na tę decyzję; podkreślono również, że użytkownik musi
mieć prawo zakwestionowania decyzji podjętej przez automat;

506
Zob. OECD, Recommendation of the Council on Artificial Intelligence, 2019.
237
 bezpieczeństwo – bezpieczeństwo użytkownika powinno być zapewniane już na etapie
projektowania rozwiązań AI, tak aby przeciwdziałać wykorzystaniu sztucznej inteligencji
do nieodpowiednich celów – wymaga to systematycznej analizy ryzyka na każdym etapie
życia maszyny oraz możliwości wglądu we wcześniejszą historię decyzji podejmowanych
przez automat;
 odpowiedzialność – dokument wskazuje, że odpowiedzialność za prawidłowe
funkcjonowanie systemów sztucznej inteligencji oraz przestrzeganie zasad etycznych
ponoszą ich twórcy507.
W drugiej sekcji rekomendacji sformułowano zasady dla decydentów, tworzących
narodowe polityki i strategie, w tym regulujące również zagadnienia rozwoju
i upowszechniania AI. Do tego katalogu zaliczono:
 inwestowanie w badania i rozwój – państwa zachęca się do rozważenia długofalowych
inwestycji w badania i rozwijanie AI, jak również do tworzenia optymalnych warunków
dla sektora prywatnego, aby również i w tym obszarze inwestowano w technologię godną
zaufania, etyczną i odpowiedzialną społecznie;
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

 wspieranie ekosystemu dla rozwoju sztucznej inteligencji – poszczególne państwa


powinny promować działania zwiększające zaufanie do otwartych zbiorów danych
i rozwiązań AI, a także zadbać o to, aby technologia rozwijała się bezpiecznie, legalnie
i etycznie; niezbędnym komponentem w tym obszarze jest również budowa platform
wymiany wiedzy;
 kształtowanie środowiska politycznego – w taki sposób, aby zapewnić etyczny rozwój
i eksploatację rozwiązań wykorzystujących sztuczną inteligencję, m.in. zapewniając
kontrolę i optymalizację nowych technologii; poszanowanie tej zasady wiąże się
z koniecznością przeglądu obecnych ram prawnych i dbałości o powstanie nowych
regulacji, sprzyjających budowie i rozwojowi odpowiedzialnych, bezpiecznych
i etycznych systemów;
 budowę kompetencji i przygotowanie rynku pracy – państwa powinny zacieśnić
współpracę ze wszystkimi interesariuszami na rzecz implementacji transformacji
cyfrowej; należy także motywować obywateli państwa do optymalnego wykorzystywania
nowoczesnych technologii i zwiększania ich kompetencji w tym obszarze, jak również
zadbać o dostosowanie rynku pracy, wspierać procesy przekwalifikowywania
pracowników oraz wdrażać procesy uczenia i używania maszyn w życiu codziennym
– to umożliwi promowanie wykorzystania sztucznej inteligencji jako rozwiązań

507
Zob. J. Balcewicz, Etyczna sztuczna inteligencja – rekomendacje OECD, [on-line], NASK, 30.05.2019,
https://cyberpolicy.nask.pl/etyczna-sztuczna-inteligencja-rekomendacje-oecd/ (27.11.2020).
238
zwiększających bezpieczeństwo pracowników, rozwój przedsiębiorczości
i maksymalizujących wydajność;
 współpracę międzynarodową na rzecz budowy etycznej i godnej zaufania AI – zarówno
wewnętrzną, tj. w ramach państw członkowskich OECD, jak również zewnętrzną –
z innymi organizacjami; międzysektorowe i międzynarodowe inicjatywy służą bowiem
wymianie wiedzy i dobrych praktyk, promując jednocześnie rozwój standardów
technicznych dla nowych systemów. OECD powołała Komitet ds. Polityki Cyfrowej,
prowadzący prace nad sztuczną inteligencją we współpracy m.in. z UNESCO i Radą
Europy.
Postępujący rozwój nowoczesnych technologii, obejmujących również rozwiązania
bazujące na sztucznej inteligencji, wiąże się z głębokimi zmianami społecznymi. Należy
zapewnić, że technologia ta, jako dostrzegalny element codziennego życia człowieka, będzie
tworzona z poszanowaniem obywatelskich praw i wartości. Dlatego też temat etycznych
aspektów rozwoju AI, podejmowany jest na licznych forach międzynarodowych.
Spójne działania w obszarze wypracowania regulacji dotyczących etycznego
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

wykorzystywania sztucznej inteligencji podejmują OECD i Unia Europejska. Inicjatywy


OECD korespondują bowiem z aktywnością Parlamentu Europejskiego i Komisji
Europejskiej. Parlament Europejski, jako pierwsza z instytucji unijnych, podjął faktyczne
działania dotyczące problematyki sztucznej inteligencji. Jak wskazano we wcześniejszym
podrozdziale, już w 2017 r. opublikował „Sprawozdanie zawierające zalecenia dla Komisji
w sprawie przepisów prawa cywilnego dotyczących robotyki”, w którego treści zawarto
rekomendacje adresowane do innych instytucji UE, w tym główny postulat dotyczący
utworzenia europejskiej agencji ds. robotyki i sztucznej inteligencji. Parlament przygotował
również szczegółowe wytyczne odnoszące się do stosowania AI w konkretnych dziedzinach,
m.in. w pojazdach autonomicznych, dronach, robotach medycznych i robotach
przeznaczonych do opieki nad osobami starszymi. Dodatkowo, w kwietniu 2020 r. Komisja
Prawna Parlamentu Europejskiego opublikowała projekt sprawozdania z zaleceniami
dla Komisji w sprawie systemu odpowiedzialności cywilnej za sztuczną inteligencję,
zawierający projekt rezolucji Parlamentu Europejskiego regulującej kwestie
odpowiedzialności za działanie systemów AI508. W 2020 r. Parlament Europejski powołał
również Komisję ds. Sztucznej Inteligencji w erze cyfrowej (AIDA) 509, przed którą postawił
zadanie przeanalizowania wpływu AI na gospodarkę Unii Europejskiej. Pracom komisji
przyświeca zadanie opracowania wiarygodnej sztucznej inteligencji, eliminującej
508
Parlament Europejski, Projekt sprawozdania z zaleceniami dla Komisji w sprawie systemu odpowiedzialności
cywilnej za sztuczną inteligencję (2020/2014(INL)), [on-line], europa.eu, 27.04.2020,
https://www.europarl.europa.eu/meetdocs/2014_2019/plmrep/COMMITTEES/JURI/PR/ 2020/05-
12/1203790PL.pdf (29.11.2020); dokument ten omówiono szerzej w podrozdziale 5.3.
509
AIDA – Artificial Intelligence in a Digital Age.
239
tendencyjność i dyskryminację oraz służącej dobru wspólnemu, zapewniającej zarówno
rozwój przemysłu i biznesu, jak i tworzenie dobrobytu gospodarczego. Komisje Parlamentu
Europejskiego prowadzą także prace nad innymi obszarami zastosowania sztucznej
inteligencji – wspomniana wcześniej Komisja Prawna (JURI) koncentruje się
na wykorzystaniu AI w sektorze cywilnym i wojskowym, Komisja Kultury i Edukacji
(CULT) – w branży edukacji, kultury i audiowizualizacji, zaś Komisja Wolności
Obywatelskich, Sprawiedliwości i Spraw Wewnętrznych (LIBE) bada możliwości jej
wykorzystania w prawie karnym510.
Dużą aktywność w obszarze unijnych regulacji dotyczących sztucznej inteligencji
przejawia również Komisja Europejska, która w 2018 r. opublikowała dwa istotne dokumenty
dotyczące w tym zakresie. Pierwszy z nich to Komunikat „Sztuczna Inteligencja dla Europy”
z 25 kwietnia 2018 r.511 AI określono w nim jako istotne wyzwanie strategiczne, sprostanie
któremu wymaga skoordynowanych działań w dziedzinie technologii, prawa, etyki
i ekonomii512. Europejska strategia sztucznej inteligencji w centrum rozwoju AI stawia
człowieka, przedstawiając trzy podstawowe aspekty związane z upowszechnianiem rozwiązań
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

z tej dziedziny:
 konieczność zwiększenia zdolności technologicznej i przemysłowej UE
oraz wykorzystania AI w różnych dziedzinach gospodarki – głównie poprzez zwiększenie
wydatków na AI, zarówno w sektorze prywatnym, jak i publicznym;
 przygotowanie się do zmian społeczno-gospodarczych wynikających z rozwoju AI
(zwłaszcza w zakresie zmian na rynku pracy i konieczności tworzenia nowych
schematów edukacji);
 przygotowanie adekwatnych ram prawnych i etycznych dla rozwoju sztucznej
inteligencji, w tym regulujących kwestie odpowiedzialności za produkt.
Drugim dokumentem jest „Skoordynowany Plan dla Sztucznej Inteligencji”,
opublikowany 7 grudnia 2018 r.513 Komisja Europejska podjęła w nim siedem głównych
zagadnień, koncentrujących się przede wszystkim na współpracy państw członkowskich
UE w zakresie rozwoju AI w Europie. Obejmują one kwestie:
 określenia wspólnego celu i podjęcia wysiłków na rzecz rozwijania sztucznej inteligencji;
 partnerstwa i współpracy sektora prywatnego i publicznego oraz finansowania start-upów
i firm innowacyjnych w dziedzinie AI;

510
Zob. Parlament Europejski, Regulacje ws. sztucznej inteligencji: oczekiwania Parlamentu, [on-line],
europa.eu, 21.10.2020, https://www.europarl.europa.eu/news/pl/headlines/society/20201015STO89417/
regulacje-ws-sztucznej-inteligencji-oczekiwania-parlamentu (30.11.2020).
511
Komunikat Komisji do Parlamentu Europejskiego…, s. 7.
512
Zob. R. Babraj, Sztuczna inteligencja dla Europy, [on-line], NASK, 25.04.2018,
https://cyberpolicy.nask.pl/sztuczna-inteligencja-dla-europy/ (26.11.2020).
513
Zob. M. Wrzosek, Skoordynowany Plan dla Sztucznej Inteligencji, [on-line], NASK, 07.12.2018,
https://cyberpolicy.nask.pl/skoordynowany-plan-dla-sztucznej-inteligencji/ (26.11.2020).
240
 wzmacniania wiarygodności sztucznej inteligencji i działających w oparciu o nią
rozwiązań technologicznych;
 dostosowywania systemów i programów szkolnictwa do nowych wyzwań, związanych
z rozwojem AI;
 budowy europejskiej przestrzeni wymiany danych, niezbędnej dla dalszego rozwoju AI
w Europie – jako jej fundament wskazano wspólną bazę danych obrazów
diagnostycznych z sektora zdrowotnego oraz wsparcie rozwiązań sztucznej inteligencji
w cyberbezpieczeństwie;
 opracowania wytycznych dotyczących etyki rozwoju AI oraz zapewnienia ram prawnych
sprzyjających innowacjom;
 bezpieczeństwa sztucznej inteligencji, rozpatrywanego w aspekcie: wspierania sektora
bezpieczeństwa rozwiązaniami AI, ochrony tej technologii przed atakami oraz próby
określenia potencjalnych nadużyć dotyczących nieuprawnionego wykorzystania AI.
Kluczowym elementem „Planu…” są zaprezentowane w nim ramy dla krajowych
strategii sztucznej inteligencji, do przyjęcia których zachęcono państwa członkowskie.
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

Dodatkowo, 8 kwietnia 2019 r. Komisja Europejska opublikowała „Wytyczne w zakresie


etyki dotyczące godnej zaufania sztucznej inteligencji”, opracowane przez grupę ekspertów
wysokiego szczebla ds. AI. W wytycznych tych stwierdzono, że aby zyskać status
wiarygodnej (godnej zaufania) sztucznej inteligencji, w całym cyklu swojego życia musi ona
spełniać trzy warunki:
 zachować zgodność z przepisami obowiązującego prawa, zarówno ustawowych,
jak i wykonawczych;
 rozwijać się z poszanowaniem zasad i wartości etycznych;
 być solidna – zarówno z technicznego, jak i społecznego punktu widzenia, ponieważ
systemy AI mogą wywołać niezamierzone szkody nawet wtedy, gdy są wykorzystywane
w dobrej wierze514.
W oparciu o powyższe składniki oraz o fundamentalne wartości europejskie,
w „Wytycznych…” określono siedem kluczowych wymogów, spełnienie których warunkuje
uznanie zastosowanie sztucznej inteligencji za wiarygodne. Katalog ten obejmuje:
 przewodnią i nadzorczą rolę człowieka;
 techniczną solidność i bezpieczeństwo – w tym odporność na ataki, plan rezerwowy,
dokładność, wiarygodność i odtwarzalność;
 zapewnianie ochrony danych i prywatności – w tym zapewnienie jakości i integralności
danych oraz prawa dostępu do nich;

514
Zob. Wytyczne w zakresie etyki…, s. 6.
241
 przejrzystość – zapewnienie identyfikowalności, wytłumaczalności i komunikacji
z użytkownikiem;
 różnorodność, sprawiedliwość i brak dyskryminacji – w tym unikanie niesprawiedliwej
stronniczości, zapewnienie udziału zainteresowanych stron oraz dostępność, zgodnie
z zasadą projektowania dla użytku wszystkich;
 dobrostan społeczeństwa i środowiska – zrównoważony charakter rozwoju, nienaruszanie
środowiska naturalnego, poszanowanie społeczeństwa i demokracji;
 odpowiedzialność – możliwość kontrolowania, monitorowanie, minimalizacja
i zgłaszanie negatywnych skutków działania, możliwość wypracowania kompromisów
i dochodzenia roszczeń515.
27 listopada 2019 r. w przemówieniu podczas posiedzenia plenarnego Parlamentu
Europejskiego, Ursula von de Leyen – Przewodnicząca Komisji Europejskiej – podkreśliła,
że cyfrowy rozwój Europy jest jednym z priorytetów Komisji. Określiła także sześć
kluczowych celów, które mają sprawić, że w 2050 r. Unia Europejska stanie się
„pierwszoplanową potęgą w sektorze cyfrowym”. Wspomniane cele to:
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

 opanowanie i wykorzystanie technologii takich jak komputery kwantowe, sztuczna


inteligencja, zaawansowane technologie układów scalonych, blockchain;
 optymalne wykorzystanie posiadanych zasobów (potencjał przemysłowy, kadra naukowa)
w celu zapewnienia skutecznej i globalnej konkurencji w obszarze technologicznym;
 stworzenie przyszłościowej, nowoczesnej infrastruktury ze spójnymi standardami,
np. gigabitowych sieci internetowych czy chmur obliczeniowych;
 określenie bezpiecznych zasad przetwarzania danych, które są niezbędne dla rozwoju AI,
ale ich wykorzystanie musi uwzględniać regulacje ochrony tożsamości cyfrowej
obywateli Wspólnoty;
 stworzenie wspólnej przestrzeni, która umożliwi zarówno rządom,
jak i przedsiębiorstwom bezpieczne łączenie się w sieci oraz wymianę i udostępnianie
danych;
 utworzenie rygorystycznych standardów i jednolitego, europejskiego podejścia
w obszarze bezpieczeństwa cyfrowego516.
W ocenie Komisji Europejskiej stworzenie solidnej bazy dla rozwoju AI po 2020 r.
wymaga wzrostu inwestycji w tę dziedzinę nauki. Projektując budżet na AI na lata 2021-2027
zaproponowano, aby w ramach programu „Cyfrowa Europa” przeznaczyć 9,2 mld euro
na kompleksowy, pierwszy w historii program rozwoju technologii cyfrowych.

515
Zob. Ibidem, s. 17-25.
516
Zob. Komisja Europejska, Speech by President-elect von der Leyen in the European Parliament Plenary on
the occasion of the presentation of her College of Commissioners and their programme, [on-line], europa.eu,
27.11.2019, https://ec.europa.eu/commission/presscorner/detail/en/SPEECH_19_6408 (18.01.2021).
242
Kwota ta została zadysponowana w szczególności na finansowanie projektów
ukierunkowanych na budowę i wzmacnianie superkomputerów i przetwarzania danych
w Europie, upowszechnianie AI w społeczeństwie i gospodarce Wspólnoty, zapewnianie
cyberochrony gospodarki cyfrowej, demokracji i społeczeństwa, wdrożenie cyfrowej
transformacji w administracji publicznej i usługach użyteczności publicznej, zapewnianie
dostępu przedsiębiorstw do nowych technologii i wiedzy, a także na zwiększanie umiejętności
cyfrowych obecnych i przyszłych pracowników na europejskim rynku pracy517.
Zarówno w dokumentach i regulacjach OECD, jak i Komisji Europejskiej pojawiają
się zbliżone postulaty. Dotyczą one przede wszystkim opracowania spójnych ram prawnych
i etycznych dla bezpiecznej i godnej zaufania sztucznej inteligencji, zwiększania zdolności
Europy w obszarze AI poprzez inwestowanie w badania i rozwój tej dziedziny,
a także podkreślania znaczenia bezpieczeństwa AI, głównie w obszarze ochrony przed
zagrożeniami, prognozowania potencjalnych nadużyć i monitorowania poziomu ryzyka
w tym zakresie.
Europejska strategia rozwoju sztucznej inteligencji odzwierciedla przekonanie,
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

że AI może zmienić współczesny świat na lepszy, zarówno poprzez podniesienie komfortu


codziennego życia, jak i możliwość jej wykorzystania w działaniach na rzecz zapewniania
zrównoważonego rozwoju. Może się bowiem przyczynić do poprawy poziomu opieki
zdrowotnej, zmniejszania zużycia energii elektrycznej, zwiększenia bezpieczeństwa
komunikacji i transportu oraz zapewniania wydajniejszego użytkowania zasobów naturalnych
i wody. AI można również wykorzystać jako narzędzie wspomagające przewidywanie
i prognozowanie zmian zachodzących w środowisku naturalnym, optymalizujące zarządzanie
ryzykiem finansowym czy podnoszące poziom bezpieczeństwa poprzez pomoc
w wykrywaniu nadużyć finansowych i zagrożeń dla cyberbezpieczeństwa oraz wsparcie
organów ścigania w skuteczniejszym zwalczaniu przestępczości.
Problematykę sztucznej inteligencji podejmuje również Organizacja Narodów
Zjednoczonych. Jej wyspecjalizowane organizacje angażują się w szczególności w globalną
debatę dotyczącą przeciwdziałania systemom broni autonomicznej. Wiodącą rolę w tym
obszarze odgrywa UNODA (United Nations Office for Disarmament Affairs – Biuro ONZ
ds. Rozbrojenia), działające na rzecz wypracowania i przyjęcia wspólnego stanowiska
podmiotów międzynarodowych w kwestii autonomicznych systemów uzbrojenia.
Ma ono zapewnić, że człowiek utrzyma kontrolę nad krytycznymi funkcjami systemów
uzbrojenia, co oznacza, że w pełni autonomiczna broń nie zostanie dopuszczona do użytku.

517
Zob. Komisja Europejska, Budżet UE: Komisja proponuje inwestycje w wysokości 9,2 mld euro w pierwszy w
historii program w dziedzinie technologii cyfrowych, [on-line], europa.eu, b.r.,
https://ec.europa.eu/commission/presscorner/detail/pl/ IP_18_4043 (18.01.2021).

243
Inne wątki odnoszące się do wykorzystania sztucznej inteligencji poruszają przede wszystkim
agencje:
 UNICRI (United Nations Interregional Crime and Justice Research Institute –
Międzyregionalny Instytut ONZ ds. Badań nad Przestępczością i Wymiarem
Sprawiedliwości) - w 2015 r. instytut ten uruchomił specjalny program dotyczący
sztucznej inteligencji oraz robotyki; jako kluczowy element zrównoważonego rozwoju
tego sektoru, UNICRI wskazuje kompleksowe podejście, obejmujące perspektywę
krajową, regionalną, międzynarodową, prywatną oraz publiczną. Podejście to znalazło
odzwierciedlenie w 2017 r., kiedy Instytut utworzył Centrum Sztucznej Inteligencji
i Robotyki, czyli forum dialogu w zakresie zarządzania nowymi rozwiązaniami
technologicznymi, pozwalające na monitorowanie światowego poziomu rozwoju AI
przy jednoczesnym promowaniu współpracy międzynarodowej w zakresie wzajemnej
wymiany technologicznej oraz dążeniu do polityki zapewniającej bezpieczeństwo
i rozwój. Oprócz możliwości użycia sztucznej inteligencji w broni autonomicznej,
wśród głównych zagrożeń wynikających z jej upowszechnienia eksperci UNICRI
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

wymieniają bowiem ryzyko wykorzystania jej przez cyberprzestępców (jako narzędzie


służące przeprowadzaniu ataków socjotechnicznych, zwiększające skuteczność szukania
słabych punktów w systemach zabezpieczeń czy sposób na oszukanie systemów
biometrycznych) oraz zmniejszenie roli człowieka na rynku pracy;
 UNDP (United Nations Development Programme – Program Narodów Zjednoczonych
ds. Rozwoju) – wspiera inicjatywy stosowania AI w ramach automatyzowania działań
związanych z RIA (Rapid Integrated Assessment) czyli narzędziem pomagającym rządom
państw członkowskich w ocenie poziomu zgodności krajowych planów rozwoju
oraz strategii rozwojowych z Celami Zrównoważonego Rozwoju ONZ. Określa ono
gotowość państwa do wdrożenia globalnej agendy rozwoju. Wykorzystanie algorytmów
sztucznej inteligencji w testowej ocenie planów rozwoju pięciu kolejnych państw
pozwoliło skrócić czas analizy z ok. 4 tygodni pracy do zaledwie 3 dni, a uzyskane
wyniki nie różniły się od wcześniej dokonanej ręcznej oceny;
 ITU (International Telecommunication Union – Międzynarodowy Związek
Komunikacyjny) – związek ten jest organizatorem corocznego wydarzenia nazwanego
„AI for Good”, do udziału w którym zaprasza przedstawicieli administracji rządowej,
poszczególnych agencji ONZ, organizacji pozarządowych, ekspertów oraz liderów
branży sztucznej inteligencji. Jest to okazja do dialogu na temat funkcjonowania
i dalszego rozwoju AI oraz możliwości jej praktycznego zastosowania dla poprawy
jakości życia i zapewniania zrównoważonego rozwoju.

244
W listopadzie 2019 r. w podczas 40. sesji Konferencji Generalnej UNESCO
zadecydowano o podjęciu prac nad aktem prawa międzynarodowego w formie rekomendacji,
odnoszącego się do etycznych aspektów dalszego rozwoju i możliwych zastosowań sztucznej
inteligencji. W jego projekcie, skierowanym do państw członkowskich ONZ 17 września
2020 r., Sekretariat UNESCO podkreślił znaczenie różnych zastosowań AI w kontekście
światowej pandemii COVID-19, przede wszystkim możliwości jej wykorzystania w takich
obszarach jak telemedycyna, zdalne nauczanie oraz prace badawcze nad szczepionką.
Jednocześnie wyrażono obawy, że nieznany obecnie potencjał AI sprawia, iż „maszyny
zaczną decydować za człowieka, podważą jego prawo do prywatności oraz narażą
użytkowników na manipulacje, naruszając podstawowe wolności i prawa człowieka ponieważ
ogromna ilość danych przetwarzanych każdego dnia stwarza poważne wyzwania dotyczące
poufności, poszanowania życia prywatnego, ryzyka powielania praktyk dyskryminacyjnych
oraz upowszechniania stereotypów”518. Aby zapobiec spełnieniu negatywnego scenariusza
i zapewnić, że sztuczna inteligencja będzie służyć wyłącznie dobru wspólnemu, eksperci
UNESCO proponują utworzenie solidnych zasad etycznych regulujących wykorzystanie
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

rozwiązań bazujących na AI. W projekcie rekomendacji zawarto m.in. ideę


proporcjonalności, zgodnie z którą technologie sztucznej inteligencji nie mogą wykraczać
poza ramy ustalone dla osiągnięcia legalnych celów, a jednocześnie powinny być
dostosowane do kontekstu, w jakim są wykorzystywane. Istotnym komponentem jest także
sprawowanie nadzoru i określanie celów stosowania AI przez człowieka, który pod względem
etycznym i prawnym jest odpowiedzialny za systemy autonomiczne na wszystkich etapach
ich działania. Jednocześnie w każdej fazie swoich cyklów życia, systemy AI powinny
sprzyjać pokojowemu współistnieniu wszystkich istot żywych oraz szanować środowisko
naturalne, przede wszystkim w zakresie pozyskiwania surowców. Aby uniknąć pogłębiania
stereotypów i dyskryminacji, technologie AI nie powinny również powielać istniejących
w realnym świecie nierówności, w tym ze względu na płeć i zarobki.
Jeżeli chodzi o obszar europejski, to zdaniem Aleksandry Przegalińskiej, najbardziej
korzystne dla Starego Kontynentu byłoby skoordynowanie działań w zakresie rozwoju AI
na poziomie unijnym, ponieważ wymiana danych i postęp technologiczny ma charakter
ponadnarodowy, następując ponad granicami poszczególnych państw519. W tym kierunku
zdecydowanie wydaje się podążać Komisja Europejska, której cele na kolejne lata wsparcia
rozwoju AI w obrębie Wspólnoty obejmują: zapewnienie lepszego dostępu do danych sektora
publicznego i umożliwienie ich ponownego wykorzystania, wymianę danych naukowych
518
Polski Komitet ds. UNESCO, Sztuczna inteligencja a etyka – prace nad zaleceniem UNESCO, [on-line],
UNESCO, b.r., https://www.unesco.pl/neste/1/article/1/sztuczna-inteligencja-a-etyka-8211-prace-nad-
zaleceniem-unesco-1/ (17.01.2021).
519
Zob. A. Bełcik, Narodowa strategia AI pod ostrzałem rynku, [on-line], pb.pl, 17.09.2019,
https:.//www.pb.pl/narodowa-strategia-ai-pod-ostrzalem-rynku-970605 (15.09.2020).
245
(utworzenie Europejskiej Chmury dla Otwartej Nauki) oraz zabezpieczanie danych
medycznych obywateli UE oraz wspieranie europejskiej współpracy w tym zakresie.
Rozwojem i wykorzystywaniem sztucznej inteligencji zajmują się nie tylko
organizacje międzynarodowe czy transnarodowe korporacje technologiczne. Również wiele
państw przyjmuje strategie rozwoju AI na poziomie narodowym – świadczy to o rosnącym
zainteresowaniu wykorzystaniem sztucznej inteligencji w sektorze publicznym. Rządy, służby
administracyjne i władze samorządowe licznych państw coraz częściej wspólnie przekonują
swoich obywateli, że rewolucja oparta na nowoczesnych technologiach, w tym AI, przyniesie
ludzkości nowe możliwości rozwoju, choć nie można jednocześnie lekceważyć związanych
z nią nowych zagrożeń. Wśród podstawowych elementów dobrze skonstruowanej strategii
dotyczącej rozwoju AI można wyróżnić: dogłębną diagnozę stanu obecnego, główny
indywidualny powód rozwoju sztucznej inteligencji, określenie celu i czasowego horyzontu
jego osiągnięcia, zdefiniowanie wiodących branż i zastosowań, plan wdrożeniowy na kolejne
lata, określenie roli strategii rozwoju AI w działaniach rządowych, wskazanie wiodącego
ośrodka naukowego (który koordynuje krajowe prace w dziedzinie AI), plan rozwoju sektora
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

badawczego, realne bariery i wyzwania, zaplanowanie współpracy biznesu z nauką,


zarysowanie zasad współpracy i partnerstwa międzynarodowego, wskazanie zasad
finansowania i wsparcia rozwoju oraz wskaźników i mierników postępu520.
Długofalowe strategie rozwoju sztucznej inteligencji przyjęły już wszystkie czołowe
gospodarki świata, m.in. Stany Zjednoczone, Chiny, Wielka Brytania, Kanada, Japonia
czy Francja. W przygotowanym przez ośrodki badawcze Oxford Insights i Międzynarodowe
Centrum Badań Rozwoju „Rankingu gotowości rządów do wprowadzenia AI za rok 2019”521
oceniono 194 państwa pod kątem ich przygotowania do użycia sztucznej inteligencji
w branży usług publicznych. Pierwsze miejsce w rankingu zajął Singapur, w pierwszej
dziesiątce uplasowały się również kolejno Wielka Brytania, Niemcy, Stany Zjednoczone,
Finlandia, Szwecja, Kanada, Francja, Dania i Japonia. Można zatem dostrzec, że górne
pozycje rankingu zajęte zostały przez państwa o silnej gospodarce, stabilnym zarządzaniu
i innowacyjnych sektorach prywatnych, przy czym połowa z nich to kraje europejskie.
Z perspektywy Unii Europejskiej działania mające na celu zwiększenie znaczenia
wykorzystania AI w poszczególnych obszarach bezpieczeństwa i życia społecznego mają
doprowadzić do nawiązania równorzędnej konkurencji z dwoma kluczowymi globalnymi
graczami – Stanami Zjednoczonymi i Chinami. Amerykańska strategia rozwoju sztucznej
inteligencji została ogłoszona w lutym 2019 r. i charakteryzuje się dużym poziomem
ogólności. Ukierunkowuje bowiem finansowe wsparcie branży technologicznej na poziomie

520
Zob. Fundacja Digital Poland, op. cit., s. 6-8.
521
Zob. Oxford Insights, Government Artificial Intelligence Readiness Index 2019, [on-line], Oxford Insights,
2020, https://www.oxfordinsights.com/ai-readiness2019 (30.11.2020).
246
federalnym, a także podkreśla potrzebę ustanowienia krajowych standardów oraz zwiększenia
poziomu edukacji w tym zakresie. Nie sprecyzowano natomiast, jak będzie wyglądać
realizacja tych zaleceń, nie określono również bliższych terminów ich wdrożenia.
W strategicznym wymiarze wdrażania i powszechnego stosowania rozwiązań
bazujących na nowoczesnych technologiach oraz sztucznej inteligencji wyraźnie wyróżniają
się Chiny. Pekin postawił sobie bowiem za cel globalną dominację w tym obszarze
w perspektywie do 2030 r.
Poszczególne państwa Unii Europejskiej prowadzą również współpracę w dziedzinie
sztucznej inteligencji. Najszerszą platformą współpracy podmiotów Wspólnoty w tym
zakresie jest European AI Alliance. Sojusz ten zachęca podmioty takie jak przedsiębiorstwa,
organizacje konsumenckie, instytucje naukowe, związki zawodowe czy organizacje społeczne
do aktywnego uczestnictwa w procesie kształtowania europejskiej polityki dotyczącej AI,
będącego formą wsparcia prac ekspertów wysokiego szczebla w zakresie wytycznych
związanych ze sztuczną inteligencją. Dyskusje i wymiana informacji w ramach European AI
Alliance odbywają się na forum internetowym, gdzie uczestnicy publikują swoje
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

opracowania, zadają pytania, prezentują opinie, a także informują się o wydarzeniach,


spotkaniach i konferencjach związanych z AI.
Inną paneuropejską siecią współpracy instytucji zaangażowanych w badania i rozwój
sztucznej inteligencji jest CLAIRE (Confederation of Laboratories for Artificial Intelligence
Research in Europe - Konfederacja Laboratoriów Badań Sztucznej Inteligencji w Europie)522.
Jej celem jest rozwój godnej zaufania AI, która przyczyni się do zwiększenia ludzkiej
inteligencji poprzez szerokie zastosowania w takich dziedzinach jak służba zdrowia,
produkcja, transport, badania naukowe, rolnictwo, administracja publiczna, usługi finansowe
i branża rozrywkowa. Realizacji tego celu ma służyć znaczące zwiększenie funduszy
na badania naukowe w obszarze AI oraz zacieśnianie współpracy ze wszystkimi kluczowymi
interesariuszami. W styczniu 2020 r. sieć tę współtworzyło ponad 340 ośrodków badawczych
z 34 państw.
Ciekawym projektem, promowanym i realizowanym w ramach europejskiej
współpracy, jest „Wehikuł czasu” czyli wielkoskalowy symulator historyczny,
który wykorzystuje sztuczną inteligencję do analizy ogromnych ilości danych w celu
odtworzenia tysięcy lat historii Europy. Rozproszone dane o historii kontynentu, znajdujące
się zarówno w dawnych rękopisach czy planach historycznych obiektów,
jak i we współczesnych zdjęciach z satelitów, a nawet telefonów komórkowych, zostaną
wykorzystane do stworzenia skonsolidowanej bazy wiedzy o geograficznej, społecznej

522
Zob. A. Zagórna, Włoska strategia: 1 mld euro na SI, [on-line], sztucznainteligencja.org, 01.10.2020,
https://www.sztucznainteligencja.org.pl/wloska-strategia-1-mld-euro-na-si/ (18.01.2021).
247
i kulturowej ewolucji Europy. Dzięki temu możliwe będzie np. obejrzenie zabytkowych
obiektów w różnych momentach ich historii. W prace nad projektem zaangażowały się m.in.
europejskie biblioteki narodowe, archiwa państwowe, muzea, ośrodki badawcze
i akademickie, przedsiębiorstwa oraz instytucje rządowe. W mniejszej skali swoją historię
rekonstruują i planują odtwarzać również pojedyncze miasta, jak Wenecja (od 2012 r.), Paryż,
Budapeszt, Jerozolima czy Amsterdam. Współpracę europejskich miast w obszarze rozwoju
AI można również obserwować na przykładzie projektu AI4CITIES, który 1 stycznia 2020 r.
wystartował w wiodących miastach klimatycznych kontynentu, tj. w Kopenhadze,
Helsinkach, Amsterdamie, Tallinie, Paryżu i Stavanger. Inicjatywa ta została zaplanowana
na 3 lata, a jej celem jest opracowanie skutecznych, przełomowych rozwiązań, które dzięki
wykorzystaniu sztucznej inteligencji pomogą miastom osiągnąć neutralność węglową523.
Priorytetem w tym zakresie ma być zastosowanie AI w transporcie miejskim oraz branży
energetycznej, ponieważ te obszary generują największą emisję gazów cieplarnianych
w miastach.
Obecnie w światowej, publicznej debacie dotyczącej dalszego rozwoju
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

i upowszechniania stosowania sztucznej inteligencji w różnych obszarach bezpieczeństwa,


zaczyna dominować podejście, zgodnie z którym AI może przyczynić się do zapewnienia
ludzkości dobrobytu i przynieść określone korzyści planecie, głównie poprzez zwiększenie
możliwości człowieka, rozwój jego kreatywności, umożliwienie integracji ze społeczeństwem
grup dotychczas wykluczanych, jak również minimalizowanie nierówności społecznych,
gospodarczych czy kulturowych. Sztuczna inteligencja ma pozytywny, zróżnicowany
potencjał w wielu obszarach bezpieczeństwa – począwszy od ochrony zdrowia i wsparcia
bezpieczeństwa ekonomicznego i społecznego, przez kwestie bezpieczeństwa finansowego,
ekonomicznego, technologicznego i teleinformatycznego, aż po bezpieczeństwo militarne
i geopolityczne. Aby móc go wykorzystać należy jednak zadbać, aby jedynymi
beneficjentami tych korzyści nie stały się wyłącznie najbogatsze państwa świata oraz wąskie,
zamknięte grupy biznesu. Postępujący rozwój technologiczny powinien bowiem niwelować
nierówności gospodarcze i społeczne, zamiast je pogłębiać. Jest to cel możliwy do realizacji,
a środkiem i warunkiem jego osiągnięcia jest respektowanie zasad etycznych przez twórców
i użytkowników AI (rządów, społeczności, przedsiębiorstw), dostosowanie obowiązujących
regulacji prawnych do nowych wyzwań oraz działanie w poszanowaniu praw człowieka
oraz wartości demokratycznych. Niezbędne jest również projektowanie nowych rozwiązań
w taki sposób, aby zapewnić i umożliwić ludziom zakwestionowanie decyzji podjętej
przez system (lub maszynę) oraz zachowanie kontroli człowieka nad sztuczną inteligencją.

523
Zob. THINKTANK, op. cit., s. 41.
248
Filmy i książki science fiction, media oraz szeroko rozumiana popkultura podsycają
myślenie człowieka o sztucznej inteligencji jako o istocie niemal boskiej, która z jednej strony
może rozwiązać wszystkie problemy współczesnego świata, ponieważ znacznie przewyższy
zarówno zdolności umysłowe człowieka, jak i jego ograniczenia fizyczne, z drugiej zaś –
będzie dążyła do eliminacji ludzkości jako zbędnego, a wręcz szkodliwego ogniwa w procesie
udoskonalania świata. Co ciekawe, zgodnie z tymi wyobrażeniami, AI będzie bazować
na pozbawionej emocji, neutralnej i obiektywnej ocenie rzeczywistości, opartej
na dotychczasowych wydarzeniach, co tworzy dość negatywny obraz postrzegania ludzkości
przez nią samą. Skoro bowiem człowiek obawia się uznania przez sztuczną inteligencję
za element niepotrzebny i szkodliwy, to dlaczego nie dąży do zmiany tego wyobrażenia,
np. poprzez zmianę swojego postępowania? Niezależnie jednak od powyższych rozważań,
na chwilę obecną nie istnieje ani maszyna, ani aplikacja, ani system, który rozumie i odtwarza
zdolności umysłowe człowieka i zachodzące w jego mózgu procesy myślowe. Pomimo,
że istniejące algorytmy potrafią w sposób inteligentny rozwiązywać złożone i specjalistyczne
problemy, to i dziś, i w przyszłości za rozwój sztucznej inteligencji jest i będzie
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

odpowiedzialny człowiek. Na nim zatem spoczywa obowiązek zapewnienia sobie


bezpieczeństwa – zarówno w tym procesie, jak i w jego pochodnych, związanych
z upowszechnianiem wypracowanych rozwiązań w kolejnych obszarach życia.

Podsumowując rozważania dotyczące dylematów etycznych związanych ze stosowaniem


sztucznej inteligencji w dziedzinie bezpieczeństwa należy stwierdzić, że o ile w chwili
obecnej korzyści płynące z wykorzystania jej rozwiązań w poszczególnych sektorach
bezpieczeństwa w sposób wymierny i zauważalny zwiększają jego poziom, o tyle wątpliwości
etyczne koncentrują się przede wszystkim na kwestiach związanych z nieuprawnionym
wykorzystaniem AI w celach bojowych oraz zagadnieniach związanych z ponoszeniem
odpowiedzialności za decyzje maszyn i systemów autonomicznych. Jeżeli bowiem robot
odbierze życie człowiekowi, kto ponosi odpowiedzialność za tę śmierć? Czy możemy uznać,
że maszyna podjęła decyzję samodzielnie (na podstawie obliczeń i algorytmów), czy jednak
pozostaje jedynie wykonawcą woli człowieka nią sterującego? W dyskursie społecznym
podnoszona jest również kwestia niekontrolowanego rozwoju superinteligencji,
którą w świetle przedstawionych rozważań należy jednak uznać za element pozostający,
jak na razie, w sferze długoterminowych prognoz. Na chwilę obecną stosowne,
a wręcz niezbędne wydaje się poszukiwanie i opracowywanie rozwiązań minimalizujących
ryzyko wystąpienia potencjalnych zagrożeń związanych z nadmiernym (a raczej
niekontrolowanym i nietransparentnym) rozwojem tej dziedziny oraz wykorzystania
jej wytworów w stopniu nieadekwatnym do spodziewanych skutków. Kluczowe w tym
kontekście jest zapewnienie, że człowiek jest w stanie odtworzyć proces decyzyjny sztucznej
249
inteligencji, jak również że rozumie i wykorzystuje przygotowane przez nią rozwiązanie jako
wsparcie podejmowanej przez siebie decyzji.
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

250
Zakończenie

Podsumowując proces badawczy zrealizowany w ramach przygotowanej dysertacji


oraz uzyskane rezultaty należy podkreślić, że jego przedmiotem było dążenie do rozwiązania
głównego problemu badawczego, czyli znalezienia odpowiedzi na pytanie w jaki sposób
sztuczna inteligencja, rozumiana zarówno jako jedna z dziedzin współczesnej nauki,
jak również jako jej wytwory, kształtuje bezpieczeństwo państwa w XXI wieku.
Ustanowienie tak ujętego problemu badawczego wynikało z przesłanek przedstawionych
szczegółowo we wstępie rozprawy. Ich synteza sprowadza się do tego, że kwestia
oddziaływania sztucznej inteligencji na współczesne bezpieczeństwo jest zagadnieniem
na tyle istotnym, a jednocześnie mało zbadanym, że konieczność podjęcia badań jawi się
zarówno jako potrzeba teoretyczna, jak i utylitarna. Należy bowiem zauważyć,
że o ile współczesna literatura przedmiotu obejmuje sporo wartościowych publikacji
odnoszących się do kwestii ogólnych związanych z sztuczną inteligencją, o tyle
nie odnotowano kompleksowych opracowań podejmujących zagadnienie oddziaływania
sztucznej inteligencji na konkretne sfery bezpieczeństwa.
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

Założeniom wynikającym ze wskazanych potrzeb, podporządkowano przyjęte


w rozprawie cele badań, które dotyczyły ustalenia zakresu oddziaływania sztucznej
inteligencji na bezpieczeństwo państwa w pierwszych dwóch dekadach XXI w. Główną
kwestią, która wymagała podjęcia próby wyjaśnienia, był charakter tego oddziaływania – czy
wykorzystanie sztucznej inteligencji w procesie kształtowania bezpieczeństwa państwa
stanowi dla niego szansę, czy raczej zagrożenie? W jakich wymiarach zastosowanie sztucznej
inteligencji może przynieść największe korzyści, a w jakich będzie to wpływ jedynie
destrukcyjny? Biorąc pod uwagę uzyskane w trakcie badań wyniki oraz sformułowane
w oparciu o nie oceny, można w stosunku do głównego problemu badawczego stwierdzić,
że w XXI w. sztuczna inteligencja stanowi czynnik coraz silniej oddziałujący
na bezpieczeństwo państw, znajdując zastosowania w licznych jego wymiarach. Wynika to
z faktu, że dokonująca się właśnie czwarta rewolucja przemysłowa, której istotą
jest przetwarzanie i intensywne wykorzystywanie informacji, wywarła silny wpływ i nadal
oddziałuje na różnorodne aspekty bezpieczeństwa w układzie międzynarodowym
(globalnym), państwowym i jednostkowym. Zarówno w ujęciu realnym,
jak i perspektywicznym można mówić o szerokim zakresie oddziaływania sztucznej
inteligencji na uwarunkowania bezpiecznego funkcjonowania ludzkiej cywilizacji. Wpływu
tego nie można określić jako jednoznacznie pozytywnego lub negatywnego – w każdym
wymiarze bezpieczeństwa państwa można bowiem odnaleźć możliwości bezpiecznego,
jak i wątpliwego pod względem etycznym jej zastosowania. Niemniej jednak, z uwagi na to,
że wymierne korzyści dla bezpieczeństwa są obecnie już dostrzegane w różnych jego sferach,
251
zaś ewentualne zagrożenia pozostają w sferze krótko-, średnio- i długofalowych prognoz,
to sztuczna inteligencja jest uważana przede wszystkim za szansę dla współczesnego
bezpieczeństwa państwa.
W ramach rozwiązania głównego problemu badawczego stwierdzono także, iż obecnie
w globalnej debacie dotyczącej dalszego rozwoju i upowszechniania stosowania
inteligentnych rozwiązań w różnych obszarach bezpieczeństwa, dominujące staje się
podejście, zgodnie z którym sztuczna inteligencja jest narzędziem mogącym przyczynić się
do zapewnienia dobrobytu ludzkości. Osiągnięcie tego celu wydaje się realne dzięki
zwiększeniu możliwości człowieka przy jednoczesnym minimalizowaniu nierówności
społecznych, ekonomicznych czy kulturowych. Uznano, że jest to cel możliwy do realizacji,
wobec czego w rozprawie wskazano możliwe środki i warunki jego osiągnięcia:
respektowanie zasad etycznych przez twórców i użytkowników AI, dostosowanie
obowiązujących regulacji prawnych do nowych wyzwań oraz działanie w duchu
poszanowaniu praw człowieka oraz wartości demokratycznych. Potwierdzono również,
że za dalszy rozwój sztucznej inteligencji jest odpowiedzialny człowiek, co wiąże się
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

z obowiązkiem zapewniania sobie bezpieczeństwa – zarówno w tym procesie,


jak i w jego pochodnych, związanych z upowszechnianiem wypracowanych rozwiązań
w kolejnych obszarach życia.
Odnosząc się do szczegółowych problemów badawczych, w świetle uzyskanych
wyników badań należy stwierdzić, co następuje:
 W odniesieniu się do pierwszego problemu badawczego, którego przedmiotem
było ustalenie współczesnego rozumienia bezpieczeństwa i zdefiniowanie czynników mu
zagrażających, należy stwierdzić, że pomimo mnogości istniejących definicji naukowych
bezpieczeństwa, każda z nich zawiera dwa elementy wspólne – przetrwanie i rozwój.
Bezpieczeństwo rozumie się współcześnie jako synergiczny efekt procesów, ale i działań,
których celem jest zapewnienie jego podmiotowi przetrwania i umożliwienie
niezakłóconego rozwoju w poszczególnych obszarach jego działalności. Zagrożenie jest
pojęciem nieodłącznie związanym z bezpieczeństwem, rozumianym jako zakres
losowych lub zamierzonych zdarzeń negatywnie oddziałujących na podmiot, w tym
na jego polityczne ekonomiczne struktury, warunki funkcjonowania społeczeństwa
oraz stan środowiska naturalnego. Zagrożenia mogą być kategoryzowane według różnych
kryteriów, natomiast przyjmując najbardziej ogólny ich podział należy wyróżnić
zagrożenia zewnętrzne i wewnętrzne, realne i potencjalne, obiektywne i subiektywne,
intencjonalne i przypadkowe, jak również militarne i pozamilitarne.
 W przypadku drugiego problemu badawczego, odnoszącego się do definicji i określenia
istoty sztucznej inteligencji należy stwierdzić, że przez ponad 60 lat prac badawczych
252
poświęconych temu zagadnieniu, nie wypracowano dotychczas jednolitej, spójnej
i komplementarnej definicji sztucznej inteligencji, co wynika przede wszystkim
z jej interdyscyplinarnego charakteru i mnogości zróżnicowanych zagadnień poruszanych
w jej obrębie. Niemniej jednak, w ramach prowadzonych badań podejmowane są próby
opisowego zdefiniowania jej istoty. Swego rodzaju konsensus w obszarze definiowania
sztucznej inteligencji stanowi ujęcie systemowe, w którym zgodzono się, że jest to system
oparty na koncepcji maszyny mogącej wpływać na środowisko poprzez formułowanie
zaleceń, przewidywań lub podejmowanie decyzji dotyczących zadanego zestawu celów.
W tym kontekście działanie sztucznej inteligencji można opisać jako wykorzystywanie
danych wejściowych (maszynowych lub ludzkich) do postrzegania środowiska
(rzeczywistego lub wirtualnego), kształtowanie modeli na podstawie prowadzonych
obserwacji tego środowiska, a następnie interpretowanie stworzonych modeli w celu
sformułowania określonych wyników – decyzji, zachowań lub zaleceń. W przełożeniu
na implementowanie rozwiązań inteligentnych do maszyn i systemów można zatem
przyjąć, że istotę sztucznej inteligencji stanowi badanie i wskazywanie reguł sterujących
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

inteligentnymi zachowaniami jednostek ludzkich, a następnie ich implementacja


w programach komputerowych i algorytmach, potrafiących wykorzystywać te zasady.
 W ramach rozwiązywania trzeciego szczegółowego problemu badawczego dotyczącego
wymiarów bezpieczeństwa, w których sztuczna inteligencja znajduje współcześnie
największe zastosowanie, przeprowadzona w toku rozprawy analiza pozwoliła wysnuć
wniosek, że rozwiązania bazujące na tej technologii odnaleźć można w wielu sektorach
współczesnego bezpieczeństwa. Wśród najbardziej znaczących obszarów
wykorzystujących jej narzędzia należy wskazać bezpieczeństwo militarne,
komunikacyjne i ekonomiczne. Przyczynia się również do zapewniania bezpieczeństwa
informacyjnego i cyberbezpieczeństwa. Największe zastosowanie technologie bazujące
na sztucznej inteligencji znajdują w sektorze bezpieczeństwa militarnego, gdzie
wykorzystywane są do tworzenia nowego rodzaju broni i autonomicznych środków
transportu oraz walki.
 W odniesieniu do czwartego problemu badawczego dotyczącego korzyści
dla bezpieczeństwa wynikających ze stosowania sztucznej inteligencji w poszczególnych
jego sferach należy zauważyć, że kluczową zaletą wykorzystania jej rozwiązań jest
znaczące przyspieszenie procesu przetwarzania ogromnych ilości danych i generowania
na ich podstawie określonych, uporządkowanych informacji. Dlatego też systemy
wykorzystujące nowoczesne rozwiązania technologiczne stanowią istotne wsparcie
w procesie decyzyjnym, niezależnie od tego, w którym sektorze bezpieczeństwa znajdą
zastosowanie. Zwłaszcza biorąc pod uwagę, że bezpieczeństwo państwa jest obszarem
253
interdyscyplinarnym, a decyzje podejmowane na najwyższym szczeblu zarządzania
każdorazowo przekładają się na jego zwiększenie lub zmniejszenie. Nadrzędnym celem
polityki bezpieczeństwa państwa jest zapewnianie pewności istnienia i przetrwania
narodu i organizacji państwowej, ich stanu posiadania – czyli tożsamości – a także
możliwości niezakłóconego funkcjonowania oraz rozwoju. Wykorzystanie rozwiązań
opartych na sztucznej inteligencji w procesie decyzyjnym może wymiernie przyczynić się
do zwiększenia jego skuteczności, pozwalając symulować określone scenariusze
i na podstawie analizy dostępnych danych przewidywać skutki podejmowanych działań.
 Piąty szczegółowy problem badawczy dotyczył zagrożeń dla poszczególnych sektorów
bezpieczeństwa, które generuje i może generować zastosowanie sztucznej inteligencji.
W trakcie rozwiązywania omawianego problemu badawczego stwierdzono,
że obok niewątpliwych szans związanych z postępującym rozwojem technologicznym,
upowszechnianie rozwiązań sztucznej inteligencji generuje również nowe, nieznane
wcześniej zagrożenia, wyzwania i ryzyka dla poszczególnych obszarów bezpieczeństwa
państwa. Podobnie jak korzyści, tak i niebezpieczeństwa wynikające z rozwoju
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

tej dziedziny nauki mogą się zmaterializować w każdym z jego wymiarów. Jeżeli chodzi
o celowe działanie człowieka, to za najbardziej prawdopodobne uważa się zastosowanie
sztucznej inteligencji w sposób nieetyczny w obszarze bezpieczeństwa militarnego
(gdzie jej rozwiązania mogą być wykorzystane do niekontrolowanego rozwoju
autonomicznej broni letalnej przy jednocześnie rozmytej, niedookreślonej
odpowiedzialności za jej wykorzystanie w trakcie konfliktu zbrojnego), informacyjnego
(w szczególności w obszarze dezinformacji i zagrożeń dla cyberbezpieczeństwa),
komunikacyjnego (dotyczą one głównie nieustalonej odpowiedzialności prawnej
związanej ze stosowaniem pojazdów autonomicznych i braku przejrzystości kryteriów
zapewniania bezpieczeństwa uczestników ruchu drogowego) oraz społecznego
(w społeczeństwie dostrzegalne są obawy dotyczące dehumanizacji pracy i wzrostu
bezrobocia).
 Odnosząc się do szóstego szczegółowego problemu badawczego dotyczącego dylematów
etycznych związanych ze stosowaniem sztucznej inteligencji w dziedzinie
bezpieczeństwa należy stwierdzić, że o ile w chwili obecnej korzyści płynące
z wykorzystania jej rozwiązań w poszczególnych sektorach bezpieczeństwa w sposób
wymierny i zauważalny zwiększają jego poziom, o tyle wątpliwości etyczne koncentrują
się przede wszystkim na kwestiach związanych z nieuprawnionym wykorzystaniem AI
w celach bojowych oraz zagadnieniach związanych z ponoszeniem odpowiedzialności
za decyzje maszyn i systemów autonomicznych. W dyskursie społecznym podnoszona
jest również kwestia niekontrolowanego rozwoju superinteligencji, którą w świetle
254
przedstawionych rozważań należy jednak uznać za element pozostający, jak na razie,
w sferze długoterminowych prognoz.
Jeżeli chodzi o postawione hipotezy (główną i szczegółowe), to w wyniku
przeprowadzonych w procesie badawczym ich weryfikacji w odniesieniu do hipotezy
głównej potwierdzono, że sztuczna inteligencja stanowi czynnik, który w XXI wieku coraz
silniej oddziałuje na bezpieczeństwo państw, znajdując zastosowania w licznych jego
wymiarach, zaś wpływu tego nie można określić jako jednoznacznie pozytywnego
lub destrukcyjnego – wynika to zarówno z dynamicznego charakteru badań nad sztuczną
inteligencją, co przekłada się na ciągły rozwój tej dziedziny i doskonalenie jej narzędzi,
jak również z licznych wątpliwości związanych z etycznym i praktycznym wymiarem
jej funkcjonowania.
Ponadto, w odniesieniu do hipotez szczegółowych:
 potwierdzono, że istotą współczesnego bezpieczeństwa jest zapewnienie jego podmiotom
możliwości przetrwania oraz rozwoju, rozumianego jako względnie swobodna realizacja
własnych interesów w otaczającym go środowisku przy wykorzystaniu pojawiających się
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

szans, podejmowaniu wyzwań, redukowaniu ryzyk oraz zapobieganiu i przeciwstawianiu


się zagrożeniom;
 potwierdzono, że istotą sztucznej inteligencji jest badanie i wskazywanie reguł
sterujących inteligentnymi zachowaniami jednostek ludzkich, a następnie
ich implementacja w programach komputerowych i algorytmach, potrafiących
wykorzystywać te zasady;
 potwierdzono, że sztuczna inteligencja znajduje zastosowanie w licznych dziedzinach
współczesnego bezpieczeństwa;
 potwierdzono, że wykorzystanie sztucznej inteligencji w poszczególnych sektorach
bezpieczeństwa może generować liczne dylematy o naturze etycznej.
Generalne wnioski, do jakich upoważniają wyniki przeprowadzonych badań
sprowadzają się do tego, że:
 współcześnie rozumiane bezpieczeństwo stanowi synergiczny efekt procesów i działań,
których istotą i celem jest zapewnienie jego podmiotowi przetrwania i umożliwienie
rozwoju w zróżnicowanych obszarach jego działalności;
 sztuczna inteligencja bada, wykrywa i wskazuje reguły sterujące inteligentnymi
zachowaniami jednostek ludzkich, umożliwiając ich implementację w programach
komputerowych i algorytmach, potrafiących wykorzystywać te zasady;
 coraz powszechniejsze stosowanie rozwiązań wykorzystujących sztuczną inteligencję
w różnych obszarach funkcjonowania ludzkiej cywilizacji, w tym także

255
w poszczególnych wymiarach bezpieczeństwa, wiąże się zarówno z generowaniem
nowych szans, jak również z powstawaniem, nieznanych wcześniej wyzwań i zagrożeń;
 obecnie wymierne, dostrzegalne korzyści wynikające z upowszechniania inteligentnych
rozwiązań w zróżnicowanych sferach bezpieczeństwa, obejmujące w szczególności
przyspieszenie procesu przetwarzania danych, skutkujące wsparciem procesu
decyzyjnego, jak również ułatwienia w wykonywaniu zadań trudnych, niebezpiecznych
lub powtarzalnych, przesłaniają potencjalne negatywne skutki tych działań, które mogą
zmaterializować się w przyszłości, w wyniku czego sztuczna inteligencja w kontekście
oddziaływania na bezpieczeństwo państwa traktowana jest raczej jako szansa
niż zagrożenie;
 wraz z upowszechnianiem rozwiązań sztucznej inteligencji w globalnej przestrzeni
publicznej, zarówno państwa, jak i inne podmioty stosunków międzynarodowych
dostrzegają konieczność opracowania i wdrożenia adekwatnych przepisów dotyczących
uregulowania statusu prawnego sztucznej inteligencji, określenia odpowiedzialności za jej
działania, a także zapewnienia możliwości etycznego i bezpiecznego jej wykorzystania;
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

 mechanizmy kontrolne dotyczącego ograniczenia negatywnego wpływu sztucznej


inteligencji na bezpieczeństwo należy wdrażać w sposób przemyślany, wyważony
i zbalansowany - w taki sposób, aby nie ograniczyć jednocześnie możliwości dalszego
rozwoju wynikających z wykorzystania potencjału nowoczesnej technologii;
 mówiąc o znaczeniu sztucznej inteligencji w zapewnianiu bezpieczeństwa państwa należy
podkreślić, że rozwiązanie, w którym stanowi ona element procesu decyzyjnego, a nie
jest jego ostatecznym ogniwem, pozwala na zachowanie kontroli nad jej dalszym
rozwojem w kierunku i stopniu pożądanym przez człowieka;
 w wymiarze militarnym i politycznym rozwój technologiczny państwa i modernizacja
jego sił zbrojnych przekłada się na budowę przewagi nad innymi uczestnikami stosunków
międzynarodowych - w obserwowanym obecnie w skali globalnej procesie
modernizacyjnym posiadanych przez ich podmioty sił zbrojnych, wdrażanie rozwiązań
wykorzystujących sztuczną inteligencję jest elementem niezbędnym do osiągnięcia
poziomu, na którym państwo może zostać uznane za liczące się pod względem
militarnym na arenie międzynarodowej.
Na podstawie dokonanych ustaleń badawczych, oprócz zaprezentowanych powyżej
wniosków generalnych można wygenerować wnioski szczegółowe o charakterze utylitarnym,
wskazujące na potrzebę:
 edukacji społeczeństwa, która jest warunkiem skutecznego i bezpiecznego rozwoju
innowacyjności w obszarze powszechnego wykorzystania sztucznej inteligencji -
wyjaśnienie mechanizmów funkcjonowania inteligentnych rozwiązań, udzielanie
256
odpowiedzi na kwestie problematyczne i niejasne, a także możliwie obiektywne
przedstawienie zarówno potencjalnych, jak i realnych szans, wyzwań i zagrożeń
dla bezpieczeństwa w tym kontekście jest niezbędne, aby „odczarować” sztuczną
inteligencję i zmienić jej postrzeganie jako „wiedzy tajemnej” i zastrzeżonej dla wąskiej
grupy ekspertów;
 poszukiwania i opracowywania rozwiązań minimalizujących ryzyko wystąpienia
potencjalnych zagrożeń związanych z nadmiernym (a raczej niekontrolowanym
i nietransparentnym) rozwojem tej dziedziny oraz wykorzystania jej wytworów w stopniu
nieadekwatnym do spodziewanych skutków; kluczowe w tym kontekście
jest zapewnienie, że człowiek jest w stanie odtworzyć proces decyzyjny sztucznej
inteligencji, jak również że rozumie i wykorzystuje przygotowane przez nią rozwiązanie
jako wsparcie podejmowanej przez siebie decyzji;
 wdrożenia działań organizacyjnych na rzecz wzmacniania i rozbudowy potencjału
technologicznego, w szczególności rozwoju krajowych rozwiązań w sektorze nowych
technologii i cyberbezpieczeństwa w państwach dysponujących kapitałem ludzkim
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

i naukowym w tym obszarze;


 współpracy organów państwowych, przedsiębiorców prywatnych oraz ośrodków
naukowych na rzecz wypracowania najbardziej efektywnych i użytecznych,
a jednocześnie bezpiecznych rozwiązań w obszarze sztucznej inteligencji;
 zapewniania, że kontrolę nad procesem rozwoju sztucznej inteligencji sprawuje i będzie
w przyszłości sprawował człowiek;
 kontynuowania i intensyfikacji działań podmiotów państwowych i międzynarodowych
nad wypracowaniem rozwiązań organizacyjnych i prawnych, dotyczących uregulowania
statusu prawnego sztucznej inteligencji, określenia odpowiedzialności za jej działania
oraz zapewnienia możliwości etycznego jej wykorzystania do zapewniania
bezpieczeństwa we wszystkich jego wymiarach.
Biorąc pod uwagę przedstawione w poszczególnych częściach dysertacji analizy,
poczynione na ich podstawie ustalenia oraz wnioski końcowe, można sformułować postulaty
dotyczące prowadzenia dalszych badań obejmujących zagadnienia:
 zapewniania ochrony prywatności danych, w tym danych osobowych, których masowe
przetwarzanie stanowi sedno nauki i rozwoju sztucznej inteligencji;
 psychologii i neuronauki w kontekście sztucznej inteligencji - psychologia stała się
bowiem dziedziną nauki nierozerwalnie związaną ze światem nowoczesnych rozwiązań
technologicznych; znajomość mechanizmów rządzących ludzką psychiką zwiększa
możliwości badaczy w zakresie skutecznego uczenia sztucznej inteligencji, zarządzania

257
nią i tworzenia systemów (maszyn, aplikacji) spełniających oczekiwania zarówno
biznesowe, jak i społeczne;
 możliwości budowy systemu oceny skuteczności i efektywności wdrażanych rozwiązań
z zakresu sztucznej inteligencji na potrzeby systemu bezpieczeństwa państwa.
Na koniec należy podkreślić, że sztuczna inteligencja ma pozytywny potencjał
w wielu obszarach bezpieczeństwa – począwszy od ochrony zdrowia i wsparcia
bezpieczeństwa ekonomicznego i społecznego, przez sfery bezpieczeństwa finansowego,
ekonomicznego, technologicznego i teleinformatycznego, aż po bezpieczeństwo militarne
i geopolityczne. Do pełnego jego wykorzystania niezbędne jest zapewnienie,
że beneficjentami tych korzyści nie staną się wyłącznie najbogatsze państwa
i przedsiębiorstwa świata. Postępujący rozwój technologiczny powinien bowiem niwelować
nierówności gospodarcze i społeczne, zamiast je pogłębiać. Tak sformułowany cel
jest możliwy do realizacji pod warunkiem respektowania zasad etycznych przez twórców
i użytkowników AI, dostosowania obowiązujących regulacji prawnych do nowych wyzwań
oraz działania w poszanowaniu praw człowieka oraz wartości demokratycznych. Niezbędne
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

jest także projektowanie nowych rozwiązań w taki sposób, aby zapewnić i umożliwić ludziom
zakwestionowanie decyzji podejmowanych przez system (lub maszynę) oraz zachowanie
kontroli człowieka nad sztuczną inteligencją.

258
Bibliografia

Akty prawne i dokumenty:

1. Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r. w


sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie
swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE (ogólne
rozporządzenie o ochronie danych), Dz.U. L 119 z 4.5.2016.
2. Traktat o Unii Europejskiej, Maastricht 07.02.1992. Dz.U. 2004 nr 90 poz. 864.
3. Konwencja wiedeńska o ruchu drogowym z 8 listopada 1968 r., Dz.U. 1988 nr 5 poz. 40 i 44.
4. Ustawa z dnia 23 kwietnia 1964 r. - Kodeks cywilny, Dz.U. 1964 nr 16 poz. 93.
5. Ustawa z dnia 20 czerwca 1997 r. Prawo o ruchu drogowym, Dz.U. 1997 nr 98 poz. 602.
6. Uchwała nr 67 Rady Ministrów z dnia 9 kwietnia 2013 r. w sprawie przyjęcia "Strategii
rozwoju systemu bezpieczeństwa narodowego Rzeczypospolitej Polskiej 2022", M.P. 2013 poz.
377.
7. Uchwała nr 125 Rady Ministrów z dnia 22 października 2019 r. w sprawie Strategii
Cyberbezpieczeństwa Rzeczypospolitej Polskiej na lata 2019–2024, M.P. 2019, poz. 1037.
8. Uchwała nr 196 Rady Ministrów z dnia 28 grudnia 2020 r. w sprawie ustanowienia „Polityki
dla rozwoju sztucznej inteligencji w Polsce od roku 2020”, M.P. 2021, poz. 23.
9. Uchwała nr 8 Rady Ministrów z dnia 14 lutego 2017 r. w sprawie przyjęcia Strategii na rzecz
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

Odpowiedzialnego Rozwoju do roku 2020 (z perspektywą do 2030 r.), M.P. 2017, poz. 260.
10. Zarządzenie nr 162 Prezesa Rady Ministrów z dnia 9 października 2020 r. w sprawie Komitetu
Rady Ministrów do spraw Bezpieczeństwa Narodowego i spraw Obronnych, M.P. 2020, poz.
918.
11. Biała Księga Bezpieczeństwa Narodowego RP, Biuro Bezpieczeństwa Narodowego, Warszawa
2013.
12. Strategia Bezpieczeństwa Narodowego Rzeczypospolitej Polskiej 2020, Biuro Bezpieczeństwa
Narodowego, Warszawa 2020.
13. Strategia Bezpieczeństwa Narodowego Rzeczypospolitej Polskiej z 2014 r., Biuro
Bezpieczeństwa Narodowego, Warszawa 2014.
14. Koncepcja Obronna Rzeczypospolitej Polskiej, Ministerstwo Obrony Narodowej, Warszawa
2017.
15. Decyzja Nr 235/DNiSZW Ministra Obrony Narodowej z dnia 26 czerwca 2019 r. w sprawie
wprowadzenia do użytku służbowego w resorcie obrony narodowej dokumentu pt. Priorytetowe
kierunki badań w resorcie obrony narodowej na lata 2017-2026.
16. Rezolucja Parlamentu Europejskiego z dnia 16 lutego 2017 zawierająca zalecenia dla Komisji w
sprawie przepisów prawa cywilnego dotyczących robotyki (2015/2103(INL)).
17. Projekt sprawozdania z zaleceniami dla Komisji w sprawie systemu odpowiedzialności cywilnej
za sztuczną inteligencję (2020/2014(INL)), Parlament Europejski, 2020.
18. Sprawozdanie z zaleceniami dla Komisji w sprawie systemu odpowiedzialności cywilnej za
sztuczną inteligencję (2020/2014(INL)), Parlament Europejski, 2020.
19. Komunikat Komisji do Parlamentu Europejskiego, Rady Europejskiej, Rady Europejskiego
Komitetu Ekonomiczno-Społecznego i Komitetu Regionów: Skoordynowany plan w sprawie
sztucznej inteligencji, Komisja Europejska, Bruksela 2018.
20. Wytyczne w zakresie etyki dotyczące godnej zaufania sztucznej inteligencji, Komisja
Europejska, Bruksela 2019.
21. Recommendation of the Council on Artificial Intelligence, OECD, OECD Legal Instruments,
2019.

259
22. Krajowa Rada Bezpieczeństwa Ruchu Drogowego, Narodowy Program Bezpieczeństwa Ruchu
Drogowego 2013-2020, Warszawa 2013.
23. PN-ISO/IEC 27001:2007, Technika informatyczna – Techniki bezpieczeństwa – Systemy
zarządzania bezpieczeństwem informacji – Wymagania, Warszawa 2007.

Monografie i opracowania zbiorowe:

1. Albrycht I., Autolitano S., Gęborys P. i in., Wyzwania w cyberprzestrzeni. Przykłady rozwiązań,
zagrożenia, regulacje, Instytut Kościuszki, Kraków 2019.
2. Anderson J.M., Nalra N., Stanley K.D. i in., Autonomous Vehicle Technology. A Guide for
Policymakers, RAND Corporation, Santa Monica 2014.
3. Artiemjew P., Wybrane paradygmaty sztucznej inteligencji, Wydawnictwo Polsko-Japońskiej
Wyższej Szkoły Technik Komputerowych, Warszawa 2013.
4. Asimov I., I, Robot, Street and Smith Publications, Inc., New York, 1942.
5. Berrick C.A., Highway Safety: Selected Cases of Commercial Drivers with Potentially
Disqualifying Impairments, The U.S. Government Accountability Office, Washington DC 2013.
6. Bobrov D.B., Haliżak E., Zięba R. (red.), Bezpieczeństwo narodowe i międzynarodowe u
schyłku XX wieku, Wydawnictwo Naukowe SCHOLAR, Warszawa 1997.
7. Bolc L., Zaremba P., Wprowadzenie do uczenia się maszyn, Akademicka Oficyna Wydawnicza
RM, Warszawa 1992.
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

8. Bostrom N., Superinteligencja. Scenariusze, strategie, zagrożenia, Wydawnictwo Helion,


Gliwice 2016.
9. Brey P., Briggle A., Waelbers K. (red.), Current Issues in Computing and Philosophy, IOS
Press, Amsterdam 2008.
10. Cieciura M., Podstawy technologii informacyjnych z przykładami zastosowań, Wydawnictwo
VIZJA PRESS&IT, Warszawa 2006.
11. Ciekanowski Z., Nowicka J., Wyrębek H., Bezpieczeństwo państwa w obliczu współczesnych
zagrożeń, Wydawnictwo Uniwersytetu Przyrodniczo-Humanistycznego, Siedlce 2016.
12. Cieślarczyk M., Psychospołeczne i organizacyjne elementy bezpieczeństwa i obronności,
Akademia Obrony Narodowej, Warszawa 1997.
13. Cieślarczyk M., Teoretyczne i metodologiczne podstawy badania problemów bezpieczeństwa i
obronności państwa, Uniwersytet Przyrodniczo-Humanistyczny, Siedlce 2011.
14. Ciupiński A., Malak K. (red.), Bezpieczeństwo polityczne i wojskowe, Wydawnictwo
AON, Warszawa 2004.
15. Clare C., Loucopoulos P., Business Information Systems, Paradigm, London 1987.
16. Czaja J., Kulturowe czynniki bezpieczeństwa, Krakowskie Towarzystwo Edukacyjne – Oficyna
Wydawnicza AFM, Kraków 2008.
17. Czaja J., Kulturowy wymiar bezpieczeństwa. Aspekty teoretyczne i praktyczne, Krakowskie
Towarzystwo Edukacyjne – Oficyna Wydawnicza AFM, Kraków 2013.
18. Czupryński A., Wiśniewski B., Zboina J. (red.), Bezpieczeństwo. Teoria-Badania-Praktyka,
Wydawnictwo CNBOP-PIB, Józefów 2015.
19. Daft R.L., Organization Theory and Design, West Publishing Company, St. Paul 1992.
20. Davenport T.H., Prusak L., Working Knowledge: How Organizations Manage What They
Know, Harvard Business School Press, Boston 1998.
21. Dębski S., Górka-Winter B. (red.), Kryteria bezpieczeństwa międzynarodowego państwa, Polski
Instytut Spraw Międzynarodowych, Warszawa 2003.
22. Dubik A., 1000 słów o laserach i promieniowaniu laserowym, Wydawnictwo Ministerstwa
Obrony Narodowej, Warszawa 1989.
260
23. Duch W., Fascynujący świat komputerów, Wydawnictwo NAKOM, Poznań 1997.
24. Dworecki S., Zagrożenia bezpieczeństwa państwa, Wydawnictwo AON, Warszawa 1994.
25. Dydel A., Fitness inteligencji. ABC teorii i ćwiczeń, [e-book], E-bookowo, 2016.
26. Dyson G.B., Darwin wśród maszyn. Rzecz o ewolucji inteligencji, Prószyński i S-ka, Warszawa
2005.
27. Fehler W., Bezpieczeństwo wewnętrzne współczesnej Polski. Aspekty teoretyczne i praktyczne,
Wydawnictwo ARTE, Warszawa 2012.
28. Ficoń K., Sztuczna inteligencja. Nie tylko dla humanistów, Bel Studio, Warszawa 2013.
29. Flasiński M., Wstęp do sztucznej inteligencji, Wydawnictwo Naukowe PWN, Warszawa 2011.
30. Fong T., Dautenhahn K. (et. al.), HRI ’08 International Conference on Human Robot
Interaction, Association for Computing Machinery, New York 2008.
31. Galland F.J., Dictionary of Computing, John Wiley & Sons, Chichester 1982.
32. Gallers R.D., Currie W. (red.), The Oxford Handbook of Management Information Systems:
Critical Perspectives and New Directions, Oxford University Press, New York 2011.
33. Gawliczek P., Pawłowski J., Zagrożenia asymetryczne, Wydawnictwo AON, Warszawa 2003.
34. Góralczyk W. (red.), Prawo informacji - prawo do informacji, Wydawnictwo Wyższej Szkoły
Przedsiębiorczości i Zarządzania im. Leona Koźmińskiego, Warszawa 2006.
35. Grabowski T.W., Lakomy M., Oświecimski K. (red. nauk.), Bezpieczeństwo informacyjne w
dobie postprawdy, Wydawnictwo Naukowe Akademii Ignatianum, Kraków 2018.
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

36. Greniewski H., Cybernetyka niematematyczna, Wydawnictwo Naukowe PWN, Warszawa 1982.
37. Haber L.H. (red.), Społeczeństwo informacyjne – wizja czy rzeczywistość? T.1., Wydawnictwo
Akademii Górniczo-Hutniczej, Kraków 2004.
38. Haliżak E., Kuźniar R. (red.), Stosunki międzynarodowe. Geneza, struktura, dynamika,
Wydawnictwo Uniwersytetu Warszawskiego, Warszawa 2004.
39. Harari Y.N., 21 lekcji na XXI wiek, Wydawnictwo Literackie, Kraków 2018.
40. Harari Y.N., Sapiens. Od zwierząt do bogów, Wydawnictwo Literackie, Kraków 2018.
41. Haugeland J., Artificial Intelligence: The Very Idea, The MIT Press, Cambridge 1985.
42. Hawkins J., Istota inteligencji, Helion, Gliwice 2006.
43. Hicks J.O., Management Information Systems: A User Perspective, West Publishing Company,
St Paul 1993.
44. Hołyst B. (red.), Człowiek w sytuacji trudnej, Polskie Towarzystwo Higieny Psychicznej,
Warszawa 1991.
45. Hołyst B., Jałoszyński K., Letkiewicz A. (red.), Wojna z terroryzmem w XXI wieku,
Wydawnictwo Wyższej Szkoły Policji, Szczytno 2009.
46. Hołyst B., Wiktymologia, Wydawnictwo LexisNexis Polska, Warszawa 2000.
47. Jagusiak B. (red.), Współczesne wyzwania bezpieczeństwa Polski, Wojskowa Akademia
Techniczna, Warszawa 2015.
48. Jagusiak B. (red.), Zagrożenia bezpieczeństwa państwa: geneza i charakter uwarunkowań,
Wojskowa Akademia Techniczna, Warszawa 2015.
49. Jakubczak R. (red.), Obrona narodowa w tworzeniu bezpieczeństwa III RP, Wydawnictwo
Bellona, Warszawa 2003.
50. Jakubczak R., Flis J. (red.), Bezpieczeństwo narodowe Polski w XXI wieku. Wyzwania i
strategie, Wydawnictwo Bellona, Warszawa 2006.
51. Jakubczak R., Wiśniewski B. (red.), Wyzwania, szanse, zagrożenia i ryzyko dla bezpieczeństwa
narodowego RP o charakterze wewnętrznym, Wyższa Szkoła Policji, Szczytno 2016.

261
52. Janczak J., Nowak A., Bezpieczeństwo informacyjne. Wybrane problemy, Wydawnictwo ASW,
Warszawa 2013.
53. Jemioło T., Malak K. (red.), Bezpieczeństwo zewnętrzne Rzeczypospolitej Polskiej,
Wydawnictwo AON, Warszawa 2002.
54. Kalita C., Zasady pisania licencjackich i magisterskich prac badawczych: poradnik dla
studentów, Arte, Biała Podlaska 2011.
55. Kasperski M. J., Sztuczna Inteligencja, Helion, Gliwice 2003.
56. Kitler W., Bezpieczeństwo narodowe RP. Podstawowe kategorie, uwarunkowania, system,
Wydawnictwo AON, Warszawa 2011.
57. Knight A.V., Silk D.J., Managing information, McGraw Hill, London 1990.
58. Korzeniowski L.F., Podstawy nauk o bezpieczeństwie, Difin, Warszawa 2012.
59. Kubiak M., Topolewski S. (red.), Bezpieczeństwo informacyjne w XXI wieku, Wydawnictwo
Uniwersytetu Przyrodniczo-Humanistycznego w Siedlcach, Siedlce- Warszawa 2016.
60. Kuc B.R., Ścibiorek Z., Podstawy metodologiczne nauk o bezpieczeństwie, Wydawnictwo
Menedżerskie PTM, Warszawa 2013.
61. Kukułka J. (red.), Bezpieczeństwo międzynarodowe w Europie Środkowej po zimnej wojnie,
Agencja Scholar, Warszawa 1994.
62. Kurzweil R., Nadchodzi osobliwość. Kiedy człowiek przekroczy granice biologii, Kurhaus
Publishing, Warszawa 2016.
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

63. Kurzweil R., The Age of Spiritual Machines: How we will Live, Work and Think in the New Age
of Intelligent Machines, Phoenix Orion Books, London 1999.
64. Leśnikowski W., Bezzałogowe platformy w cyberprzestrzeni, Wydawnictwo Adam Marszałek,
Toruń 2017.
65. Liderman K., Bezpieczeństwo informacyjne, Wydawnictwo Naukowe PWN, Warszawa 2012.
66. Lindenberg G., Ludzkość poprawiona. Jak najbliższe lata zmienią świat, w którym żyjemy,
Wydawnictwo Otwarte, Kraków 2018.
67. Lyons J., Semantics, Penguin Books, Harmondsworth 1977.
68. Łuczak J., Tyburski M., Systemowe zarządzanie bezpieczeństwem informacji ISO/IEC 27001,
Poznań 2009.
69. Maddison R. (red.), Information Systems Development for Managers, Paradigm, London 1989.
70. Malara Z., Rzęchowski J., Zarządzanie informacją na rynku globalnym. Teoria i praktyka,
Wydawnictwo C.H. Beck, Warszawa 2011.
71. McIlwraith D., Marmanis H., Babenko D., Inteligentna sieć. Algorytmy przyszłości, Helion,
Gliwice 2017.
72. Mesner Z., Informacja ekonomiczna a zarządzanie przedsiębiorstwem, Wydawnictwo Naukowe
PWN, Warszawa 1971.
73. Mikulski J. (red.), Management Perspective for Transport Telematics, Transport System
Telematics, Kraków 2018.
74. Milward G.E., Organization and Methods – A Service to Management, McMillan, London
1967.
75. Minkina M., Zieliński J. (red. nauk.), Od nauk wojskowych do nauk o bezpieczeństwie,
Wydawnictwo Uniwersytetu Przyrodniczo-Humanistycznego, Siedlce 2016.
76. Mulawka J.J., Systemy ekspertowe, Wydawnictwa Naukowo-Techniczne, Warszawa 1996.
77. Negnevitsky M., Artificial Intelligence: A Guide to Intelligent Systems, Pearson Education,
Harlow 2005.
78. Nęcka E., Inteligencja i procesy poznawcze, Oficyna Wydawnicza „Impuls”, Kraków 1994.

262
79. Niezabitowska E. (red.), Budynek inteligentny. Tom I. Potrzeby użytkownika a standard
budynku inteligentnego, Wydawnictwo Politechniki Śląskiej, Gliwice 2005.
80. Nowak E., Nowak M., Zarys teorii bezpieczeństwa narodowego, Difin, Warszawa 2011.
81. Pitrus A. (red.), Olbrzym w cieniu: gry wideo w kulturze audiowizualnej, Wydawnictwo
Uniwersytetu Jagiellońskiego, Kraków 2012.
82. Pokruszyński W., Bezpieczeństwo. Teoria i praktyka, Wyższa Szkoła Bezpieczeństwa
Publicznego i Indywidualnego Apeiron, Kraków 2017.
83. Prochożewa A.A. (red.), Obszczaja tieorija nacjonalnej biezopasnosti, Izdatelstwo RAGS,
Moskwa 2005.
84. Raczkowski K., Żukrowska K., Żuber M., Interdyscyplinarność nauk o bezpieczeństwie, Difin,
Warszawa 2013.
85. Rich E., Knight K., Nair S.B., Artificial Intelligence, McGraw-Hill, New Delhi-New York
1991.
86. Robathan P., Intelligent Building Guide, Intelligent Buildings Institute IBI, Washington 1989.
87. Rutkowski L., Metody i techniki sztucznej inteligencji, Wydawnictwo Naukowe PWN,
Warszawa 2009.
88. Schalkoff R.J., Artificial Intelligence: An Engineering Approach, McGraw-Hill, New York
1990.
89. Sharkey N., van Wynsberghe A., Robbins S., Hancock E., Our Sexual Future with Robots. A
Foundation for Responsible Robotics Consultation Report, Foundation for Responsible
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

Robotics, Haga 2017.


90. Spearman C., The nature of “intelligence” and the principles of cognition, Macmillan & Co.,
London 1923.
91. Stacewicz P. (red. nauk.), Różne oblicza informacji, Oficyna Wydawnicza Politechniki
Warszawskiej, Warszawa 2017.
92. Stańczyk J., Współczesne pojmowanie bezpieczeństwa, Instytut Studiów Politycznych Polskiej
Akademii Nauk, Warszawa 1996.
93. Starkowski D., Bieńczak K., Zwierzycki W., Samochodowy transport krajowy i
międzynarodowy. Kompendium wiedzy praktycznej. T.1., Wydawnictwo Systherm, Poznań
2007.
94. Stefanowicz B., Informacja, Oficyna Wydawnicza SGH, Warszawa 2014.
95. Stefanowicz B., Informacja. Wiedza. Mądrość, Biblioteka Informacji Statystycznych, t. 66,
Główny Urząd Statystyczny, Warszawa 2013.
96. Szumakowicz E. (red.), Granice sztucznej inteligencji. Eseje i studia, Wydawnictwo Naukowe
DWN, Kraków 2000.
97. Trejnis Z., Kościelecki L. (red.), Wyzwania i zagrożenia bezpieczeństwa i obronności RP w XXI
wieku w wymiarze społecznym i technologiczno-środowiskowym, Wojskowa Akademia
Techniczna, Warszawa 2018.
98. Wiener N., Cybernetyka i społeczeństwo, Wydawnictwo Książka i Wiedza, Warszawa 1961.
99. Wierzbicki T., System informacji gospodarczej, Wydawnictwo PWE, Warszawa 1981.
100. Wiśniewski B. (red. ), Bezpieczeństwo w teorii i badaniach naukowych, Wyższa Szkoła Policji,
Szczytno 2018.
101. Wiśniewski B., Fehler W. (red.), Edukacja obronna społeczeństwa, Wydawnictwo Prymat,
Białystok 2006.
102. Wiśniewski B., System bezpieczeństwa państwa. Konteksty teoretyczne i praktyczne, Wyższa
Szkoła Policji, Szczytno 2013.

263
103. Wodecki A., Sztuczna inteligencja w kreowaniu wartości organizacji, Wydawnictwo edu-Libri,
Kraków-Legionowo 2018.
104. Wróblewski R., Wprowadzenie do nauk o bezpieczeństwie, Wydawnictwo Uniwersytetu
Przyrodniczo-Humanistycznego, Siedlce 2017.
105. Zając J., Włodkowska-Bagan A., Kaczmarski M. (red.), Bezpieczeństwo międzynarodowe.
Polska-Europa-Świat, Uniwersytet Warszawski, Warszawa 2015.
106. Zieliński J. (red.), Inteligentne systemy w zarządzaniu, Wydawnictwo Naukowe PWN,
Warszawa 2000.
107. Zieliński Z.E. (red.), Rola informatyki w naukach ekonomicznych i społecznych. Innowacje i
implikacje interdyscyplinarne, Wydawnictwo Wyższej Szkoły Handlowej, Kielce 2014.
108. Zięba R. (red.), Bezpieczeństwo międzynarodowe po zimnej wojnie, Wydawnictwa Akademickie
i Profesjonalne, Warszawa 2008.
109. Zięba R., Instytucjonalizacja bezpieczeństwa europejskiego: koncepcje – struktury –
funkcjonowanie, Wydawnictwo Naukowe SCHOLAR, Warszawa 2001.
110. Znamierowski Cz., Szkoła prawa. Rozważania o państwie, Oficyna Naukowa, Warszawa 1999.
111. Żuchowski J. (red.), Innowacyjność w kształtowaniu jakości wyrobów i usług, Politechnika
Radomska, Radom 2006.

Artykuły i opracowania naukowe:

1. Alt F., Rubinoff M., Advanced in Computers, ,,Academic Press” 1965, nr 3.


Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

2. Andrałojć M., Zalety i ograniczenia ankiety internetowej jako metody zbierania materiału
badawczego w dziedzinie zzl, „Zarządzanie Zasobami Ludzkimi”, 2006, nr 5.
3. Bednarek-Michalska B., Wolny dostęp do informacji i wiedzy czy wykluczenie edukacyjne?
Trendy światowe a Polska, „Biuletyn EBIB”, 2005, nr 2(63).
4. Bendyk E., Czy przyszłość nas potrzebuje, „Polityka”, 2018, nr 1 (3142).
5. Bieleń S., Polityki bezpieczeństwa państw, „Teka Komisji Politologii i Stosunków
Międzynarodowych PAN”, 2010, t. 5.
6. Bober B., Bezpieczeństwo zdrowotne jako istotny komponent bezpieczeństwa państwa, „Studia
nad bezpieczeństwem”, 2016, nr 1.
7. Bostrom N., How long before superintelligence?¸”Linguistic and Philosophical Investigations”,
2006, nr 5 (1).
8. Brahm Ch., 6 nieoczywistych zagrożeń biznesowych wynikających z rosnącej popularności
sztucznej inteligencji, „Magazyn ITwiz”, 2018, nr 12.
9. Chmieliński B., Rozważania nad naukami o bezpieczeństwie i bezpieczeństwem społeczności
lokalnych, „Historia i Polityka”, 2018, nr 23(30).
10. Chojnacki J., Pasek D., Historia wykorzystania bezzałogowych statków powietrznych, „Rocznik
Bezpieczeństwa Międzynarodowego”, 2017, nr 1 (11).
11. Ciszek M., Teoretyczne podstawy bezpieczeństwa państwa, „Prosopon. Europejskie Studia
Społeczno-Humanistyczne”, 2011, nr 2.
12. Czapczuk A., Dawidowicz J., Piekarski J., Metody sztucznej inteligencji w projektowaniu i
eksploatacji systemów zaopatrzenia w wodę, „Rocznik Ochrona Środowiska”, 2015, t. 17.
13. Czekaj J., Metody zarządzania informacją w przedsiębiorstwie,„Zeszyty Naukowe Akademii
Ekonomicznej w Krakowie. Seria Specjalna, Monografie”, 2000, nr 143.
14. Czulda R., Operacja Protective Edge w Strefie Gazy, „Nowa Technika Wojskowa”, 2014, nr 10.
15. Dąbrowski A., Sztuczna inteligencja, „Delta”, 2018, nr 5.
16. Fehler W., O pojęciu polityki wewnętrznego bezpieczeństwa państwa, „Studia
Prawnoustrojowe”, 2014, nr 23.
264
17. Fehler W., Sztuczna inteligencja – szansa czy zagrożenie, „Studia Bobolanum”, 2017, nr 3(28).
18. Gless S., Silverman E., Weigend T., If Robots Cause Harm, Who is to Blame? Self-Driving
Cars and Criminal Liability, „New Criminal Law Review”, 2016, nr 19 (3).
19. Grabowski M., Zając A., Dane, informacja, wiedza – próba definicji, „Zeszyty Naukowe
Uniwersytetu Ekonomicznego w Krakowie”, 2009, nr 798.
20. Hołdanowicz G., Roboty meldują się do służby, „Raport WTO”, 2006, nr 10.
21. Jałochowski K., Człowiek zdecyduje, „Polityka”, 2020, nr 47.
22. Januszko-Szakiel A., Open Archival Information System (OAIS) - standard w zakresie
archiwizacji publikacji elektronicznych, „Przegląd Biblioteczny” 2005, z. 3.
23. Kaczmarczyk B., Bezpieczeństwo i jego typologie, „Nauki Humanistyczne i Społeczne Na
Rzecz Bezpieczeństwa”, 2013, vol. 31.
24. Kaczmarek J., Problemy bezpieczeństwa RP, „Myśl Wojskowa”, 1991, nr 1.
25. Kaplan A., Haenlein M., Siri, Siri, in my hand: Who’s the fairest in the land? On the
interpretations, illustrations, and implications of artificial intelligence, „Business Horizons”,
2019, vol. 62, is. 1.
26. Kobyłko G., Morawski M., Przedsiębiorstwo zorientowane na wiedzę, „E-mentor”, 2006, nr 4
(16).
27. Kołodziejczyk A., Bezpieczeństwo jako fenomen społeczny: pojęcie bezpieczeństwa, jego
interpretacje i odmiany, „Saeculum Christianum”, 2007, nr 14/1.
28. Kopeć R., Rewolucja w sprawach wojskowych w kontekście zachodniego sposobu prowadzenia
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

wojen, „Kultura i Polityka”, 2014, nr 16.


29. Kopeć R., Robotyzacja wojny, „Społeczeństwo i Polityka”, 2016, nr 4 (49).
30. Kopka J., Czy praca w przyszłości może ulec dehumanizacji, „Władza Sądzenia”, 2017, t. 13.
31. Kotliński A., Modele bezpieczeństwa państw, „Zeszyty Naukowe Dolnośląskiej Wyższej Szkoły
Przedsiębiorczości i Techniki. Studia z Nauk Społecznych”, 2009, nr 1.
32. Koziej B., Bezpieczeństwo: istota, podstawowe kategorie i historyczna ewolucja,
„Bezpieczeństwo Narodowe”, 2011, nr 2.
33. Koziej S., Polityczno-strategiczne aspekty bezpieczeństwa, „Bezpieczeństwo narodowe”, 2011,
nr II.
34. Kuczyk O., Ewolucja treści systemu bezpieczeństwa zbiorowego jako składnika teorii
organizacji międzynarodowych, „Colloquium Wydziału Nauk Humanistycznych i
Społecznych”, 2012, nr 4.
35. Liew A., Data, information, knowledge and their interrelationships, “Journal of Knowledge
Management Practice”, 2007, nr 7.
36. Luttwak E.N., Toward Post-Heroic Warfare: The Obsolence of Total War, “Foreign Affairs”,
1995, nr 74 (3).
37. Miler-Zawodniak A., Teorie potrzeb jako współczesne teorie motywacji, „Obronność. Zeszyty
Naukowe”, 2012, nr 4.
38. Mróz B., Konsument a wyzwania technologiczne XXI wieku, „Studia Ekonomiczne. Zeszyty
Naukowe Uniwersytetu Ekonomicznego w Katowicach”, 2017, nr 330.
39. Neumann T., Perspektywy wykorzystania pojazdów autonomicznych w transporcie drogowym w
Polsce, „Autobusy”, 2018, nr 12.
40. Ogrodniczak M., Ryba J., Bezpieczeństwo ruchu drogowego w świetle wybranych aktów
prawnych, „Autobusy”, 2016, nr 6.
41. Olak K., Olak A., Współczesne rozumienie bezpieczeństwa narodowego, „Acta Scientifica
Academiae Ostroviensis. Sectio A, Nauki Humanistyczne, Społeczne i Techniczne”, 2016, nr
7(1).

265
42. Osika G., Czekając na osobliwość – o modelach interpretacji techniki, „Filo-Sofija. Z
problemów współczesnej filozofii (VI)”, 2017, nr 39.
43. Pacholski Ł., Butowski P., Aktualności wojskowe. Hiszpania kupuje bezzałogowce Reaper,
„Lotnictwo Aviation International”, 2016, nr 3.
44. Pagallo U., Killers, fridges, and slaves: a legal journey in robotics, “AI & Society”, 2011, nr
26(4).
45. Pawlińska M., Dopuszczalność gwałtu na humanoidalnym robocie, “Acta Universitatis
Lodziensis. Folia Iuridica”, 2019, t. 86.
46. Pokruszyński W., Bezpieczeństwo narodowe u progu XXI wieku, „Zeszyty Naukowe AON”,
2008, nr 1(70).
47. Racka K., Big Data – znaczenie, zastosowania i rozwiązania technologiczne, „Zeszyty
Naukowe PWSZ w Płocku. Nauki Ekonomiczne”, 2016, nr 1 (23).
48. Roguski J., Chmielewski M., Wantoch-Rekowski R., Zastosowanie symulacji wirtualnej do
szkolenia w zakresie bezpieczeństwa użytkowania obiektu na przykładzie terminalu lotniczego,
„Bezpieczeństwo i Technika Pożarnicza”, 2016, vol. 43, nr 3.
49. Różanowski K., Sztuczna inteligencja: rozwój, szanse i zagrożenia, „Zeszyty Naukowe:
Warszawska Wyższa Szkoła Informatyki”, 2007, nr 2.
50. Sadowska E., Zagrożenia asymetryczne – definicja, świadomość społeczna i rola we
współczesnym świecie, „Rocznik Bezpieczeństwa Międzynarodowego”, 2017, nr 2.
51. Searle J.R., Umysł, mózg i nauka, „The Behavioral and Brain Sciences”, 1982, nr 5(2).
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

52. Shannon C.E., A mathematical theory of Communications, „Bell System Technical Journal”,
1948, vol. 27.
53. Simons G., Drone Diplomacy, “The Link”, 2011, nr 2 (44).
54. Stylec-Szromek P., Sztuczna inteligencja – prawo, odpowiedzialność, etyka, „Zeszyty Naukowe
Politechniki Śląskiej. Seria: Organizacja i Zarządzanie”, 2018, z. 123.
55. Sulowski S., W poszukiwaniu definicji bezpieczeństwa wewnętrznego, „Przegląd
Bezpieczeństwa Wewnętrznego”, 2009, nr 1.
56. Szymański K., Transhumanizm, „Kultura i Wartości”, 2015, nr 13.
57. Tadeusiewicz R., Elektroniczne zwierzęta, „Wszechświat”, 2011, nr 7-9.
58. Torczyńska M., Sztuczna inteligencja i jej społeczno-kulturowe implikacje w codziennym życiu,
„Kultura i Historia”, 2019, nr 36.
59. Ulam S., Tribute to John von Neumann, “Bulletin of the American Mathematical Society”,
1958, nr 3 (64).
60. Vego M.N., Effect-Based Operations: A Critique, „Joint Forces Quarterly”, 2006, nr 41.
61. Wardziński K., Przegląd algorytmów sztucznej inteligencji stosowanych w grach
komputerowych, „Homo Communicativus”, 2008, nr 3.
62. Widłak T., Klauzula Martensa na tle pojęcia “ludzkość” w prawie międzynarodowym,
„Międzynarodowe Prawo Humanitarne”, 2012, nr 3.
63. Wilk T., Pawlak P., Kongestia transportowa, „Logistyka”, 2014, nr 6.
64. Wrzosek M., Zagrożenia bezpieczeństwa Polski. Teoria i praktyka, „Bellona”, 2013, nr 2.
65. Wyskwarski M., Zarządzanie wiedzą w małych i średnich przedsiębiorstwach – wykorzystanie
urządzeń NAS, „Zeszyty Naukowe Politechniki Śląskiej. Seria: Organizacja i Zarządzanie”,
2014, z. 68 (1905).
66. Zięba R., Pojęcia i istota bezpieczeństwa państwa w stosunkach międzynarodowych, „Sprawy
Międzynarodowe”, 1989, nr 10.
67. Ziemski M., Osoba elektroniczna posiadająca osobowość elektroniczną, „In Gremio”, 2017, nr
105.

266
Źródła internetowe:

1. 8 kierunków rozwoju sztucznej inteligencji, [on-line], zrobotyzowany.pl, 20.10.2018,


https://zrobotyzowany.pl/informacje/publikacje/3142/8-kierunkow-rozwoju-sztucznej-
inteligencji (20.05.2019).
2. AAP-6. Słownik terminów i definicji NATO, [on-line], wp.mil.pl, 2017,
https://wcnjik.wp.mil.pl/u/AAP6PL.pdf (10.03.2019).
3. ARM Northstar, AI Today, AI Tomorrow. Awareness, acceptance and anticipation of AI: A
global consumer perspective, 2017, [on-line], slideshare.net,
https://www.slideshare.net/ARMHoldings/ai-today-ai-tomorrow (19.07.2018).
4. Babicz J., Sztuczna inteligencja zablokuje kradzieże z kont bankowych dokonywane przez
cyberprzestępców, „Dziennik Bałtycki” [on-line], 29.01.2018,
https://dziennikbaltycki.pl/sztuczna-inteligencja-zablokuje-kradzieze-z-kont-bankowych-
dokonywane-przez-cyberprzestepcow/ar/c3-12889010, (17.04.2020).
5. Babraj R., Sztuczna inteligencja dla Europy, [on-line], NASK, 25.04.2018,
https://cyberpolicy.nask.pl/sztuczna-inteligencja-dla-europy/ (26.11.2020).
6. Balcewicz J., Etyczna sztuczna inteligencja – rekomendacje OECD, [on-line], NASK,
30.05.2019, https://cyberpolicy.nask.pl/etyczna-sztuczna-inteligencja-rekomendacje-oecd/
(27.11.2020).
7. Behrendt P., Ruszają próby operacyjne Sea Huntera, [on-line], konflikty.pl, 02.12.2016,
https://www.konflikty.pl/aktualnosci/wiadomosci/ruszaja-proby-operacyjne-sea-huntera/
(10.07.2020).
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

8. Bełcik A., Narodowa strategia AI pod ostrzałem rynku, [on-line], pb.pl, 17.09.2019,
https:.//www.pb.pl/narodowa-strategia-ai-pod-ostrzalem-rynku-970605 (15.09.2020).
9. Berger A., Sztuczna inteligencja Google’a tworzy własne systemy szyfrowania, [on-line],
trybawaryjny.pl, 13.11.2016, https://trybawaryjny.pl/sztuczna-inteligencja-googlea-tworzy-
wlasne-systemy-szyfrowania/ (09.07.2020).
10. Biedrzycki N., Sztuczna inteligencja jest sprawnym bankierem, [on-line], norbertbiedrzycki.pl,
14.01.2020, https://norbertbiedrzycki.pl/sztuczna-inteligencja-jest-sprawnym-bankierem/
(03.05.2020).
11. Biedrzycki N., Wojskowe roboty mogą podejmować decyzję o naszym życiu lub śmierci,
„Business Insider” [on-line], 03.03.2019, https://businessinsider.com.pl/technologie/nowe-
technologie/technologie-i-sztuczna-inteligencja-w-wojsku-i-jej-wykorzystanie/5r0d9rd,
(18.02.2020).
12. Boston Dynamics, Atlas, [on-line], bostondynamics.com, 24.09.2019,
https://www.bostondynamics.com/atlas (10.07.2020).
13. Chang K., Can Robots Become Conscious?, „The New York Times” [on-line], 11.11.2003,
https://www.nytimes.com/2003/11/11/science/can-robots-become-conscious.html (22.05.2019).
14. Chiny prowadzą testy na ludziach. Tworzą superżołnierza, [on-line], o2.pl, 06.12.2020,
https://www.o2.pl/informacje/chiny-prowadza-testy-na-ludziach-tworza-super-zolnierza-
6583358187981376a (18.01.2021).
15. Chojnowski M., Kto wdrożył, niech odpowiada. Unijny projekt regulacji SI, [on-line],
sztucznainteligencja.org, 18.05.2020, https://www.sztucznainteligencja.org.pl/kto-wdrozyl-
niech-odpowiada-unijny-projekt-regulacji-si/ (29.11.2020).
16. Chustecki J., Sztuczna inteligencja – szanse i zagrożenia, [on-line], 19.02.2019,
https://www.computerworld.pl/news/Sztuczna-inteligencja-szanse-i-zagrozenia,412196.html,
(01.06.2019).
17. Coppinger R., Northrop Grumman Global Hawk Block 20 achieves 33h endurance, [on-line],
flightglobal.com, 04.04.2008, https://www.flightglobal.com/news/articles/northrop-grumman-
global-hawk-block-20-achieves33h-e-222768/ (28.02.2020).

267
18. Dąbrowski M., Bojowe roboty – rewolucja na polu walki [analiza], [on-line], defence24.pl,
22.04.2018, https://www.defence24.pl/bojowe-roboty-rewolucja-na-polu-walki-analiza
(13.07.2020).
19. Dąbrowski M., Chińskie roje dronów na Morzu Południowochińskim, [on-line], defence24.pl,
04.06.2018, https://www.defence24.pl/chinskie-roje-dronow-na-morzu-poludniowochinskim
(04.06.2020).
20. Dębska M., Seks-roboty, [on-line], Uniwersytet Warszawski, 2019,
https://www.fuw.edu.pl/~szczytko/JTD2019-20/Marta_Dębska_SEKS-ROBOTY.pdf
(04.06.2020).
21. Dukaj J., Sztuka w czasach sztucznej inteligencji, [on-line], Forum Przyszłości Kultury, 2017,
https://forumprzyszloscikultury.pl/upload/jacek-dukaj-sztuka-w-czasach-sztucznej-inteligencji-
pdf (28.07.2020).
22. Dul F., Wprowadzenie do sztucznej inteligencji, [on-line], Politechnika Warszawska, 2014,
https://www.meil.pw.edu.pl/content/download/filw/ AI_Wstep_14 (13.09.2019).
23. Duszczyk M., Autobusy zamawiane jak Uber. Wpadli na to Polacy, „Rzeczpospolita” [on-line],
09.09.2019, https://cyfrowa.rp.pl/biznes/37305-autobusy-zamawiane-jak-uber-wpadli-na-to-
polacy, (03.03.2020).
24. Encyklopedia PWN, Inteligencja, [on-line], encyklopedia.pwn.pl, b.r.,
https://encyklopedia.pwn.pl/haslo/inteligencja;3915042.html (13.05.2019).
25. Finnie S., Cyber threats fueled by AI: Security’s next big challenge, [on-line], csoonline.com,
30.10.2018, https://www.csoonline.com/article/3315740/cyber-threats-fueled-by-ai-securitys-
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

next-big-challenge.html (03.07.2020).
26. Galeon D., For the First Time, a Robot Passed a Medical Licensing Exam, [on-line],
futurism.com, 20.11.2017, https://futurism.com/first-time-robot-passed-medical-licensing-exam
(02.06.2020).
27. Ganascia J.G., Przegalińska A., Technologie realne i wyobrażone, „Tygodnik Powszechny”
[on-line], 2018, https://www.tygodnikpowszechny.pl/technologie-realne-i-wyobrazone-155005
(28.02.2020).
28. Gliwa S., AI vs AI. Jakie trendy bezpieczeństwa i zagrożeń czekają nas w 2020 roku?, [on-line],
CyberDefence24, 25.11.2019, https://www.cyberdefence24.pl/ai-vs-ai-jakie-trendy-
bezpieczenstwa-i-zagrozen-czekaja-nas-w-2020-roku (24.04.2020).
29. Gmys Ł., Bezpieczeństwo transportu drogowego, „Poradnik Spedytora” [on-line], 2012,
http://poradnikspedytora.pl/2012/bezpieczenstwo-transportu-drogowego/ (01.04.2019).
30. Gołąbiowski Ł., Zabójcze drony – pięć najniebezpieczniejszych maszyn, „Komputer Świat” [on-
line], 2016, http://www.komputerswiat.pl/artykuly/redakcyjne/2016/06/zabojcze-drony-piec-
najniebezpieczniejszych-maszyn.aspx (16.03.2018).
31. Gozdek J., Historia sztucznej inteligencji, [on-line], chip.pl, 03.12.2013,
https://www.chip.pl/2013/12/historia-sztucznej-inteligencji/ (14.10.2019).
32. Górecki P., Uczenie maszynowe, sztuczna inteligencja i samo(świadomość), [on-line],
tabletowo.pl, 23.11.2014, https://www.tabletowo.pl/uczenie-maszynowe-sztuczna-inteligencja-
i-samoswiadomosc/ (12.01.2020).
33. Grace K. i in., When Will AI Exceed Human Performance? Evidence from AI Experts, [on-line],
arxiv.org, 2017, https://arxiv.org/abs/1705.08807 (29.07.2020).
34. Grygiel B., Ten upiorny obraz namalowała Sztuczna Inteligencja. Sprzedany na aukcji za
zawrotną sumę, [on-line], focus.pl, 01.03.2019, https://www.focus.pl/artykul/sprzedany-za-
prawie-pol-miliona-dolarow-upiorny-obraz-namalowany-przez-sztuczna-inteligencje
(07.06.2020).
35. IBM Security, Sztuczna inteligencja rozwiązaniem wzmacniającym bezpieczeństwo, [on-line],
IBM, b.r., https://www.ibm.com/pl-pl/security/artificial-intelligence (26.04.2020).

268
36. IBM, Wimbledon 2017, [on-line], IBM, b.r., https://www.ibm.com/case-studies/wimbledon-
2017, (10.07.2020).
37. In Davos, US executives warn that China is winning the AI race, “The Straits Times” [on-line],
24.01.2019, https://www.straitstimes.com/world/europe/in-davos-us-executives-warn-that-
china-iswinning-the-ai-race (04.07.2020).
38. Jassem K., Sztuczny umysł między językami, [on-line], sztucznainteligencja.org, 28.03.2019,
https://www.sztucznainteligencja.org.pl/sztuczny-umysl-miedzy-jezykami/ (10.07.2020).
39. Jurczak T., Autonomiczne pojazdy: 12 przykazań dla branży, [on-line], sztucznainteligencja.org,
09.07.2019, https://www.sztucznainteligencja.org.pl/autonomiczne-pojazdy-12-przykazan-
branzy/ (05.03.2020).
40. Jurczak T., Maszyna pisze powieści. Można je kupić w księgarni internetowej, [on-line],
sztucznainteligencja.org, 05.11.2019, https://www.sztucznainteligencja.org.pl/algorytm-pisze-
powiesci-mozna-je-kupic-w-ksiegarni-internetowej/ (10.05.2020).
41. Karp M., Grabowski M., Systemy ekspertowe i ich zastosowanie, [on-line], Akademia Górniczo-
Hutnicza, b.r., https://home.agh.edu.pl/ligeza/wik/media/presentations/systexp.pdf (13.01.2020).
42. Kasperski M., Kilka słów w kwestii Chińskiego Pokoju i dwu innych argumentów przeciw SI: sir
Rogera Penrose’a i z redukcjonizmu, [on-line], kognitywistyka.net, 2002,
http://www.kognitywistyka.net/artykuly/mk-kswapsi.pdf (20.05.2019).
43. Katedra Inżynierii Komputerowej Politechniki Częstochowskiej, Sieci neuronowe. Historia,
[on-line], Politechnika Częstochowska, 2004, https://iisi.pcz.pl/nn/historia.php (17.01.2020).
44. Kharpal A., Amazon’s voice assistant Alexa could be a $10 billion ‘mega-hit’ by 2020:
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

Research, [on-line], CNBC, 10.05.2017, https://www.cnbc.com/2017/03/10/amazon-alexa-


voice-assistan-could-be-a-10-billion-mega-hit-by-2020-research.html (05.05.2020).
45. Kiedy roboty zastąpią ludzi? Szybciej, niż myślisz, „Forbes” [on-line], 26.04.2018,
https://www.forbes.pl/gospodarka/sztuczna-inteligencja-kiedy-komputery-zastapia-
ludzi/zjxvwme (29.07.2020).
46. Kijewski J., Chiński dron z Ocean Alpha, [on-line], motorowy.com, 22.08.2017,
https://www.motorowy.com/artykul/22-08-2017/chinski-dron-ocean-alpha, (05.07.2020).
47. Kim A. i in., Cyber Attack Vulnerabilities Analysis for Unmanned Aerial Systems, [on-line],
American Institute of Aeronautics and Astronautics, b.r.,
https://static1.squarespace.com/static/553e8918e4b0c79e77e09c4d/t/5ae86e6a8a922d40d2c0d1
bd/1525182105346/AIAA-Infotech_Threats-and-Vulnerabilities-Analysis.pdf (28.02.2020).
48. Knight W., China’s AI Awakening, „MIT Technology Review” [on-line], 2017,
https://www.technologyreview.com/s/609038/chinas-ai-awakening/ (22.05.2019).
49. Kołodziejczyk J., Systemy ekspertowe. Wykład I. Co to jest system ekspertowy? Przykłady
systemów ekspertowych, [on-line], Zachodniopomorski Uniwersytet Technologiczny, 2016,
https://wikizmsi.zut.edu.pl/uploads/b/b4/INFS1SE1.pdf, (14.01.2020).
50. Kołtunowicz J., Tinder da ci szansę (na niebycie chamem), [on-line],
sztucznainteligencja.org.pl, 21.02.2020, https://www.sztucznainteligencja.org.pl/tinder-da-ci-
szanse-na-niebycie-chamem/ (05.05.2020).
51. Komisja Europejska, Budżet UE: Komisja proponuje inwestycje w wysokości 9,2 mld euro w
pierwszy w historii program w dziedzinie technologii cyfrowych, [on-line], europa.eu, b.r.,
https://ec.europa.eu/commission/presscorner/detail/pl/ IP_18_4043 (18.01.2021).
52. Komisja Europejska, Speech by President-elect von der Leyen in the European Parliament
Plenary on the occasion of the presentation of her College of Commissioners and their
programme, [on-line], europa.eu, 27.11.2019,
https://ec.europa.eu/commission/presscorner/detail/en/SPEECH_19_6408 (18.01.2021).
53. Kongestia, [on-line], e-logistyka.pl, 28.01.2018, https://e-logistyka.pl/logipedia/kongestia/
(05.03.2020).

269
54. Kopańko K., Kurs autobusem zamawiany ze smartfona i optymizowany przez AI? To pomysł
polskiego startupu, [on-line], spidersweb.pl, 16.09.2019, https://spidersweb.pl/bizblog/broomee-
autobus-ai-smartfon/ (03.03.2020).
55. Korolov M., AI isn’t just for the good guys anymore, [on-line], CSO, 01.02.2017,
https://www.csoonline.com/article/3163022/ai-isnt-just-for-the-good-guys-anymore.html
(30.05.2017).
56. Korzeniowski B., Sztuczna inteligencja do zarządzania ruchem w miastach, „Motomi
Magazyn” [on-line], 28.08.2018, https://magazynmotomi.pl/2018/05/28/sztuczna-inteligencja-
do-zarzadzania-ruchem-w-miastach/ (04.03.2020)
57. Kosior M., Studium upadku Mt Gox. Sprawa Willy Bot’a, [on-line], bithub.pl, 26.02.2019,
https://bithub.pl/artykuly/sprawa-willy-bota-studium-manipulacji/ (28.07.2020).
58. Kotowski A., Sony sprzedało 3 mln gogli PlayStation VR, [on-line], PCLab, 17.08.2018,
https://pclab.pl/news 78655.html (23.05.2019).
59. KRFMCG: Jakie korzyści może wnieść wizja komputerowa dla sieci detalicznych?, [on-line],
wiadomoscihandlowe.pl, 28.05.2019, https://www.wiadomoscihandlowe.pl/artykuly/krfmcg-
jakie-korzysci-moze-wniesc-wizja-komputerow,54756 (01.12.2019).
60. Kryśkiewicz Ł., Sztuczna inteligencja w sektorze finansowym, [on-line], di.com.pl, 2017,
http://di.com.pl/sztuczna-inteligencja-w-sektorze-finansowym-58641, (15.05.2018).
61. Kubera G., Ochrona punktów końcowych – co trzeba o niej wiedzieć, „Computer World” [on-
line], 27.12.2018, https://www.computerworld.pl/news/Ochrona-punktow-koncowych-co-
trzeba-o-niej-wiedziec,411609.html (23.04.2020).
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

62. Kubisiak A., Czynniki etyczne i kulturowe przeciwko samochodom autonomicznym?, [on-line],
Polski Instytut Ekonomiczny, 14.12.2018, http://pie.net.pl/wp-
content/uploads/2018/12/14_12_2018_Czynniki-etyczne-i-kulturowe-przeciwko-samochodom-
autonomicznym.pdf (05.03.2020).
63. Kuchta M., Aplikacja zamiast wizyty u lekarza? Ada zdiagnozuje Twoje objawy, [on-line],
marketinglink.pl, 20.04.2017, https://marketinglink.pl/aplikacja-zamiast-wizyty-u-lekarza-ada-
zdiagnozuje-twoje-objawy/ (02.06.2020).
64. Kulik W., Co to jest komputer kwantowy? Oto podstawy, [on-line], benchmark.pl, 10.04.2020,
https://www.benchmark.pl/aktualnosci/co-to-jest-komputer-kwantowy-podstawy-wideo.html
(19.01.2020).
65. Kuźmińska-Sołśnia B., Siwiec T., Zastosowanie algorytmów sztucznej inteligencji w grach
komputerowych, [on-line], bks.pr.radom.pl, b.r.,
http://www.bks.pr.radom.pl/publikacje/SI%20w%20grach.pdf (11.05.2020).
66. Lesman U., AI wykryje oszustów na aplikacji randkowej. Kim są?, „Rzeczpospolita” [on-line],
11.05.2019, https://cyfrowa.rp.pl/technologie/34860-si-wykryje-oszusta-matrymonialnego-kto-
najczesciej-sciemnia-i-jak?utm_source=rp&utm_medium=teaser _redirect (10.05.2020).
67. Leśkow J., Obywatel i demokracja w cywilizacji cyfrowej, „Rzeczpospolita” [on-line], 2019,
https://cyfrowa.rp.pl/opinie/37104-dyrektor-nask-obywatel-i-demokracja-w-cywilizacji-
cyfrowej, (29.02.2020).
68. Łakomy M., Data mining od podszewki, [on-line], Computerworld.pl, 11.05.1998,
https://www.computerworld.pl/news/Data-mining-od-podszewki,284591.html (12.01.2020)
69. Malak K., Typologia bezpieczeństwa. Nowe wyzwania, [on-line], stosunkimiedzynarodowe.pl,
2010, http://www.stosunki-miedzynarodowe.pl/referaty/ typologia-bezpieczenstwa-nowe-
wyzwania.html (15.03.2019).
70. Mazurkiewicz P., Obraz robota poszedł za 430 tys. dolarów, „Rzeczpospolita” [on-line],
25.10.2018, https://cyfrowa.rp.pl/technologie/28603-roboty-maluja-obrazy-pisza-wiersze
(07.06.2020).
71. Merriam-Webster Dictionary, Collateral damage, [on-line], Merriam-Webster, b.r.,
https://www.merriam-webster.com/dictionary/collateral%20damage, (12.02.2018).

270
72. Milipedia, IAI Eitan/Heron TP, [on-line], infolotnicze.pl, 16.12.2011,
https://www.infolotnicze.pl/2011/12/16/iai-eitan-heron-tp/, (16.03.2018).
73. Mimaroglu A., 3 Ways Artificial Intelligence Has Sparked Marketing and Sales
Transformation, [on-line], entrepreneur.com, 27.06.2019,
https://www.entrepreneur.com/article/335779 (09.07.2020).
74. Ministerstwo Cyfryzacji, Inteligentne systemy transportowe, [on-line], gov.pl, 08.05.2019,
https://www.gov.pl/web/5g/inteligentne-systemy-transportowe (04.03.2020).
75. Mitchell B., Artificial intelligence is the heart of CIO Dana Deasy’s plan to modernize the
DOD, [on-line], fedscoop.com, 23.08.2018, https://www.fedscoop.com/artificial-intelligence-
dod-strategy-cio-dana-deasy/ (03.07.2020).
76. Morrison R., Cyborg super soldiers: US Army report reveals vision for deadly ‘machine
humans’ with infrared sight, boosted strength and mind-controlled weapons by 2050, „Daily
Mail” [on-line], 29.12.2019, https://www.dailymail.co.uk/sciencetech/article-7738669/US-
Military-scientists-create-plan-cyborg-super-soldier-future.html (18.01.2021).
77. Neurosoft, Przetwarzanie języka naturalnego, [on-line], neurosoft.pl, b.r.,
https://neurosoft.pl/technologie/przetwarzanie-jezyka-naturalnego/ (12.01.2020).
78. Nowak A., Zbiory przybliżone w obszarze systemów ekspertowych, [on-line], Uniwersytet
Śląski, b.r., http://zsi.tech.us.edu.pl/~anowak/files/pawlak.pdf (12.01.2020).
79. Nowak J., Koniec hegemonii homo sapiens. Na jakich polach sztuczna inteligencja zdominuje
człowieka?, „Forbes” [on-line], 18.09.2017, https://www.forbes.pl/opinie/sztuczna-inteligencja-
zagrozeniem-dla-ludzi-na-jakich-polach-zdominuje-czlowieka/0lmq3hl (27.07.2020).
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

80. Nowak-Brzezińska A., Odkrywanie wiedzy z danych przy użyciu zbiorów przybliżonych. Wykład
2, [on-line], Uniwersytet Śląski, b.r., http://zsi.tech.us.edu.pl/~nowak/bios/owd/w2.pdf
(12.01.2020).
81. Nowakowski M., Dlaczego sztuczna inteligencja to nie osoba (prawna)?, [on-line], fintek.pl,
29.08.2019, https://fintek.pl/dlaczego-sztuczna-inteligencja-to-nie-osoba-prawna/ (18.09.2020).
82. Ocean Alpha, Get Closer to Ocean, [on-line], oceanalpha.com, b.r.,
https://www.oceanalpha.com/product-item/dolphin1/ (07.07.2020).
83. Ontotext, What is the DIKW Pyramid? [on-line] ontotext.com, b.r.,
https://www.ontotext.com/knowledgehub/fundamentals/dikw-pyramid (19.02.2018).
84. OSNews, Sztuczna inteligencja. Naturalne przetwarzanie języka, [on-line], osnews.pl,
04.12.2016, http://osnews.pl/sztuczna-inteligencja-naturalne-przetwarzanie-jezyka/
(12.01.2020).
85. Ośrodek Przetwarzania Informacji – Państwowy Instytut Badawczy, Słownik, [on-line],
sztucznainteligencja.org., b.r., https://www.sztucznainteligencja.org.pl/slownik/robotyka
(10.01.2020).
86. Oxford Insights, Government Artificial Intelligence Readiness Index 2019, [on-line], Oxford
Insights, 2020, https://www.oxfordinsights.com/ai-readiness2019 (30.11.2020).
87. Palczewski S., Etyczna sztuczna inteligencja na polu bitwy? Amerykańskie wojsko uważa, że to
możliwe, [on-line], CyberDefence24, 05.11.2019, https://cyberdefence24.pl/etyczna-sztuczna-
inteligencja-na-polu-bitwy-amerykanskie-wojsko-uwaza-ze-to-możliwe (08.02.2020).
88. Palczewski S., Sztuczna inteligencja zmieni dynamikę konfliktu. Wojsko stanie przed nowymi
zagrożeniami, [on-line], CyberDefence24.pl, 10.02.2020,
https://www.cyberdefence24.pl/sztuczna-inteligencja-zmieni-dynamike-konfliktu-wojsko-
stanie-przed-nowymi-zagrozeniami (19.11.2020).
89. Parlament Europejski, Regulacje ws. sztucznej inteligencji: oczekiwania Parlamentu, [on-line],
europa.eu, 21.10.2020, https://www.europarl.europa.eu/news/pl/headlines/
society/20201015STO89417/regulacje-ws-sztucznej-inteligencji-oczekiwania-parlamentu
(30.11.2020).

271
90. Peserada K., Przetestujcie sztuczną inteligencją generującą tekst, [on-line], antyradio.pl,
07.11.2019, https://www.antyradio.pl/Technologia/Internet/Przetestujcie-sztuczna-inteligencje-
generujaca-tekst-36826 (12.01.2020).
91. Pilath S., Automated vehicles in the EU, [on-line], europa.eu, 01.2016.,
https://www.europarl.europa.eu/RegData/etudes/BRIE/2016/573902/EPRS_BRI(2016)573902_
EN.pdf (08.11.2018).
92. Pluta E.,. Etyczna sztuczna inteligencja. Czy etykę można zaprogramować?, [on-line], swps.pl,
08.2020, https://swps.pl/strefa-psyche/blog/relacje/22399-etyczna-sztuczna-inteligencja-czy-
etyke-mozna-zaprogramowac (08.12.2020).
93. Płoszczyński M., Sztuczna inteligencja zmieni rynek contactcenter?, [on-line], tworzywa.pl,
27.12.2017, https://www.tworzywa.pl/news/prezentacje/sztuczna-inteligencja-zmieni-rynek-
contact-center,101.html (27.05.2020).
94. Podsiadło J., Sztuczna inteligencja w SEO. Jak Google wykorzystuje AI?, [on-line], delante.pl,
30.03.2020, https://delante.pl/ai-sztuczna-inteligencja-w-seo/ (06.07.2020).
95. Polski Komitet ds. UNESCO, Sztuczna inteligencja a etyka – prace nad zaleceniem UNESCO,
[on-line], UNESCO, b.r., https://www.unesco.pl/neste/1/article/1/sztuczna-inteligencja-a-etyka-
8211-prace-nad-zaleceniem-unesco-1/ (17.01.2021).
96. Prajsnar P., Co wiemy o sztucznej inteligencji? Niewiele, a i tak za mało, [on-line], Online
Marketing, 16.09.2019, https://o-m.pl/artykul/co-wiemy-o-sztucznej-inteligencji-niewiele-a-i-
tak-za-malo (02.12.2019).
97. Pretkiel B., J. Czapla, J. Barciński (red.), Perspektywy wdrożenia sztucznej inteligencji, zmiany
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

normatywne, społeczne i ekonomiczne, [on-line], Instytut Sienickiego, 2020, https://instytut-


sienickiego.pl/wp-content/uploads/2020/05/Perspektywy-wdrożenia-sztucznej-inteligencji-
zmiany-normatywne-społeczne-i-ekonomiczne.pdf (20.10.2020).
98. Putin: Leader In artificial intelligence will rule world, [on-line], CNBC, 04.09.2017,
https://www.cnbc.com/2017/09/04/putin-leader-in-artificial-intelligence-will-rule-world.html
(03.07.2020).
99. Qiang L., Dan X., Legal regulation of AI weapons under international humanitarian law: A
Chinese perspective, Humanitarian Law&Policy, [on-line], icrc.org, 02.05.2019,
https://blogs.icrc.org/law-and-policy/2019/05/02/ai-weapon-ihl-legal-regulation-chinese-
perspective/ (21.07.2020).
100. RAND Corporation, Deterrence in the Age of Thinking Machines, [on-line], RAND, 2020,
https://www.rand.org/content/dam/rand/pubs/research_reports/RR2700/RR2797/RAND_RR279
7.pdf (19.01.2021).
101. Ratner P., Humans Could Be Marrying Robots By 2050, Claims Robot Expert, [on-line],
bigthink.pl, 2017, https://bigthink.com/human-robot-marriages-possible-before-2050-claims-
robot—expert (11.06.2020).
102. Robot odpowie za swoją pracę? Już musimy rozmawiać, jak to uregulować, „Business Insider”
[on-line], 10.03.2017, https://businessinsider.com.pl/technologie/nowe-technologie/roboty-i-
sztuczna-inteligencja-a-prawo-i-osobowosc-prawna/k2e2zdx (27.08.2020).
103. Robotyka w wojsku – przyszłość wojska, [on-line], botland.com, 25.12.2019,
https://botland.com.pl/blog/robotyka-w-wojsku-przyszlosc-wojska/ (07.07.2020).
104. Salecki M., Perspektywy Rozwojowe Reklamy Online: Sprzedaż w dobie sztucznej inteligencji,
[on-line], iab.org.pl, 2019, https://iab.org.pl/aktualnosci/perspektywy-rozwojowe-reklamy-
online-sprzedaz-w-dobie-sztucznej-inteligencji/ (20.05.2019).
105. Schofield J., Computer chat bot ’Eugene Goostman’ passes the Turing test, [on-line],
zdnet.com, b.r., http://www.zdnet.com/article/computer-chatbot-eugene-goostman-passes-the-
turing-test/, (29.05.2017).
106. Shixin G., Customer Success with Machine Learning (Google Cloud NEXT’17), [on-line],
medium.com, 07.06.2017, https://medium.com/syncedreview/customer-success-with-machine-
learning-google-cloud-next17-64c6af3e388, (28.05.2020).

272
107. Skruch P., Sztuczna inteligencja i samochody autonomiczne, [on-line], Aptiv, 11.12.2018,
https://www.pzpm.org.pl/pl/download/file (04.03.2020).
108. Sony, Aibo – unleash wonder, [on-line], aibo.com, b.r., https://us.aibo.com (20.09.2019).
109. Stone I., 30 Most Technologically Advanced Cancer Centers in the World, [on-line],
topmastersinhealthcare.com, 2016, https://www.topmastersinhealthcare.com/30-most-
technologically-advanced-cancer-centers-in-the-world/ (02.06.2020).
110. Syta J., Konieczność skutecznej ochrony Infrastruktury Krytycznej Państwa w świetle
najciekawszych ataków, 2018, [on-line: prelekcja na Exatel Security Days], (09.11.2019).
111. Sztuczna Inteligencja i jej zastosowanie w marketingu, [on-line] properad.pl, 18.01.2019,
https://properad.pl/artykul/62/Sztuczna-Inteligencja-i-jej-zastosowanie-w-marketingu
(07.07.2020).
112. Sztuczna inteligencja zarządzi naszymi miastami, [on-line], Newseria, 31.05.2019,
http://www.outsourcingportal.eu/pl/sztuczna-inteligencja-zarzadzi-naszymi-miastami
(03.03.2020).
113. Tadeusiewicz R., Pierwsza wyspa w archipelagu sztucznej inteligencji – metody symboliczne,
[on-line], natemat.pl, 05.06.2015, https://natemat.pl/144731,pierwsza-wyspa-w-archipelagu-
sztucznej-inteligencji-metody-symboliczne (12.01.2020).
114. Talk to Transformer, [on-line], b.r., https://talktotransformer.com (12.01.2020).
115. The EU needs its own security strategy to confront the digital threat, “Financial Times” [on-
line], 31.01.2019, https://www.ft.com/content/cd9f206e-2562-11e9-b20d-5376ca5216eb
(02.07.2020).
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

116. The Society for the Study of Artificial Intelligence and Simulation of Behavior (AISB), What is
Artificial Intelligence, [on-line], AISB, b.r., https://www.aisb.org.uk/public-engagement/what-
is-ai (13.05.2019).
117. Timmins B., The New Robots with <Frigid> Settings Allow Men to Simulate Rape,
“Independent UK” [on-line], 2017, https://www.independent.co.uk/life-style/sex-robots-frigid-
settings-rape-simula-tion-men-sexual-assault-a7847296.html (05.06.2020).
118. Trend Micro Polska, Sztuczna inteligencja – przyjaciel i wróg bezpieczeństwa informatycznego,
[on-line], Trend Micro, 16.08.2018, https://blog.trendmicro.pl/2018/08/16/sztuczna-
inteligencja-przyjaciel-i-wrog-bezpieczenstwa-informatycznego/ (19.04.2020).
119. Turek A., Sztuczna inteligencja – realne zagrożenie? Gates: „Nie rozumiem, czemu niektórzy
się nie przejmują”, [on-line], innpoland.pl, 30.05.2017, http://innpoland.pl/115221,sztuczna-
inteligencja-realne-zagrozenie-gates-nie-rozumiem-czemu-niektorzy-sie-nie-przejmuja,
(23.05.2019).
120. Vinge V., The Coming Technological Singularity: How to Survive in the Post-Human Era, [on-
line], San Diego State University, 1993, https://edoras.sdsu.edu/~vinge/misc/ singularity.html
(04.07.2020).
121. Walker M.J., Top Trends in the Gartner Hype Cycle for Emerging Technologies, [on-line],
gartner.com, 2017, https://www.gartner.com/smarterwithgartner/top-trends-in-the-gartner-hype-
cycle-for-emerging-technologies-2017/ (02.06.2020).
122. Wong Y.H. (et al.), Deterrence In the Age of Thinking Machines, [on-line], RAND, 2020,
https://www.rand.org/pubs/research_reports/RR2797.html (02.06.2020).
123. Woś K., Sztuczna inteligencja: przez nią coraz mniej myślimy i działamy bez zastanowienia,
[on-line], antyweb.pl, 22.04.2020, https://antyweb.pl/sztuczna-inteligencja-przez-nia-coraz-
mniej-myslimy-i-dzialamy-bez-zastanowienia/ (02.07.2020).
124. Wrzosek M., Skoordynowany Plan dla Sztucznej Inteligencji, [on-line], NASK, 07.12.2018,
https://cyberpolicy.nask.pl/skoordynowany-plan-dla-sztucznej-inteligencji/ (26.11.2020).
125. Xuanzun L., China’s first unmanned missile boat revealed at Airshow China 2018, “Global
Times” [on-line], 07.11.2018, http://www.globaltimes.cn/content/1126362.shtml (07.07.2020).

273
126. Zagórna A., Włoska strategia: 1 mld euro na SI, [on-line], sztucznainteligencja.org, 01.10.2020,
https://www.sztucznainteligencja.org.pl/wloska-strategia-1-mld-euro-na-si/ (18.01.2021).

Inne źródła:

1. Boryś W., Słownik etymologiczny języka polskiego, Wydawnictwo Literackie, Kraków 2010.
2. Dell Technologies, The Next Era of Human-Machine Partnerships. Emerging Technologies’
Impact on Society&Work in 2030, Institute For The Future, 2017.
3. Fundacja Digital Poland, Przegląd Strategii Rozwoju Sztucznej Inteligencji na Świecie,
Fundacja digitalpoland, Warszawa 2018.
4. Game Changers: AI and Machine Learning in Cybersecurity. A U.S./Japan Comparison,
Webroot. Smarter Cybersecurity 2017.
5. Gibilis S. (red.), The McGraw-Hill Illustrated Encyclopedia of Robotics & Artificial
Intelligence, McGraw-Hill Companies, New York 1994.
6. Gould J., Kolb W.L. (red.), A dictionary of the Social Sciences, Tavistock, London 1964.
7. Govini, Department of Defense Artificial Intelligence, Big Data and Cloud Taxonomy, 2017.
8. Hoadley D.S., Lucas N.J., Artificial Intelligence and National Security, Congressional Research
Service, 2018.
9. IBM Security, How much would a data breach cost your business? 2019 Cost of a Data Breach
Report, 2019.
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

10. Insurance Institute for Highway Safety, New estimates of benefits of crash avoidance features
on passenger vehicles, “Status Report”, 2010, nr 45.
11. IT Governance Institute, COBIT 4.1. Metodyka. Cele kontrolne. Wytyczne zarządzania Modele
dojrzałości, IT Governance Institute, Rolling Meadows 2010.
12. Kaczmarek J., Łepkowski W., Zdrodowski B. (red. nauk.), Słownik terminów z zakresu
bezpieczeństwa narodowego, Wydawnictwo AON, Warszawa 2008.
13. Kitler W., Obrona narodowa III RP: pojęcie, organizacja, system, rozprawa habilitacyjna,
„Zeszyty Naukowe AON”, Warszawa 2002.
14. Koziej S., Wstęp do teorii i historii bezpieczeństwa – skrypt internetowy¸ Warszawa 2010.
15. Krawiec K., Przetwarzanie i rozpoznawanie obrazów: wprowadzenie, Poznań 2018.
16. Laprus M. (red.), Leksykon wiedzy wojskowej, Wydawnictwo Ministerstwa Obrony Narodowej,
Warszawa 1979.
17. McKinsey&Company, Forbes Polska, Rewolucja AI. Jak sztuczna inteligencja zmieni biznes w
Polsce, 2017.
18. Michałowska G. (red.), Mały słownik stosunków międzynarodowych, Wydawnictwa Szkolne i
Pedagogiczne, Warszawa 1997.
19. Mojsiewicz C. (red.), Leksykon współczesnych międzynarodowych stosunków politycznych, Atla
2, Wrocław 2004.
20. Olszak P., Rozpoznawanie obiektów na zdjęciach poprzez zadawanie minimalnej liczby pytań,
praca magisterska, Toruń: Uniwersytet Mikołaja Kopernika, 2010.
21. Pac B., Nowak A., Borecki M., Zastosowanie operacji informacyjnych w planowaniu i
prowadzeniu działań przez Siły Zbrojne RP w ujęciu doktrynalnym, Warszawa 2008.
22. PWC, 2018 AI Predictions: 8 insights to shape business strategy, 2018.
23. Ranft F., Adler M., Diamond P. i in., Freeing the Road: Shaping the future for autonomous
vehicles, A Policy Network Special Report, Policy Network, London 2016.
24. Reich L., Sawyer D., Archiving Referencing Model, White Book, Issue 5, CCSDS 1999.

274
25. Słownik terminów z zakresu bezpieczeństwa narodowego, Wydawnictwo AON, Warszawa
2008.
26. Szymeczko W., Perspektywy wykorzystania pojazdów autonomicznych w transporcie
drogowym w Polsce, praca inżynierska, Akademia Morska, Gdynia 2018.
27. The Oxford Reference Dictionary, Oxford: Oxford University Press, 1991.
28. THINKTANK, Iloraz sztucznej inteligencji. Potencjał sztucznej inteligencji w sektorze
publicznym, Ośrodek dialogu i analiz THINK TANK, Warszawa 2020.
29. Trapp A. (red.), AI: wyzwania i konsekwencje. Pilot view, infuture hatalska foresight institute,
Gdańsk 2019.
30. Zgółkowa H., Praktyczny słownik współczesnej polszczyzny, T. 40, Wydawnictwo Kurpisz,
Poznań 1994.
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

275
Spis rysunków i fotografii

Rysunek 1. Typologia zagrożeń bezpieczeństwa narodowego według Krzysztofa


Przeworskiego .......................................................................................................................... 42
Rysunek 2. Piramida informacji (DIKW) ................................................................................ 48
Fotografia 3. Obraz „Portet Edmonda Belamy” .................................................................... 140

Spis wykresów

Wykres 1. Rozkład odpowiedzi na pytanie 1. Czy Pani/Pana zdaniem sztuczna inteligencja


ma obecnie dostrzegalny wpływ na Pana/Pani codzienne życie? .......................................... 184
Wykres 2. Rozkład odpowiedzi na pytanie 2. W której z wymienionych dziedzin
bezpieczeństwa, Pani/Pana zdaniem, sztuczna inteligencja znajduje obecnie najszersze
zastosowanie?......................................................................................................................... 185
Wykres 3. Rozkład odpowiedzi na pytanie 3. W której z wymienionych dziedzin
bezpieczeństwa, Pani/Pana zdaniem, sztuczna inteligencja znajdzie w najbliższej przyszłości
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

najszersze zastosowanie? ....................................................................................................... 186


Wykres 4. Rozkład odpowiedzi na pytanie 4. Wystąpienie którego z poniższych zagrożeń,
wynikających z korzystania z rozwiązań opartych na technologii sztucznej inteligencji, uważa
Pani/Pan za najbardziej niebezpieczne dla społeczeństwa? ................................................... 187
Wykres 5. Rozkład odpowiedzi na pytanie 5. Które z poniższych szans, wiążących się z
wykorzystaniem rozwiązań opartych na technologii sztucznej inteligencji, uważa Pani/Pan za
najbardziej istotne dla społeczeństwa? .................................................................................. 188
Wykres 6. Rozkład odpowiedzi na pytanie 6. W którym spośród wymienionych obszarów
dostrzega Pani/Pan największe prawdopodobieństwo zaistnienia niepożądanych skutków
wykorzystania rozwiązań opartych na technologii sztucznej inteligencji? ........................... 190
Wykres 7. Rozkład odpowiedzi na pytanie 7. Czy możliwość osiągnięcia przez sztuczną
inteligencję poziomu inteligencji równego lub przewyższającego poziom inteligencji
tworzącego ją człowieka uznaje Pani/Pan za zjawisko pozytywne czy negatywne? ............ 191
Wykres 8. Rozkład odpowiedzi na pytanie 8. Czy uważa Pani/Pan, że sztuczna inteligencja
osiągnie w ciągu najbliższych 30 lat poziom inteligencji równy lub przewyższający poziom
inteligencji tworzącego ją człowieka? ................................................................................... 191
Wykres 9. Rozkład odpowiedzi na pytanie 9. Jakie instytucje lub organizacje powinny
prowadzić, Pani/Pana zdaniem, badania nad tworzeniem i rozwojem sztucznej inteligencji?
................................................................................................................................................ 192

276
Wykres 10. Rozkład odpowiedzi na pytanie 10. Czy Pani/Pana zdaniem, o celu wykorzystania
technologii opartych na sztucznej inteligencji może decydować jedynie osoba lub organizacja
sponsorująca prowadzenie badań w zamówionym przez siebie obszarze? ............................ 193
Wykres 11. Rozkład odpowiedzi na pytanie 11. Czy dostrzega Pani/Pan potrzebę
wprowadzenia odgórnych regulacji prawnych dotyczących zasad tworzenia i rozwoju
sztucznej inteligencji?............................................................................................................. 194
Wykres 12. Rozkład odpowiedzi na pytanie 12. Kto, Pani/Pana zdaniem, powinien być
odpowiedzialny za regulacje prawodawstwa związanego z technologią sztucznej inteligencji?
................................................................................................................................................ 195
Wykres 13. Rozkład odpowiedzi na pytanie 13. Proszę wskazać dokumenty określające
etyczne zasady tworzenia i korzystania ze sztucznej inteligencji, z którymi miał/-a Pan/Pani
styczność................................................................................................................................. 196
Wykres 14. Rozkład odpowiedzi na pytanie 14. Czy Pani/Pana zdaniem, urządzenia (w tym
roboty) i programy oparte na technologii sztucznej inteligencji powinny otrzymać w
przyszłości osobowość prawną? ............................................................................................. 197
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

Wykres 15. Rozkład odpowiedzi na pytanie 15. Czy Pani/Pana zdaniem, urządzenia (w tym
roboty) i programy oparte na technologii sztucznej inteligencji powinny otrzymać w
przyszłości osobowość elektroniczną? ................................................................................... 198
Wykres 16. Rozkład odpowiedzi na pytanie 16. Czy Pani/Pana zdaniem, projektanci i twórcy
sztucznej inteligencji powinni ponosić odpowiedzialność za szkody popełnione przez
maszyny/oprogramowanie/urządzenia, których działanie byłoby zgodne z wgranym
algorytmem? ........................................................................................................................... 199
Wykres 17. Rozkład odpowiedzi na pytanie 17. Czy Pani/Pana zdaniem, projektanci i twórcy
sztucznej inteligencji powinni ponosić odpowiedzialność za to, w jaki sposób inne podmioty
będą korzystać z efektów ich pracy? ...................................................................................... 200
Wykres 18. Rozkład odpowiedzi na pytanie 18. Czy zgadza się Pani/Pan z twierdzeniem, że
społeczeństwo powinno mieć możliwość wyboru, czy pozostawiać decyzję w rękach
sztucznej inteligencji i w jakim stopniu oddać jej decyzyjność w określonych obszarach? .. 201
Wykres 19. Rozkład odpowiedzi na pytanie 19. W jakim obszarze działalności Pani/Pana
organizacji wykorzystuje się rozwiązania oparte na technologii sztucznej inteligencji? ....... 202
Wykres 20. Rozkład odpowiedzi na pytanie 20. Czy Pani/Pana zdaniem, wykorzystanie
rozwiązań opartych na technologii sztucznej inteligencji do pracy wykonywanej dotychczas
przez człowieka i związana z tym dehumanizacja pracy stanowi szansę czy zagrożenie dla
społeczeństwa? ....................................................................................................................... 203

277
Wykres 21. Rozkład odpowiedzi na pytanie 21. Czy Pani/Pana zdaniem, upowszechnienie
technologii sztucznej inteligencji przyniesie wymierne korzyści w skali globalnej dla
poniższych odbiorców? .......................................................................................................... 204
Wykres 22. Rozkład odpowiedzi na pytanie 22. Jakie dostrzega Pani/Pan trudności związane
z wdrożeniem i stosowaniem rozwiązań opartych na technologii sztucznej inteligencji? .... 205
Wykres 23. Rozkład odpowiedzi na pytanie 23. Czy zdecydował/by/-aby się Pan/Pani na
skorzystanie z poniżej wymienionych osiągnięć technologicznych wiążących się z
wykorzystaniem sztucznej inteligencji?................................................................................. 206
Wykres 24. Rozkład odpowiedzi na pytanie 24. Mając na uwadze dotychczasowy i
prognozowany stan rozwoju technologii opartych na sztucznej inteligencji, proszę wskazać
prawidłowe, w Pani/Pana opinii, zakończenie zdania: "W związku z rozwojem technologii
opartych na sztucznej inteligencji…” .................................................................................... 208
Wykres 25. Rozkład odpowiedzi na pytanie 25. Jak określiłby/-aby Pan/Pani swoje
stanowisko odnośnie szans i zagrożeń wynikających z wdrażania i rozwoju technologii
opartych o sztuczną inteligencję? .......................................................................................... 209
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

Spis tabel

Tabela 1. Klasyfikacja pojazdów autonomicznych SAE J3013 AutonomyLevels ................ 111


Tabela 2. Klasyfikacja pojazdów autonomicznych NHTSA ................................................. 111

278
Załączniki
Załącznik 1. Kwestionariusz ankiety

Sztuczna inteligencja - szansa czy zagrożenie dla współczesnego bezpieczeństwa?

Szanowni Państwo, jestem doktorantką IV roku studiów doktoranckich w dyscyplinie


nauk o bezpieczeństwie na Uniwersytecie Przyrodniczo-Humanistycznym w Siedlcach.
Zwracam się do Państwa z uprzejmą prośbą o wypełnienie poniższej ankiety, której celem jest
zbadanie opinii specjalistów prowadzących badania nad sztuczną inteligencją524
oraz przedsiębiorców wykorzystujących tę dziedzinę naukową w ramach prowadzonej
działalności. Poniższa ankieta jest całkowicie anonimowa, zaś Państwa odpowiedzi zostaną
wykorzystane wyłącznie do przygotowania mojej rozprawy doktorskiej pt. „Sztuczna
inteligencja w kształtowaniu bezpieczeństwa państwa w II dekadzie XXI w.”
Dziękuję Państwu za poświęcony czas i przyczynienie się do powstania mojej pracy.
Proszę o zaznaczenie jednej wybranej odpowiedzi lub więcej, jeżeli informacja taka
zostanie wskazana przy konkretnym pytaniu.
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

mgr Anna Lasota-Kapczuk

1. Czy Pani/Pana zdaniem sztuczna inteligencja ma obecnie dostrzegalny wpływ na


Pana/Pani codzienne życie?
 Zdecydowanie tak
 Raczej tak
 Raczej nie
 Zdecydowanie nie
 Trudno powiedzieć

2. W której z wymienionych dziedzin bezpieczeństwa, Pani/Pana zdaniem, sztuczna


inteligencja znajduje obecnie najszersze zastosowanie? Proszę wskazać maksymalnie
3 odpowiedzi.
 Bezpieczeństwo militarne (obrona narodowa, broń, autonomiczne pojazdy wojskowe,
platformy bezzałogowe, roboty-żołnierze)
 Bezpieczeństwo komunikacyjne (motoryzacja autonomiczna, zarządzanie ruchem,
kierowanie pojazdami lub innymi środkami komunikacji, logistyka, spedycja)
 Bezpieczeństwo informacyjne (pozyskiwanie informacji, cybernetyka, kryptografia,
ochrona prywatności, weryfikacja tożsamości, usługi informacyjne
i telekomunikacyjne, bezpieczeństwo programów i urządzeń IT, cyberataki i ochrona
przed nimi)

524
W rozumieniu osób i przedstawicieli organizacji, którzy rozwijają, uruchamiają i wykorzystują systemy
sztucznej inteligencji.
279
 Bezpieczeństwo ekonomiczne (handel i biznes, działalność marketingowa,
dokonywanie transakcji finansowych, inwestycje, obsługa klienta, usługi
ubezpieczeniowe)
 Bezpieczeństwo kulturowe (personalizacja komunikatów, personalizacja reklam,
działalność artystyczna, tworzenie dzieł kultury – teksty literackie, filmy, muzyka)
 Bezpieczeństwo energetyczne (zarządzanie zużyciem energii, wydobycie
i wykorzystanie surowców naturalnych, wytwarzanie i zaopatrywanie w energię
elektryczną i gaz, )
 Inne – jakie?

3. W której z wymienionych dziedzin bezpieczeństwa, Pani/Pana zdaniem, sztuczna


inteligencja znajdzie w najbliższej przyszłości najszersze zastosowanie?
Proszę wskazać maksymalnie 3 odpowiedzi.
 Bezpieczeństwo militarne
 Bezpieczeństwo komunikacyjne
 Bezpieczeństwo informacyjne
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

 Bezpieczeństwo ekonomiczne
 Bezpieczeństwo kulturowe
 Bezpieczeństwo energetyczne
 Inne – jakie?

4. Wystąpienie którego z poniższych zagrożeń, wynikających z korzystania z rozwiązań


opartych na technologii sztucznej inteligencji, uważa Pani/Pan za najbardziej
niebezpieczne dla społeczeństwa?
 Identyfikowanie i śledzenie osób fizycznych za pomocą sztucznej inteligencji, co może
doprowadzić do powstania systemu sprawowania masowego nadzoru
nad społeczeństwem
 Niejawne stosowanie systemów sztucznej inteligencji, bez informowania użytkownika
o statusie rozmówcy, co może prowadzić do powstawania więzi, wywierania wpływu
na użytkownika lub poczucia obniżenia jego wartości
 Naruszenie praw obywatelskich poprzez stosowanie mechanizmów oceny punktowej,
co może doprowadzić do dyskryminacji i utraty autonomii człowieka
 Tworzenie i rozwijanie systemów śmiercionośnej broni autonomicznej, co może
doprowadzić do niekontrolowanego wyścigu zbrojeń w tym obszarze
 Dehumanizację pracy wynikającą z automatyzacji większości zawodów
 Osiągnięcie poziomu „technologicznej osobliwości”, czyli punktu, w którym sztuczna
inteligencja prześcignęłaby inteligencję ludzką, stając się nieprzewidywalną
i niekontrolowaną przez człowieka
280
 Inne – jakie?

5. Które z poniższych szans, wiążących się z wykorzystaniem rozwiązań opartych


na technologii sztucznej inteligencji, uważa Pani/Pan za najbardziej istotne
dla społeczeństwa?
 Intensyfikacja działań w dziedzinie klimatu i zapewniania zrównoważonego rozwoju
infrastruktury poprzez ograniczanie negatywnego wpływu człowieka na środowisko
oraz doprowadzenie do efektywnego wykorzystywania energii i zasobów naturalnych
(np. poprzez budowę inteligentnych sieci energetycznych i obiektów magazynowania
energii)
 Wdrożenie inteligentnych rozwiązań w sektorze transportu publicznego (analiza
natężenia ruchu i optymalizacja tras przejazdu, optymalizacja działania silników
pojazdów, obniżanie emisyjności i zmniejszanie śladu środowiskowego)
 Inteligentne i ukierunkowane leczenie chorób zagrażających życiu i obniżających jego
komfort, podniesienie precyzyjności diagnostyki (w tym jeszcze przed zachorowaniem)
i monitorowania stanu pacjentów w stanie rzeczywistym
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

 Usprawnienie systemu opieki nad osobami starszymi i niepełnosprawnymi


 Przewidywanie przyszłych potrzeb, umiejętności i kwalifikacji zawodowych,
umożliwiające dostosowanie profilu kształcenia i planów podnoszenia umiejętności
pracowniczych do realnego zapotrzebowania na rynku pracy
 Przeciwdziałanie nierównościom edukacyjnym poprzez tworzenie personalizowanych
programów edukacyjnych ułatwiających użytkownikom nabywanie nowych
kompetencji, kwalifikacji i umiejętności w sposób adekwatny do indywidualnych
zdolności uczenia się, co może doprowadzić do poprawy jakości kształcenia
 Brak konieczności prowadzenia przez człowieka pracy zarobkowej, wynikający
z robotyzacji większości zawodów
 Inne – jakie?

6. W którym spośród wymienionych obszarów dostrzega Pani/Pan największe


prawdopodobieństwo zaistnienia niepożądanych skutków wykorzystania rozwiązań
opartych na technologii sztucznej inteligencji? Proszę wskazać maksymalnie
3 odpowiedzi.
 Bezpieczeństwo użytkowników
 Prywatność użytkowników, w tym kwestie związane z gromadzeniem
i przetwarzaniem ich danych osobowych
 Odpowiedzialność prawna za szkody spowodowane przez autonomiczne urządzenia
i/lub programy

281
 Odpowiedzialność finansowa za szkody spowodowane przez autonomiczne urządzenia
i/lub programy
 Transparentność działań podejmowanych przez autonomiczne urządzenia lub programy
 Kwestie związane z ochroną własności przemysłowej i intelektualnej, prawa
autorskiego
 Ochrona pracowników, których zadania przejmowane są przez autonomiczne
urządzenia lub programy

7. Czy możliwość osiągnięcia przez sztuczną inteligencję poziomu inteligencji równego


lub przewyższającego poziom inteligencji tworzącego ją człowieka uznaje Pani/Pan
za zjawisko pozytywne czy negatywne?
 Zdecydowanie pozytywne
 Raczej pozytywne
 Raczej negatywne
 Zdecydowanie negatywne
 Trudno powiedzieć
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

8. Czy uważa Pani/Pan, że sztuczna inteligencja osiągnie w ciągu najbliższych 30 lat


poziom inteligencji równy lub przewyższający poziom inteligencji tworzącego ją
człowieka?
 Zdecydowanie tak
 Raczej tak
 Raczej nie
 Zdecydowanie nie
 Trudno powiedzieć

9. Jakie instytucje lub organizacje powinny prowadzić, Pani/Pana zdaniem, badania


nad tworzeniem i rozwojem sztucznej inteligencji?
 Państwowe instytuty badawcze
 Organizacje pozarządowe
 Przedsiębiorstwa publicznej
 Przedsiębiorstwa prywatne
 Uczelnie wyższe
 Nie powinno być ograniczeń w tym zakresie
 Trudno powiedzieć

10. Czy Pani/Pana zdaniem, o celu wykorzystania technologii opartych na sztucznej


inteligencji może decydować jedynie osoba lub organizacja sponsorująca
prowadzenie badań w zamówionym przez siebie obszarze?

282
 Zdecydowanie tak
 Raczej tak
 Raczej nie
 Zdecydowanie nie
 Trudno powiedzieć

11. Czy dostrzega Pani/Pan potrzebę wprowadzenia odgórnych regulacji prawnych


dotyczących zasad tworzenia i rozwoju sztucznej inteligencji i nadzorowania
tego procesu przez wyspecjalizowane organy nadzorcze?
 Zdecydowanie tak
 Raczej tak
 Raczej nie
 Zdecydowanie nie
 Trudno powiedzieć

12. (Jeżeli w pyt. 11. odpowiedziano „Zdecydowanie tak” lub „Raczej tak”)
Kto, Pani/Pana zdaniem, powinien być odpowiedzialny za regulacje prawodawstwa
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

związanego z technologią sztucznej inteligencji?


 Instytucje Unii Europejskiej
 Sejm i Senat
 Administracja rządowa
 Administracja samorządowa
 Organizacje przedsiębiorców
 Inne organizacje lub instytucje międzynarodowe
 Inne – jakie?

13. Proszę wskazać dokumenty określające etyczne zasady tworzenia i korzystania


ze sztucznej inteligencji, z którymi miał/-a Pan/Pani styczność (w trakcie pracy
lub poza nią). Można wskazać kilka odpowiedzi
 Zasady z Asimolar
 Wytyczne Komisji Europejskiej w zakresie etyki dotyczące godnej zaufania sztucznej
inteligencji
 Prawa Robotyki Asimova
 Rezolucja Parlamentu Europejskiego z dnia 16 lutego 2017 r. zawierająca zalecenia
dla Komisji w sprawie przepisów prawa cywilnego dotyczących robotyki
(2015/2103(INL))
 Międzynarodowe Standardy Rozwoju Sztucznej Inteligencji OECD
 Inne – jakie?

283
 Nie miałam/-em styczności z żadnym dokumentem odnoszącym się do etycznych zasad
tworzenia i korzystania ze sztucznej inteligencji

14. Czy Pani/Pana zdaniem, urządzenia (w tym roboty) i programy oparte


na technologii sztucznej inteligencji powinny otrzymać w przyszłości osobowość
prawną?
 Zdecydowanie tak
 Raczej tak
 Raczej nie
 Zdecydowanie nie
 Trudno powiedzieć

15. Czy Pani/Pana zdaniem, urządzenia (w tym roboty) i programy oparte


na technologii sztucznej inteligencji powinny otrzymać w przyszłości osobowość
elektroniczną?
 Zdecydowanie tak
 Raczej tak
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

 Raczej nie
 Zdecydowanie nie
 Trudno powiedzieć

16. Czy Pani/Pana zdaniem, projektanci i twórcy sztucznej inteligencji powinni


ponosić odpowiedzialność za szkody popełnione przez maszyny, oprogramowanie
lub urządzenia, których działanie byłoby zgodne z wgranym algorytmem?
 Zdecydowanie tak
 Raczej tak
 Raczej nie
 Zdecydowanie nie
 Trudno powiedzieć

17. Czy Pani/Pana zdaniem, projektanci i twórcy sztucznej inteligencji powinni


ponosić odpowiedzialność za to, w jaki sposób inne podmioty będą korzystać
z efektów ich pracy?
 Zdecydowanie tak
 Raczej tak
 Raczej nie
 Zdecydowanie nie
 Trudno powiedzieć

18. Czy zgadza się Pani/Pan z twierdzeniem, że społeczeństwo powinno mieć


możliwość wyboru, czy pozostawiać decyzję w rękach sztucznej inteligencji i w jakim
284
stopniu oddać jej decyzyjność w określonych obszarach (np. możliwość decyzji
o wyborze lekarza-człowieka lub maszyny, sędziego-człowieka lub maszyny, doradcy
bankowego)?
 Zdecydowanie tak
 Raczej tak
 Raczej nie
 Zdecydowanie nie
 Trudno powiedzieć

19. W jakim obszarze działalności Pani/Pana organizacji wykorzystuje się


rozwiązania oparte na technologii sztucznej inteligencji? Można wskazać kilka
odpowiedzi
 Produkcja dóbr i usług
 Zarządzanie zasobami ludzkimi
 Logistyka
 Zarządzanie sprzedażą
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

 Marketing (PR, reklama)


 Pozyskiwanie nowych pracowników
 Bezpieczeństwo
 Inne – jakie?
 Moja organizacja nie korzysta z rozwiązań opartych na technologii sztucznej
inteligencji

20. Czy Pani/Pana zdaniem, wykorzystanie rozwiązań opartych na technologii


sztucznej inteligencji do pracy wykonywanej dotychczas przez człowieka i związana
z tym dehumanizacja pracy stanowi szansę czy zagrożenie dla społecznego wymiaru
bezpieczeństwa?
 Zdecydowanie szansę
 Raczej szansę
 Raczej zagrożenie
 Zdecydowanie zagrożenie
 Trudno powiedzieć

21. Czy Pani/Pana zdaniem, upowszechnienie technologii sztucznej inteligencji


przyniesie wymierne korzyści w skali globalnej dla poniższych odbiorców?
Proszę wskazać odpowiedź Tak/Nie/Trudno powiedzieć przy każdej grupie
odbiorców
Przedsiębiorcy □ Tak □ Nie □ Trudno powiedzieć
Pracownicy □ Tak □ Nie □ Trudno powiedzieć

285
Konsumenci □ Tak □ Nie □ Trudno powiedzieć
Gospodarka krajowa □ Tak □ Nie □ Trudno powiedzieć
Administracja publiczna □ Tak □ Nie □ Trudno powiedzieć
Jakość życia społeczeństwa □ Tak □ Nie □ Trudno powiedzieć
Środowisko naturalne □ Tak □ Nie □ Trudno powiedzieć

22. Jakie dostrzega Pani/Pan trudności związane z wdrożeniem i stosowaniem


rozwiązań opartych na technologii sztucznej inteligencji? Proszę wskazać
maksymalnie 3 odpowiedzi
 Niedostateczny poziom bezpieczeństwa technologii
 Wysokie koszty sprzętu i materiałów
 Skomplikowane/niewystarczające otoczenie prawne
 Wysokie podatki
 Problemy administracyjno-biurokratyczne
 Wysokie koszty pracy
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

 Zbyt mała liczba specjalistów na rynku pracy


 Niewystarczający rynek zbytu
 Słabo rozwinięta infrastruktura informacyjna i telekomunikacyjna
 Inne – jakie?

23. Czy zdecydował/by/-aby się Pan/Pani na skorzystanie z poniżej wymienionych


osiągnięć technologicznych wiążących się z wykorzystaniem sztucznej inteligencji?
Proszę wskazać odpowiedź Tak/Nie/Trudno powiedzieć przy każdej grupie
a) Zamiana dotychczasowego środka transportu na autonomiczny samochód
□ Tak □ Nie □ Trudno powiedzieć
b) Korzystanie z usług medycznych realizowanych przez urządzenia/programy oparte
na technologii sztucznej inteligencji zamiast tradycyjnego lekarza
□ Tak □ Nie □ Trudno powiedzieć

c) Powierzenie programom działającym w oparciu o technologie sztucznej inteligencji


wykonywania nienadzorowanych operacji finansowych, ukierunkowanych
na przyniesienie zysku użytkownikowi
□ Tak □ Nie □ Trudno powiedzieć

d) Powierzenie programom działającym w oparciu o technologie sztucznej inteligencji


realizacji zadań dotyczących obsługi prawnej
□ Tak □ Nie □ Trudno powiedzieć

286
24. Mając na uwadze dotychczasowy i prognozowany stan rozwoju technologii
opartych na sztucznej inteligencji, w każdej parze poniższych twierdzeń proszę
wskazać prawidłowe, w Pani/Pana opinii, zakończenie zdania.
W związku z rozwojem technologii opartych na sztucznej inteligencji…
a) □ … oferowane klientom produkty i usługi będą w przyszłości bardziej
spersonalizowane.
□ … oferowane klientom produkty i usługi będą w przyszłości za bardzo
spersonalizowane.
b) □ … średni koszt pozyskania usług lub produktów specjalistycznych spadnie.
□ … średni koszt pozyskania usług lub produktów specjalistycznych wzrośnie.
c) □ … poziom bezpieczeństwa programów i urządzeń IT zwiększy się.
□ … poziom bezpieczeństwa programów i urządzeń IT zmniejszy się.
d) □ … całkowite koszty pracy przedsiębiorstw (zakup technologii, zakup i konserwacja
sprzętu, szkolenie i utrzymanie personelu) zmniejszą się.
□ … całkowite koszty pracy przedsiębiorstw (zakup technologii, zakup i konserwacja
sprzętu, szkolenie i utrzymanie personelu) zwiększą się.
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

e) □ … poziom bezrobocia spadnie.


□ … poziom bezpieczeństwa wzrośnie.
f) □ … poziom kontroli człowieka nad urządzeniami i oprogramowaniem IT wzrośnie.
□ … poziom kontroli człowieka nad urządzeniami i oprogramowaniem IT spadnie.
g) □ … łatwiej będzie znaleźć pracowników do pracy w branżach wykorzystujących
narzędzia oparte na technologii sztucznej inteligencji.
□ … trudniej będzie znaleźć pracowników do pracy w branżach wykorzystujących
narzędzia oparte na technologii sztucznej inteligencji.
25. Jak określiłby/-aby Pan/Pani swoje stanowisko odnośnie do szans i zagrożeń
wynikających z wdrażania i rozwoju technologii opartych o sztuczną inteligencję?
 Szanse wynikające z coraz szerszego wykorzystywania technologii opartych o sztuczną
inteligencję przewyższają potencjalne zagrożenia w tym obszarze
 Zagrożenia wynikające z coraz szerszego wykorzystywania technologii opartych
o sztuczną inteligencję przewyższają potencjalne szanse w tym obszarze
 Trudno powiedzieć

26. Czy dostrzega Pani/Pan szanse związane z zastosowaniem sztucznej


inteligencji, inne niż o których była mowa w niniejszej ankiecie?
…………………………………………………………………………………………
…………………………………………………………………………………………
27. Czy dostrzega Pani/Pan zagrożenia związane z zastosowaniem sztucznej
inteligencji, inne niż o których była mowa w niniejszej ankiecie?
……………………………………………………………………………………………
……………………………………………………………………………………………
287
28. W jaki sposób, w Pani/Pana opinii, można zapewnić bezpieczne i etyczne
wykorzystanie rozwiązań opartych na technologii sztucznej inteligencji?
……………………………………………………………………………………………
……………………………………………………………………………………………

OGÓLNE INFORMACJE O OSOBACH WYPEŁNIAJĄCYCH ANKIETĘ


A. Wiek
 18-25 lat
 26-35 lat
 36-50 lat
 51-65 lat
 Powyżej 65 lat
B. Status zawodowy
 Przedsiębiorca
 Pracownik przedsiębiorstwa
 Student
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16

 Doktorant
 Wykładowca
 Specjalista – członek zespołu badawczego

C. Ze sztuczną inteligencją
 Nie pracuję
 Pracuję poniżej 1 roku
 Pracuję 1 rok – 5 lat
 Pracuję 5 lat – 10 lat
 Pracuję dłużej niż 10 lat

D. Wykształcenie
 Podstawowe
 Zasadnicze zawodowe
 Średnie
 Wyższe

288

You might also like