Professional Documents
Culture Documents
N
N
Humanistyczny w Siedlcach
Siedlce University of Natural
Sciences and Humanities
https://bazawiedzy.uph.edu.pl
_________________________________________________________________________
SIEDLCE 2021
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
2
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
3
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
4
Spis treści
Wstęp .............................................................................................................................. 9
Bibliografia................................................................................................................. 259
6
Streszczenie w języku polskim
Sztuczna inteligencja stanowi element globalnej rewolucji informacyjnej, nazywanej
czwartą rewolucją przemysłową. Rozwój technologii sieciowych i powszechne stosowanie
inteligentnych rozwiązań w zróżnicowanych obszarach życia doprowadziły do sytuacji,
w której współczesny świat fizyczny zaczął się przenikać ze światem cyfrowym.
Przedmiotem dysertacji jest określenie w jaki sposób sztuczna inteligencja kształtuje
bezpieczeństwo państwa w XXI wieku. Celem rozprawy jest ustalenie zakresu oddziaływania
sztucznej inteligencji na bezpieczeństwo państwa w pierwszych dwóch dekadach XXI w.
oraz wyjaśnienie charakteru tego oddziaływania.
Ustalenia badawcze zostały przedstawione w pięciu rozdziałach. Pierwszy zawiera
przegląd i krytyczną analizę funkcjonujących w literaturze przedmiotu definicji
bezpieczeństwa oraz jego typologii. Ukazuje również istotę i podstawowe klasyfikacje
zagrożeń dla bezpieczeństwa. W drugim rozdziale przedstawiono genezę i historię badań
nad sztuczną inteligencją, dokonano przeglądu i analizy jej definicji, a także ukazano
prawdopodobne kierunki jej rozwoju. W rozdziale trzecim poddano analizie sztuczną
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
7
Streszczenie w języku angielskim
Artificial intelligence is a part of the global information revolution, known as the
fourth industrial revolution. The development of the network technologies and the widespread
use of intelligent solutions in various areas of life, have led to a situation, when the modern
physical world began to intertwine with the digital world.
The subject of the dissertation is finding an answer to the question of how artificial
intelligence influences the national security in the 21st century. The aim of the dissertation is
to determine the scope of the influence of artificial intelligence on the national security in the
first two decades of the 21st century and to characterize this influence.
Solutions of the set study problems are presented in the arguments included in the five
problem chapters. The first chapter contains a review and critical analysis of the definitions of
security and its typology, which is functioning in the literature. It also shows the essence and
basic classification of security threats. The second chapter deals with the issue of artificial
intelligence. It contains the genesis and history of research on this branch of science, reviews
and analyzes its definitions, and also shows the probable directions of its development.
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
Chapter three discusses artificial intelligence as a factor that can have a positive influence on
the security level of modern countries - the overview covers the possibilities of practical
application of intelligent solutions in its various dimensions. Chapter four presents the
characteristics and assessment of the possibility of a destructive influence of artificial
intelligence on security - it analyzes the negative aspects of the use and impact of artificial
intelligence in main areas of national security. The last chapter deals with the problem of the
new challenges and threats for security - especially in the ethical and legal areas - in the
context of the forecasted further development of artificial intelligence. It also presents the
results of an empirical study on the opinions and forecasts of experts on the use of artificial
intelligence in many areas of security. The conclusion is a summary of the research, in the
form a synthesis of the conclusions arising from individual chapters and indicates the
directions of further research.
8
Wstęp
w definicyjnym ujęciu samej inteligencji, dla której pomimo licznych prób do tej pory
nie wypracowano jednoznacznych i precyzyjnych ram pojęciowych. W najbardziej
popularnym rozumieniu inteligencja jest traktowana jako umiejętność dostrzegania relacji
i pewnych zależności występujących w otoczeniu człowieka, umiejętność uczenia się,
ale również zdolność do przetwarzania informacji na poziomie koncepcji zawierających
elementy abstrakcyjne. Obejmuje ona nie tylko mechaniczną analizę informacji, ale również
twórcze jej wykorzystanie. Zakres pojęciowy inteligencji dotyczy również obszaru
emocjonalnej sfery funkcjonowania człowieka – w tym kontekście inteligencja to także
zdolność do współdziałania z możliwościami tkwiącymi w sferze emocjonalnej,
interpersonalnej i motywacyjnej ludzkiej psychiki.
Jeżeli chodzi o sztuczną inteligencję, to w ujęciu ogólnym jest to dział informatyki
zajmujący się konstruowaniem maszyn i algorytmów, których działanie charakteryzują
cechy właściwe dla inteligencji, czyli zdolność do: samorzutnego przystosowywania się
do dynamicznych warunków otoczenia, uczenia się, abstrakcyjnego rozumowania
oraz podejmowania skomplikowanych decyzji. Przedmiotem sztucznej inteligencji
jest badanie i określanie reguł sterujących inteligentnymi zachowaniami jednostek ludzkich,
a następnie wykorzystywanie ich w programach komputerowych i algorytmach, które potrafią
te zasady wykorzystywać. Przykłady zastosowania takich rozwiązań są powszechnie znane
we współczesnym świecie – należą do nich w szczególności programy antywirusowe,
aplikacje do rozpoznawania tekstów (np. popularny w oprogramowaniu urządzeń skanująco-
drukujących system optycznego rozpoznawania znaków i tekstów), obrazów i dźwięków
10
(ale też umożliwiające generowanie ich przez komputer), programy translatorskie (np. Google
Translator), jak również gry i programy symulacyjne (zwłaszcza gry wykorzystujące
tzw. wirtualną rzeczywistość). W szerszym ujęciu, sztuczna inteligencja rozumiana
jest jako dziedzina wiedzy obejmująca sieci neuronowe, robotykę, a także tworzenie modeli
inteligentnych zachowań i programów komputerowych, które mogą symulować
te zachowania, w tym uczenie maszynowe i uczenie ze wzmocnieniem. Modelowanie wiedzy,
danych oraz rozwijanie systemów algorytmów i mocy obliczeniowych przy obecnym
poziomie zaawansowania technologicznego pozwala uzyskiwać względnie zautomatyzowane
systemy pozyskiwania, przetwarzania i analizy danych. Te z kolei dają możliwość
autonomicznego samoulepszania systemu lub przewidywania przyszłych zachowań i działań
na bazie wyników analizy zebranych danych i zachodzących między nimi korelacji. Dzięki
wyposażeniu w sensory i siłowniki, system wchodzi w interakcje z otoczeniem
i ma możliwość oddziaływania na nie. Relacje systemu ze środowiskiem zewnętrznym mogą
zachodzić mechanicznie lub z udziałem człowieka. Cykl życia sztucznej inteligencji można
podzielić na fazy: utworzenia, rozwoju, wdrożenia i stosowania, zaprzestania pracy
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
oraz utylizacji.
Podnosząc kwestię braku uniwersalnego i w miarę powszechnego stosowania
jednolitej formy definiowania sztucznej inteligencji trzeba zauważyć, że w Polsce na bazie
przyjętej w 2020 r. „Polityki dla rozwoju sztucznej inteligencji w Polsce od 2020 roku”
zaczęto używać definicji traktującej ją jako system oparty na koncepcji maszyny, która może
wpływać na środowisko, formułując zalecenia, przewidywania lub decyzje dotyczące
zadanego zestawu celów. Mówiąc o sztucznej inteligencji, należy zwrócić uwagę
na funkcjonowanie dwóch do niej podejść. Pierwszym z nich jest wyróżnianie słabej
sztucznej inteligencji. Zgodnie z poglądami zwolenników takiego stanowiska, maksymalnym
poziomem wykorzystania sztucznej inteligencji jest odtworzenie procesów zachodzących
w mózgu człowieka, zdolność do tworzenia skomplikowanych modeli matematycznych
wskazanych zagadnień i przekształcanie ich na programy komputerowe, przeznaczone
do realizacji konkretnych celów. Poziom ten obejmuje systemy działające i rozwiązujące
problemy w warunkach pełnej złożoności rzeczywistego świata w taki sposób, jakby
posiadały one umysł i myślały. Innymi słowy, słaba sztuczna inteligencja może być
wykorzystywana tylko do określonych zadań lub konkretnych typów problemów,
koncentrując się na jednym wąskim zadaniu, które może wykonać lepiej od człowieka.
Drugie podejście badaczy i twórców to opcja silnej sztucznej inteligencji. Istotą silnej
sztucznej inteligencji jest postrzeganie odpowiednio zaprogramowanego komputera
jako posiadającego elementy ludzkiej inteligencji i w pewien sposób równoważnego
mózgowi. Na tej podstawie za możliwe uznaje się tworzenie programów i struktur
11
samouczących się – modeli sieci neuronowych – oraz opracowywanie procedur
rozwiązywania problemów koncepcyjnych, a nawet abstrakcyjnych, poprzez uczenie maszyn
i uzyskiwania od nich odpowiedzi na stawiane im pytania i problemy. Jest to poziom systemu
rzeczywiście inteligentnego, posiadającego rozwijający się umysł i zdolnego do myślenia
w sposób identyczny (lub bardziej rozwinięty) niż ludzki.
Obecnie głównym celem badaczy prowadzących prace nad sztuczną inteligencją
jest konstruowanie maszyn oraz programów komputerowych, które posiadają zdolność
do realizacji określonych funkcji ludzkiego umysłu oraz zmysłów i nie poddają się
algorytmizacji, czyli sprowadzeniu do zamkniętego ciągu określonych czynności, które
są niezbędne do wykonania jednego zadania.
W tak przedstawionym kontekście nie można nie dostrzec ścisłych związków
wspomnianej sztucznej inteligencji z kwestią bezpieczeństwa. Wynika to z faktu,
że dokonująca się właśnie czwarta rewolucja przemysłowa, podobnie jak i te poprzednie,
wywarła silny wpływ i nadal oddziałuje na różnorodne aspekty bezpieczeństwa w układzie
międzynarodowym (globalnym), państwowym i jednostkowym. Mimo, że zarówno w ujęciu
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
12
wywarł fakt, że są one współcześnie najbardziej nasycone rozwiązaniami z zakresu sztucznej
inteligencji.
Główny problemem badawczy rozprawy zawarty został w pytaniu: W jaki sposób
sztuczna inteligencja, rozumiana zarówno jako jedna z dziedzin współczesnej nauki,
jak również jako jej wytwory, kształtuje bezpieczeństwo państwa w XXI wieku? Dążąc
do rozwiązania tak sformułowanego ogólnego problemu badawczego za konieczne uznano
określenie dodatkowych problemów o charakterze szczegółowym ujętych w pytaniach:
czym współcześnie jest bezpieczeństwo i jakie są jego zasadnicze zagrożenia?
czym jest sztuczna inteligencja i na czym polega jej istota?
w jakich sferach bezpieczeństwa sztuczna inteligencja znajduje współcześnie najszersze
zastosowanie?
jakie korzyści dla bezpieczeństwa wynikają i mogą wynikać ze stosowania sztucznej
inteligencji w poszczególnych jego sferach?
jakie zagrożenia dla poszczególnych sektorów bezpieczeństwa generuje i może
generować zastosowanie sztucznej inteligencji?
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
13
sztuczna inteligencja znajduje zastosowanie w licznych dziedzinach współczesnego
bezpieczeństwa.
wykorzystanie sztucznej inteligencji w poszczególnych sektorach bezpieczeństwa może
generować liczne dylematy o naturze etycznej.
Przyjęty zakres tematyczny i czasowy oraz założenia metodologiczne nadały pracy
charakter teoretyczno-empiryczny oparty o paradygmat systemowy. Jego wybór, jak już
sygnalizowano, wiązał się z tym, że działania na rzecz bezpieczeństwa danego podmiotu,
czy ocenę jego stanu można skutecznie prowadzić uwzględniając poznanie potrzeb
bezpieczeństwa podmiotu, jego uwarunkowań oraz możliwościami realizacji. Konieczne było
zatem zastosowanie w badaniach metod analizy i syntezy. Metody te były używane
w odniesieniu do informacji i danych pozyskiwanych z literatury przedmiotu oraz innych
dostępnych źródeł. Wskazane metody wykorzystano do poznania genezy badań nad sztuczną
inteligencją, ustalenia jej istoty oraz określenia wpływu jej zastosowania na zwiększenie
poziomu bezpieczeństwa państwa w poszczególnych jego sferach. Umożliwiły one również
określenie istoty bezpieczeństwa oraz czynników mających istotny wpływ na jego
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
15
jak w rozdziale trzecim sferach bezpieczeństwa państwa (tj. militarnej, komunikacyjnej,
transportowej, informacyjnej. ekonomicznej, zdrowotnej i kulturowej). W przeprowadzonych
dociekaniach skoncentrowano się na wskazaniu i charakterystyce wyzwań i zagrożeń
wynikających z upowszechniania nowoczesnych, ale nie do końca transparentnych, rozwiązań
technologicznych w wymienionych wyżej sferach bezpieczeństwa.
Treści ostatniego piątego rozdziału odnoszą się do głównych obszarów wyzwań
i zagrożeń dla bezpieczeństwa w świetle perspektywicznego rozwoju sztucznej inteligencji.
W pierwszym fragmencie tej części rozprawy zaprezentowano założenia metodologiczne
oraz wyniki badania empirycznego dotyczącego opinii i prognoz ekspertów w zakresie
stosowania sztucznej inteligencji w poszczególnych obszarach bezpieczeństwa. Następnie
dokonano analizy problemu standardów etycznych i prawnych związanych
z funkcjonowaniem sztucznej inteligencji. W końcowej części rozdziału przedstawiono
prognozy i perspektywy dalszego rozwoju sztucznej inteligencji, zwracając uwagę na fakt,
że odpowiedzialność za ten rozwój spoczywa na człowieku.
Jeżeli chodzi o bazę źródłową dotyczącą podjętej w ramach dysertacji tematyki
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
16
autonomicznych w transporcie drogowym w Polsce”) oraz Moniki Torczyńskiej („Sztuczna
inteligencja i jej społeczno-kulturowe implikacje w codziennym życiu”).
Generalnie bazę źródłową rozprawy stanowi krajowa i anglojęzyczna literatura
przedmiotu w postaci wydawnictw zwartych i artykułów naukowych, uzupełniona
o informacje i analizy dostępne na autoryzowanych przez instytucje państwowe – krajowe
i zagraniczne, ośrodki badawcze i wyspecjalizowane organizacje gospodarcze stronach
internetowych. Tematyka rozprawy, podejmująca zagadnienia z zakresu dynamicznie
rozwijającej się dziedziny, wiązała się bowiem z koniecznością analizy licznych opracowań
elektronicznych, z uwagi na fakt koncentracji różnorodnych narzędzi sztucznej inteligencji
w przestrzeni cybernetycznej, w której rozwiązania te dominują.
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
17
1. Istota i pojmowanie bezpieczeństwa
1.1. Ogólne rozumienie bezpieczeństwa
1
Zob. A. Czupryński, Bezpieczeństwo w ujęciu teoretycznym, [w:] A. Czupryński, B. Wiśniewski, J. Zboina
(red.), Bezpieczeństwo. Teoria-Badania-Praktyka, Józefów 2015, s. 18.
2
Zob. Cz. Znamierowski, Szkoła prawa. Rozważania o państwie, Warszawa 1999, s. 80.
18
potrzeby zdrowotne i seksualne), ale identycznie jak potrzeby fizjologiczne, są one w stanie
zmusić jednostkę do potraktowania poszukiwania bezpieczeństwa jako potrzeby
priorytetowej3. Z jej realizacją związane jest eliminowanie ryzyka wystąpienia realnych
i potencjalnych zagrożeń, a jeżeli nastąpią one pomimo działań zabezpieczających –
minimalizacja ich skutków.
Postęp cywilizacyjny i dynamiczne przemiany zachodzące we współczesnym świecie
sprawiają, że zarówno bezpieczeństwo, jak i jego zagrożenia podlegają stałym
przeobrażeniom. Troska o zapewnienie bezpieczeństwa oraz poczucie i świadomość
zagrożenia, budowane dzięki powszechnemu dostępowi do informacji motywują
do poszukiwania uniwersalnych rozwiązań gwarantujących wyeliminowanie lub, co bardziej
prawdopodobne, ograniczenie negatywnych zjawisk. Pomimo długotrwałych badań nad
bezpieczeństwem, zarówno w obrębie poszczególnych dziedzin i dyscyplin naukowych,
jak i w ujęciu interdyscyplinarnym, nie wypracowano dotąd jednolitego systemu pojęciowego
w tym zakresie. Wyniki realizowanych badań skutkowały zmianami zakresu pojęciowego,
klasyfikacji czy kategorii bezpieczeństwa. Istotne znaczenie dla badań nad katalogiem pojęć
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
od tego, jak podmiot na nie zareaguje, mogą przynieść mu wymierne korzyści. Kwestia
odróżniania zagrożeń od wyzwań ma istotną wartość poznawczą, ale może być zadaniem
trudnym przede wszystkim z uwagi na fakt, że zakwalifikowanie określonego zjawiska
do jednej z tych kategorii zależy od subiektywnej oceny wartości, która podlega ochronie
oraz stopnia wrażliwości podmiotu. Pozytywne podejście do bezpieczeństwa opisuje
przedmiot jego zainteresowania, sferę jego oddziaływania a także wskazuje kierunek jego
dalszego progresu. Koncentruje się na analizie kreatywnej aktywności podmiotu w obszarze
zapewniania przetrwania, utrzymania i zwiększania stanu posiadania oraz wykorzystywania
możliwości i swobód rozwojowych, czyli szans. Szanse te odnoszą się do możliwości
długotrwałego rozwoju, stymulowanego przez dążenie do podnoszenia standardu życia
podmiotu lub umacniania ładu społecznego10. Brak zagrożenia nie może zatem być powodem
rezygnacji z dbałości o bezpieczeństwo, powinien raczej stanowić bodziec do zwiększenia
wysiłków na rzecz zwiększania jego poziomu w innych obszarach istotnych zarówno
dla przetrwania, jak i dla rozwoju podmiotu.
Bezpieczeństwo oznacza nie tylko stan zagrożenia, pewności i poczucia wolności
od zagrożeń, ale również proces ulegający zmianom stanowiącym odzwierciedlenie przemian
zachodzących w jego otoczeniu. Jednocześnie stan bezpieczeństwa stanowi efekt ewolucji
jego procesów, czyli cyklów konkretnych zdarzeń i ich efekt w określonym przedziale czasu.
8
Zob. E. Sadowska, Zagrożenia asymetryczne – definicja, świadomość społeczna i rola we współczesnym
świecie, „Rocznik Bezpieczeństwa Międzynarodowego”, 2017, nr 2, s. 19-20.
9
Zob. A. Kołodziejczyk, op. cit., s. 235.
10
Zob. Ibidem, s. 236.
20
Ewolucja tych procesów polega na rozwoju części zdarzeń i zanikaniu innych, podczas gdy
pozostałe zdarzenia pozostają na niezmiennym poziomie. Postrzeganie bezpieczeństwa
w kategorii procesów jest zasadne z uwagi na fakt, że właśnie w procesach aktywują się
potrzeby jednostki11. Z kolei stan bezpieczeństwa dotyczy sytuacji, w której znajduje się
podmiot i oznacza zazwyczaj określony wymiar bezpieczeństwa, poziom jego trwałości
i zasięg terytorialny. Stan ten określa się poprzez ustanowione i zaakceptowane przez
jednostkę i społeczeństwo standardy, adekwatne do stopnia rozwoju cywilizacyjnego
oraz do obiektywnych uwarunkowań otoczenia bezpieczeństwa.
W rozumieniu potocznym bezpieczeństwo obejmuje najczęściej takie elementy
jak poczucie wolności od zagrożeń, zapewnienie spokoju, dobrobyt społeczny, brak strachu
przed utratą życia, zdrowia lub mienia, harmonijne współistnienie człowieka i jego otoczenia
(zwłaszcza środowiska naturalnego). Leksykalne definicje bezpieczeństwa identyfikują
je jako pewność – gwarancję niewystąpienia lub eliminację zagrożeń, zabezpieczenie przed
czymś, wskazując jednocześnie na brak zagrożenia i ochronę przed jego wystąpieniem.
Przykładem takiego rozumienia jest definicja zawarta w Słowniku etymologicznym języka
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
polskiego, gdzie bezpieczeństwo określa się jako „stan niezagrożenia, spokoju, pewności”12,
jak również w Słowniku terminów z zakresu bezpieczeństwa narodowego, w którym
jest to „gwarancja rozwoju społeczeństwa i jego przetrwania; nietrwały stan, który wymaga
ciągłej troski, ale daje poczucie pewności, gwarantuje jego zachowanie oraz daje szansę
na przyszły rozwój”13. Podobne znaczeniowo definicje można odnaleźć w Słowniku nauk
społecznych („bezpieczeństwo jest identyczne z pewnością i oznacza brak zagrożenia albo
ochronę przed nim”14) oraz w The Oxford Dictionary („bezpieczeństwo
15
to stan lub uczucie, że jest się bezpiecznym” ). Znaczenie pewności dla bezpieczeństwa
podkreślają również Ryszard Zięba, definiujący bezpieczeństwo jako „stan i poczucie
pewności oraz wolności od zagrożeń”16 oraz Jerzy Stańczyk, zdaniem którego
„bezpieczeństwo jest identyczne z pewnością i oznacza brak zagrożenia fizycznego
albo ochronę przed nim”17. Z kolei Stanisław Koziej, jako przedstawiciel podejścia
pragmatycznego wskazuje, że bezpieczeństwo jest zachodzącym w konkretnej sferze
procesem dotyczącym podmiotu, którego cel stanowi „zapewnienie możliwości przetrwania,
rozwoju i swobody realizacji własnych interesów w konkretnych warunkach, poprzez
11
Zob. Ibidem.
12
W. Boryś, Słownik etymologiczny języka polskiego, Kraków 2010, s. 24.
13
J. Kaczmarek, W. Łepkowski, B. Zdrodowski (red. nauk.), Słownik terminów z zakresu bezpieczeństwa
narodowego, Warszawa 2008, s. 13.
14
J. Gould, W.L. Kolb (red.), A dictionary of the Social Sciences, Londyn 1964, s. 629.
15
The Oxford Reference Dictionary, Oxford 1991, s. 749.
16
R. Zięba, Pojęcia i istota bezpieczeństwa państwa w stosunkach międzynarodowych, „Sprawy
Międzynarodowe”, 1989, nr 10, s. 5.
17
J. Stańczyk, op. cit., s. 15.
21
wykorzystywanie okoliczności sprzyjających (szans), podejmowanie wyzwań, redukowanie
ryzyka i przeciwdziałanie (zapobieganie i przeciwstawianie się) wszelkiego rodzaju
zagrożeniom dla podmiotu i jego interesów”18.
W bezpieczeństwo rozpatrywane w ujęciu procesualnym zaangażowane jest wiele
podmiotów, co oznacza, że jest on procesem społecznym, a podmioty działające w jego
ramach starają się ulepszać mechanizmy, które zapewniają lub zwiększają ich poczucie
bezpieczeństwa. Cechą charakterystyczną tego procesu jest jego zróżnicowana dynamika
i zmienny stopień intensywności, będący efektem ciągłej zmienności warunków otoczenia,
rozwoju cywilizacyjnego oraz przenikania sfer i zakresu potrzeb pojedynczych podmiotów 19.
Podejście procesualne znajduje odzwierciedlenie w postrzeganiu bezpieczeństwa z punktu
widzenia polityki międzynarodowej, gdzie jest jednym z kluczowych celów egzystencjalnych
państw, narodów i ich grup, wynikającym z konieczności zaspokojenia ich podstawowych
potrzeb, tj. istnienia, przetrwania i rozwoju20.
W kontekście rozważań nad współczesnym rozumieniem bezpieczeństwa warto
odnieść się również do kompleksowych definicji, w których termin ten rozpatrywany
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
jest przez pryzmat różnych ujęć i odnosi się do zróżnicowanych wymiarów. W sposób
całościowy do bezpieczeństwa odnosi się Marian Cieślarczyk wskazując, że jest
to „stan danego podmiotu (podmiotów) w jego relacji z otoczeniem oraz zachodzące w tych
relacjach procesy, stanowiące efekt działań (lub współdziałań) w sferze materialnej, duchowej
i organizacyjnej. Stworzone dzięki temu warunki i sytuacje pozwalają z dużym
prawdopodobieństwem orzekać o możliwościach zharmonizowania w różnych wymiarach
(podmiotowym, przestrzennym, czasowym) bytowania i „mądrego” rozwoju poszczególnych
podmiotów (obywateli, grup społecznych, państw i systemów międzynarodowych),
rozpatrywanego w podstawowych relacjach: człowiek-przyroda; człowiek (grupa, państwo) –
człowiek (grupa, państwo); człowiek-przyroda-człowiek; człowiek w stosunku do siebie.
Poszczególne podmioty charakteryzują się jednocześnie określonym poziomem świadomości
(poczucia) swojej wartości i własnych słabości wobec istniejących wyzwań oraz związanych
z tym szans lub zagrożeń (aktualnych i potencjalnych), wynikających ze znajomości bliższego
i dalszego otoczenia. Powyższa sytuacja nie paraliżuje jednak poszczególnych podmiotów,
nie usztywnia ich działania i myślenia, a raczej stanowi jeden z czynników stymulowania
ich aktywności, mądrego zaufania, otwartości i rozwoju”21. W tej obszernej definicji autor
odniósł się zarówno do statycznego, jak i procesualnego ujęcia bezpieczeństwa, podkreślił
18
S. Koziej, Wstęp do teorii i historii bezpieczeństwa – skrypt internetowy¸ Warszawa 2010, [on-line], koziej.pl,
http://www.koziej.pl/wp-content/uploads/2015/05/Teoria_i_historia_ bezpieczenstwa.doc, s.2 (21.03.2019).
19
Zob. B. Kaczmarczyk, Bezpieczeństwo i jego typologie, „Nauki Humanistyczne i Społeczne Na Rzecz
Bezpieczeństwa”, 2013, vol. 31, s. 20.
20
Zob. G. Michałowska (red.), Mały słownik stosunków międzynarodowych, Warszawa 1997, s. 2.
21
M. Cieślarczyk, Psychospołeczne i organizacyjne elementy bezpieczeństwa i obronności, Warszawa 1997, s.
85.
22
równorzędne znaczenie przetrwania i rozwoju podmiotu oraz konieczność reakcji
dynamiczność zmian zachodzących w jego otoczeniu. Nawiązał również do typologii
bezpieczeństwa zaproponowanej przez R. Ziębę, wyróżniającej jego wymiar podmiotowy,
przedmiotowy, czasowy, przestrzenny i organizacyjny22. Istotą definicji autorstwa
M. Cieślarczyka jest postrzeganie bezpieczeństwa jako funkcji istnienia i rozwoju zarówno
obiektywnych, jak i subiektywnych elementów rzeczywistości, gdzie elementami
obiektywnymi są uwarunkowania wynikające z otoczenia, a subiektywnymi – wyznawane
przez podmiot wartości oraz poczucie jego bezpieczeństwa. Współczesnymi składnikami
bezpieczeństwa są, obok aspektów kluczowych – polityki i wojskowości – czynniki
ekonomiczne, technologiczne, zasoby energetyczne oraz polityka ekologiczna,
demograficzna, społeczna i humanitarna23. Obecne koncepcje bezpieczeństwa uwzględniają
problematykę zachowania narodowej tożsamości i odgrywania znaczącej roli w rozwoju
cywilizacyjnym współczesnego świata. Na znaczeniu zyskało również postrzeganie
bezpieczeństwa przez pryzmat człowieka, przede wszystkim kwestie poszanowania
elementarnych praw i swobód obywatelskich.
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
22
Klasyfikacja ta, z uwagi na nieprzemijające znaczenie dla rozwoju nauk o bezpieczeństwie, zostanie szerzej
omówiona w kolejnym podrozdziale.
23
Zob. Z. Ciekanowski, J. Nowicka, H. Wyrębek, Bezpieczeństwo państwa w obliczu współczesnych zagrożeń,
Siedlce 2016, s. 16.
23
Z uwagi na znaczenie bezpieczeństwa w życiu człowieka, zarówno jednostki,
jak i zorganizowanych grup społecznych, zagadnienie to poddawane jest ciągłym,
systematycznym badaniom. Z uwagi na interdyscyplinarność bezpieczeństwa, badania
nad nim prowadzone są w zakresie bardzo wielu dziedzin naukowych. Przegląd literatury
z zakresu nauk o bezpieczeństwie, politologii oraz stosunków międzynarodowych, powstałej
w okresie przełomu XX i XXI w. (w latach 1990-2019) pozwala zauważyć, że termin
bezpieczeństwo ciągle ewoluuje, a istotny wpływ na tę ewolucję mają przede wszystkim
globalne przemiany środowiska międzynarodowego, które dały podstawę do postrzegania
bezpieczeństwa w różnych płaszczyznach, przede wszystkim w ujęciu podmiotowym,
przedmiotowym oraz funkcjonalnym. Bezpieczeństwo jest celem, do którego dążą
jego podmioty, ale jego poczucie jest też następstwem określonych działań, podejmowanych
w celu unikania lub zwalczania zagrożenia. Współcześnie bezpieczeństwo jest postrzegane
jako synergiczny efekt procesów i działań ukierunkowanych na zapewnianie przetrwania
jego podmiotów, umożliwiających ich niezakłócony rozwój w zróżnicowanych obszarach
aktywności, gwarantujących adekwatny poziom ochrony przed zagrożeniami, a w przypadku
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
24
tego przedsięwzięcia jest dążenie do znalezienia cech wspólnych dla tego pojęcia
oraz zniwelowania pojawiających się różnic24.
Podstawę klasyfikacji stanowią zazwyczaj najbardziej istotne cechy charakteryzujące
konkretny obiekt lub proces. O ile samo bezpieczeństwo, jako pojęcie abstrakcyjne
i teoretyczne, jest niepodzielne – istnieje lub nie, nie może istnieć częściowo – o tyle
z przyczyn naukowych, politycznych i społecznych różne jego płaszczyzny wymagają
precyzowania, rozumianego najczęściej jako zawężanie obszaru pojęciowego. Stąd też
pojawiła się potrzeba klasyfikowania bezpieczeństwa.
Bezpieczeństwo powinno być rozpatrywane w możliwie szerokiej perspektywie,
z uwzględnieniem różnic wynikających z prac podejmowanych w ramach odmiennych,
zróżnicowanych dyscyplin naukowych. W kontekście kluczowej roli bezpieczeństwa, jaką
jest zapewnienie przetrwania i rozwoju określonego podmiotu i jego otoczenia, Bernard
Wiśniewski wskazuje, że zagadnienia przydatne do opisywania i wyjaśniania faktów,
procesów i zjawisk zachodzących w bezpieczeństwie obejmują przede wszystkim:
podmiot (z którego punktu widzenia analizuje się bezpieczeństwo),
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
24
Zob. B. Kaczmarczyk, op. cit., s. 17.
25
Zob. B. Wiśniewski, Współczesne rozumienie bezpieczeństwa, [w:] B. Wiśniewski (red.), Bezpieczeństwo
w teorii i badaniach naukowych, Szczytno, 2011, s. 16.
26
Zob. J. Kukułka, Narodziny nowych koncepcji bezpieczeństwa, [w:] J. Kukułka (red.), Bezpieczeństwo
międzynarodowe w Europie Środkowej po zimnej wojnie, Warszawa 1994, s. 40-41.
27
Zob. K. Malak, Typologia bezpieczeństwa. Nowe wyzwania, [on-line], stosunkimiedzynarodowe.pl, 2010,
http://www.stosunki-miedzynarodowe.pl/referaty/typologia-bezpieczenstwa-nowe-wyzwania.html (15.03.2019).
25
kategorie bezpieczeństwa są jego: podmiot, przedmiot, wymiar przestrzenny, czas
oraz sposób zorganizowania28.
Bezpieczeństwo danego podmiotu oznacza dziedzinę jego aktywności, której treść
stanowi zapewnianie możliwości egzystencji (bytu, przetrwania) oraz niezakłóconej,
swobodnej realizacji swoich interesów w środowisku pełnym zagrożeń. Odbywa się
ono poprzez wykorzystywanie pojawiających się szans, podejmowanie wyzwań,
minimalizowanie ryzyk oraz zapobieganie zagrożeniom, a w przypadku ich wystąpienia
– jak najszybsze redukowanie ich negatywnych konsekwencji29. Postępująca sekurytyzacja
sprawia, że bezpieczeństwo zdobywa nowe obszary życia społecznego. Znaczenie tych sfer
zwiększa się wraz z rozwojem cywilizacyjnym. Kierując się kryterium podmiotowym,
tj. biorąc pod uwagę podmiot, którego interesom zapewniana jest ochrona przed
zagrożeniami, wyróżnić można bezpieczeństwo narodowe oraz międzynarodowe.
Bezpieczeństwo narodowe utożsamiane jest często z bezpieczeństwem państwa
ze względu na źródło swojego pochodzenia, czyli żywotne potrzeby społeczności ludzkich,
które zorganizowały się w państwa lub organizacje państwowe. Należy mieć jednak
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
28
Zob. R. Zięba, Instytucjonalizacja bezpieczeństwa europejskiego: koncepcje – struktury – funkcjonowanie,
Warszawa 1999, s. 30-32.
29
Zob. S. Koziej, Polityczno-strategiczne aspekty bezpieczeństwa, „Bezpieczeństwo Narodowe”, 2011, nr II, s.
20.
30
Zob. A. Czupryński, op. cit., s. 21.
31
Zob. K. Malak, op. cit., s. 3.
32
Zob. A. Ciupiński, Doktrynalne i instytucjonalne przesłanki bezpieczeństwa kooperacyjnego, [w:] T. Jemioło,
K. Malak (red.), Bezpieczeństwo zewnętrzne Rzeczypospolitej Polskiej, Warszawa 2002, s. 92.
26
polityki zagranicznej i bezpieczeństwa. Bezpieczeństwo narodowe jest tworzone przez całą
jego społeczność drogą ochrony istotnych wartości i interesów narodowych, kreowanie
optymalnych warunków rozwoju i zapewnianie obrony przed pojawiającymi się
zagrożeniami. Jest jednocześnie zdolnością do przetrwania i rozwoju konkretnych grup
społecznych, które łączy świadomość więzi etnicznych, kultury symbolicznej i potrzeba
ochrony wspólnych wartości.
Bezpieczeństwo międzynarodowe obejmuje szerszy zakres treści niż bezpieczeństwo
narodowe. Stanowi ono nie tylko sumę bezpieczeństwa pojedynczych państw – jest zależne
od warunków, mechanizmów i norm międzynarodowych, a także oddziaływań
zapewniającym każdemu państwu (pozostającemu w określonym regionie czy systemie)
mniejszą lub większą pewność istnienia, przetrwania i swobodnego rozwoju.
Międzynarodowy wymiar bezpieczeństwa obejmuje zatem nie tylko wartości
egzystencjonalne poszczególnych państw, ale również zespół wartości wspólnych dla całego
systemu, przede wszystkim równowagę, stabilność, pokój i współpracę. Poziom ochrony tych
wartości jest wypadkową polityki bezpieczeństwa państw oraz całokształtu więzi i relacji
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
33
Zob. R. Zięba (red.), Bezpieczeństwo międzynarodowe po zimnej wojnie, Warszawa 2008, s. 20.
34
Zob. A. Czupryński, op. cit., s. 21.
27
diagnozowania i reagowania w przypadkach pojawiających się zagrożeń godzących
w te interesy”35. Istotą bezpieczeństwa wewnętrznego jest zatem zapewnianie wewnętrznej
stabilności podmiotu bezpieczeństwa i przeciwdziałanie zagrożeniom endogennym.
Z kolei bezpieczeństwo zewnętrzne koncentruje się na przeciwdziałaniu zagrożeniom
pochodzącym z otoczenia podmiotu. W okresie zimnowojennym utożsamiano je z brakiem
zagrożeń o charakterze militarnym, który to stan miała zapewnić przede wszystkim silna
armia dająca liczebną przewagę nad przeciwnikiem. Obecnie środki zapewniania
bezpieczeństwa zewnętrznego można sklasyfikować w czterech grupach, wyróżniając środki
polityczne, ekonomiczno-finansowe, wojskowe i kulturowo-ideologiczne36. Środki polityczne
obejmują dobre relacje z innymi państwami, deklaracje oraz działania władz ukierunkowane
na łagodzenie konfliktów i rozwiązywania pojawiających się sporów. Środki ekonomiczno-
finansowe stosuje się coraz częściej w relacjach z partnerami gospodarczymi – obejmują one
zarówno środki negatywne (jak embargo czy międzynarodowy bojkot), jak i pozytywne,
tj. pomoc finansową czy przyznanie przywilejów finansowych. Środki wojskowe obejmują
siły zbrojne państwa i związane z nim składniki gospodarki narodowej, pozwalające
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
35
W. Fehler, O pojęciu polityki wewnętrznego bezpieczeństwa państwa, „Studia Prawnoustrojowe”, 2014, nr 23,
s. 204.
36
Zob. M. Ciszek, Teoretyczne podstawy bezpieczeństwa państwa, „Prosopon. Europejskie Studia Społeczno-
Humanistyczne”, 2011, nr 2, s. 45.
37
Zob. Ibidem.
38
Zob. Ibidem, s. 44.
28
zagrożeń dla bezpieczeństwa – źródeł zorganizowanej przestępczości, handlu
niedozwolonymi substancjami czy nawet terroryzmu międzynarodowego można doszukiwać
się w obrębie określonego podmiotu bezpieczeństwa, ale mogą one również pochodzić spoza
jego granic. Pomimo podziału, bezpieczeństwo wewnętrzne i zewnętrzne przenika się i scala,
tworząc bezpieczeństwo danego państwa, narodu lub innego podmiotu39. Zapewnienie tego
bezpieczeństwa jest bowiem możliwe dzięki tworzeniu optymalnych warunków
do wewnętrznego, niezakłóconego rozwoju istotnych elementów systemu, jak i likwidowaniu
realnych i potencjalnych zagrożeń zewnętrznych poprzez dążenie do takiego kształtu
otoczenia zewnętrznego, który sprzyja rozwojowi podmiotu.
Nieco odmienne podejście do podmiotowego wymiaru bezpieczeństwa reprezentuje
S. Koziej, wskazując jako podmioty bezpieczeństwa wszystkie jednostki, które mają własne
interesy i wyrażają ambicje ich realizowania. Podmiotami mogą być zatem jednostki, grupy
społeczne, narody, społeczności międzynarodowe, a nawet cała ludzkość. Powyższy podział
rozszerza typologię zaproponowaną przez R. Ziębę o nowe kategorie bezpieczeństwa -
indywidualne i grupowe40. Znaczenie człowieka jako podstawowego podmiotu
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
39
Zob. J. Kaczmarek, Problemy bezpieczeństwa RP, „Myśl Wojskowa”, 1991, nr 1, s. 14.
40
Zob. S. Koziej, Wstęp do teorii…, s. 2.
41
Zob. W. Kitler, Istota bezpieczeństwa narodowego, [w:] B. Wiśniewski, W. Fehler (red.), Edukacja obronna
społeczeństwa, Białystok 2006, s. 16.
29
Bezpieczeństwo przejawia się w każdej dziedzinie aktywności określonego podmiotu.
Dlatego też jego struktura stanowi odwzorowanie struktury funkcjonowania tego podmiotu.
Żywotne interesy obiektów bezpieczeństwa podlegają oddziaływaniu zróżnicowanych
zagrożeń, toteż istotne jest wyodrębnienie określonych rodzajów bezpieczeństwa
odpowiadających poszczególnym sferom działalności człowieka, w których zagrożenia
te się materializują. Klasyfikacji tej podlegają nie tylko żywotne interesy, ale również
zagrożenia i kierunki zapewniania bezpieczeństwa. Typologia przedmiotowa ma charakter
uzupełniający, wobec podziału podmiotowego, ale klasyfikacja według tego kryterium
pozwala na precyzyjną analizę stanu bezpieczeństwa każdej z wyodrębnionych dziedzin
funkcjonowania podmiotu. W świetle powyższych rozważań bezpieczeństwo w ujęciu
przedmiotowym należy rozumieć jako ochronę przed wewnętrznymi i zewnętrznymi
zagrożeniami żywotnych interesów podmiotów bezpieczeństwa (jednostki, społeczeństwa,
państwa, organizacji) oraz zapewnienie możliwości niezakłóconego funkcjonowania w każdej
sferze ich działalności - politycznej, militarnej, ekonomicznej, ekologicznej, energetycznej,
informacyjnej, społecznej, gospodarczej, kulturowej, ideologicznej, itd. Z uwagi
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
45
Zob. K. Malak, op. cit., s. 5.
46
Zob. J. Kaczmarek, W. Łepkowski, B. Zdrodowski, op. cit., s. 21.
47
Zob. K. Malak, op. cit., s. 5.
31
swobodnego rozwoju podmiotu. Jedną z konsekwencji zakończenia zimnej wojny
jest zauważalne przesunięcie rywalizacji mocarstw z poziomu międzynarodowego
na regionalny, przy czym, oprócz dążenia do zapewnienia przewagi militarnej, istotna
jest również konkurencja gospodarcza. Bezpieczeństwo ekonomiczne związane
jest z zapewnianiem ochrony przed zagrożeniami dla dobrobytu podmiotu, jego swobodnego
dostępu do środków finansowych, rynków i zasobów naturalnych, które warunkują stabilny
rozwój podmiotu bezpieczeństwa i utrzymanie przez niego satysfakcjonującej pozycji
na arenie międzynarodowej. Jest rozumiane jako stan rozwoju krajowego systemu
gospodarczego, zapewniającego wysoką sprawność jego funkcjonowania dzięki należytemu
wykorzystaniu wewnętrznych czynników rozwoju oraz gotowości do skutecznego
przeciwdziałania naciskom z zewnątrz, które mogłyby zaburzyć ten rozwój.
Dlatego też nieodłącznym elementem tej sfery bezpieczeństwa jest utrzymanie stałej
zdolności produkcyjnej, w tym przemysłu zbrojeniowego zapewniającego obsługę potrzeb
obrony narodowej i wojskowości48.
Kolejny wymiar to bezpieczeństwo społeczne, które należy rozumieć
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
48
Zob. J. Czaputowicz, Kryteria bezpieczeństwa międzynarodowego państwa – aspekty teoretyczne, [w:]
S. Dębski, B. Górka-Winter (red.), Kryteria bezpieczeństwa międzynarodowego państwa, Warszawa 2003, s. 24.
49
Zob. J. Kaczmarek, W. Łepkowski, B. Zdrodowski, op. cit., s. 19.
32
w sprzeczności z wspomnianą tożsamością50. Istotę bezpieczeństwa kulturowego stanowią
działania na rzecz utrwalania i podtrzymywania wartości tworzących tożsamość kulturową,
nie tylko w wymiarze narodowym czy państwowym, ale również regionalnym. Jego celem
jest umacnianie i utrwalanie elementów, które decydują o ciągłości tożsamości kulturowej
podmiotu, wyrażające się w ochronie wartości kultury symbolicznej (języka, religii,
zwyczajów, tradycji historycznych, ideologii, filozofii) oraz trosce o materialne dobra kultury
i dziedzictwa kulturowego (zabytki, pomniki, świątynie, kompleksy miejskie, obiekty
o szczególnej wartości artystycznej) – treści te wyrażają wartości duchowe integrujące naród
lub społeczność. Główną rolę w procesie zapewniania bezpieczeństwa kulturowego narodu
oraz regionalnych grup społecznych odgrywa państwo, jednak wpływ nań mają także
regulacje międzynarodowe, m.in. zapisy Konwencji Haskiej o ochronie dóbr kulturalnych
w razie konfliktu zbrojnego z 1954 r., Konwencji w sprawie ochrony światowego dziedzictwa
kulturalnego i naturalnego z 1972 r. czy Traktatu o Unii Europejskiej z 1991 r.51.
Ważną kategorią bezpieczeństwa stanowi bezpieczeństwo transportu, będącego
jednym z kluczowych sektorów gospodarki, zapewniających funkcjonowanie zróżnicowanych
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
50
Por. J. Czaja, Kulturowy wymiar bezpieczeństwa. Aspekty teoretyczne i praktyczne, Kraków 2013, s. 77-83.
51
Traktat o Unii Europejskiej, Maastricht 07.02.1992. Dz.U. 2004 nr 90 poz. 864.
52
Zob. M. Ogrodniczak, J. Ryba, Bezpieczeństwo ruchu drogowego w świetle wybranych aktów prawnych,
„Autobusy”, 2016, nr 6, s. 352.
53
Zob. Ł. Gmys, Bezpieczeństwo transportu drogowego, „Poradnik Spedytora” [on-line], 2012,
http://poradnikspedytora.pl/2012/bezpieczenstwo-transportu-drogowego/ (01.04.2019).
54
Zob. Krajowa Rada Bezpieczeństwa Ruchu Drogowego, Narodowy Program Bezpieczeństwa Ruchu
Drogowego 2013-2020, Warszawa 2013.
33
kultury bezpieczeństwa prowadzenia pojazdów mechanicznych w zróżnicowanych warunkach
pogodowych, jak i będącymi efektem niedostatecznego zaplecza infrastrukturalnego
(jak np. zły stan dróg, brak innowacyjnych rozwiązań komunikacyjnych, czy wątpliwy stan
techniczny pojazdów dopuszczonych do ruchu).
Szczególnym wymiarem bezpieczeństwa jest bezpieczeństwo informacyjne 55.
W ujęciu ogólnym termin ten definiowany jest jako „kompleks przedsięwzięć zapewniający
bezpieczeństwo środowiska informacyjnego, a także jego formowanie, wykorzystywanie
i rozwój w interesie obywateli, organizacji i państwa”56. Obejmuje trzy główne elementy:
ludzi, oceny oraz technologie i procesy (od pozyskania informacji, poprzez transmisję,
przetwarzanie i modyfikację, aż po przechowywanie i przekazywanie informacji. Praktycy
odnoszą bezpieczeństwo informacyjne do ochrony informacji przed naruszeniem
jej atrybutów - poufności, dostępności, integralności i rozliczalności. Do zdarzeń tych
dochodzi wskutek celowego lub przypadkowego ujawnienia, uszkodzenia, zniszczenia
lub modyfikacji informacji, w sposób uniemożliwiający jej przetwarzanie57. Celem ochrony
jest zatem wyeliminowanie zagrożeń dla informacji. Widoczne jest tutaj negatywne podejście
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
55
Bezpieczeństwo informacyjne, z uwagi na kluczowe znaczenie dla tematyki rozprawy, zostanie szerzej
omówione w podrozdziale 1.4.
56
J. Janczak, A. Nowak, Bezpieczeństwo informacyjne. Wybrane problemy, Warszawa 2013, s. 17.
57
Zob. Ibidem, s. 13.
58
Intelektualny rozwój społeczeństwa i politechnizacja życia codziennego spowodował wzrost znaczenia
informacji – posiadanie informacji o zagrożeniu pozwalało nie tylko przetrwać, ale również podnieść standard
życia. Informacje zaczęto traktować w kategoriach dóbr materialnych, pojawiła się również konkurencja w ich
pozyskiwaniu i ochronie przed ujawnieniem. W walce informacyjnej wykorzystuje się zróżnicowane środki ich
zdobywania, zakłócania i obrony.
59
Zob. K. Malak, op. cit., s. 8.
34
a także zapobiegania i neutralizowania skutków globalnych katastrof naturalnych.
Można również zgodzić się z Janem Czają, który zauważa, że bezpieczeństwo globalne może
być rozumiane jako synonim światowego bezpieczeństwa militarnego, oznaczającego stan
braku globalnych zagrożeń w postaci ponadregionalnego konfliktu zbrojnego lub wojny
nuklearnej60. Celem bezpieczeństwa globalnego jest zatem zapobieganie, przeciwdziałanie
i likwidacja zagrożeń dla żywotnych interesów podmiotów zamieszkujących planetę.
Bezpieczeństwo regionalne koncentruje się na ochronie systemu stosunków i relacji
pomiędzy poszczególnymi państwami zlokalizowanymi w określonym regionie (kontynencie)
przed zagrożeniami obejmującymi destabilizację (najczęściej militarną, polityczną
lub gospodarczą), kryzysy, konflikty zbrojne i wojny pozostające w skali tego regionu 61.
Bezpieczeństwo to jest zazwyczaj budowane w oparciu o układ działający w obrębie
określonego regionu międzynarodowego (jak np. Unia Europejska, Szanghajska Organizacja
Współpracy, Międzyamerykański Bank Rozwoju, Unia Afrykańska). Pomimo,
że determinantem powstania regionalnej instytucji bezpieczeństwa jest często geograficzna
granica regionu, to przynależność do niej jest wynikiem nawiązania współpracy
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
funkcjonalnej, zatem zasięg działań kooperacyjnych organizacji nie musi pokrywać się
z zasięgiem geograficznym. Często sytuacja taka ma miejsce w przypadku sojuszy
wojskowych, których cele jednoczą państwa położone na obszarze większym niż region62.
Przykładem organizacji bezpieczeństwa o zasięgu transregionalnym jest Organizacja Paktu
Północnoatlantyckiego w regionie transatlantyckim. Jedynym kryterium, które różnicuje
bezpieczeństwo transregionalne jest obszar, na którym jest zapewniane. Wyróżnik ten stosuje
się również definiując bezpieczeństwo subregionalne, które dotyczy obszaru mniejszego
niż region, wyróżniającego się określonymi cechami fizycznymi, gospodarczymi
lub etnograficznymi, których występowania nie odnotowano w pozostałych częściach
regionu63. Organizacjami zapewniania bezpieczeństwa w wymiarze subregionalnym
są m.in. Trójkąt Weimarski, Grupa Wyszehradzka czy OPEC.
Regionalizacja bezpieczeństwa sprawia, że coraz większego znaczenia nabiera lokalna
specyfika zarówno zagrożeń, jak i metod oraz środków przeciwdziałania mu. Efektem tego
procesu jest koncentracja na kształtowaniu lokalnego kompleksu bezpieczeństwa64. Tendencja
ta jest zauważalna zwłaszcza w odniesieniu do zagadnień bezpieczeństwa ekologicznego
i przeciwdziałania katastrofom naturalnym. Bezpieczeństwo na poziomie lokalnym
w aspekcie przestrzennym obejmuje jedynie określoną część terytorium państwa i wspólnotę
60
Zob. J. Czaja, op. cit., s. 58.
61
Zob. B. Chmieliński, Rozważania nad naukami o bezpieczeństwie i bezpieczeństwem społeczności lokalnych,
„Historia i Polityka”, 2018, nr 23(30), s. 61-62.
62
Zob. K. Malak, op. cit., s. 9.
63
Zob. H. Zgółkowa, Praktyczny słownik współczesnej polszczyzny, T. 40, Poznań 1994, s. 156.
64
Zob. E. Haliżak, Regionalizm w stosunkach międzynarodowych, [w:] E. Haliżak, R. Kuźniar (red.), Stosunki
międzynarodowe. Geneza, struktura, dynamika, Warszawa 2004, s. 282.
35
społeczną na tym terytorium. Obszar ten może stanowić zarówno oddzielne terytorium
w granicach jednego państwa, jak i obejmować małe obszary przygraniczne wielu
podmiotów. Niezależnie od położenia należy go rozumieć jako jednorodne terytorium
obejmujący niewielką liczbę obiektów, przy czym kluczowym wyróżnikiem jest świadomość
społeczna ludności zamieszkującej ten obszar. Polega ona nie tylko na utożsamianiu się
społeczeństwa z konkretnym miejscem zamieszkania, ale również poczuciu odrębności
w stosunku do mieszkańców innych terytoriów pod względem tradycji, nawyków,
właściwości społecznych oraz, nierzadko, interesów politycznych65. Istotą bezpieczeństwa
lokalnego jest zatem ochrona żywotnych i ważnych interesów lokalnej wspólnoty społecznej
(lub lokalnych instytucji bezpieczeństwa) przed zagrożeniami zewnętrznymi i wewnętrznymi
oraz zapewnianie optymalnych warunków do realizacji tych interesów.
W sposób analogiczny do bezpieczeństwa w wymiarze lokalnym rozumiane
jest bezpieczeństwo miejscowe, z tym, że poziom ten obejmuje problemy dotyczące jednostek
administracyjnych o statusie samorządu – gmin i powiatów66. Charakter i struktura tych
jednostek generuje specyficzne dla nich zagrożenia żywotnych interesów wspólnot
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
65
Zob. A.A. Prochożewa, Obszczaja tieorija nacjonalnej biezopasnosti, Moskwa 2005, s. 218.
66
Zob. K. Malak, op. cit., s. 10.
67
Zob. B. Chmieliński, op. cit., s. 62.
68
Zob. J. Kaczmarek, W. Łepkowski, B. Zdrodowski, op. cit., s. 29.
36
stan obsesji – niewielkie zagrożenie jest błędnie postrzegane jako poważne;
stan fałszywego bezpieczeństwa – poważne zagrożenie jest błędnie postrzegane
jako niewielkie69.
Bezpieczeństwo jako proces obejmuje całokształt działań obronnych i ochronnych,
których celem jest stworzenie optymalnych warunków funkcjonowania podmiotu w relacjach
z jego otoczeniem. Odnosi się to również do nieustannego przeciwstawiania się wyzwaniom
i zagrożeniom bezpieczeństwa oraz wykorzystywania szans umożliwiających rozwój tego
podmiotu70. Jako proces społeczny bezpieczeństwo polega na nieustannym podejmowaniu
czynności, których celem jest doskonalenie mechanizmów zapewniających poczucie wolności
od zagrożeń. Dynamizm bezpieczeństwa jest w dużej mierze wynikiem globalizacji,
związanej ze zmiennością warunków środowiskowych, postępem cywilizacyjnym oraz
rosnącym zakresem potrzeb poszczególnych podmiotów, zaś proces zapewniania
bezpieczeństwa w stosunkach międzypaństwowych jest postrzegany jako wyznacznik
zgodności i sprzeczności zarówno podmiotów, jak i systemów międzynarodowych 71.
Procesem jest również zmienność stanów bezpieczeństwa, ewoluujących pod wpływem
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
69
Zob. R. Jakubczak, J. Flis (red.), Bezpieczeństwo narodowe Polski w XXI wieku. Wyzwania i strategie,
Warszawa 2006, s. 14.
70
W. Kitler, Obrona narodowa III RP: pojęcie, organizacja, system, „Zeszyty Naukowe AON”, Warszawa
2002, s. 48.
71
Zob. J. Stańczyk, op. cit., s. 18-19.
72
Zob. W. Pokruszyński, Bezpieczeństwo narodowe u progu XXI wieku, „Zeszyty Naukowe AON”, 2008, nr
1(70), s. 24.
73
Zob. J. Czaja, op. cit., s. 58.
37
w którym ono funkcjonuje, lokalizacji geopolitycznej oraz pozycji w międzynarodowym
układzie sił. Wybór unilateralizmu jest zazwyczaj konsekwencją przekonania o zagrożeniach
wynikających z otoczenia podmiotu, które przewyższają potencjalne korzyści wynikające z
nawiązania współpracy międzynarodowej. Hegemonizm mocarstwowy opiera się na
osiągnięciu przez jeden podmiot wymiernej przewagi politycznej, militarnej lub gospodarczej.
Podmiot ten staje się kreatorem bezpieczeństwa, sprawującego funkcję przywódcy na arenie
międzynarodowej. Hegemon może narzucać innym podmiotom reguły funkcjonowania i
współpracy w obszarze politycznym, ekonomicznym czy społecznym, jednak taka forma
hegemonii nie wyklucza możliwości powstania grupy mocarstw regionalnych, które pełnią
funkcję moderatorów w określonych aspektach polityki bezpieczeństwa74.
Instrumentem hegemonizmu, jak i odrębną formą zapewniania bezpieczeństwa, jest
interwencjonizm. Jego istotę stanowi podejmowanie interwencji zbrojnych, które mają służyć
realizacji kluczowych interesów mocarstw z wykorzystaniem siły militarnej. Podmiot
interweniujący koncentruje się na prowadzeniu krótkich działań zbrojnych na terytorium
innego państwa, które są ukierunkowane na osiągnięcie założonego wcześniej celu,
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
najczęściej politycznego, jak obalenie władzy, implementacja sprzyjającej siły rządzącej czy
kontrola procesów gospodarczych75.
Izolacjonizm oznacza koncentrację na obronie interesów własnych, bez wchodzenia w
stałe związki i utrzymywania sojuszy z innymi podmiotami państwowymi. Jego cechą
charakterystyczną jest dostrzegalny brak zainteresowania sprawami międzynarodowymi 76.
Polityką nieprzystępowania do sojuszy militarnych charakteryzuje się również neutralizm,
jednak ta opcja, w odróżnieniu od izolacjonizmu, zakłada koncentrację podmiotu na
rozwijaniu współpracy opartej na zasadach pokojowego współistnienia ze wszystkimi
państwami i organizacjami międzynarodowymi, niezależnie od formy ich ustroju
politycznego.
Neutralność oznacza „bezstronną postawę oraz nieingerowanie bezpośrednio lub
pośrednio w sprawy innego państwa”77. Istotą tej metody jest nieuczestniczenie przez
państwo w wojnach, nieudzielanie zgody na tworzenie baz wojskowych innych państw na
swoim terytorium oraz nieprzystępowanie do ugrupowań o charakterze wojskowym.
Podstawowe formy neutralności obejmują neutralność stałą (wieczystą) i wojenną. Pierwsza z
nich odnosi się do sytuacji, w której państwo zobowiązuje się do nieuczestniczenia w
jakiejkolwiek wojnie, za wyjątkiem wojny obronnej. Zobowiązanie to zostaje określone w
74
Zob. W. Pokruszyński, Bezpieczeństwo. Teoria i praktyka, Kraków 2017, s. 39.
75
Zob. S. Bieleń, Polityki bezpieczeństwa państw, „Teka Komisji Politologii i Stosunków Międzynarodowych
PAN”, 2010, t. 5, s. 72.
76
C. Mojsiewicz (red.), Leksykon współczesnych międzynarodowych stosunków politycznych, Wrocław 2004, s.
160.
77
Ibidem [za:] A. Kotliński, Modele bezpieczeństwa państw, „Zeszyty Naukowe Dolnośląskiej Wyższej Szkoły
Przedsiębiorczości i Techniki. Studia z Nauk Społecznych”, 2009, nr 1, s. 146.
38
prawie krajowym, a pozostałe państwa w umowie międzynarodowej (lub w formie milczącej)
gwarantują niepodejmowanie przeciwko temu państwu działań wojennych. Państwo
wieczyście neutralne musi wystrzegać się w swojej polityce zagranicznej działań
konfrontacyjnych, które podważyłyby zaufanie społeczności międzynarodowej. Neutralność
wojenna uzyskiwana jest przez państwo, które deklaruje neutralność w stosunku do
określonego konfliktu zbrojnego. Zobowiązuje się wówczas do jednakowego traktowania
walczących stron, nieudostępniania swojego terytorium do przemarszu wojsk, przepływu
okrętów oraz przelotu samolotów. Strony konfliktu zobowiązane są wówczas do
nienaruszania terytorium państwa neutralnego oraz braku ingerencji w realizowane przez nie
interesy. W przypadku przekroczenia granicy państwa neutralnego przez ich wojsko, zostanie
ono rozbrojone i poddane internowaniu. Najrzadziej spotykaną formą neutralności jest
polityka neutralności, oznaczająca faktyczną realizację idei neutralności w polityce
zagranicznej, podczas gdy neutralność ta nie jest gwarantowana traktatowo lub nie jest w inny
sposób uznana przez pozostałe państwa78.
Multilateralne formy zapewniania bezpieczeństwa obejmują sojusze, system
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
78
Zob. A. Kotliński, op. cit., s. 146-147.
79
Zob. M. Ciszek, op. cit., s. 42.
80
Zob. R. Tenerowicz, Liberalna wizja bezpieczeństwa międzynarodowego, [w:] J. Zając, A. Włodkowska-
Bagan, M. Kaczmarski (red.), Bezpieczeństwo międzynarodowe. Polska-Europa-Świat, Warszawa 2015, s. 77.
39
System bezpieczeństwa zbiorowego jest systemem instytucjonalnym,
ukierunkowanym na zapobieganie konfliktom pomiędzy państwami członkowskimi. System
ten tworzą wspólne działania państw, których celem jest podtrzymywanie międzynarodowego
bezpieczeństwa i pokoju. Stanowi on odzwierciedlenie pojęcia niepodzielności pokoju,
co oznacza, że we współczesnych stosunkach międzynarodowych indywidualne
bezpieczeństwo jakiegokolwiek państwa jest ściśle powiązane z bezpieczeństwem wszystkich
pozostałych państw, a jakiekolwiek naruszenie pokoju jest zagrożeniem dla jego globalnego
wymiaru81. Podstawowymi elementami systemu bezpieczeństwa zbiorowego są: zakaz
stosowania lub groźby użycia siły w stosunkach międzynarodowych, suwerenna równość
państw, rozwiązywanie sporów z wykorzystaniem pokojowych metod, poszanowanie praw
człowieka, nieingerencja uczestników systemu w wewnętrzne sprawy innych państw, a także
systemy środków zbiorowych dla rozbrojenia, zapobiegania i neutralizacji groźby wojny,
aktów agresji i naruszenia pokoju oraz ukierunkowanych na umocnienie wzajemnego
zaufania partycypantów. Współczesnym przykładem systemu bezpieczeństwa zbiorowego
jest Organizacja Narodów Zjednoczonych.
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
82
Zob. R. Zięba, Kategoria bezpieczeństwa w nauce o stosunkach międzynarodowych [w:] D.B. Bobrov, E.
Haliżak, R. Zięba (red.), Bezpieczeństwo narodowe i międzynarodowe u schyłku XX wieku, Warszawa 1997, s. 4.
83
Zob. J. Kaczmarek, W. Łepkowski, B. Zdrodowski, op. cit., s. 89.
84
M. Laprus (red.), Leksykon wiedzy wojskowej, Warszawa 1979, s. 510.
85
Zob. B. Wiśniewski, System bezpieczeństwa państwa. Konteksty teoretyczne i praktyczne, Szczytno 2013, s.
34–35.
41
subiektywny – jak wskazuje B. Hołyst, zagrożenie ma miejsce wtedy, gdy „w człowieku rodzi
się obawa o utratę wysoko cenionych wartości z własnym życiem na pierwszym miejscu” 86.
Należy jednak pamiętać, że zagrożenie nie zawsze musi być uświadomione
– brak dostrzegania lub prawidłowej percepcji zagrożenia nie powoduje jego dematerializacji
ani zmiany stopnia oddziaływania na bezpieczeństwo podmiotu. Zgodnie z kompleksową
definicją zagrożenia przedstawioną przez Romana Macieja Kalinę, „zagrożenie
to w odniesieniu do określonego podmiotu uświadomione lub nieuświadomione przez niego
niebezpieczeństwo bądź utraty określonego dobra lub wartości (np. życia, zdrowia, mienia,
suwerenności (…), bądź czasowej lub względnie trwałej utraty zdolności do szeroko
rozumianego rozwoju”87.
Zagrożenia również podlegają kategoryzacji. Kompleksową typologię zagrożeń
bezpieczeństwa narodowego, uwzględniającego liczne, choć nie wszystkie możliwe kryteria,
zaproponował Krzysztof Przeworski88.
Źródło: K. Przeworski, Typologia zagrożeń bezpieczeństwa narodowego, [w:] R. Jakubczak (red. nauk.), Obrona
narodowa w tworzeniu bezpieczeństwa III RP, Warszawa 2003, s. 430.
Katalog zagrożeń naturalnych obejmuje przede wszystkim powodzie, susze, silne
wiatry, długotrwałe ekstremalne temperatury, sztormy, intensywne opady, wstrząsy
sejsmiczne, lawiny, epidemie chorób zakaźnych oraz masowe występowanie szkodników.
Zagrożenia cywilizacyjne odnoszą się do bezpośredniej działalności człowieka i są związane
z powstawaniem awarii technicznych i katastrof. Do tej kategorii należą pożary, katastrofy
86
B. Hołyst, Wiktymologia, Warszawa 2003, s. 64-65.
87
R.M. Kalina, Ogólne kryteria klasyfikacji i charakterystyki zagrożeń zewnętrznych [w:] B. Hołyst (red.),
Człowiek w sytuacji trudnej, Warszawa 1991, s. 80-81.
88
Zob. Rysunek 1.
42
komunikacyjne, awarie chemiczne, katastrofy górnicze i budowlane, awarie radiacyjne,
zagrożenia biologiczne dla ludzi, zwierząt i roślin, a także działania terrorystyczne.
Zaprezentowany katalog zagrożeń pozostaje oczywiście otwarty. Dokonując takiego podziału
należy mieć świadomość, że nie w każdej sytuacji możliwe jest jednoznaczne wyodrębnienie
zarówno zagrożeń, jak i przyczyn ich powstania.
W zależności od źródła pochodzenia można wyróżnić zagrożenia antropogeniczne
(spowodowane lub zainicjowane przez człowieka i jego działalność, np. katastrofy
budowlane, wojny) oraz naturalne (stwarzane przez środowisko naturalne, np. trzęsienia
ziemi, powodzie, huragany). Z kolei stosując kryterium miejsca położenia źródła zagrożeń,
wyodrębnia się zagrożenia wewnętrzne i zagrożenia zewnętrzne. Pierwsze z nich uznaje się
za zdarzenia zakłócające bezpieczne (optymalne) warunki funkcjonowania podmiotu
generowane przez procesy i zjawiska zachodzące w jego wnętrzu. Zagrożenia zewnętrzne
zakłócają bezpieczeństwo podmiotu poprzez impulsy pochodzące z jego otoczenia89.
Kierując się kryterium przedmiotowym, zagrożenia bezpieczeństwa państwa można
podzielić na m.in. polityczne, militarne, gospodarcze, społeczne oraz informacyjne.
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
89
Zob. W. Chojnacki, W. Fehler, op. cit., s. 39.
43
które pogłębia dysproporcję ekonomiczną w stosunku do innych krajów, reglamentowanie
dostępu do nowych technologii, blokady gospodarcze (embarga) na określone towary
lub grupy towarów, masowe bezrobocie oraz brak sprawnych mechanizmów konkurencji
gospodarczej. Zagrożenia społeczne definiuje się jako stany świadomości społeczeństwa,
w których nasilone są negatywne oddziaływania i zjawiska prowadzące do zachwiania
egzystencjonalnych wartości i interesów państwa (narodu) oraz obniżenia świadomości
społecznej. Odnoszą się one zatem przede wszystkim do kwestii bezpieczeństwa publicznego
i społecznego, obejmując takie zjawiska jak naruszenia praw i wolności człowieka,
dyskryminację jednostek lub grup społecznych, manipulacje społeczne, ograniczanie
wolności mediów, patologie społeczne, masowe migracje, kryzysy demograficzne
oraz ubóstwo społeczeństwa.
Istotne znaczenie mają zagrożenia dla bezpieczeństwa informacyjnego, powstające
zazwyczaj w wyniku świadomych lub nieograniczonych nadużyć (albo zaniechań) w zakresie
legalnego dostępu i swobodnego posługiwania się informacją, która powinna być aktualna,
rzetelna, integralna i poufna. Zagrożenia informacyjne klasyfikuje się zazwyczaj nie tylko
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
w kategoriach braku informacji w wyniku jej utraty czy ograniczenia dostępu, ale również
nadmiaru informacji oraz manipulacji nią poprzez fałszerstwa informacyjne, dezinformację
lub przekazywanie informacji nieaktualnej lub nieczytelnej. Wśród współczesnych zagrożeń
dla bezpieczeństwa informacyjnego należy wskazać ograniczanie dostępu do informacji
wynikające zarówno z nadmiernej polityki restrykcyjnej systemu ich ochrony,
jak i ze słabości systemów udostępniania informacji publicznych, wykluczenie cyfrowe,
naruszenia prywatności informacyjnej będące efektem rozwoju zróżnicowanych form
inwigilacji, prawne i organizacyjne niedoskonałości systemu ochrony danych osobowych,
trudności z wdrożeniem elektronicznego dostępu do usług administracyjnych, przestępczość
informacyjną oraz marginalizację informacyjną, stanowiącą wynik niskiego poziomu edukacji
oraz statusu społeczno-ekonomicznego. Najbardziej specyficzną formą zagrożenia
bezpieczeństwa informacyjnego jest walka informacyjna, rozumiana jako działania
informacyjne (zarówno ofensywne, jak i defensywne), prowadzone w sposób adekwatny
do zamiarów i możliwości stron, ukierunkowanych na przeforsowanie i realizację
określonych, ograniczonych w swoim zakresie celów (najczęściej politycznych,
ekonomicznych lub wojskowych), w odniesieniu do konkretnego przeciwnika albo grupy
przeciwników90. Ofensywna walka informacyjna definiowana jest jako zbiór działań
i aktywności, w ramach których agresor dąży do pozyskania (lub wykorzystania
w zaplanowany przez siebie sposób) określonego zasobu/zasobów informacyjnych strony
90
Zob. W. Fehler, O pojęciu bezpieczeństwa informacyjnego, [w:] M. Kubiak, S. Topolewski (red.),
Bezpieczeństwo informacyjne w XXI wieku, Siedlce 2016, s. 39.
44
atakowanej w celu obniżenia ich wartości dla posiadacza lub zwiększenia ich wartości
dla siebie. Istotą defensywnej walki informacyjnej jest natomiast prowadzona przez stronę
atakowaną obrona przed zwiększeniem dostępu do jej zasobów informacyjnych
oraz utrzymanie integralności i dostępności informacji 91. Pojęciem związanym z walką
informacyjną jest wojna informacyjna, którą należy rozumieć jako zaplanowaną formę
przemocy zastosowaną przez państwo (lub koalicję państw), w ramach której podejmuje
się próbę rozstrzygnięcia zaistniałych sporów, spełnienia postulowanych żądań lub narzucenia
pożądanych przez stronę zachowań poprzez zastosowanie na szeroką skalę działań
informacyjnych obezwładniających przeciwnika. Działania te mogą być prowadzone
w różnych sferach funkcjonowania podmiotu (najczęściej w politycznej, wojskowej,
gospodarczej lub społecznej), z wykorzystaniem rozmaitych form i narzędzi, jak ataki
cybernetyczne, zakłócenia radioelektroniczne, propaganda, manipulacja opinią publiczną
czy szpiegostwo92. Wojna informacyjna co do zasady wyklucza działania zbrojne, ponieważ
uzyskanie przewagi informacyjnej pozwala osiągnąć stronie atakującej założone cele
bez konieczności użycia tradycyjnych broni oraz paraliżuje możliwości militarne stronie
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
zaatakowanej.
Skala zagrożeń bezpieczeństwa może być zróżnicowana, a biorąc pod uwagę
ich zasięg można wyróżnić zagrożenia lokalne, regionalne, krajowe i międzynarodowe.
Zagrożenia lokalne obejmują najczęściej teren niewielkich miejscowości, a rozwiązywanie
wiążących się z nimi problemów stanowi zadanie władz lokalnych. Zagrożenia regionalne
wykraczają poza granicę miasta, a przeciwdziałanie im lub zwalczanie ich skutków wymaga
wsparcia władz wyższego szczebla administracyjnego. Zagrożenia państwowe przekraczają
granicę regionu, a skuteczna walka z nimi wymaga interwencji władz centralnych. Zagrożenia
międzynarodowe wykraczają poza granice państwa, a efektywność przeciwdziałania im
jest warunkowana skuteczną współpracą międzynarodową93.
Istotnym kryterium podziału zagrożeń jest stopień prawdopodobieństwa
ich materializacji. Zagrożenia, których poziom wystąpienia jest wysoki, które występowały
już w przeszłości lub na materializację których w niedalekiej przyszłości wskazują wrogie
działania podejmowane przez inne podmioty, należy uznać za realne. Zagrożenia realne
materializują się w postaci kryzysów i konfliktów. Kryzys oznacza szczególny stan
wewnętrzny podmiotu, odbiegający od standardowej, niezakłóconej sytuacji. Może być
powodowany czynnikami zarówno wewnętrznymi (jak nieudolność, brak stabilności władzy),
jak i zewnętrznymi (katastrofy naturalne, klęski żywiołowe, konflikt z innym podmiotem).
Konflikt z kolei stanowi konfrontacyjną relację z innym podmiotem, nastawioną
91
Zob. Ibidem, s. 41.
92
Zob. Ibidem.
93
Zob. E. Kołodziński, op. cit., s. 6.
45
na osiągnięcie celów zakładanych przez co najmniej jedną ze stron konfliktu. Zagrożenia
potencjalne pozostają w sferze przewidywań, wywołują u podmiotu niepokój wynikający
nie tyle z nieuchronności i konsekwencji materializacji zagrożenia, co raczej niepewności
i konieczności nieustannego monitorowania otoczenia w celu szybkiej jego identyfikacji
i przygotowania planu obronnego.
Inna klasyfikacja wyróżnia zagrożenia intencjonalne i przypadkowe. Zagrożenia
intencjonalne są zaplanowane i celowe. Zawierają w sobie cztery elementy: aktora (agresora),
jego intencje, możliwości oraz czas na reakcję. Wraz z narastaniem wrogości (złych intencji)
podmiotu, zwiększaniem jego możliwości oraz skracaniem czasu na reakcję ze strony ofiary,
poziom zagrożenia wzrasta. Zagrożenia przypadkowe nie są związane z celową działalnością
podmiotu, ich źródeł należy zazwyczaj upatrywać w środowisku naturalnym, ale również
w nieświadomym, aczkolwiek szkodliwym działaniu podmiotów bezpieczeństwa.
W kontekście zagrożeń dla bezpieczeństwa nie sposób pominąć zagadnienia zagrożeń
asymetrycznych. Zakończenie zimnej wojny, rozpad dwubiegunowego porządku światowego
oraz pojawienie się na arenie międzynarodowej podmiotów niepaństwowych o istotnym
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
94
P. Gawliczek, J. Pawłowski, Zagrożenia asymetryczne, Warszawa 2003, s. 18.
95
Zob. K. Olak, A. Olak, Współczesne rozumienie bezpieczeństwa narodowego, „Acta Scientifica Academiae
Ostroviensis. Sectio A, Nauki Humanistyczne, Społeczne i Techniczne”, 2016, nr 7(1), s. 473.
46
Hybrydowość ta oznacza swoiste połączenie konfliktów tradycyjnych z działaniami „nowej
generacji”, wykorzystującymi nowe technologie informacyjne. Oprócz interakcji zbrojnych
na polu walki, działania wojenne przenoszone są do innych sfer, pomagając osiągnąć
założony przez agresora cel poprzez zaplanowane działania pozamilitarne. Celem wojny
hybrydowej nie jest zdobycie terytorium, ale osiągnięcie przewagi, a nawet dominacji,
w maksymalnie wielu aspektach życia społeczeństw i jednostek, która w dalszej perspektywie
ma doprowadzić do powolnej, ale postępującej dezintegracji podmiotu (państwa)
i nieodwracalnego poróżnienia opinii publicznej. W sferze cyberprzestrzeni dąży się zatem
do załamania infrastruktury krytycznej przeciwnika i dominacji nad świadomością społeczną,
często poprzez dezinformację i manipulację; w sferze informacyjnej – do przejęcia mediów,
w sferze gospodarczej – do osłabienia potencjału ekonomicznego, a w sferze politycznej
– do zachwiania obowiązującego układu władzy96. Głównym narzędziem walki staje się broń
niekonwencjonalna, głównie cybernetyczna, a za prowadzenie ataków odpowiadają już
nie tradycyjne armie, ale najczęściej informatyczne jednostki specjalne. Kluczowe znaczenie
dla osiągnięcia celu wojny hybrydowej ma informacja, wspierana i rozwijana w wyniku
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
96
Zob. E. Sadowska, op. cit., s. 21.
47
ale równie istotne znaczenie ma monitorowanie otoczenia pod kątem nowych, potencjalnych
zagrożeń. Synergia tych działań stanowi podstawę do tworzenia strategicznych planów
ochrony żywotnych i istotnych interesów narodowych oraz wytyczania kierunków
transformacji systemów bezpieczeństwa.
Obecnie pojęcia takie jak dane, informacja czy wiedza są na tyle powszechnie
stosowane, że w języku potocznym często stosowane są wymiennie, bez różnicowania
znaczeniowego. Jest to nieuzasadnione uproszczenie, ponieważ dopiero po analizie
i transformacji danych oraz po przypisaniu do nich konkretnych cech, stają się
one informacjami. Konsekwencją braku precyzji w stosowaniu pojęć może być niewłaściwe
zrozumienie konkretnych terminów, a w efekcie błędne pojmowanie ich istoty. Dotyczy
to także bezpieczeństwa informacyjnego. Wskazane wydaje się zatem omówienie
podstawowych różnic w definiowaniu danych, informacji i wiedzy.
Przedmiot zainteresowania dziedziny systemów informacyjnych zmieniał się
na przestrzeni dekad – w latach 70. XX w. koncentrowano się na przetwarzaniu danych,
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
97
Akronim słów poszczególnych składowych piramidy: D – data (dane), I – information (informacja), K –
knowledge (wiedza), W – wisdom (mądrość); zob. rysunek 2.
48
elementami ma charakter hierarchiczny98. Dane, jako podstawowa jednostka informacji
– fakty przedstawione w postaci znaków, reprezentujące pomiary, obserwacje i wyniki
– są podstawą wiedzy. Informacja to dane przedstawione w określonym kontekście.
W momencie, gdy informacja zostaje przypisana do konkretnego kontekstu
(np. organizacyjnego lub społecznego), mającego znaczenie dla prowadzonych działań, ulega
ona przetworzeniu i ustrukturalizowaniu - przekształca się w wiedzę. Spersonalizowana
wiedza oraz powiązanie jej z systemem wartości pozwala osiągnąć szczyt piramidy,
czyli doświadczenie naukowe (mądrość), w oparciu o którą podejmowane jest konkretne
działanie99.
Przegląd literatury przedmiotu pozwala odnaleźć liczne definicje danych, wśród
których za najbardziej istotne należy uznać następujące:
„fakty, koncepcje lub wyniki w postaci, która może być komunikowana
i interpretowana”100;
„fakty zgromadzone z obserwacji lub zapisów dotyczących zjawisk, obiektów
lub ludzi”101;
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
98
Zob. M. Wyskwarski, Zarządzanie wiedzą w małych i średnich przedsiębiorstwach – wykorzystanie urządzeń
NAS, „Zeszyty Naukowe Politechniki Śląskiej. Seria: Organizacja i Zarządzanie”, 2014, z. 68 (1905), s. 427.
99
Zob. G. Kobyłko, M. Morawski, Przedsiębiorstwo zorientowane na wiedzę, „E-mentor”, 2006, nr 4 (16), s. 17.
100
F.J. Galland, Dictionary of Computing, Chichester 1982, s. 57.
101
C. Clare, P. Loucopoulos, Business Information Systems, London 1987, s. 2.
102
A.V. Knight, D.J. Silk, Managing information, London 1990, s. 22.
103
J.O. Hicks, Management Information Systems: a user perspective, Minneapolis 1993, s. 668.
104
R. Maddison (red.), Information Systems Development for Managers, London 1989, s. 168.
105
Z. Malara, J. Rzęchowski, Zarządzanie informacją na rynku globalnym. Teoria i praktyka, Warszawa 2011, s.
19.
106
Ibidem, s. 18.
49
Pomimo, że pojęcie „danych” było w zróżnicowany sposób definiowane
przez licznych autorów, można zauważyć jeden punkt wspólny dla wszystkich definicji –
dane zawsze reprezentują fakty. Mogą one być rejestrowane, poddawane przetwarzaniu
i przesyłane do odbiorcy w postaci konkretnego komunikatu. Można zatem stwierdzić,
że każdy komunikat zawiera dane, zaś dane stają się informacją, jeżeli są zrozumiałe
dla odbiorcy i zmieniają jego stan wiedzy o opisywanym obiekcie. Zdaniem Zbigniewa
Malary i Jerzego Rzęchowskiego, informacja jest również znaczeniem, jakie przypisuje się
danym, z uwzględnieniem konwencji użytej do ich reprezentacji 108. Choć dane same w sobie
nie mają konkretnego celu i znaczenia, to dobór odpowiednich symboli do ich przekazywania
może sugerować lub wręcz narzucać określoną ich interpretację. W tym kontekście można
uznać, że każda informacja jest daną, ale nie każda dana jest informacją.
Samo pojęcie informacji jest terminem złożonym i występującym w wielu dziedzinach
naukowych, począwszy od informatyki i cybernetyki, poprzez mechanikę kwantową,
biologię, neurobiologię, aż po psychologię, teorię komunikacji i kognitywistykę. Zarówno
liczba dziedzin pracujących nad informacją, jak i wynikające z niej zróżnicowanie
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
kontekstów rozumienia tego terminu powoduje, że trudno jest znaleźć wspólną wykładnię
interpretacyjną.
Rozważania nad istotą informacji jako jeden z pierwszych podjął Claude E. Shannon,
matematyk, profesor Massachusets Institute of Technology. W opublikowanej w 1948 r.
pracy A mathematical theory of communication109 wskazywał on, że charakterystyczną cechą
informacji jest zmniejszanie entropii, rozumianej w tym kontekście jako niewiedza
odbiorcy110. W takim rozumieniu informacja traktowana jest w kategoriach pojęcia
pierwotnego, bez przypisania jej konkretnej definicji oraz interpretacji – jej znaczenie
jest rozumiane intuicyjnie. C.E. Shannon nie określił wprost znaczenia terminu „informacja”,
koncentrując się raczej na próbie zdefiniowania jej ilości przekazanej w komunikacie –
konkluzję stanowiło stwierdzenie, że każda wiadomość przekazywana odbiorcy
jest informacją, niezależnie od faktycznej jej treści111.
Prace nad teorią informacji prowadził również Börje Langefors – zgodnie
z wypracowaną przez niego teorią infologiczną, informacja jest wynikiem interpretacji
danych przez odbiorcę i może powstać jedynie w umyśle człowieka112. Proponowane
107
T.H. Davenport, L. Prusak, Working Knowledge: How Organizations Manage What They Know, Boston
1998, s. 2.
108
Zob. Ibidem, s. 18.
109
Zob. C.E. Shannon, A mathematical theory of Communications, „Bell System Technical Journal”, 1948, vol.
27, pp. 379-423, 623-656.
110
Zob. M. Grabowski, A. Zając, Dane, informacja, wiedza – próba definicji, „Zeszyty Naukowe Uniwersytetu
Ekonomicznego w Krakowie”, 2009, nr 798, s. 6.
111
Zob. B. Stefanowicz, Informacja, Warszawa, 2014, s. 7.
112
Zob. B. Stefanowicz, Informacja. Wiedza. Mądrość, Warszawa 2013, s. 9.
50
przez Langeforsa równanie infologiczne, wyrażone wzorem I=i(D,S,t) (gdzie I oznacza
informację, i – proces interpretacji, D – dane, S – „przedwiedzę”, a t – czas) wskazuje,
że informacja jest procesem interpretacji danych w oparciu o wiedzę uzyskaną przed odbiorcę
wcześniej, tj. przed poznaniem tych danych113. W podobnym tonie wypowiadają się Thomas
H. Davenport i Laurence Prusak wskazując, że informacja to „dane, które czynią różnicę”114.
Oznacza to, że dane przekształcają się w informację w momencie dodania do nich wartości
(czyli ich interpretację). Taka wykładnia pozwala zauważyć subiektywny charakter informacji
– w zależności od posiadanej wiedzy, z jednakowych danych różni odbiorcy są w stanie
uzyskać odmienne informacje. Zauważalne jest zatem odmienne niż u C.E. Shannona
rozumienie informacji, jako danych uświadomionych i zinterpretowanych przez człowieka.
W ogólnym rozumieniu informacja jest „bytem” posiadającym znaczenie,
prowadzącym do określonych skutków i mającym wpływ na decyzje i działania ludzi 115.
Kluczowym elementem informacji jest jej znaczenie, dostarczane razem z kontekstem –
zawsze jest ono nadawane przez odbiorcę w wyniku obserwacji zjawisk zewnętrznych116.
Szeroką definicję informacji przedstawił Mariusz Maciejewski – w jego opinii
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
113
Zob. R.D. Gallers, W. Currie (red.), The Oxford Handbook of Management Information Systems: Critical
Perspectives and New Directions, Oxford 2011, s. 23.
114
T.H. Davenport, L. Prusak, op. cit., s. 3-4.
115
Zob. A. Liew, Data, information, knowledge and their interrelationships, “Journal of Knowledge
Management Practice”, 2007, nr 7, s. 2.
116
Zob. H. Bulińska-Stangrecka, Informacja w naukach o zarządzaniu, [w:] P. Stacewicz (red. nauk.), Różne
oblicza informacji, Warszawa 2017, s. 100.
117
Zob. M. Maciejewski, Prawo informacji – zagadnienia podstawowe, [w:] W. Góralczyk (red.), Prawo
informacji - prawo do informacji, Warszawa 2006, s. 31.
118
Zob. A. Januszko-Szakiel, Open Archival Information System (OAIS) - standard w zakresie archiwizacji
publikacji elektronicznych, „Przegląd Biblioteczny” 2005, z. 3, s. 341.
119
Zob. L. Reich, D. Sawyer, Archiving Referencing Model, White Book, Issue 5, CCSDS 1999, [za:] J. Łuczak,
M. Tyburski, Systemowe zarządzanie bezpieczeństwem informacji ISO/IEC 27001, Poznań 2009, s. 9.
51
z nich jest kreowanie i zmiana rzeczywistości poprzez odwzorowanie przeszłości,
teraźniejszości i przyszłości. Przedstawicielem tego podejścia są m.in. Henryk Greniewski,
według którego informacja to wiadomość uzyskiwana przez odbiorcę w wyniku obserwacji
lub czynności umysłowej przekazywanej w układzie nadawca-odbiorca120 oraz Norbert
Wiener, rozumiejący informację jako treść zaczerpniętą ze świata zewnętrznego w procesie
dostosowywania się człowieka do tego świata oraz przystosowywania do niego ludzkich
zmysłów121. Na świat zewnętrzny jako źródło pozyskiwania informacji zwraca uwagę
również Tadeusz Wierzbicki, wskazując, że treści z niego zaczerpnięte zwiększają wiedzę
osoby lub zmniejszają niewiedzę, niepewność i nieokreśloność w sytuacji decyzyjnej 122.
Drugą funkcją pełnioną przez informację jest prezentacja zdarzeń, rzeczy, stanów i obiektów
z perspektywy czasowej. W tym rozumieniu informacja jest treścią o czymś, która ze względu
na coś posiada określone znaczenie dla kogoś i jest wyrażana za pomocą znaków językowych
i/lub pozajęzykowych123. Kolejna funkcja to identyfikacja i antycypacja, które prowadzą
do zmniejszenia stopnia nieokreśloności – informacja jest rozumiana jako odbicie obiektów
(faktów, zjawisk, stanów, przedmiotów) istniejących materialnie oraz czynnik mogący
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
120
Zob. H. Greniewski, Cybernetyka niematematyczna, Warszawa 1982, s. 13.
121
Zob. N. Wiener, Cybernetyka i społeczeństwo, Warszawa 1961, s. 6.
122
Zob. T. Wierzbicki, System informacji gospodarczej, Warszawa 1981, s. 9.
123
Zob. J. Lyons, Semantics, Harmondsworth 1977, s. 60.
124
Zob. J. Czekaj, Metody zarządzania informacją w przedsiębiorstwie, „Zeszyty Naukowe Akademii
Ekonomicznej w Krakowie. Seria Specjalna, Monografie”, 2000, nr 143, s. 17.
125
Zob. M. Grabowski, A. Zając, op. cit., s. 11.
126
G.E. Milward, Organization and Methods – A Service to Management, London 1967, s. 347, [za:] M.
Grabowski, A. Zając, op.cit., s. 7.
127
Z. Mesner, Informacja ekonomiczna a zarządzanie przedsiębiorstwem, Warszawa 1971, [za:] J. Czekaj, op.
cit., s. 17.
52
niepewności – uwagę na ten fakt zwraca m.in. Richard L. Daft, wskazując,
że „(…) niepewność jest to nieobecność informacji: gdy niepewność jest duża, większa ilość
informacji musi być pozyskana i przetworzona. W sytuacji wysokiej niepewności dane mogą
zostać zgromadzone, by odpowiedzieć na pytanie i zredukować niepewność. (...)
Niejednoznaczność informacji oznacza, że sytuacja nie może być obiektywnie zanalizowana
i zrozumiana”128. Piotr Sienkiewicz wskazuje, że odpowiednie wykorzystanie źródła wiedzy,
jakim jest informacja daje człowiekowi władzę, ponieważ posiadanie dużej ilości
wiarygodnych informacji zwiększa szansę na podjęcie optymalnej decyzji129.
Kolejnym pojęciem niejednoznacznym i trudnym do zdefiniowana jest wiedza.
Badaniem tego interdyscyplinarnego terminu zajmują się przedstawiciele zróżnicowanych
dziedzin nauki. Z punktu widzenia logiki, wiedza jest rozumiana jako zbiór reguł i faktów130.
Definicja wypracowana przez specjalistów psychologii poznawczej przedstawia wiedzę
jako formę trwałej reprezentacji rzeczywistości w postaci uporządkowanej i generującej
wzajemne powiązania struktury informacji, kodowaną w pamięci długotrwałej. W badaniach
nad sztuczną inteligencją przyjmuje się natomiast, że wiedza jest zbiorem wiadomości
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
133
Zob. M. Grabowski, A. Zając, op. cit., s. 16.
134
Zob. B. Bednarek-Michalska, Wolny dostęp do informacji i wiedzy czy wykluczenie edukacyjne? Trendy
światowe a Polska, „Biuletyn EBIB”, 2005, nr 2(63), s. 3.
135
Zob. I. Krysowaty, P. Niedziejko, Informacja w systemach IT jako towar strategiczny, [w:] J. Żuchowski
(red.), Innowacyjność w kształtowaniu jakości wyrobów i usług, Radom 2006, s. 115.
136
Zob. J. Łuczak, M. Tyburski, op. cit., s. 7.
54
przechowywanie i gromadzenie, aż do momentu zniszczenia137. Konsekwencją dynamicznego
postępu techniki oraz nieustannie rosnącej ilości przetwarzanych danych jest konieczność
poszukiwania i stosowania rozwiązań pozwalających nie tylko skutecznie zarządzać
informacją, ale również zapewniających im ochronę przed nieuprawnionym ujawnieniem,
modyfikacją czy utratą.
Wzrost roli informacji we współczesnym świecie jest wynikiem rewolucji
informacyjnej, wprowadzającej ludzkość w erę społeczeństwa informacyjnego.
W społeczeństwie tym, produktem o kluczowym znaczeniu jest informacja, a bogactwem –
wiedza. Konsekwencję takiego stanu rzeczy stanowi podnoszenie rangi bezpieczeństwa
informacyjnego. Jest ono obecnie jednym z najbardziej istotnych przedmiotowych wymiarów
zarówno bezpieczeństwa narodowego, jak i międzynarodowego. Jego znaczenie jest efektem
roli, jaką niezakłócony przepływ i wymiana informacji odgrywa w zapewnianiu efektywnego
funkcjonowania większości współczesnych podmiotów stosunków międzynarodowych,
w szczególności w kontekście życia społecznego i ewolucji społeczeństwa informacyjnego.
Bezpieczeństwo informacyjne zapewnia pożądany poziom ochrony kluczowych zasobów
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
137
Zob. W. Fehler, O pojęciu bezpieczeństwa informacyjnego…, s. 30.
138
Zob. K. Malak, op. cit., s. 6.
139
Strategia Bezpieczeństwa Narodowego Rzeczypospolitej Polskiej z 2014 r., Biuro Bezpieczeństwa
Narodowego, Warszawa 2014. s. 35.
55
informatycznych i cyberprzestrzeni, a spośród wielu wymiarów bezpieczeństwa
informacyjnego porusza jedynie kwestię zagrożeń ze strony obcych służb wywiadowczych 140.
Inny kluczowy dokument, Biała Księga Bezpieczeństwa Rzeczypospolitej Polskiej,
nie zawęża co prawda bezpieczeństwa informacyjnego jedynie do ochrony informacji
niejawnych, ale wskazane w niej wyjaśnienie tego pojęcia jest mało precyzyjne. Autorzy
dokumentu zdefiniowali je jako transsektorowy obszar bezpieczeństwa, którego treść
(obejmująca cele, warunki, sposoby i środki) odnosi się do środowiska informacyjnego
państwa, w tym do jego cyberprzestrzeni141. Potraktowanie bezpieczeństwa informacyjnego
w tak zdawkowy, ograniczony sposób w strategicznych dokumentach bezpośrednio
odnoszących się do bezpieczeństwa państwa jest niepokojące i może wskazywać na brak
prawidłowego rozumienia znaczenia rozwoju społeczeństwa informacyjnego.
Szeroką definicję bezpieczeństwa informacyjnego, wskazującą na zrozumienie
jego współczesnego wymiaru, prezentują Eugeniusz Nowak i Maciej Nowak, określający
ten termin jako taki stan uwarunkowań wewnętrznych i zewnętrznych państwa, który pozwala
mu na rozwój społeczeństwa informacyjnego. Uwarunkowania te obejmują przede
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
140
Zob. W. Fehler, O pojęciu bezpieczeństwa informacyjnego…, s. 28.
141
Zob. Biuro Bezpieczeństwa Narodowego, Biała Księga Bezpieczeństwa Narodowego RP, Warszawa 2013, s.
248.
142
E. Nowak, M. Nowak, Zarys teorii bezpieczeństwa narodowego, Warszawa 2011, s. 103.
143
L.F Korzeniowski, Podstawy nauk o bezpieczeństwie, Warszawa 2012, s. 147.
144
K. Liderman, Bezpieczeństwo informacyjne, Warszawa 2012, s. 22.
145
Zob. W. Fehler, O pojęciu bezpieczeństwa informacyjnego…, s. 29-30.
56
Warunkiem zapewnienia dobrej jakości informacji jest krytyczna analiza i merytoryczna
selekcja pozyskiwanych danych.
Pojęciem pozostającym w sferze bezpieczeństwa informacyjnego, ale nie tożsamym
z tym terminem, jest bezpieczeństwo informacji. Odnosi się ono do konkretnych produktów
informacyjnych, których bezpieczeństwo zależy od posiadania określonych cech
oraz postępowania z nimi według adekwatnych standardów bezpieczeństwa. Zgodnie
z definicją zawartą w normie PN-ISO/IEC 27001:2007, bezpieczeństwo informacji oznacza
„zachowanie poufności, integralności i dostępności informacji; dodatkowo mogą być brane
pod uwagę inne własności, takie jak autentyczność, rozliczalność, niezaprzeczalność
i niezawodność”146. Z kolei w kontekście procesu zapewniania bezpieczeństwa
informacyjnego bezpieczeństwo samej informacji można zdefiniować jako stan i proces,
w ramach którego w całym cyklu życia informacji (obejmującym wytworzenie, pozyskanie,
przetwarzanie, przechowywanie, wykorzystywanie, kopiowanie i niszczenie) zapewnia się
osiąganie i utrzymywanie na pożądanym przez podmiot poziomie jej elementarnych
właściwości, tj. dostępności, integralności, poufności i użyteczności147.
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
146
PN-ISO/IEC 27001:2007, Technika informatyczna – Techniki bezpieczeństwa – Systemy zarządzania
bezpieczeństwem informacji – Wymagania, Warszawa 2007, s. 9.
147
Zob. W. Fehler, O pojęciu bezpieczeństwa informacyjnego…, s. 30.
148
ISACA (Information Systems Audit and Control Association) – międzynarodowe stowarzyszenie osób
zajmujących się zagadnieniami audytu, bezpieczeństwa, kontroli oraz innymi istotnymi aspektami zarządzania
systemami informatycznymi.
149
Zob. IT Governance Institute, COBIT 4.1. Metodyka. Cele kontrolne. Wytyczne zarządzania Modele
dojrzałości, Rolling Meadows 2010, s. 10.
57
niezaprzeczalności – wskazującej na zdolność do udowodnienia podmiotowi procesu
wymiany informacji jego uczestnictwa w tym procesie (np. poprzez stosowanie podpisu
elektronicznego);
autentyczności, rozumianej jako zgodność pochodzenia lub zawartości informacji
z wcześniej zadeklarowanymi150.
Dodatkowo metodyka COBIT przypisuje informacji cztery inne atrybuty, tj.:
efektywności – oznaczającej, że informacje powinny być istotne i adekwatne
dla odbiorców, a także dostarczane w sposób prawidłowy, użyteczny, spójny
i terminowy;
wydajności – wskazującej, że informacje należy dostarczać wykorzystując w sposób
najbardziej optymalny dostępne zasoby;
zgodności – rozumianej jako zapewnienie, że przekazywanie i przetwarzanie informacji
w ramach organizacji uwzględnia wymagania wynikające z przepisów prawa, regulacji
narzuconych przez podmioty zewnętrzne, umów oraz wewnętrznych postanowień
organizacji;
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
150
Zob. PN-ISO/IEC 27001:2007…, s. 9.
151
Zob. IT Governance Institute, op.cit., s. 10-11.
58
wpływającym na jego poziom intelektualny, a także posiadaniu aktualnych i istotnych
informacji o bieżących i planowanych działaniach potencjalnych i realnych przeciwników,
co przekłada się na możliwość zaplanowania i wdrożenia adekwatnych działań
prewencyjnych lub akcji dezinformacyjnych. Posiadana wiedza zmniejsza poziom
niepewności, będącej składową zagrożenia, a co za tym idzie – zwiększa poczucie
bezpieczeństwa podmiotu. Im później państwo zdecyduje się na budowanie cywilizacji
informacyjnej, tym dołączenie do grupy krajów efektywnie wykorzystujących technikę
informacyjną i osiągnięcie ich poziomu rozwoju będzie trudniejsze i bardziej kosztowne,
z uwagi na pogłębiającą się przepaść technologiczną oraz konieczność wdrożenia
działających i „nierozpracowanych” jeszcze środków zapewniających bezpieczeństwo
posiadanych zasobów informacyjnych. Warto również zastanowić się nad wpływem,
jaki światowa gospodarka wywiera na rozwój technologii informacyjnych i związaną z tym
procesem konieczności weryfikacji roli państwa jako organizacji życia społecznego.
Z jednej strony reorganizacja związana z wkroczeniem w nową epokę rozwoju, epokę
społeczeństwa informacyjnego i cywilizacji informacyjnej, umacnia znaczenie państwa
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
60
2. Sztuczna inteligencja w ujęciu ogólnym
2.1. Geneza badań nad sztuczną inteligencją
152
Zob. L. Rutkowski, Metody i techniki sztucznej inteligencji, Warszawa 2009, s. 5.
153
Rozważania na ten temat podejmowali m.in. Arystoteles, William Ockham, Kartezjusz czy Gottfried Leibniz;
zob. M. Flasiński, Wstęp do sztucznej inteligencji, Warszawa 2011, s. 3.
61
Niemal od początku badań nad sztuczną inteligencją wyodrębniły się w tej dziedzinie
dwa główne nurty. Silna sztuczna inteligencja (nazywana też bioniczną) skoncentrowała się
na badaniu funkcji ludzkiego mózgu, a jej istotę stanowi analiza działania neuronów
zmierzająca w kierunku praktycznego wykorzystania tej wiedzy w próbach odwzorowania
procesów myślowych. Drugi nurt, czyli słaba sztuczna inteligencja (nurt pragmatyczny),
dążył do osiągnięcia zbliżonych celów, ale zamiast czerpać wzorce ze schematu
funkcjonowania mózgu człowieka, zwrócił się ku metodom formalnego pozyskiwania
i reprezentowania wiedzy, a także budowania skutecznych metod heurystycznego
przeszukiwania zbiorów danych154.
Pierwsze dedykowane badania nad sztuczną inteligencją rozpoczęto w 1956 r.
Zaangażowali się w nie pracownicy Carnegie Mellon University (CMU) - Allen Newell
i Herbert Simon, Massachusetts Institute of Technology (MIT) - John McCarthy i Marvin
Minsky oraz International Business Machines (IBM) - Arthur Samuel. Celem badań było
osiągnięcie przez maszynę poziomu inteligencji człowieka do 1980 r. J. McCarthy
i M. Minsky byli również autorami pierwszej definicji sztucznej inteligencji, za którą uznali
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
154
Zob. K. Ficoń, Sztuczna inteligencja. Nie tylko dla humanistów, Warszawa 2013, s. 89-90.
155
Zob. K. Ficoń, op. cit., s. 89.
156
Zob. J. Gozdek, Historia sztucznej inteligencji, [on-line], chip.pl, 03.12.2013, https://www.chip.pl/2013/12/
historia-sztucznej-inteligencji/ (14.10.2019).
157
Zob. M. Flasiński, op. cit., s. 4.
158
Ibidem.
62
dostarczanych mu języków programowania. Pomimo, że Perceptron wykazywał podstawowe
zdolności przyswajania wiedzy, to uzyskiwane przez niego wyniki nie spełniały oczekiwań
ówczesnych entuzjastów AI159. Zadaniem Perceptrona było rozpoznawanie znaków
– po licznych próbach okazało się, że system nie rozpoznaje znaków złożonych, a zmiana
skali obiektów, przesunięcie ich w polu widzenia układu czy zmiana kształtu analizowanych
znaków wpływa negatywnie na jego działanie. Jako główną zaletę Perceptrona wskazywano
odporność na uszkodzenia – jako układ częściowo elektromechaniczny, a częściowo
elektroniczny, Perceptron działał poprawnie nawet z uszkodzonymi elementami160.
Efektem kontynuacji tych badań była konstrukcja pierwszego neurokomputera, który
znalazł zastosowanie komercyjne. W 1960 r., na bazie elementów zdolnych do uczenia się
Bernard Widrow zbudował Madaline161. Madaline realizował zadania związane
z adaptacyjnym przetwarzaniem sygnałów, dzięki czemu znalazł zastosowanie
m.in. w sonarach, modemach, radarach i liniach telefonicznych162.
Z uwagi na słabe rezultaty, finansowanie projektów związanych ze sztuczną
inteligencją zostało zamrożone – nastąpiła tzw. „zima AI”163. Mimo, że tematykę
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
tę podejmowały duże informatyczne zespoły badawcze, a ona sama stała się przedmiotem
artykułów prasowych, publikacji naukowych oraz licznych konferencji, to niedostatki
technologiczne ówczesnego sprzętu badawczego i wynikający z nich brak możliwego
praktycznego zastosowania tej gałęzi nauki przyczynił się do niemal całkowitego zaniku
zainteresowania nią. Zaprzestano finansowania dalszych badań, co sprawiło, że współpracę
z badaczami kontynuowały jedynie instytucje wojskowe i bogate firmy komputerowe,
czyli podmioty mogące pozwolić sobie na sponsorowanie długotrwałych badań z nadzieją
na oddalone w czasie, ale efektywne wyniki komercyjne164.
Rozkwit AI nastąpił w 1991 r. – przyczynił się do niego data mining, pozwalający
na szersze zastosowanie sztucznej inteligencji, m.in. w medycynie czy logistyce. Z uwagi
na dynamikę i zróżnicowanie obszarów badawczych, w których wykorzystywana jest
sztuczna inteligencja, trudno jest scharakteryzować każdy z innowacyjnych projektów
badawczych, który przyczynił się do podniesienia zarówno poziomu wiedzy w tym obszarze,
jak i możliwości jej zastosowania we współczesnym świecie. Wśród przełomowych dat
159
Zob. K. Ficoń, op. cit., s. 90.
160
Zob. Katedra Inżynierii Komputerowej Politechniki Częstochowskiej, Sieci neuronowe. Historia, [on-line],
Politechnika Częstochowska, 2004, https://iisi.pcz.pl/nn/historia.php (17.01.2020).
161
Z ang. Many Adaline; Adaline – Adaptive Linear Element.
162
Zob. Katedra Inżynierii Komputerowej Politechniki Częstochowskiej, op. cit.
163
Zob. Fundacja Digital Poland, Przegląd Strategii Rozwoju Sztucznej Inteligencji na Świecie, Warszawa 2018,
s. 147.
164
Zob. M. Łakomy, Data mining od podszewki, [on-line], Computerworld.pl, 11.05.1998,
https://www.computerworld.pl/news/Data-mining-od-podszewki,284591.html (12.01.2020).
63
i wydarzeń z nimi związanych dla rozwoju tej dziedziny nauki należy wyróżnić
w szczególności:
rok 1993, w którym grupa BBG (ang. Brain Building Group), pod przewodnictwem
specjalisty w zakresie SI – Hugo de Garisa, rozpoczęła prace nad projektem CAM-
Brain165. Celem badań było stworzenie sztucznego mózgu posiadającego milion
neuronów, którego poziom inteligencji miał być na poziomie młodego kota166.
rok 1997 jako przełomowy dla inteligentnych maszyn; IBM Deep Blue wygrał w szachy
z mistrzem w tej dziedzinie – Garrim Kasparowem, demonstrując tym samym zdolność
do logicznego i strategicznego myślenia; w kolejnych latach komputery wygrywały
z użytkownikami kolejnych popularnych gier – w 2014 maszyna pokonała człowieka
w grę Shogi167, rok później program AlphaGo odniósł sukces w grze Go, a w 2017 r.
program DeepStack zwyciężył z ludzkim przeciwnikiem podczas rozgrywki pokera
(Texas Hold’em);
rok 1999, w którym rozwiązania sztucznej inteligencji i robotyki zaimplementowano
do branży rozrywkowej - jednym z pierwszych komercyjnych projektów autonomicznych
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
robotów był Aibo – stworzony przez firmę SONY robot-pies, którego cechą
charakterystyczną była zdolność do podejmowania interakcji z człowiekiem, w tym
reagowania na kilkadziesiąt komend głosowych; modernizowany i dopracowywany przez
lata robot uczy się otoczenia i potrafi powiązać je z usłyszanymi komendami, co zmienia
sposób jego reakcji w zależności od miejsca, ; Aibo potrafi obecnie nie tylko
rozpoznawać i zapamiętywać twarze, ale również odczytywać malujące się na nich
emocje; wśród innych zdolności robo-psa producent wskazuje m.in. szeroki katalog,
umiejętność uczenia się nowych sztuczek, okazywanie emocji, rozbudowaną
gestykulację, możliwość robienia zdjęć i nagrywania filmów oraz zdolność
do wchodzenia w interakcje z innymi, żywymi zwierzętami168;
rok 2004, w którym doceniono potencjał pojazdów autonomicznych; amerykańska
agencja DARPA w ramach projektu Systemów Bojowych Przyszłości (FCS)
zorganizowała zawody pojazdów bezzałogowych, w którym nagrodą był grant naukowy
– w ten sposób zainicjowano sponsorowanie projektów badawczych mogących znaleźć
zastosowanie w bezpieczeństwie narodowym. Trasa zorganizowanych 13 marca 2004 r.
zawodów mierzyła ponad 227 km – żaden ze startujących pojazdów nie pokonał
165
CAM – ang. Cellular Automate Machine
166
Zob. K. Różanowski, Sztuczna inteligencja: rozwój, szanse i zagrożenia, „Zeszyty Naukowe: Warszawska
Wyższa Szkoła Informatyki”, 2007, nr 2, s. 124.
167
Shogi – japońskie szachy; zob. Fundacja Digital Poland, op. cit., s. 148.
168
Zob. Sony, Aibo – unleash wonder, [on-line], aibo.com, b.r., https://us.aibo.com (20.09.2019).
64
przewidywanego dystansu, a pojazd zwycięskiego zespołu Red Team z Carnegie Mellon
University uzyskał odległość niecałych 12 km.
Kluczowym pytaniem w kontekście sztucznej inteligencji jest: kiedy program
lub maszyna jest inteligentna? Próbę odpowiedzi podjął w 1950 r. Alan Turing, proponując
tzw. test Turinga, rozstrzygający o inteligencji programu. Test polega na skonstruowaniu
zamkniętego systemu w odizolowanym pomieszczeniu i połączeniu go terminalem
komunikacyjnym z niezależnym obserwatorem. Jednocześnie druga platforma komunikacyjna
łączy obserwatora z innym pomieszczeniem, w którym znajduje się żywy człowiek. Zadaniem
operatora jest komunikacja z obydwoma rozmówcami przy użyciu języka naturalnego,
zadawanie pytań, prowadzenie rozmowy. Jeżeli na podstawie odpowiedzi uzyskiwanych
od obu partnerów obserwator nie będzie mógł definitywnie stwierdzić, który z rozmówców
jest żywym człowiekiem, a który systemem komputerowym, wówczas stworzony system
należy uznać za inteligentny169. Do tej pory test Turinga przeszedł tylko jeden program -
„Eugene Goostman”, który w 2014 r. podając się za 13-letniego chłopca przekonał 33%
sędziów, że jest człowiekiem170. Uzyskany przez system wynik spotkał się z wielokrotną
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
krytyką ze strony ekspertów. Samą ideę testu Turinga skrytykował m.in. John Searle
twierdząc, że komputer nie może być inteligentny, bo posługuje się jedynie symbolami
przetwarzanymi według narzuconych reguł (algorytmów), nie rozumiejąc ich znaczenia.
Swój tok myślenia filozof zilustrował przykładem „chińskiego pokoju”: w zamkniętym
pokoju znajduje się Europejczyk nieznający języka chińskiego, a do pomieszczenia
podkładane są pojedyncze kartki z pytaniami zapisanymi chińskimi znakami. W pokoju jest
również książka pt. Co zrobić, gdy ktoś wsunie pod drzwiami kartkę z chińskimi znakami,
zawierająca instrukcje pisania chińskich znaków, adekwatnie do treści zapisanych
na podłożonych kartkach. W związku z tym, Europejczyk opierając się na wytycznych
z podręcznika jest w stanie przygotować odpowiedzi na otrzymywane pytania,
ale nie rozumie przekazywanych mu informacji ani udzielanych komunikatów zwrotnych.
Jak twierdzi J. Searle, analogicznie działa „inteligentna” maszyna, która wykonując zadany
program generuje prawidłowe odpowiedzi na zadawane pytania, ale nie rozumie ich treści,
co podkreśla różnicę pomiędzy myśleniem a symulowaniem procesów myślowych171.
Wyciągnięte przez J. Searle’a wnioski wskazują, że nie istnieje program komputerowy,
który sam w sobie wyposażyłby system w umysł, co oznacza, że programy nie są umysłami
i nie wystarczą do jego powstania. Czynności „mózgu” maszyny, ograniczone wyłącznie
169
Zob. L. Rutkowski, op. cit., s. 5.
170
Zob. J. Schofield, Computer chat bot ’Eugene Goostman’ passes the Turing test, [on-line], zdnet.com, b.r.,
http://www.zdnet.com/article/computer-chatbot-eugene-goostman-passes-the-turing-test/, (29.05.2017).
171
Zob. M. Kasperski, Kilka słów w kwestii Chińskiego Pokoju i dwu innych argumentów przeciw SI: sir Rogera
Penrose’a i z redukcjonizmu, [on-line], kognitywistyka.net, 2002, http://www.kognitywistyka.net/artykuly/mk-
kswapsi.pdf (20.05.2019).
65
do realizowania programu komputerowego nie są wystarczające, by funkcjonowanie tego
mózgu doprowadziło do powstania umysłu. Cokolwiek, co mogłoby stanowić przyczynę
umysłu, musiałoby mieć moc oddziaływania przyczynowego, porównywalną
z możliwościami ludzkiego mózgu. Wyposażenie jakiegokolwiek zbudowanego przez
człowieka artefaktu w program komputerowy nie jest wystarczające do tego, by jego stany
umysłowe były porównywalne z ludzkimi172. A zatem, nawet gdyby maszyna udzielała
odpowiedzi niemożliwych do odróżnienia od odpowiedzi człowieka, zdaniem J. Searle’a
nie ma podstaw, by uznać ją za inteligentną.
Kontrowersyjne zagadnienie podjął Roger Penrose, który w książce pt. Nowy umysł
cesarza rozważał nad wykorzystaniem inteligentnych systemów do potrzeb człowieka,
bez uwzględniania ewentualnych pragnień maszyn, które – jako zdolne do samodzielnego
myślenia – posiadałyby. Sprzedawanie takich maszyn lub odłączanie ich od źródła zasilania,
traktowanego jako pokarm, byłoby z moralnego punktu widzenia wątpliwe. Pierwszym
z urządzeń sztucznej inteligencji był elektroniczny żółw, zbudowany przez Greya Waltera173
w latach 50. XX w., zdolny do samodzielnego poruszania się w pomieszczeniu
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
172
Zob. J.R. Searle, Umysł, mózg i nauka, „The Behavioral and Brain Sciences”, 1982, nr 5(2), s. 339-341.
173
Grey Walter zbudował pierwsze na świecie maszyny autonomiczne, które nie miały żadnego celu poza
podtrzymywaniem własnej aktywności i istnienia; mechaniczne żółwie określił jako przedstawicieli nowego
gatunku – Machina Speculatrix; zob. R. Tadeusiewicz, Elektroniczne zwierzęta, „Wszechświat”, 2011, nr 7-9, s.
179.
66
przekazu może nawet uniemożliwić działanie174. Inne zadania, z którymi mierzy się AI,
to przede wszystkim wnioskowanie (dzięki którym możliwe jest wyciąganie wniosków
z pojawiających się informacji i podejmowanie decyzji o dalszych działaniach), uczenie się
(niezbędne do dostosowania się systemu do nowych okoliczności i pojmowania nowych
zjawisk), rozumienie języka naturalnego (konieczne do praktycznej weryfikacji zdolności
systemu AI) oraz robotyka, rozumiana jako praktyczna konstrukcja systemu, który posiada
zdolność do poruszania się i wykonywania określonych działań w świecie rzeczywistym 175.
Za nadrzędny cel badań nad sztuczną inteligencją należy uznać stworzenie systemów
(nazywanych też agentami), które będą działały, czyli realizowały nałożone na nie zadania,
co najmniej tak dobrze, jak człowiek. Systemy te mogą działać w zróżnicowanych
środowiskach, o różnych poziomach złożoności i przewidywalności. Skuteczne działanie
warunkowane jest prawidłowo zdefiniowanym celem oraz zdolnością do prawidłowego
postrzegania stanów – zarówno własnego, jak i otoczenia. Nie mniej ważne są zastosowane
reguły pożądanych zachowań agenta (wbudowane, ale i możliwe do rozwinięcia)
oraz zdolność do podejmowania działań oddziałujących na otoczenie systemu.
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
174
Zob. F. Dul, Wprowadzenie do sztucznej inteligencji, [on-line], Politechnika Warszawska, 2014,
https://www.meil.pw.edu.pl/content/download/filw/ AI_Wstep_14 s. 15, (13.09.2019).
175
Zob. Ibidem, s. 13.
176
Zob. L. Rutkowski, op. cit., s. 4.
177
Zob. Encyklopedia PWN, Inteligencja, [on-line], encyklopedia.pwn.pl, b.r., https://encyklopedia.pwn.pl/
haslo/inteligencja;3915042.html (13.05.2019).
67
poznawczych adekwatnych do okoliczności, niezbędnych do sprawnego działania w nowych
sytuacjach.
Badania naukowe nad inteligencją zapoczątkował w 1883 r. Francis Galton – w jego
rozumieniu termin ten oznaczał podstawową zdolność umysłu, która decydowała o sukcesie
jednostki w toku walki o przetrwanie. Inteligencję miała determinować energia psychiczna,
umożliwiająca szybszą reakcję na bodźce i odróżnianie wrażeń zmysłowych. Badania
F. Galtona dały początek naukowemu podejściu do badania zdolności umysłowych
– w 1905 r. kolejną definicję inteligencji przedstawił Alfred Binet. W jego rozumieniu
jest to zdolność do wydawania trafnych sądów, w szczególności w odniesieniu do sytuacji
i problemów życia codziennego, a samo myślenie człowieka inteligentnego jest
ukierunkowane i prowadzi do rozwiązania problemu.
Wilhelm Stern uważał, że inteligencja jest ogólną zdolnością do adaptacji w nowych
warunkach i wykonywania w nich nowych zadań178. Według Charlesa Spearmana, pojęcie
to oznacza konkretną umiejętność dostrzegania zależności i relacji179, natomiast
George Ferguson sprowadzał istotę inteligencji do zdolności uczenia się, przyswajania nowej
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
178
Stern.
179
Zob. C. Spearman, The nature of “intelligence” and the principles of cognition, London 1923; [za:] K.
Różanowski, op. cit., s. 110-112.
180
Zob. K. Różanowski, op. cit., s. 110-112.
181
Zob. A. Nęcka, Inteligencja i procesy poznawcze, Kraków 1994, [za:] A. Dydel, Fitness inteligencji. ABC
teorii i ćwiczeń, [e-book], 2016, s. 7.
182
Ł. Kryśkiewicz, Sztuczna inteligencja w sektorze finansowym, [on-line], di.com.pl, 2017,
http://di.com.pl/sztuczna-inteligencja-w-sektorze-finansowym-58641, (15.05.2018).
68
współpracy, wnioskowanie, analizowanie, tworzenie, a także myślenie abstrakcyjne
i koncepcyjne. Inteligencja wiąże się również z pojęciami samoświadomości, emocjonalności
oraz irracjonalnych stanów i działań człowieka.
Przegląd zaprezentowanych definicji pozwala stwierdzić, że inteligencja
jest zdolnością do skutecznego zachowywania się w nowych sytuacjach i zadaniach,
wynikającą z umiejętności wykorzystania ogółu wiedzy i doświadczenia w celu efektywnego
rozwiązywania problemów183. Mimo, że inteligencję przypisuje się wyłącznie człowiekowi,
to już od czasu powstania pierwszego komputera podejmowano próby budowy maszyny
inteligentnej, charakteryzującej się definiującymi tę inteligencję cechami. Komputery
i maszyny obliczeniowe są w stanie rozwiązywać wiele problemów szybciej i sprawniej
niż człowiek, jednak stawiane przed nim zdania cechuje powtarzalność obliczeń
i algorytmiczność zagadnień. Te z kolei mogą być wykorzystywane do usprawnienia
realizacji zadań wymagających znajomości (i zapamiętania) licznych zmiennych, faktów
i układów zależności. Dziedzinę informatyki prowadzącą badania nad inteligencją poprzez
modelowanie zachowań inteligentnych oraz programów komputerowych, które symulują
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
183
Zob. A. Czapczuk, J. Dawidowicz, J. Piekarski, Metody sztucznej inteligencji w projektowaniu i eksploatacji
systemów zaopatrzenia w wodę, „Rocznik Ochrona Środowiska”, 2015, t. 17, s. 1528.
184
Zob. M. Negnevitsky, Artificial Intelligence: A Guide to Intelligent Systems, Harlow 2005, s. 6.
185
Zob. The Society for the Study of Artificial Intelligence and Simulation of Behavior (AISB), What is
Artificial Intelligence, [on-line], AISB, b.r., https://www.aisb.org.uk/public-engagement/what-is-ai (13.05.2019).
186
Zob. A. Kaplan, M. Haenlein, Siri, Siri, in my hand: Who’s the fairest in the land? On the interpretations,
illustrations, and implications of artificial intelligence, „Business Horizons”, 2019, vol. 62, is. 1, p. 15.
69
„dziedzinę nauki zajmującą się rozwiązywaniem problemów efektywnie
niealgorytmizowanych187, w oparciu o modele wiedzy”188;
pojęcie odnoszące się do komputerów naśladujących aspekty ludzkiego myślenia; „(…)
maszyna, która może uczyć się na swych błędach, albo to może popisać się
rozumowaniem, ma status AI”189;
„próby stworzenia myślących komputerów (…), maszyn z umysłami”190;
„dziedzinę badań usiłujących naśladować ludzką inteligencję w maszynie; obszar AI
zawiera systemy z bazą wiedzy, systemy ekspertowe, rozpoznawanie obrazów,
automatyczną naukę, rozumienie języka naturalnego, robotykę i inne”191;
„naukę o czynnościach, które miałyby spowodować, że maszyny będą wykonywać
funkcje, które aktualnie lepiej wykonuje człowiek”192;
„dziedzinę nauki próbującą wyjaśnić i emulować inteligentne zachowania za pomocą
metod obliczeniowych”193;
„urządzenia i oprogramowanie, powstałe w wyniku prac człowieka, a nie wskutek
ewolucji biologicznej, której naśladuje funkcje poznawcze ludzkiego umysłu człowieka,
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
195
W. Duch, op. cit., s. 54.
196
Zob. Fundacja Digital Poland, op. cit., s. 139.
71
sposób równoważnego mózgowi. Na tej podstawie za możliwe uznaje się tworzenie
programów i struktur samouczących się – modeli sieci neuronowych – oraz opracowywanie
procedur rozwiązywania problemów koncepcyjnych, a nawet abstrakcyjnych, poprzez
uczenie maszyn i uzyskiwania od nich odpowiedzi na postawione im pytania197.
Jest to poziom systemu rzeczywiście inteligentnego, posiadającego rozwijający się umysł
i zdolnego do myślenia w sposób identyczny (lub bardziej rozwinięty) niż ludzki
– cel ten zostanie osiągnięty w momencie, kiedy sztuczna inteligencja będzie mogła wykonać
każde intelektualne zadanie, które może wykonać człowiek. Dotychczas prezentowane
rozwiązania „inteligentnych” robotów nie mogą zostać uznane za inteligencję ogólną,
ponieważ z uwagi na zdolność do realizowania wyłącznie sprecyzowanych scenariuszy
(np. rozmowy na określony temat) należy je zaklasyfikować do inteligencji słabej198.
197
K. Różanowski, op. cit., s. 112.
198
Zob. Fundacja Digital Poland, op. cit., s. 139.
199
Zob. R. Tadeusiewicz, Pierwsza wyspa w archipelagu sztucznej inteligencji – metody symboliczne, [on-line],
natemat.pl, 05.06.2015, https://natemat.pl/144731,pierwsza-wyspa-w-archipelagu-sztucznej-inteligencji-metody-
symboliczne (12.01.2020).
200
Zob. K. Ficoń, op. cit., s. 106.
72
użytkowych, wykorzystujących metody teoretyczne, ale świadczących o rzeczywistej
celowości dalszych badań nad sztuczną inteligencją. W tym ujęciu za kluczowe dziedziny
uznaje się robotykę oraz systemy ekspertowe201.
Wśród fundamentalnych dziedzin sztucznej inteligencji, automatykę i robotykę
wymienia również Piotr Artiemjew, umieszczając obok nich wizję komputerową, uczenie
maszynowe, data mining (szukanie znaczenia danych), analizę języka naturalnego
oraz modelowanie zjawisk w warunkach niepewności (teorie zbiorów przybliżonych
i zbiorów rozmytych)202. Oprócz przywołanych klasyfikacji dziedzin, technik i metod SI
proponowanych przez badaczy, analiza literatury przedmiotu pozwala wyróżnić również
głębokie uczenie, big data (duże zbiory danych), metody grupowania danych, metody
symboliczne, uczenie się ze wzmocnieniem, algorytmy ewolucyjne, a także systemy
203
ekspertowe . W dalszej części pracy omówione zostaną wybrane metody sztucznej
inteligencji, znajdujące najszersze zastosowanie we współczesnej technologii.
Większość metod sztucznej inteligencji skupia automatyka i robotyka, w tym robotyka
inteligentna, ukierunkowana na tworzenie i rozwijanie elektromechanicznych urządzeń
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
201
Ibidem.
202
Zob. P. Artiemjew, Wybrane paradygmaty sztucznej inteligencji, Warszawa 2013, s. 4.
203
Zob. Fundacja Digital Poland, op. cit., s. 138.
204
Zob. Ośrodek Przetwarzania Informacji – Państwowy Instytut Badawczy, Słownik, hasło: robotyka [on-line],
sztucznainteligencja.org., b.r., https://www.sztucznainteligencja.org.pl/slownik/robotyka (10.01.2020).
205
KRFMCG: Jakie korzyści może wnieść wizja komputerowa dla sieci detalicznych?, [on-line],
wiadomoscihandlowe.pl, 28.05.2019, https://www.wiadomoscihandlowe.pl/artykuly/krfmcg-jakie-korzysci-
moze-wniesc-wizja-komputerow,54756 (01.12.2019).
73
z innymi, znanymi jej już obiektami, które posiadają te same cechy, warunkuje
zaklasyfikowanie widzianego obrazu jako konkretnego, znanego obiektu. Rozpoznawanie
wzorców i nauka interpretowania świata wizualnego umożliwia maszynie analizę obrazów,
filmów i wielowymiarowych danych w czasie rzeczywistym 206. Wizja komputerowa znajduje
zastosowanie przede wszystkim w przemyśle, jako narzędzie kontroli jakości,
207
m.in. w produkcji żywności i środków farmaceutycznych . Wśród innych zastosowań
należy wskazać w szczególności: analizę zdjęć satelitarnych i lotniczych (wykorzystywaną
w kartografii, meteorologii, geologii), prowadzenie medycznych badań przesiewowych,
analizę obrazów mikroskopowych, rekonstrukcję zniszczonych eksponatów
archeologicznych, polepszanie jakości obrazów eksperymentów w mikroskopii elektronowej
i fizyce plazmowej, wspomaganie monitorowania obiektów, monitoring sterowania ruchem
miejskim, kontrolowanie bezpieczeństwa bagażu, rozpoznawanie pisma czy bioidentyfikację
na podstawie cech biometrycznych208. Wizja komputerowa została również
zaimplementowana do aplikacji wykorzystywanych przez użytkowników niekomercyjnych
(Aipoly Vision, Google Goggles), służąc jako narzędzie wspomagające naukę języka obcego
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
206
Zob. P. Prajsnar, Co wiemy o sztucznej inteligencji? Niewiele, a i tak za mało, [on-line], Online Marketing,
16.09.2019, https://o-m.pl/artykul/co-wiemy-o-sztucznej-inteligencji-niewiele-a-i-tak-za-malo (02.12.2019).
207
Zob. A. Dąbrowski, Sztuczna inteligencja, „Delta”, 2018, nr 5, s. 10.
208
Zob. K. Krawiec, Przetwarzanie i rozpoznawanie obrazów: wprowadzenie, Poznań 2018, s. 3.
74
doskonalić się przy pomocy samodzielnie gromadzonego doświadczenia – danych – i na tej
podstawie nabywa nową wiedzę.
W teorii uczenie maszynowe ma prowadzić do tworzenia nowych pojęć, wykrywania
nieznanych dotąd reguł i zależności pomiędzy danymi, formułowania zasad decyzyjnych,
przyswajania przez maszyny nowych pojęć i struktur z wykorzystaniem znanych już analogii
i uogólnień, zdobywania wiedzy poprzez interakcję z otoczeniem, a następnie formułowania
wiedzy, która będzie zrozumiała dla człowieka. W ujęciu ogólnym uczenie maszynowe
wykorzystywane jest do analizy, użytkowania i poszukiwania zależności w złożonych bazach
danych (big data) i filtrowania informacji według określonych kryteriów (zasada działania
wyszukiwarek internetowych), dostosowywania się systemu do środowiska (pozwalającego
na zachowanie poprawnego działania maszyny w zmiennych warunkach),
a także do prowadzenia badań i analiz skomplikowanych problemów teoretycznych
i praktycznych w dziedzinie matematyki i fizyki.
W praktyce uczenie maszynowe znajduje zastosowanie w biznesie, głównie
w obszarze prognozowania. Na podstawie danych historycznych właściwe modele pozwalają
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
209
Zob. L. Bolc, P. Zaremba, Wprowadzenie do uczenia się maszyn, Warszawa 1993.
210
Zob. Fundacja Digital Poland, op. cit., s. 141.
75
sposobów przyswajania nowych pojęć. Wśród metod uczenia maszynowego wskazuje się
najczęściej: wnioskowanie wartości funkcji logicznej z konkretnych przykładów, uczenie
drzew decyzyjnych, uczenie się zbioru reguł, uczenie analityczne, uczenie indukcyjne
oraz uczenie przez wzmacnianie211.
W obszarze uczenia maszynowego można także wyróżnić uczenie z nadzorem
i uczenie bez nadzoru. Uczenie z nadzorem (ang. supervised learning) następuje poprzez
wykorzystanie do nauki zestawu gotowych danych, zawierających znane maszynie etykiety
i klasyfikacje, na których system ten trenuje. Często w procesie uczenia z nadzorem bierze
udział człowiek, wskazujący programom liczne gotowe przykłady szkoleniowe,
a także dokonujący korekty wszystkich błędów popełnianych przez nie w trakcie nauki.
Ta forma sztucznej inteligencji znajduje zastosowanie głównie w działaniach predykcyjnych.
Z kolei uczenie bez nadzoru (ang. unsupervised learning) następuje poprzez odkrywanie
nieznanych maszynie wzorców, która wykorzystuje w tym celu nieopisane dane,
niezawierające etykiet i klasyfikacji. Jego istotą jest poszukiwanie wspólnych cech w różnych
danych i tworzenie na ich podstawie zbiorów danych 212. Ta forma uczenia maszynowego
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
211
Zob. L. Bolc, P. Zaremba, op. cit.
212
Zob. P. Artiemjew, op. cit., s. 4.
213
Możliwości i istotę metody dogłębnej analizy danych zilustrował metaforycznie Marian Łakomy, porównując
ją do „znajdowania w stogu siana dwóch igieł o jednakowej długości, nie wiedząc nawet, czy były w nim jakieś
igły”; zob. M. Łakomy, op. cit.
76
klastrów i kategorii – dane klasyfikowane są według wspólnych powiązań, niezależnych
od zadanych wcześniej kryteriów (np. 60% klientów w związku małżeńskim
wykorzystuje kartę kredytową do zakupów internetowych);
asocjacji – polegających na znajdowaniu i prognozowaniu powiązań wynikających
ze zdarzeń (w jakim stopniu jedna czynność determinuje wykonanie drugiej, np. kupno
spodni i dokupienie do nich paska);
sekwencji – powiązań polegających na tym, że jedno zdarzenie generuje wystąpienie
określonej reakcji w przyszłości (40% szans, że małżeństwo kupujące dom
na przedmieściu w ciągu 6 miesięcy kupi samochód);
prognoz – bazując na aktualnej wiedzy narzędzie prognozuje wystąpienie określonych
faktów i zdarzeń w przyszłości, np. przewiduje liczbę zamówień, liczbę pracowników
w ciągu kolejnych miesięcy, czy kierunków rozwoju sprzedaży;
podobnych sekwencji – po wykryciu konkretnych powiązań pomiędzy danymi, narzędzie
umożliwia odnalezienie analogicznych sekwencji w odniesieniu do innego obiektu,
w innej perspektywie czasowej lub w innym układzie214.
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
214
Ibidem.
215
Z ang.: Natural Language Processing.
216
OSNews, Sztuczna inteligencja. Naturalne przetwarzanie języka, [on-line], osnews.pl, 04.12.2016,
http://osnews.pl/sztuczna-inteligencja-naturalne-przetwarzanie-jezyka/ (12.01.2020).
217
Zob. Neurosoft, Przetwarzanie języka naturalnego, [on-line], neurosoft.pl, b.r.,
https://neurosoft.pl/technologie/przetwarzanie-jezyka-naturalnego/ (12.01.2020).
77
naturalnego wykorzystywana jest również do tworzenia nowego tekstu – naukowcy
z organizacji OpenAI218 stworzyli system generowania treści – GPT-2. W listopadzie 2019 r.
autorzy oprogramowania udostępnili użytkownikom zmodyfikowaną wersję produktu,
nazwaną GPT-@. Po podaniu przez użytkownika kilku podpowiedzi, program
sam przygotowuje kilka stron spójnego tekstu219. Wśród głównych przyczyn nieujawniania
bardziej złożonej wersji oprogramowania badacze wskazali obawy przed tworzeniem spamu
i fake newsów, które mogłyby się znacząco przyczynić do zbędnej dezinformacji
społeczeństwa220.
Rosnące zapotrzebowanie na przechowywanie i przetwarzanie coraz większych
zbiorów danych, wykorzystywanych w branży marketingowej, finansowej czy medycznej,
wymaga narzędzi umożliwiających ich precyzyjną analizę. Eksploracja danych i tworzenie
informacji na podstawie prowadzonych analiz pozwala uzyskać użyteczną, zdolną
do wykorzystania wiedzę z posiadanych danych. Jednym z kroków pozyskiwania wiedzy
jest użycie zbiorów przybliżonych, umożliwiających zarówno indukcję nowych reguł
decyzyjnych, jak i redukcję wykorzystywanych zbiorów danych221. W obszarze sprawowania
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
kontroli nad dużymi zbiorami danych, których prawidłowa analiza zwiększa skuteczność
działania systemu wykorzystującego te dane, wykorzystywana jest często teoria zbiorów
przybliżonych zaproponowana przez Zdzisława Pawlaka w 1982 r.222 Poprzez pojęcie zbioru
przybliżonego rozumie się obiekt matematyczny, definiowany przez parę przybliżeń
– przybliżenie górne i dolne. Teoria zbiorów przybliżonych wykorzystywana
jest w eksploracji danych i odkrywania wiedzy, zadaniach klasyfikacyjnych, systemach
wspomagania decyzji oraz w systemach rozpoznawania mowy. W praktyce teoria ta znajduje
zastosowanie głównie w branży medycznej, bankowej i biznesowej, m.in. jako narzędzie
badania rynku.
Elementem niezbędnym do prawidłowego zrozumienia teorii zbiorów przybliżonych
jest scharakteryzowanie systemu decyzyjnego. Jest to rodzaj systemu informacyjnego,
którego istotę stanowi przydzielenie obiektu do pewnych klas (zbiorów danych) na podstawie
określonych atrybutów tych danych. Celem tego działania jest wygenerowanie reguł,
na podstawie których system będzie klasyfikował kolejne obiekty znajdujące się
218
OpenAI jest organizacją non-profit, na czele której stoją ludzie nauki, m.in. Elon Musk, Reid Hoffman, Sam
Altman. Organizacja nastawiona jest na rozwijanie sztucznej inteligencji, a za cel stawia sobie prowadzenie tego
rozwoju w kierunku przyjaznym i przydatnym społeczeństwu.
219
Program GPT-@ dostępny jest na stronie internetowej; zob. Talk to Transformer, [on-line], b.r.,
https://talktotransformer.com (12.01.2020).
220
Zob. K. Peserada, Przetestujcie sztuczną inteligencją generującą tekst, [on-line], antyradio.pl, 07.11.2019,
https://www.antyradio.pl/Technologia/Internet/Przetestujcie-sztuczna-inteligencje-generujaca-tekst-36826
(12.01.2020).
221
Zob. A. Nowak, Zbiory przybliżone w obszarze systemów ekspertowych, [on-line], Uniwersytet Śląski, b.r.,
http://zsi.tech.us.edu.pl/~anowak/files/pawlak.pdf (12.01.2020).
222
Zob. A. Nowak-Brzezińska, Odkrywanie wiedzy z danych przy użyciu zbiorów przybliżonych. Wykład 2, [on-
line], Uniwersytet Śląski, b.r., http://zsi.tech.us.edu.pl/~nowak/bios/owd/w2.pdf, s. 3 (12.01.2020).
78
w analizowanej bazie. W trakcie tego procesu może pojawić się tzw. relacja
nierozróżnialności, czyli sytuacja, kiedy w zadanym do systemu zbiorze pojawiają się obiekty
różne, ale posiadające kilka (ale nie wszystkie) takich samych cech, co utrudnia jednoznaczne
przypisanie ich do określonych zbiorów223. Biorąc pod uwagę, że celem wnioskowania
w systemach decyzyjnych jest stwierdzenie, czy dany obiekt należy do określonej klasy,
to nierozróżnialność i niespójności w analizowanych danych powodują trudności w realizacji
tego zadania. Obiekty o podobnych cechach (opisach), ale zaliczone do różnych zbiorów
(pojęć) uniemożliwiają stworzenie jednolitych reguł warunkujących przynależność
do określonego zbioru. Niespójności te wynikają najczęściej z niedostępności części
informacji.
Jednocześnie, wskazane niespójności mogą być analizowane z wykorzystaniem teorii
zbiorów przybliżonych. Istotą tej teorii jest założenie, że badając informację opisaną
poszczególnymi atrybutami i wartościami, można określić relacje zachodzące pomiędzy
badanymi obiektami. Dane o tym samym opisie wyrażonym określonymi atrybutami
są nierozróżnialne, ale w przypadku, gdy precyzyjne zdefiniowanie zbioru obiektów
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
jest niemożliwe, za pomocą dostępnych informacji tworzy się górne i dolne przybliżenie tego
zbioru224. Teoria zbiorów przybliżonych proponuje zastąpienie nieprecyzyjnych opisów parą
pojęć precyzyjnych, czyli przybliżeń pojęcia. Różnica pomiędzy dolnym i górnym
przybliżeniem jest obszarem granicznym, obejmującym wszystkie przypadki (obiekty),
które nie mogą być jednoznacznie przypisane do zbioru na podstawie posiadanych informacji
o nich. Im większa różnica pomiędzy obydwoma przybliżeniami, tym mniej precyzyjna
jest definicja opisująca zbiór. Dolne przybliżenie obejmuje obiekty, co do których nie ma
wątpliwości, że spełniają wszystkie warunki klasyfikacji – w przypadku zbioru „małe dzieci”
w dolnym przybliżeniu będą znajdowały się dzieci w wieku 1 roku. Do górnego przybliżenia
należą natomiast obiekty, co do których nie można całkowicie wykluczyć, że reprezentują
badany zbiór (np. dzieci w wieku 8 lat w zbiorze małych dzieci).
Inną metodę, jaką jest uczenie ze wzmocnieniem, należy rozumieć jako powtarzalną
procedurę zdobywania wiedzy z wykorzystaniem metody prób i błędów,
poprzez obserwowanie reakcji badanego obiektu na określone działanie i ocenę wpływu tego
działania na obiekt. Regulator (generator bodźców) oddziałuje na obiekt sterowania według
zadanego algorytmu – obserwuje pierwotny stan obiektu, a następnie wykonuje określoną
akcję, która wprowadza badany obiekt w kolejny stan. W tym momencie regulator otrzymuje
223
Ibidem, s. 12.
224
Niejednoznaczną klasyfikację obiektu można wyjaśnić na przykładzie terminu „ładna kobieta” – każda osoba
pod tym pojęciem będzie rozumiała kobietę, ale poszczególne elementy opisu, czyli atrybuty (kolor włosów,
kształt oczu) będą inne; analogicznie system może do tego pojęcia zaklasyfikować zarówno ciemnoskórą
brunetkę, jak i blondynkę o niebieskich oczach). Innym przykładem może być fraza „wysoki człowiek” (na
podstawie takiego zapytania system zidentyfikuje zarówno mężczyznę o wzroście 190 cm, jak i kobietę
mierzącą 175 cm) lub „małe dziecko”; Zob. Ibidem, s. 21.
79
informację zwrotną – sygnał oceniający wykonane działanie pozytywnie lub negatywnie.
Jeżeli otrzymany sygnał jest pozytywny (nagroda), regulator podejmuje kolejny krok
wynikający z algorytmu225. Schemat działania uczenia ze wzmocnieniem przypomina zabawę
„ciepło-zimno”. Stan obiektu można porównać do pozycji gracza, a sterowanie to kierunek
w którym idzie wykonując dane kroki. Funkcję nagrody stanowią słowa „ciepło” i „zimno” –
słysząc słowo „ciepło” gracz kontynuuje kierunek działania. W ten sposób, metodą prób
i błędów, gracz jest naprowadzany we właściwe miejsce, a im bliżej celu się znajduje,
tym mocniejsze są sygnały nagradzające (słowa „ciepło”, „gorąco”, „parzy”).
Z kolei systemem ekspertowym określa się program (lub zestaw programów
komputerowych), który wspomaga korzystanie z wiedzy i ułatwia podejmowanie decyzji.
Polscy badacze, Katarzyna Karp i Marek Grabowski wskazują, że systemy ekspertowe mogą
wspomagać, a nawet zastępować ludzkich ekspertów w konkretnych dziedzinach poprzez
udzielanie rad, diagnoz i zaleceń w analizowanym przez siebie obszarze226. Systemy
tego typu tworzą dwa główne komponenty – baza wiedzy i system wnioskujący. Baza wiedzy
to zbiór pojęć, definicji i faktów, a także relacji zachodzących między nimi. Mogą
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
one obejmować dane, teksty, reguły, modele, jak również wiedzę zdroworozsądkową. Wśród
baz danych można wyróżnić te, które tworzone są automatycznie, na podstawie analizy
danych, a także bazy rozbudowywane na podstawie interakcji z ekspertem (człowiekiem) 227.
Systemy ekspertowe są wyrazem praktycznego zastosowania sztucznej inteligencji.
Ta dziedzina nauki rozwija się przez cały czas – pojawiają się nowe formy reprezentacji
i przechowywania wiedzy oraz łączenia wypracowanych reguł w celu pozyskania nowych
wyników. Najczęściej wykorzystywanym sposobem reprezentacji wiedzy jest wnioskowanie,
czyli wyciąganie określonych konkluzji na podstawie zaistnienia zdefiniowanych przesłanek
(„jeżeli X, to Y”), przy czym każda przesłanka może zawierać w sobie jeden lub więcej
warunków. Wnioskowanie może zachodzić zarówno w przód (wnioskowanie z przesłanek),
jak i wstecz (wnioskowanie z konkluzji). Metoda „w przód” zaczyna się od zestawu
i określonych wartości cech (atrybutów), które zawierają się w przesłance. Wszystkie
zainicjowane reguły przeszukują bazę wiedzy w celu znalezienia dodatkowych faktów
(powiązań między danymi), które uruchamiają kolejne reguły. Proces ten trwa do czasu
wyprodukowania wszystkich możliwych faktów lub do momentu uzyskania odpowiedzi
na zadane pytanie. Z kolei wnioskowanie wstecz ma na celu dowiedzenie hipotezy
225
Zob. P. Górecki, Uczenie maszynowe, sztuczna inteligencja i samo(świadomość), [on-line], tabletowo.pl,
23.11.2014, https://www.tabletowo.pl/uczenie-maszynowe-sztuczna-inteligencja-i-samoswiadomosc/
(12.01.2020).
226
Zob. M. Karp, M. Grabowski, Systemy ekspertowe i ich zastosowanie, [on-line], Akademia Górniczo-
Hutnicza, b.r., https://home.agh.edu.pl/ligeza/wik/media/presentations/systexp.pdf (13.01.2020).
227
Zob. J. Kołodziejczyk, Systemy ekspertowe. Wykład I. Co to jest system ekspertowy? Przykłady systemów
ekspertowych, [on-line], Zachodniopomorski Uniwersytet Technologiczny, 2016,
https://wikizmsi.zut.edu.pl/uploads/b/b4/INFS1SE1.pdf, s. 3 (14.01.2020).
80
poprzez wyszukanie wszystkich potwierdzających ją przesłanek (zgodnie z regułą:
„X ma miejsce wtedy, gdy …”). W trakcie tego typu wnioskowania system próbuje uzyskać
wartości wszystkich przesłanek i atrybutów użytych w warunku („jeżeli …”), a następnie
sprawdza dodatkowe reguły, których wykorzystanie generuje cechy o tych samych
wartościach228.
Wśród systemów eksperckich wyróżnia się najczęściej systemy: interpretacyjne
(rozpoznające obiekty), predykcyjne (wnioskujące), diagnostyczne (określające wady
i ich przyczyny), kompletowania, planowania, monitorowania, sterowania, planowania,
naprawy i instruowania229. Niezależnie od rodzaju systemu eksperckiego, wśród głównych
cech tych systemów należy wymienić:
wysoką, ale wąską specjalizację – system zastępuje eksperta w ściśle określonej
dziedzinie i zna procedury i fakty jedynie z tego obszaru;
jawną reprezentację wiedzy i zdolność do oddzielenia wiedzy eksperckiej od procedur
sterowania systemem;
stosowanie heurystyki – obliczanie i szacowanie wartości na podstawie znanych faktów;
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
228
Ibidem, s. 11.
229
Ibidem, s. 17.
81
w projektach uczenia maszynowego lub innych, równie zaawansowanych aplikacjach
analitycznych. Big data mogą pochodzić ze zróżnicowanych źródeł, począwszy od systemów
transakcji biznesowych, baz danych klientów organizacji, poprzez bazy medyczne, aplikacje
mobilne, wyniki badań naukowych, dzienniki kliknięć umieszczone na stronach
internetowych, dane pochodzące z mediów społecznościowych, aż po dane i metadane
generowane w czasie rzeczywistym przez urządzenia pracujące w środowisku Internetu
rzeczy230. Zależnie od przyjętego lub zakładanego celu, big data mogą być przetwarzane
w postaci surowej (niemodyfikowanej), jak również można poddać je wstępnemu
przetworzeniu przy użyciu narzędzi służących do eksploracji danych, co pozwoli wykorzystać
je do przeprowadzenia konkretnej analizy.
Pozostając w obszarze metod sztucznej inteligencji, należy również krótko
scharakteryzować sztuczne sieci neuronowe. Pod pojęciem tym rozumie się sztuczne
struktury złożone z neuronów i połączone synapsami. Sieci te składają się z trzech typów
warstw. Warstwa wejściowa zbiera dane i przekazuje je dalej; w warstwie ukrytej zachodzi
proces uczenia się – w tym miejscu szuka się powiązań pomiędzy poszczególnymi
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
83
systemy generatywne, które na bazie przeanalizowanych danych umożliwiają tworzenie
całkowicie nowych treści, w tym także opisowych i multimedialnych.
Ostatnią grupę analizowanych projektów stanowią systemy autonomiczne. Wśród nich
wyróżnia się przede wszystkim wirtualnych agentów biznesowych (systemy te zazwyczaj
reprezentują firmę w kontaktach z klientem, np. zapewniając jego obsługę w czasie
rzeczywistym), asystentów osobistych (wspomagających użytkownika w codziennych
czynnościach, np. asystent głosowy Google czy Siri) oraz narzędzia służące automatyzacji
pracy biurowej (np. systemy księgowania faktur). W obszarze przemysłowym funkcjonują
również systemy autonomicznego transportu – znajdują one zastosowanie zarówno
w powierzchni magazynowej, jak i na otwartej przestrzeni drogowej lub powietrznej.
Rolę wspomagającą wobec nich pełnią systemy nawigacyjne oraz coraz prężniej rozwijająca
się branża robotyki przemysłowej, skoncentrowana na budowie i wdrażaniu narzędzi
optymalizujących procesy realizowane w fabrykach i innych ośrodkach przemysłowych.
Zdolność przewidywania zachowań otoczenia oraz zdolności percepcyjne systemu
uzależnione są od stopnia trudności zadania oraz powiązanego z nim poziomu złożoności
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
233
Zob. A. Wodecki, op. cit., s. 86-87.
84
inteligencji. Jednocześnie żadna z dotychczas zbudowanych maszyn nie była w stanie
przekroczyć zestawu zasad narzuconych przez człowieka. Wysoki poziom złożoności
ludzkiego mózgu i ograniczenia sprzętowe maszyn sprawiają, że w chwili obecnej sztuczne
systemy inteligentne nie są w stanie idealnie odwzorować działania mózgu człowieka.
Co prawda maszyny mogą w określonych warunkach przejść test Turinga, ale jest to możliwe
jedynie w wąskim obszarze tematycznym, np. sporcie lub doradztwie w „wyuczonej”
dziedzinie. Urządzenia (maszyny, roboty) mogą sprawiać wrażenie świadomych
i samodzielnie myślących, jednak nie jest to świadomość w sensie filozoficznym 234.
Przewidywania badaczy AI znajdują odzwierciedlenie w praktyce. Wartość
ekonomiczna sztucznej inteligencji nieustannie rośnie, a wraz z nią zmianom ulegają
rewolucjonizowane przez nią branże. Największe sukcesy AI odnotowała w usprawnianiu
procesów biznesowych, głównie w branży motoryzacyjnej i produkcyjnej, ale również
w sektorze medycznym czy edukacyjnym. Wyniki badań The AI Revolution
przeprowadzonych przez Salesforce wykazały, że w 2017 r. 37% przedsiębiorstw
wykorzystywało AI w działaniach biznesowych, a aż 22% organizacji planuje jej wdrożenie
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
234
Zob. L. Rutkowski, op. cit., s. 19.
235
Zob. M. Salecki, Perspektywy Rozwojowe Reklamy Online: Sprzedaż w dobie sztucznej inteligencji, [on-line],
iab.org.pl, 2019, https://iab.org.pl/aktualnosci/perspektywy-rozwojowe-reklamy-online-sprzedaz-w-dobie-
sztucznej-inteligencji/ (20.05.2019).
85
Po drugie, sztuczna inteligencja znajdzie również powszechne zastosowanie – prawie
¾ znaczącej kadry kierowniczej jest przekonana, że AI będzie przesądzać o ich przewadze
na rynku236. Automatyzacja coraz bardziej złożonych procesów, identyfikowanie trendów
pod kątem ich biznesowej opłacalności oraz wsparcie pracowników w realizacji zadań
to główne obszary, w których przedsiębiorcy spodziewają się wykorzystywać możliwości AI.
Po trzecie, organizacje zaczną wykorzystywać gromadzone i posiadane dane
– do momentu upowszechnienia sztucznej inteligencji, inwestycja w Big Data 237 nie zawsze
oznaczała wymierne korzyści dla organizacji ze względu na techniczne ograniczenia
ich przechowywania i niską efektywność przetwarzania złożonych zapytań. Obecnie wiele
organizacji zastanawia się nad redefinicją swojej strategii gromadzenia i wykorzystania
danych, uwzględniając możliwości usprawnienia kluczowych procesów
oraz zautomatyzowania pozyskiwania danych. Większość metod AI (uczenie głębokie,
uczenie maszynowe) opiera się na pracy z wykorzystaniem ogromnej ilości danych,
warunkiem jest ich prawidłowe opisanie, dlatego też zakłada się, że firmy zaczną reformować
posiadaną architekturę danych, co pozwoli na skuteczne zarządzanie nimi.
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
236
Zob. PWC, 2018 AI Predictions: 8 insights to shape business strategy, [za:] 8 kierunków rozwoju sztucznej
inteligencji, [on-line], zrobotyzowany.pl, 20.10.2018, https://zrobotyzowany.pl/informacje/publikacje/3142/8-
kierunkow-rozwoju-sztucznej-inteligencji (20.05.2019).
237
Big Data oznaczają duże ilości danych lub zbiorów danych, których efektywna analiza z wykorzystaniem
tradycyjnych aplikacji, algorytmów, oprogramowania i sprzętu często jest niemożliwa ze względu na ich
złożoność, rozmiar (liczony w petabajtach), prędkość napływania, różnorodność źródeł i wątpliwości co do ich
wiarygodności i integralności, zob. K. Racka, Big Data – znaczenie, zastosowania i rozwiązania technologiczne,
„Zeszyty Naukowe PWSZ w Płocku. Nauki Ekonomiczne”, 2016, nr 1 (23), s. 312.
86
Po szóste, priorytetem dla organizacji stanie się ujawnienie black box’a sztucznej
inteligencji – w chwili obecnej wiele osób nie ma wiedzy na temat dokładnego działania AI,
co w połączeniu z faktem, że algorytmy oparte o sztuczną inteligencję, nauczone określonych
zachowań (np. podejmowania decyzji) nie działają w sposób transparentny, może budzić
niepokój i nieufność wobec firm z nich korzystających, a w konsekwencji doprowadzić
do ograniczenia jej stosowania. Określenie black box, czyli „czarna skrzynka” sztucznej
inteligencji odnosi się do mechanizmów i zasad działania AI, które są nieznane
i niezrozumiałe dla większości osób nieposiadających wykształcenia lub wiedzy
w tym obszarze. Wynikająca z nieufności presja ze strony społeczeństwa może spowodować
ujawnienie mechanizmów działania AI w konkretnych organizacjach, co z jednej strony
zmniejszy ryzyko niepożądanego wykorzystania sztucznej inteligencji, ale z drugiej stwarza
zagrożenie spowolnienia i zwiększenia kosztowności procesów z niej korzystających238.
W celu rozwoju AI konieczne jest stosowanie dużych ilości danych, których przetwarzanie
stanowi podstawę do uczenia się algorytmów przez maszyny. Poszczególne rodzaje danych są
zróżnicowane w zależności od stosowanych metod uczenia oraz docelowego zastosowania
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
246
Zob. Fundacja Digital Poland, op. cit., s. 8-9.
247
Ibidem, s. 10.
89
nie ma świadomości zastosowania rozwiązań AI w takich platformach jak Spotify, Netflix
czy Facebook248. Co ciekawe, jednocześnie 36% respondentów wskazało, że sztuczna
inteligencja już wywiera zauważalny wpływ na ich życie, a 71% twierdzi, że odczuje
ten wpływ w ciągu 5 najbliższych lat249. Badania wskazują, że najbardziej prawdopodobnym
kierunkiem rozwoju sztucznej inteligencji będzie rozwijanie i udoskonalanie najbardziej
popularnych rozwiązań wykorzystujących słabą AI, funkcjonujących już w branży prywatnej
i wojskowej, czyli przede wszystkim: systemów przetwarzających mowę i język naturalny,
automatycznych systemów obsługi klienta, translacji w czasie rzeczywistym, inteligentnych
domów i internetu rzeczy, ale też autonomicznych pojazdów, broni i robotów.
Ważnym i realnym obszarem rozwoju jest również branża medyczna i ochrony zdrowia,
zwłaszcza w kontekście sieci telemedycznych i aplikacji mogących z wyprzedzeniem
zdiagnozować schorzenia na podstawie bardzo wczesnych objawów lub nieprawidłowych
wyników badań. Jest to element inteligentnych sieci zdrowia, których funkcjonowanie będzie
miało kluczowe znaczenie w przyszłości. Przewiduje się, że szeroki dostęp do opieki
medycznej podniesie średnią długość życia, co w połączeniu z utrzymującym się niskim
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
przyrostem naturalnym będzie skutkowało starzeniem się społeczeństwa. Stąd pojawia się
presja na wdrożenie rozwiązań zapewniających samowystarczalność i prawidłową opiekę
osobom starszym i niesamodzielnym. W rozwoju sieci telemedycznych upatruje się szansy
na stałe monitorowanie stanu pacjenta poprzez śledzenie określonych parametrów i sygnałów
fizjologicznych, jak temperatura, ciśnienie krwi czy czynności oddechowych, a w przypadku
wykrycia anomalii zagrażającej życiu – podejmowanie decyzji o wezwaniu lekarza lub służb
ratowniczych. Zbliżone systemy, wykorzystując określony zestaw danych, w tym dane
o aktywności osoby, mogą znaleźć zastosowanie profilaktyczne, monitorując i wspierając
zmianę stylu życia, nawyków żywieniowych czy systematyczność przyjmowania leków
lub posiłków. Jednocześnie sztuczna inteligencja może zmienić życie osób
niepełnosprawnych, które dzięki stosowaniu czujników, neurochipów czy neurosensorów
zastępujących naturalne połączenia nerwowe będą miały szansę na odzyskanie częściowej
lub całkowitej sprawności lub znaczące usprawnienie wykonywania codziennych czynności.
Intensywny rozwój sztucznej inteligencji można założyć również w branży
rozrywkowej. Już teraz AI znajduje w niej szerokie zastosowanie, zwłaszcza w grach
komputerowych. Modelowanie świata wirtualnego, odwzorowującego rzeczywistość
w przestrzeni wirtualnej jest wykorzystywane do tworzenia systemów dostarczających odczuć
248
Zob. ARM Northstar, AI Today, AI Tomorrow. Awareness, acceptance and anticipation of AI: A global
consumer perspective, 2017, [on-line], slideshare.net, https://www.slideshare.net/ARMHoldings/ai-today-ai-
tomorrow, s. 6 (19.07.2018).
249
Ibidem.
90
i emocji zbliżonych do naturalnych bodźców250. Wykorzystanie technologii VR,
czyli wirtualnej rzeczywistości (ang. virtual reality) przynosi ogromne zyski finansowe
dominującej w branży firmie Sony, która od debiutu w 2016 r. do sierpnia 2018 r. sprzedała
3 mln dedykowanych gogli PlayStation VR oraz prawie 22 mln egzemplarzy gier
kompatybilnych z tym sprzętem251. Wirtualne odwzorowanie rzeczywistości służy również
tworzeniu symulatorów (rozrywkowych, ale i szkoleniowych), a także jest stosowane
w kinach „4D”, oddziałujących na wszystkie zmysły widzów.
Jeżeli chodzi o perspektywy rozwoju silnej sztucznej inteligencji, to są one
przedmiotem rozważań, a nierzadko i sporów naukowców i badaczy. R. Penrose wyraża
przekonanie, że umysł ludzki jest tak skomplikowany, a procesy zachodzące w mózgu –
nieobliczeniowe, że istniejące teorie fizyki nie są wystarczająco kompletne do ich opisania.
Niemożliwe jest zatem nauczenie jakiejkolwiek maszyny ludzkiego sposobu myślenia,
wnioskowania i abstrakcyjnego postrzegania. Przeciwstawne podejście reprezentuje
Ray Kurzweil, ekspert w obszarze komercyjnych zastosowań AI. Jego zdaniem, w ostatnich
dekadach umysł ludzki przestał się rozwijać, zatem szczegółowe zbadanie i opisanie
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
250
Zob. P. Artiemjew, Wybrane paradygmaty sztucznej inteligencji, Warszawa 2013, s. 4.
251
Zob. A. Kotowski, Sony sprzedało 3 mln gogli PlayStation VR, [on-line], PCLab, 17.08.2018,
https://pclab.pl/news.78655.html (23.05.2019).
252
Zob. L. Rutkowski, op. cit., s. 18.
253
Hans Moravec – profesor robotyki w Carnegie Hall University, dyrektor uniwersyteckiego laboratorium
mobilnych robotów.
254
Zob. K. Chang, Can Robots Become Conscious?, „The New York Times” [on-line], 11.11.2003,
https://www.nytimes.com/2003/11/11/science/can-robots-become-conscious.html (22.05.2019).
91
transportu i produkcji, budynki, systemy ochrony zdrowia, systemy energetyczne, a także
inne udogodnienia zwiększające komfort codziennego życia.
Zaawansowane rozwiązania i usługi sieciowe mają umożliwić optymalizację
korzystania z infrastruktury miejskiej, przede wszystkim dróg i sieci energetycznej.
Informacje dotyczące charakteru i natężenia ruchu drogowego są już wykorzystywane
do optymalnego sterowania ruchem z wykorzystaniem sygnalizacji świetlnej. Powszechnie
stosowanym rozwiązaniem jest również monitorowanie dostępności miejsc parkingowych
i kierowanie użytkowników pojazdów na wolne miejsca. Inne zastosowania sieci czujników
i systemów monitorujących obejmują m.in. sterowanie oświetleniem dostosowane
do pory roku czy pory dnia, ale i obecności użytkownika w określonym miejscu.
Nie da się ukryć, że nowe technologie znacząco ułatwiają codzienne życie.
Konsumenci produktów i usług postrzegają nowe technologie jako szansę na podniesienie
ich jakości. Korzyści z dotychczasowych osiągnięć oraz praktycznie nieograniczone
perspektywy na rozwój sztucznej inteligencji w kierunku ułatwiającym i optymalizującym
codzienne życie człowieka sprawiają, że sygnały o możliwych zagrożeniach korzystania
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
255
Zob. W. Fehler, Sztuczna inteligencja – szansa czy zagrożenie?, „Studia Bobolanum”, 2017, nr 3 (28), s. 81.
256
Zob. A. Turek, Sztuczna inteligencja – realne zagrożenie? Gates: „Nie rozumiem, czemu niektórzy się nie
przejmują”, [on-line], innpoland.pl, 30.05.2017, http://innpoland.pl/115221,sztuczna-inteligencja-realne-
zagrozenie-gates-nie-rozumiem-czemu-niektorzy-sie-nie-przejmuja, (23.05.2019).
92
Zagrożenie pojawiłoby się w momencie, gdy systemy same modyfikowałyby cele swojego
działania, co nie byłoby możliwe nawet w momencie uzyskania przez nie samoświadomości.
Zdaniem ekspertów w dziedzinie SI, komputery nie mogą samodzielnie stawiać sobie zadań
bez uprzedniego znalezienia dla nich uzasadnienia257. Koncepcja powstania superinteligencji
stanowi podstawę stworzenia technologicznej osobliwości, która według R. Kurzweila
powstanie ok. 2045 r. Technologiczną osobliwość należy rozumieć jako moment w historii
ludzkości, w którym zaawansowana technologia, wykorzystująca potencjał techniczny
i informacyjny, pozwoli na skonstruowanie maszyny dysponującej superinteligencją.
Rozwinięte mechaniczne maszyny miałyby rozszerzyć ludzką fizyczność, a sztuczna
inteligencja – zapewnić człowiekowi nieograniczone możliwości intelektualne258.
Jak wyjaśnia R. Kurzweil, „osobliwość będzie stanowić kulminację połączenia naszego
biologicznego myślenia i istnienia z naszą technologią (…). Po pojawieniu się osobliwości
nie będzie żadnej różnicy między człowiekiem a maszyną”259.
Szybki rozwój technologii komputerowych i informatycznych, budowa robotów
i maszyn wyposażanych w coraz większą autonomię stwarza liczne dylematy. Główną obawą
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
257
Zob. Ibidem.
258
Zob. G. Osika, Czekając na osobliwość – o modelach interpretacji techniki, „Filo-Sofija. Z problemów
współczesnej filozofii (VI)”, 2017, nr 39, s. 66.
259
R. Kurzweil, Nadchodzi osobliwość. Kiedy człowiek przekroczy granice biologii, Warszawa 2016, s. 25.
260
I. Asimov, Runaround, [w:] I. Asimov, I, Robot, New York, 1942, [za:] P. Artiemjew, op. cit., s. 11.
93
wprowadzają nowe, zautomatyzowane urządzenia ułatwiające prowadzenie działań
wojennych, co narusza zdefiniowane powyżej reguły.
W chwili obecnej zagrożenia związane z rozwojem sztucznej inteligencji
zaobserwować można w dziedzinie bezpieczeństwa informacyjnego, przede wszystkim
w środowisku cybernetycznym. Zagrożenia te wiążą się z możliwością wykorzystania
SI przez hakerów. Maszyny są w stanie łatwo wykryć i wykorzystać pojawiające się luki
w zabezpieczeniach danych. Prognozuje się, że ich zdolności w tym zakresie będą
coraz większe oraz mniej czasochłonne. Dostęp do oprogramowania pozwalającego
na uczenie maszynowe jest łatwy, nie wymaga zaawansowanych nakładów finansowych,
zaś samouczki pozwalające na naukę maszyn są dostępne w Internecie. Testowanie
różnorodnych rodzajów oprogramowania za pomocą licznych programów antywirusowych
pozwala odkryć algorytmy, na których opiera się praca silników tych programów oraz luki
w ich działaniu. Atak technologiczny i złamanie zabezpieczeń pozwala uzyskać dostęp
do zabezpieczonych danych i umożliwia ich przejęcie, modyfikację lub usunięcie,
zaś wykorzystanie w tym procesie inteligentnych maszyn pozwala znacząco skrócić czas
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
261
Zob. M. Korolov, AI isn’t just for the good guys anymore, [on-line], CSO, 01.02.2017,
https://www.csoonline.com/article/3163022/ai-isnt-just-for-the-good-guys-anymore.html (30.05.2017).
94
Inną formą wykorzystania sztucznej inteligencji w ramach środowiska black hat262
jest użycie jej do przestępstw internetowych z użyciem oprogramowania ransomware
(blokującego dostęp do danych zawartych na dysku lub całkowicie szyfrujących te dane
do momentu dokonania płatności przez ofiarę ataku) oraz ataków BEC 263. Wykorzystanie AI
w tego typu atakach polega na automatyzacji wyszukiwania najbardziej podatnych ofiar oraz
dopasowywania treści wiadomości do odbiorcy przy użyciu danych znajdujących się przede
wszystkim w ogólnodostępnych (ale także niejawnych) zasobach informacyjnych.
Stosunkowo nową formą szkodliwego wykorzystania sztucznej inteligencji
jest również automatyczne, masowe tworzenie fałszywych kont na portalach randkowych,
wykorzystywanych do werbunku kobiet do świadczenia usług seksualnych.
Każdy z utworzonych profili jest wyjątkowy, zawiera atrakcyjne zdjęcie (pobrane z platform
społecznościowych) i społecznie poważany zawód. Rozmowa z potencjalną ofiarą również
prowadzona jest w sposób pełni automatyczny. Wiarygodność tak skonstruowanych kont
jest tak duża, że nie wzbudzają one podejrzeń nawet ze strony administratorów platform264.
O ile badacze i eksperci od sztucznej inteligencji podkreślają zagrożenia związane
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
262
Black hat – rodzaj celowego i szkodliwego hackingu systemów informatycznych i stron internetowych,
wykonywanego złośliwie lub dla konkretnych korzyści materialnych, np. wyłudzenia okupu od ofiary;
przeciwieństwem black hat jest white hat, czyli hacking nieszkodliwy, mający na celu wykrycie i unaocznienie
jego ofierze luk w zabezpieczeniach informatycznych.
263
BEC (ang. Business Email Compromise) – podszywanie się hakerów pod członków kadry zarządzającej
przedsiębiorstwa i wysyłanie w ich imieniu personalnych próśb o przelew wysokich sum do dyrektorów
finansowych.
264
Zob. M. Korolov, op. cit.
95
w konkretnym celu, czyli do lepszego określenia stanu zdrowia pacjenta lub postawienia
bardziej precyzyjnej diagnozy265.
265
Zob. J. Chustecki, Sztuczna inteligencja – szanse i zagrożenia, [on-line], 19.02.2019,
https://www.computerworld.pl/news/Sztuczna-inteligencja-szanse-i-zagrozenia,412196.html, (01.06.2019).
96
wyzwań i zagrożeń dla bezpieczeństwa w tym kontekście jest niezbędne, aby „odczarować”
sztuczną inteligencję i zmienić jej postrzeganie jako „wiedzy tajemnej” i zastrzeżonej
dla niewielkiej grupy naukowców. Zrozumienie tego, jak działają i co w rzeczywistości nowe
technologie oznaczają dla normalnej, codziennej aktywności człowieka w jego pracy
czy życiu prywatnym jest warunkiem zwiększenia otwartości na nie. Podniesienie cyfrowych
kompetencji w tym zakresie niesie za sobą szanse na większą gotowość do testowania
innowacyjnych produktów, dóbr i usług, a co za tym idzie – doskonalenie
ich i dostosowywanie do precyzyjnych potrzeb konsumentów. W obecnej fazie ciągłego
wdrażania inteligentnych rozwiązań do wielu sektorów, przede wszystkim branży prywatnej,
ciężar edukacji społeczeństwa spoczywa zarówno na przedsiębiorstwach, jak i na instytucjach
państwowych.
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
97
3. Sztuczna inteligencja jako czynnik zwiększający poziom bezpieczeństwa
w XXI w.
3.1. AI w sferze bezpieczeństwa militarnego
266
Zob. Y.H. Wong et al., Deterrence In the Age of Thinking Machines, 2020,
https://www.rand.org/pubs/research_reports/RR2797.html (02.06.2020).
267
Zob. N. Biedrzycki, Wojskowe roboty mogą podejmować decyzję o naszym życiu lub śmierci, „Business
Insider” [on-line], 03.03.2019, https://businessinsider.com.pl/technologie/nowe-technologie/technologie-i-
sztuczna-inteligencja-w-wojsku-i-jej-wykorzystanie/5r0d9rd, (18.02.2020).
99
określony obiekt, to człowiek decyduje o „pociągnięciu za spust”268. W militarnej adaptacji
AI przodują Stany Zjednoczone.
O zaangażowaniu Stanów Zjednoczonych w rozwój sztucznej inteligencji
wykorzystywanej do celów wojskowych świadczą kwoty przeznaczane przez administrację
amerykańską na badania typu B+R269 w obszarze AI. W 2016 r. w ramach budżetu
federalnego prace badawcze w tym zakresie wsparto kwotą 1,2 mld $, przy czym
ok. 600 mln $ przeznaczono na współpracę z kontraktorami Departamentu Obrony USA
(ang. Departament of Defence, DOD). W 2017 r. na projekty związane ze sztuczną
inteligencją instytucja ta przekazała ponad 2,4 mld $270. Pomimo tak znaczących nakładów
na badania w dziedzinie sztucznej inteligencji, USA nie zdecydowały się dotąd na utworzenie
dedykowanego funduszu publicznego, jak również na wdrożenie celowego systemu grantów.
Brak tego typu działań nie koliduje jednak ze zwiększaniem inwestycji – DOD planuje
utworzenie w swoich strukturach dedykowanego Biura ds. sztucznej inteligencji,
którego zadaniem miałaby być koordynacja działań B+R rozproszonych dotychczas
w poszczególnych agencjach (DARPA, IARPA) oraz biurach Armii, Marynarki Wojennej
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
i Lotnictwa. Ku podobnym rozwiązaniom skłania się działająca przy DOD Rada Innowacji
dla Bezpieczeństwa (DIB, z ang. DefenseInnovation Board), rekomendująca utworzenie
Centrum Kompetencji w dziedzinie AI i uczenia maszynowego. Znaczenie przedmiotowych
technologii dla działalności sektora wojskowego Stanów Zjednoczonych odzwierciedla fakt,
że w 2018 r. CIA prowadziła 137 projektów, w których wykorzystywano sztuczną
inteligencję271.
Postępujący rozwój technologiczny oddziałuje na współczesne bezpieczeństwo
militarne także poprzez możliwość wykorzystania nowych rozwiązań technicznych
w konfliktach zbrojnych. Jednym z rozwijanych przez Departament Obrony projektów
jest zainicjowany w 2017 r. Maven, czyli Wielofunkcyjny Zespół Walki Algorytmicznej.
Jako jego cel przedstawia się rozwój i wdrażanie technologii wizji komputerowej i uczenia
maszynowego do systemów autonomicznej detekcji potencjalnych zagrożeń (i przeciwników)
268
Zob. S. Palczewski, Sztuczna inteligencja zmieni dynamikę konfliktu. Wojsko stanie przed nowymi
zagrożeniami, [on-line], CyberDefence24.pl, 10.02.2020, https://www.cyberdefence24.pl/sztuczna-inteligencja-
zmieni-dynamike-konfliktu-wojsko-stanie-przed-nowymi-zagrozeniami (19.11.2020).
269
Skrót B+R oznacza prace badawczo-rozwojowe (ang. R&D – Research& Development), czyli
systematycznie prowadzone prace twórcze, podejmowane w celu zwiększenia zasobów wiedzy o człowieku,
społeczeństwie i kulturze i opracowania nowych rozwiązań dla zdobywanej wiedzy, w tym rozwiązań
niewynikających w sposób oczywisty z dotychczasowego stanu wiedzy. Działania B+R prowadzą najczęściej
jednostki naukowe i badawcze, firmy prywatne, uczelnie i centra badawcze, odkrywając w ich trakcie nowe
związki i zależności w określonej dziedzinie wiedzy, co często prowadzi do weryfikacji założonych hipotez,
teorii, przełomowych odkryć lub stworzenia nowych koncepcji; zob. Fundacja Digital Poland, op. cit., s. 140.
270
Zob. Govini, Department of Defense Artificial Intelligence, Big Data and Cloud Taxonomy, [on-line],
securityandtechnology.org, 23.03.2017, https://securityandtechnology.org/wp-content/uploads/2020/07/govini_
dod_ai_bigdata_cloud_taxonomy.pdf s. 6 (16.09.2019).
271
Według publicznie dostępnych danych, zob. D.S. Hoadley, N.J. Lucas, Artificial Intelligence and National
Security, Congressional Research Service, 2018, s. 9.
100
na polu walki, w które zostaną wyposażone bezzałogowe pojazdy powietrzne. Bezzałogowe
statki powietrzne (ang. unmanned aerial vehicle – UAV), w nomenklaturze militarnej
Sił Zbrojnych Stanów Zjednoczonych nazywane również bezzałogowymi systemami
powietrznymi (unmanned aerial system – UAS), to maszyny powietrzne wykonujące loty
autonomiczne lub pilotowane zdalnie, które w trakcie lotu nie wymagają obecności załogi
na pokładzie. Wykorzystywane są przez siły zbrojne wielu współczesnych armii, głównie
w celu prowadzenia obserwacji i rozpoznania. Działania te umożliwia wyposażenie tych
statków powietrznych w głowice optoelektroniczne. Innym zastosowaniem dronów,
(pod warunkiem wyposażenia ich w systemy bojowe), jest udział w działaniach zbrojnych.
Takie uzbrojone maszyny określane są mianem bojowych bezzałogowych aparatów
powietrznych (unmanned combat air vehicle – UCAV)272.
Zgodnie z klasyfikacją NATO wyróżnia się trzy zasadnicze klasy bezzałogowych
statków powietrznych (BSP):
klasa I – BSP o masie do 150 kg; maksymalny czas lotu - do 6 godzin; wykorzystywany
do wsparcia operacji na szczeblu pojedynczej drużyny, plutonu lub kompanii (poziom
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
taktyczny);
klasa II – BSP o masie od 150 do 600 kg; maksymalny czas lotu - do 24 godzin;
wykorzystywany do wsparcia operacji na szczeblu batalionu lub brygady (poziom
taktyczny);
klasa III – BSP o masie powyżej 600 kg; maksymalny czas lotu – do 40 godzin;
przystosowany do lotu na pułapie powyżej 3 tys. m, wykorzystywany do wsparcia
operacji na poziomie operacyjnym i strategicznym273.
Rewolucję technologiczną w zakresie uzbrojonych statków powietrznych w siłach
zbrojnych rozpoczęła amerykańska korporacja General Atomics, a wyprodukowany
w jej fabrykach w 1994 r. aparat GA MQ-1 Predator stanowił efekt prac nad budową
bezzałogowego samolotu o zastosowaniu wojskowym. Predator może przenosić
dwa kierowane pociski rakietowe typu AGM-114 Hellfire (klasy powietrze-ziemia,
co umożliwia przeprowadzanie ataków na cele naziemne) oraz pociski AIM-92 Stinger
(przygotowane do ostrzału celów znajdujących się w powietrzu). Wspomniany dron znalazł
się na wyposażeniu armii USA w 1995 r. i od tamtej pory wykorzystywany jest zarówno
w operacjach zwiadowczych, jak i do prowadzenia szybkiej eliminacji zaprogramowanych
celów. Pierwszy raz wykorzystano go w Afganistanie, natomiast po roku 2002 był używany
również w walkach w Iraku, Somalii, Jemenie i Pakistanie, gdzie służył nie tylko armii
272
J. Chojnacki, D. Pasek, Historia wykorzystania bezzałogowych statków powietrznych, „Rocznik
Bezpieczeństwa Międzynarodowego”, 2017, nr 1(11), s. 184.
273
Wiki BSP.
101
amerykańskiej, ale również wojskom włoskim, brytyjskim i pakistańskim274. W 2001 r.
General Atomics zaprezentowało ulepszony model Predatora – MQ-9 Reaper. W porównaniu
do poprzednika jest większy (11 m długości, 20 m rozpiętości skrzydeł, 2200 kg masy
własnej) i lepiej wyposażony – może przenosić 1360 kg podwieszanego uzbrojenia
oraz dodatkowe zbiorniki paliwa. Istnieje również możliwość wyposażenia go w pociski
rakietowe Hellfire, bomby kierowane laserowo (GBU-12 Paveway II, GBU-38 JDAM)
oraz bomby z mieszanym układem naprowadzania (laser/GPS). Reapery wykorzystywane
są w armii amerykańskiej (od 2006 r.; rok później, stacjonujący w Afganistanie Reaper
wyeliminował pierwszy cel – pojazd rebeliantów), brytyjskiej (2006), włoskiej (2009)
i francuskiej (2010); plany ich zakupu do misji patrolowo-rozpoznawczych ogłosiły również
Holandia i Hiszpania275.
Istotne zasługi w rozwoju badań nad bezzałogowymi statkami powietrznymi
ma również Izrael. Stworzony w 2004 r. IAI Eitan (Heron TP) brał aktywny udział w nalotach
na Strefę Gazy, m.in. w kontrowersyjnym ataku z 2014 r., w trakcie którego operatorzy
dronów przez pomyłkę ostrzelali ludność cywilną. Z uwagi na duże rozmiary (13 m długości
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
i 26 m rozpiętości) oraz maksymalny udźwig w granicach 4,6 tony, Eitan może być
wyposażony w znaczną ilość ciężkiegouzbrojenia. Na potrzeby armii izraelskiej aparat
wyposażono w system samoobrony oraz czujniki detektujące odpalenie rakiet276.
Zdalnie sterowane bezzałogowe platformy powietrzne uważane są za broń zarówno
skuteczną, jak i bezpieczną, ponieważ dają możliwość cichego i niezauważalnego
przeniknięcia na terytorium przeciwnika i wykonania tam zaplanowanych misji.
Drony wykorzystuje się także do prowadzenia precyzyjnych ataków bojowych, niemożliwych
do realizacji z wykorzystaniem tradycyjnego sprzętu bojowego ze względu na środki
zabezpieczenia stosowane przez przeciwnika.
Należy mieć na uwadze, że pojazdy bezzałogowe, wykorzystujące technologię
sztucznej inteligencji, to nie tylko statki powietrzne. Oprócz nich stosuje się również
bezzałogowe jednostki pływajace (UUV) i bezzałogowe pojazdy lądowe (UGV).
W niektórych klasyfikacjach uwzględnia się również wielofunkcyjne pojazdy użytkowo-
logistyczne i sprzętowe (tzw. MULE), wykorzystywane do wsparcia bojowego w sytuacjach
konfliktowych, a także uzbrojone pojazdy robotyczne (ARV), wykorzystywane
do przenoszenia dużych platform uzbrojenia lub specjalistycznego sprzętu do nadzorowania
274
Ł. Gołąbiowski, Zabójcze drony – pięć najniebezpieczniejszych maszyn, „Komputer Świat” [on-line], 2016,
http://www.komputerswiat.pl/artykuly/redakcyjne/2016/06/zabojcze-drony-piec-najniebezpieczniejszych-
maszyn.aspx (16.03.2018).
275
Zob. Ł. Pacholski, P. Butowski, Aktualności wojskowe. Hiszpania kupuje bezzałogowce Reaper, „Lotnictwo
Aviation International”, 2016, nr 3, s. 4.
276
Zob. Milipedia, IAI Eitan/Heron TP, [on-line], infolotnicze.pl, 16.12.2011, https://www.infolotnicze.pl/
2011/12/16/iai-eitan-heron-tp/, (16.03.2018).
102
pola walki277. Jeżeli chodzi o jednostki pływające, to już w 2016 r. amerykańskie
przedsiębiorstwo Leidos rozpoczęło próby operacyjne bezzałogowego okrętu o nazwie Sea
Hunter. Jako jego główne zadanie wskazano zwalczanie okrętów podwodnych. Jednostka
ta powstała w ramach kierowanego przez DARPA projektu Anti-Submarine Warfare
Continuous Trail Unmanned Vessel278, a budżet na jego realizację wynosił ok. 60 mln
dolarów. Ochrzczony w kwietniu 2016 r. okręt jest zdolny wykonać samodzielne rejsy
z kilkoma punktami pośrednimi na trasie, możliwe jest również zdalne sterowanie nim,
zarówno z lądu, jak i z innej jednostki pływającej. Liczącym się graczem na arenie
międzynarodowej w obszarze militarnego wykorzystania sztucznej inteligencji są również
Chiny. Działania Pekinu związane z zastosowaniem AI zarówno na poziomie państwa,
jak i sektora prywatnego charakteryzuje dążenie do całkowitej światowej dominacji.
Intensywna modernizacja i chęć dorównania, a nawet prześcignięcia sił zbrojnych USA
sprawiły, że Chiny znacząco zwiększyły zainteresowanie militarnym zastosowaniem AI,
która obok dronów i technologii kwantowej uznawana jest za sposób na zmniejszenie
amerykańskiej przewagi w uzbrojeniu konwencjonalnym, a dodatkowo daje szanse Chińskiej
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
277
Robotyka w wojsku – przyszłość wojska, [on-line], botland.com, 25.12.2019,
https://botland.com.pl/blog/robotyka-w-wojsku-przyszlosc-wojska/ (07.07.2020).
278
ACTUV, Bezzałogowy Okręt Ciągłego Tropienia i Zwalczania Okrętów Podwodnych; zob. P. Behrendt,
Ruszają próby operacyjne Sea Huntera, [on-line], konflikty.pl, 02.12.2016,
https://www.konflikty.pl/aktualnosci/wiadomosci/ruszaja-proby-operacyjne-sea-huntera/ (10.07.2020).
279
Zob. J. Kijewski, Chiński dron z Ocean Alpha, [on-line], motorowy.com, 22.08.2017,
https://www.motorowy.com/artykul/22-08-2017/chinski-dron-ocean-alpha, (05.07.2020).
280
LIDAR oznacza narzędzie wykorzystujące metodę pomiaru odległości poprzez oświetlanie celu światłem
laserowym i pomiar odbicia za pomocą czujnika; różnice w czasie powrotu wiązki lasera oraz zmiana długości
fali mogą być następnie wykorzystane do tworzenia trójwymiarowego modelu; zob. A. Dubik, 1000 słów o
laserach i promieniowaniu laserowym, Warszawa 1989, s. 154.
103
badawczych, które znajdują różnorakie zastosowanie – modele takie jak SL20 Autonomous
Survey Boat, ME120 Autonomous Survey Boat czy Dolphin1 Smart Lifebouy
są wykorzystywane zarówno przez chińską policję do patrolowania wybrzeża czy działań
ratowniczych, ale również przez badaczy i naukowców - do pomiarów hydrograficznych
czy tworzenia morskich farm wiatrowych, dostarczając informacji o charakterze dna
morskiego, aby umożliwić jak najbezpieczniejszą (i najbardziej opłacalną) instalację
i konserwację urządzeń281. W 2018 r. Chiny zaprezentowały również pierwszą bezzałogową
łódź rakietową – The Look Out II. Wystrzelone z niej pociski precyzyjnie mogą trafić
w cele oddalone o 5 kilometrów. Zgodnie z zapewnieniami jej konstruktorów - Yunzhou Tech
– łódź wyposażono w możliwość zarówno ataku, jak i rozpoznania, dzięki wyposażeniu
w system radarowy i elektrooptyczny. Niewielkie rozmiary (7,5 m długości i 2,7 m
szerokości) i stosunkowo mały zasięg pocisków, jednostka nadrabia szybkością i cichym
działaniem, co pozwala jej zbliżyć się do celu i dokonać precyzyjnego ostrzału z bliskiej
odległości. Łódź ma nie być wykorzystywana do samodzielnego zatapiania wrogiej jednostki
pływającej, ale do niszczenia kluczowych struktur statku (centrum dowodzenia, zbrojowni,
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
281
Ocean Alpha, Get Closer to Ocean, [on-line], oceanalpha.com, b.r., https://www.oceanalpha.com/product-
item/dolphin1/ (07.07.2020).
282
Zob. L. Xuanzun, China’s first unmanned missile boat revealed at Airshow China 2018, “Global Times” [on-
line], 07.11.2018, http://www.globaltimes.cn/content/1126362.shtml (07.07.2020).
104
poinformowały o udanej próbie wykorzystania roju dronów latających – w skoordynowanym
locie przeprowadzonym przez państwową korporację CETC wzięło udział 119 minidronów,
będących odpowiednio przeprogramowanymi komercyjnymi urządzeniami X-6 Skywalker283.
Testy potwierdziły, że ogólnodostępne statki bezzałogowe mogą być łatwo zaadaptowane
do celów wojskowych. Technika i taktyka uzyskana dzięki wprowadzaniu do użytku
autonomicznych rojów daje możliwość zwiększenia możliwości bojowych przy jednoczesnej
redukcji kosztów. Możliwości każdego z pojedynczych dronów zwielokrotniają zdolność
bojową całego zespołu, co zapewnia większą elastyczność w ich wykorzystaniu i eliminację
części wad urządzeń stosowanych indywidualnie. Współpracujące ze sobą drony
mogą wymieniać pozyskiwane informacje, przesyłać bardziej szczegółowe i precyzyjne dane
oraz prowadzić wzajemny nadzór, zachowując jednocześnie zdolność do współpracy
z różnymi systemami walki. Wyzwaniem może być zapewnienie robotom określonej
samodzielności w działaniu i zapewnienie ich wzajemnej współpracy, tj. stworzenie sieci
wymiany danych i zaprogramowanie optymalnych algorytmów działania. Odrębną kwestią
jest również zapewnienie maszynom autonomicznym odporności na cyberataki. Uzbrojenie
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
tego typu urządzeń jest mniej wymagające – jak wskazuje Marek Dąbrowski, w dronach
bojowych można stosować zarówno sprawdzone, klasyczne systemy walki, jak i na bieżąco
opracowywane nowoczesne technologie284.
Kolejnym ogniwem w rozwoju tzw. inteligentnej broni (ang. smart weapon) są roboty
bojowe. Rafał Kopeć podkreśla, że broń inteligentna jest pojęciem o niezbyt precyzyjnym
znaczeniu i proponuje raczej używanie terminu amunicji precyzyjnego rażenia
(ang. precision-guidemunition – PGM), który tłumaczy jako „broń używającą układu
poszukującego do namierzenia energii będącej odbiciem celu lub punktu celowania,
przetwarzając ją w komendy kierujące broń do celu”285. Kluczowe znaczenie w broni
inteligentnej ma zatem system kierowania, który może być programowy (pocisk porusza się
po zaprogramowanej trasie), zdalny (pocisk porusza się zgodnie z otrzymywanymi sygnałami
zewnętrznymi) lub opierać się na samonaprowadzaniu (wówczas broń działa w sposób
autonomiczny). Broń wykorzystującą system samonaprowadzania określa się jako broń typu
”fire and forget”, czyli „odpal i zapomnij”, co oddaje jej zdolność do działania bez ingerencji
człowieka. Do samodzielnego wyboru celu są zdolne np. artyleryjskie pociski
przeciwpancerne 155 mm Bonus i SMArt, które nadlatując w rejon zgrupowania sił
przeciwnika wykrywają i naprowadzają się na cel286.
283
Zob. P. Behrendt, op. cit.
284
Zob. M. Dąbrowski, Chińskie roje dronów na Morzu Południowochińskim, [on-line], defence24.pl,
04.06.2018, https://www.defence24.pl/chinskie-roje-dronow-na-morzu-poludniowochinskim (04.06.2020).
285
R. Kopeć, Robotyzacja wojny, „Społeczeństwo i Polityka”, 2016, nr 4 (49), s. 43.
286
Ibidem, s. 44.
105
Choć to bezzałogowe statki powietrzne były pierwszymi zdalnie sterowanymi
maszynami, które wykorzystały siły zbrojne na całym świecie, to obecnie równie dużym
powodzeniem cieszą się bezzałogowe pojazdy lądowe, czyli wspomniane wcześniej UGV.
Dostępny na rynku sprzęt tego typu oferuje możliwość zarówno przenoszenia, jak i strzelania
z broni, takiej jak pistolety pieprzowe, strzelby, granatniki czy pociski Hellfire.
Z kolei zdalnie sterowane roboty TALON mogą przenosić dowolne rodzaje broni, począwszy
od karabinu maszynowego, poprzez granaty, aż po wyrzutnie rakiet. Jeszcze lepiej
wyposażony został taktyczny bezzałogowy Gladiator, wykorzystywany przez amerykańską
piechotę morską, zdolny do przenoszenia arsenału broni zarówno letalnej,
jak i nieśmiercionośnej, m.in. karabinów maszynowych, broni szturmowej (wykorzystywanej
do niszczenia bunkrów, przebijania fortyfikacji i unieruchamiania pojazdów pancernych),
systemu do stawiania zasłon dymnych (z użyciem granatów dymnych) czy systemu
umożliwiającego pokonywanie przeszkód, np. pól minowych. Poza tym, w zależności
od docelowego przeznaczenia, UGV mogą być wyposażone w czujniki i kamery,
które pozwalają im wykrywać i poruszać się w zróżnicowanych, niebezpiecznych
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
287
Zob. M. Dąbrowski, Bojowe roboty – rewolucja na polu walki [analiza], [on-line], defence24.pl, 22.04.2018,
https://www.defence24.pl/bojowe-roboty-rewolucja-na-polu-walki-analiza (13.07.2020).
106
optymalnym rozmiarom – są na tyle duże, by móc transportować określony masowo
i gabarytowo ładunek, a jednocześnie na tyle małe, by zachować zdolność do podążania
za żołnierzami, również w miejscach trudnych do przejechania, z którymi nie poradzą sobie
tradycyjne, załogowe wozy bojowe. Kluczowe znaczenie ma również wysoki stopień
mobilności pojazdu w zróżnicowanym terenie , co wymaga od konstruktorów dostosowania
układu jezdnego pojazdu (kołowego, gąsienicowego lub kroczącego), zainstalowania
niezależnego, hydraulicznego zawieszenia kontrolowanego przez autonomiczny system jazdy,
jak również doboru optymalnego napędu (spalinowego, elektrycznego, hybrydowego
lub kombinowanego), który zapewni osiąganie najlepszych parametrów mobilności
przy jednoczesnym dużym zasięgu działania i kulturze pracy288.
Inne systemy robotyczne wykorzystywane przez wojsko wyposażone są w układy
namierzania i śledzenia celu, które dzięki wyeliminowaniu konieczności prowadzenia
manualnych obliczeń balistycznych (zastąpionych przez podsystemy automatyzacji ruchu)
pozwalają znacznie przyspieszyć reakcję systemu na rozkaz operatora.Taką technologię
wykorzystują np. automatyczne moździerze, jak amerykański Dragon Fire czy fińsko-
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
288
Zob. Ibidem.
289
Koszt ich zakupu – z pełnym wyposażeniem, obejmującym m.in. nowoczesne lampy rentgenowskie,
bezodrzutowe działka saperskie (wykorzystywane do niszczenia zapalników i neutralizacji ładunków
wybuchowych) oraz kilka rodzajów amunicji – wyniósł 5 mln zł; zob. G. Hołdanowicz, Roboty meldują się do
służby, „Raport WTO”, 2006, nr 10, [on-line], altair.com, https://www.altair.com.pl/magazines/article?article_id
=756 (05.07.2020).
107
pojazdu szturmowego, wyposażonego w pakiet systemów rozpoznania, nadzoru i śledzenia
celu, jak również wbudowaną, zintegrowaną z systemem broń. W produkcji robotów typu
MULE wyróżnia się amerykańska firma Boston Dynamics, oferująca takie maszyny
jak Big Dog, Rhex, Sandflea, LS3, Wildcat, Spot Classic, czy najbardziej humanoidalny robo-
żołnierz – Atlas290.Z kolei roboty ARV bardziej niż mobilnych żołnierzy przypominają
kompaktowe czołgi. Ich wykorzystanie na polu walki sprowadza się do wsparcia misji
załogowych, np. poprzez wsparcie ludzkiej drużyny pancernej bez narażania życia żołnierzy.
Roboty te mogą bowiem zajmować najbardziej niebezpieczne pozycje i zapewnić wsparcie
bojowe w sytuacji, kiedy pojazdy załogowe zaangażują się w walkę z przeciwnikiem.
Mówiąc o robotyzacji pola walki wskazuje się zazwyczaj niezaprzeczalne korzyści
wynikające z możliwości broni autonomicznej. Pierwszą z nich jest wyeliminowanie ryzyka
fizycznego zagrożenia dla życia żołnierzy – pierwszym z militarnych zastosowań robotów
było wykorzystanie ich w operacjach o najwyższym stopniu ryzyka, tj. rozpoznaniu lotniczym
nad terytorium nieprzyjaciela oraz do neutralizacji min i urządzeń wybuchowych.
Drugą zaletą jest możliwość ciągłego rozwoju i zwiększania możliwych osiągów maszyn,
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
290
Zob. Boston Dynamics, Atlas, [on-line], bostondynamics.com, 24.09.2019,
https://www.bostondynamics.com/atlas (10.07.2020).
291
Zob. R. Coppinger, Northrop Grumman Global Hawk Block 20 achieves 33h endurance, [on-line],
flightglobal.com, 04.04.2008, https://www.flightglobal.com/news/articles/northrop-grumman-global-hawk-
block-20-achieves33h-e-222768/ (28.02.2020).
292
Zob. R. Kopeć, op. cit., s. 46.
108
państw nie opracowało dotąd całościowej doktryny wykorzystania robotów na polu walki.
Za czynniki warunkujące kompleksowe zastosowanie broni autonomicznej w bezpieczeństwie
militarnym należy uznać przede wszystkim zwiększenie dojrzałości technicznej państwa,
wdrożenie rozwiązań doktrynalnych oraz przełamanie oporu przed radykalnymi zmianami
w środowisku konserwatywnych organizacji militarnych. Istotne jest również, aby uniknąć
tzw. overinnovation, czyli sytuacji, w której innowacja techniczna okazuje się zbyt niszowa
lub wymagająca, aby zaimplementować ją do powszechnego użycia.
Kolejną niewątpliwą zaletą wdrażania rozwiązań wykorzystujących najnowsze
osiągnięcia technologiczne w obszarze bezpieczeństwa militarnego jest zwiększenie morale
poprzez świadomość własnych, zaawansowanych możliwości. Dodatkowo, zarówno
całkowicie, jak i półautonomiczne systemy dają szerokie spektrum zastosowań, nie tylko
wojskowych, ale również cywilnych, co w przypadku np. Chin – przygotowujących swoje
maszyny w oparciu o innowacyjne, oryginalne rozwiązania, znacząco zwiększa szansę
na zachowanie wysokiej pozycji w gronie światowych liderów gospodarczych.
295
Zob. W. Szymeczko, Perspektywy wykorzystania pojazdów autonomicznych w transporcie drogowym w
Polsce, Gdynia 2018.
296
Zob. Tabela 1.
297
Zob. Tabela 2.
110
o pomoc w przystosowaniu pojazdu do ruchu drogowego, sztuczna inteligencja umożliwia
budowę realistycznych symulatorów298.
298
P. Skruch, Sztuczna inteligencja i samochody autonomiczne, [on-line], Aptiv, 11.12.2018,
https://www.pzpm.org.pl/pl/download/file (04.03.2020).
111
asystenta „martwych punktów” czy systemu wykrywania i ostrzegania o zbliżającej się
kolizji, możliwe byłoby zapobieżenie średnio co trzeciemu negatywnemu zdarzeniu
drogowemu299. Możliwość oddania pełnej kontroli nad pojazdem autonomicznemu systemowi
prowadzenia w sytuacji krytycznej przekłada się również na polepszenie statystyki wypadków
z udziałem pieszych, rowerzystów czy motocyklistów – system nie rozprasza się, nie ulega
osłabieniu, nie można mu też zarzucić brawury, lekkomyślności czy sterowania pojazdem
pod wpływem alkoholu. Dodatkowo może on przeprowadzić manewr uniku w przypadku
spotkania z człowiekiem.
Niekwestionowaną zaletą postępującego rozwoju pojazdów autonomicznych jest
zwiększanie mobilności i komfortu przemieszczania się osób niepełnosprawnych, i starszych,
niemających zdolności do samodzielnego prowadzenia pojazdu. Wśród korzyści
dla wskazanych grup społecznych należy podkreślić niewątpliwe zwiększenie
samodzielności, zwiększenie możliwości dostępu do niezbędnych im usług oraz niwelowanie
ich społecznej izolacji. Tomasz Neumann wskazuje, że wdrożenie tego typu rozwiązań
wiązałoby się z mniejszymi nakładami finansowymi niż przystosowanie środków
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
113
korzystania usług typu car-sharing pozwala na ograniczenie kosztów związanych
z naprawami i ubezpieczeniem pojazdu, zakupem powierzchni parkingowej, itd.303
Istotnym argumentem przemawiającym za rozwojem autonomizacji samochodów jest
również możliwość obniżenia emisji do atmosfery szkodliwych substancji i spalin
pochodzących z pojazdów uczestników ruchu drogowego. Kluczową rolę odegrają tu przede
wszystkim ekonomiczność wykorzystania paliwa, stopień emisji dwutlenku węgla, rodzaj
paliwa wykorzystywanego do napędzania pojazdów autonomicznych oraz zmiany skali
ich użytkowania. O wzroście współczynnika oszczędności paliwa decyduje przede wszystkim
optymalizacja jazdy (eco-driving), do której przyczyniają się w szczególności system kontroli
podróży oraz stopniowe i płynne hamowanie i przyspieszanie, jak również inne czynności
optymalizacyjne wynikające ze zwiększającej się automatyzacji pojazdów. Możliwe
jest np. zastosowanie systemu jazdy kilku pojazdów autonomicznych, które jadąc
w zorganizowanej kolumnie komunikują się ze sobą. Takie rozwiązanie pozwala zwiększyć
płynność ruchu drogowego. Istotnym czynnikiem jest również możliwość zmniejszenia
wymaganego dystansu pomiędzy kolejnymi autami, co zwiększa pojemność pasa drogowego
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
i zapobiega stratom paliwa w trakcie omawianej wcześniej kongestii304. Nie bez znaczenia
jest również rodzaj stosowanego napędu – jednym z pierwszych koncernów wdrażających
pojazdy autonomiczne została Tesla, promująca w swoich autach napędy elektryczne.
Wraz z pojawieniem się i coraz bardziej powszechnym zastosowaniem rozwiązań
z zakresu Internetu rzeczy dla inteligentnych miast, zaczęły rozwijać się również rozwiązania
infrastrukturalne umożliwiające wprowadzenie zautomatyzowanej obsługi systemów
miejskich. Platformy wykorzystujące sztuczną inteligencję i algorytmy służące
do przetwarzania big data pozwalają m.in. na wprowadzenie do ruchu miejskiego
autonomicznych samochodów, monitorowanie poziomu zanieczyszczenia powietrza
czy zarządzanie miejskim systemem oświetlenia. Rozwiązania z tego zakresu proponuje
m.in. wrocławski projekt CityLab, tworzący zaplecze intelektualne do wdrażania i testowania
inteligentnych systemów funkcjonujących w przestrzeni publicznej. Wśród kluczowych celów
prowadzonych badań wskazano wdrożenie systemu monitoringu jakości powietrza
powiązanego z aplikacją mobilną, implementację systemu zarządzania miejscami
parkingowymi oraz zainstalowanie sieci słupów oświetleniowych wyposażonych
w inteligentne czujniki305. Polski inteligentny system miejski ma się wzorować
m.in. na słowackim projekcie ICE-Gateway, przygotowanym przez Galant Smart City.
Tamtejsze rozwiązania obejmują sieć inteligentnych lamp LED, sterowanych zdalnie
303
Zob. F. Ranft, M. Adler, P. Diamond i in., Freeing the Road: Shaping the future for autonomous vehicles, A
Policy Network Special Report, 2016.
304
Zob. T. Neumann, Perspektywy wykorzystania pojazdów autonomicznych…, s. 789.
305
Zob. Sztuczna inteligencja zarządzi naszymi miastami, [on-line], Newseria, 31.05.2019,
http://www.outsourcingportal.eu/pl/sztuczna-inteligencja-zarzadzi-naszymi-miastami (03.03.2020).
114
za pośrednictwem personalizowanego oprogramowania. Dokonują one pomiarów ruchu
na ulicach miasta i automatycznie dostosowują swój tryb pracy do bieżących potrzeb
mieszkańców. Lampy te jednocześnie monitorują jakość powietrza, analizując dostarczane
informacje o zanieczyszczeniach, a zainstalowane w nich kamery realizują zadania
miejskiego systemu monitoringu. Joanna Lewandowska, partner ds. rozwoju ICE-Gateway,
wskazuje, że zaletą takiego rozwiązania jest łatwa integrowalność platformy, możliwość
implementacji kolejnych funkcji i rozwiązań już w czasie trwania projektu oraz pełna
skalowalność, umożliwiająca dostosowanie systemu do potrzeb większych i mniejszych
miast. Przesyłane dane są szyfrowane, co ma zapewniać bezpieczeństwo użytkowników306.
Kolejną możliwością wykorzystania potencjału sztucznej inteligencji jest wdrażanie
inteligentnych systemów transportowych. Jak wskazuje polskie Ministerstwo Cyfryzacji,
planowane włączenie sieci 5G, przedstawianej jako sieć telekomunikacyjna nowej generacji,
umożliwi stworzenie bardziej bezpiecznych i sprawnych systemów transportu, zarówno
w odniesieniu do sterowania ruchem pojazdów indywidualnych, jak i kompleksowego
systemu transportu publicznego307. Sieć 5G ma umożliwić jednoczesne podpięcie do systemu
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
306
Zob. Ibidem.
307
Zob. Ministerstwo Cyfryzacji, Inteligentne systemy transportowe, [on-line], gov.pl, 08.05.2019,
https://www.gov.pl/web/5g/inteligentne-systemy-transportowe (04.03.2020).
115
dojazdu do pracy skrócił się o 26%, a emisja zanieczyszczeń produkowanych przez pojazdy
spadła o 21%308.
Podobne rozwiązania są wspierane przez branżę motoryzacyjną – w 2018 r. Toyota
Mobility Foundation nawiązała z Instytutem Alana Turinga współpracę, której celem
jest opracowanie „nowego sposobu planowania miast i zarządzania nimi”309 w taki sposób,
aby zwiększyć płynność ruchu ulicznego w miastach za sprawą nowej generacji systemu
zarządzania. Dotychczasowe, statyczne systemy zarządzania ruchem mają zostać zmienione
na dynamiczne, dzięki czemu będą się dostosowywać do bieżących warunków,
z uwzględnieniem wielu form transportu. Wśród głównych celów przedsięwzięcia badacze
wymieniają w szczególności wprowadzenie AI do systemów kontroli sygnalizacji świetlnej,
budowę platformy przetwarzającej interaktywne dane w celu monitorowania i przewidywania
zachowań uczestników ruchu oraz testowanie różnych scenariuszy planowania komunikacji.
W dalszej perspektywie zespół wskazuje pracę nad nowymi systemami współpracy
dla zarządów miast i operatorów flot, umożliwiających wymianę danych dotyczących
zagęszczenia ruchu i zanieczyszczenia powietrza w celu zapobiegania nawarstwianiu się
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
308
Ibidem.
309
B. Korzeniowski, Sztuczna inteligencja do zarządzania ruchem w miastach, „Motomi Magazyn” [on-line],
28.08.2018, https://magazynmotomi.pl/2018/05/28/sztuczna-inteligencja-do-zarzadzania-ruchem-w-miastach/
(04.03.2020).
310
Ibidem.
311
Zob. J.M. Anderson, N. Nalra, K.D. Stanley i in., Autonomous Vehicle Technology, Santa Monica 2014.
312
Większa liczba pasażerów oznacza większą liczbę przystanków i wydłużenie czasu podróży, ale mniejszy
koszt przejazdu , pokrywany przez więcej użytkowników.
116
– przystanek jest ustalany w takim miejscu, aby umożliwić odbiór jak największej liczby
pasażerów z jednego miejsca. Następnie Broome analizuje kolejne zgłoszenia użytkowników,
którzy chcą się dostać do miejsca docelowego, i na podstawie tych danych optymalizuje trasę
przejazdu. Jednocześnie aplikacja pilnuje, aby czas podróży nie przekroczył preferencji
określonych przez podróżujących. Zgłoszenia pasażerów nie są jedynym czynnikiem
determinującym przewidywaną trasę. Jak wskazuje Stefan Cylwik313, algorytmy aplikacji
biorą pod uwagę również natężenie ruchu miejskiego, pogodę, a nawet behawiorystkę
mieszkańców określonego obszaru. Broome analizuje jednocześnie nie tylko trasę jednego
kursu, ale optymalizuje także możliwość wykorzystania całej dostępnej floty pojazdów,
przypisanych do obsługi danego regionu – zarząd firmy planuje bowiem wdrożenie swoich
rozwiązań nie tylko w miastach, ale na terenach całych gmin, gdzie utrzymanie
konwencjonalnego systemu komunikacji publicznej okazuje się nieefektywne i drogie,
zwłaszcza na obszarach podmiejskich314. Wśród zalet tego rozwiązania, jego autorzy
wskazują w szczególności zapewnienie komfortu podróżującym, zwiększenie efektywności
komunikacji publicznej, zminimalizowanie cen przejazdu oraz zwiększenie obszaru
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
bezpieczeństwa?
4. zachowanie pojazdu w ruchu – czy działanie systemu jest zrozumiałe i przewidywalne
dla innych uczestników ruchu drogowego?
5. ocenę stanu kierowcy – czy system jest w stanie klarownie i bezpiecznie ocenić stan
operatora w przypadku przejęcia kontroli nad autem przez człowieka?
6. zdolność do bezpiecznych manewrów – jeżeli ocena operatora wypadnie negatywnie,
system musi być w stanie wziąć odpowiedzialność za kierowcę i samodzielnie wykonać
optymalny manewr drogowy w sytuacji zagrożenia kolizją;
7. decydującą rolę operatora – aktywacja i dezaktywacja autonomicznego trybu jazdy musi
wymagać wyraźnego zamiaru ze strony kierowcy;
8. wpływ automatyki na kierowcę – ogólna ocena bezpieczeństwa systemu musi
uwzględniać udogodnienia, do jakich przywykł operator korzystający z jazdy
autonomicznej oraz negatywne konsekwencje wynikające z odzwyczajenia kierowcy
od kierowania ręcznego w sytuacji, gdy będzie on musiał przejąć kontrolę nad pojazdem;
9. ocenę systemu pod kątem bezpieczeństwa –każdy wdrażany w pojazdach system musi
przejść ocenę bezpieczeństwa, bez której nie będzie dopuszczony do użytku; na żadnym
z etapów projektowania, implementacji i produkcji nie należy wdrażać zmian
obniżających poziom bezpieczeństwa systemu;
10. bezpieczeństwo danych – w sytuacji rozpoznania niebezpiecznego zdarzenia,
rejestrowane przez pojazd dane muszą być przetwarzane zgodnie z obowiązującymi
przepisami regulującymi sferę prywatności;
118
11. zabezpieczenie systemu przed atakami zewnętrznymi – zautomatyzowane systemy jazdy
muszą być chronione przed atakami hackerskimi, podpięciem, przechwyceniem danych
czy możliwością przejęcia zdalnej kontroli nad pojazdem;
12. zapewnianie odpowiedniej ochrony w sytuacji, kiedy kierowca wykorzystuje
zainstalowane w pojeździe rozwiązania technologiczne w sposób inny, niż powinny
one działań w trybie jazdy autonomicznej (zapewnienie działania pasów bezpieczeństwa,
regulacja siedzeń, utrzymywanie czystości szyb i lusterek).
Jednocześnie autorzy białej księgi wskazują, że nie ma ona na celu opracowania
konkretnych rozwiązań technicznych ani określania minimalnego lub maksymalnego
standardu, co wynika z istnienia kilku możliwości definiowania i projektowania pojazdów
autonomicznych. Dokument nie odnosi się również do kwestii związanych
z niekontrolowanym uczeniem się maszyn, niewłaściwym używaniem systemów
autonomicznych przez kierowców, wdrażaniem zaawansowanych systemów wspomagania
kierowcy czy określaniem zasad prywatności danych.
316
Zob. S. Gliwa, AI vs AI. Jakie trendy bezpieczeństwa i zagrożeń czekają nas w 2020 roku?, [on-line],
CyberDefence24, 25.11.2019, https://www.cyberdefence24.pl/ai-vs-ai-jakie-trendy-bezpieczenstwa-i-zagrozen-
czekaja-nas-w-2020-roku (24.04.2020).
119
oprogramowania oraz innymi działaniami ukierunkowanymi na wyrządzenie szkód
w strukturze informatycznej organizacji. Zapewnianiu skutecznej ochrony punktów
końcowych służą w szczególności takie funkcje jak identyfikacja i blokada potencjalnie
zainfekowanych urządzeń, kontrola dostępu oraz gradacja poziomu uprawnień i dostępu
do sieci różnym grupom użytkowników. Wykorzystanie uczenia maszynowego oraz narzędzi
sztucznej inteligencji do kompleksowego systemu ochrony punktów końcowych skutkuje
podniesieniem poziomu ich automatyzacji – są one w stanie samodzielnie analizować ruch
w sieci organizacji, a co za tym idzie – identyfikować pojawiające się zagrożenia
bez konieczności angażowania w ten proces człowieka317.
Sztuczna inteligencja znalazła również zastosowanie w automatyzacji szyfrowania
danych – już w 2016 r. Google ogłosił, że stworzony przez nią algorytm potrafi stworzyć
i zastosować własne standardy szyfrowania danych przesyłanych pomiędzy użytkownikami
w oparciu o sztuczne sieci neuronowe318. Eksperyment Google’a polegał na utworzeniu trzech
sieci neuronowych: jedna wysyłała zaszyfrowane wiadomości, druga je odszyfrowywała,
a trzecia starała się odczytać ich treść nie posiadając klucza deszyfrującego. Po ponad 15 tys.
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
prób udało się skutecznie przesłać i odczytać wiadomość, nie udostępniając jej treści sieci
„podsłuchującej”. Eksperyment służył przede wszystkim wykazaniu możliwości samouczącej
się sztucznej inteligencji, ponieważ sami naukowcy nie byli w stanie ustalić, jaką konkretnie
metodę szyfrowania wykorzystała sieć.
Jednym z ciekawszych zastosowań AI w zapewnianiu bezpieczeństwa informacyjnego
jest wykorzystanie jej w translacji języka, w tym również w czasie rzeczywistym.
Powszechnie dostępne narzędzie – Google Translator – na podstawie zdjęcia tekstu
umożliwia rozpoznanie zastosowanego w nim języka i natychmiastowe przetłumaczenie treści
na inny, dowolny język. Takie zastosowanie w znaczący sposób zmniejsza językową barierę
komunikacyjną i umożliwia globalną wymianę informacji. Choć tłumaczenie automatyczne
nie zawsze jest precyzyjne i dokładne, to z biegiem lat coraz lepiej oddaje sens
przetworzonego tekstu, pozostając jednocześnie szybszym , mniej kosztownym i bardziej
dyskretnym sposobem translacji niż zaangażowanie do tego celu tłumacza319.
Kolejny przewidywany trend to doskonalenie narzędzi opartych na sztucznej
inteligencji, co jest możliwe dzięki dostępowi do szerokiego zestawu danych, zarówno
o charakterze historycznym, jak również zasilających bazy danych w czasie rzeczywistym.
317
Zob. G. Kubera, Ochrona punktów końcowych – co trzeba o niej wiedzieć, „Computer World” [on-line],
27.12.2018, https://www.computerworld.pl/news/Ochrona-punktow-koncowych-co-trzeba-o-niej-wiedziec,411
609.html (23.04.2020).
318
Zob. A. Berger, Sztuczna inteligencja Google’a tworzy własne systemy szyfrowania, [on-line],
trybawaryjny.pl, 13.11.2016, https://trybawaryjny.pl/sztuczna-inteligencja-googlea-tworzy-wlasne-systemy-
szyfrowania/ (09.07.2020).
319
Zob. K. Jassem, Sztuczny umysł między językami, [on-line], sztucznainteligencja.org, 28.03.2019,
https://www.sztucznainteligencja.org.pl/sztuczny-umysl-miedzy-jezykami/ (10.07.2020).
120
Istotna jest w tym kontekście postawa zarządów firm, które mogą dążyć do zwiększenia
nakładów finansowych i wdrożenia szeroko zakrojonych działań na rzecz wykrywania
zagrożeń przy użyciu nowoczesnych technologii. Z kolei przetwarzanie przez organizacje
coraz większej ilości danych, co jest możliwe dzięki wykorzystaniu sztucznej inteligencji
i big data, niesie za sobą konieczność zautomatyzowania procesów bezpieczeństwa,
czemu również posłużą rozwiązania oparte na uczeniu maszynowym i AI.
Wyniki badań przeprowadzonych w 2017 r. przez portal Webroot wykazały, że 87%
amerykańskich specjalistów ds. cyberbezpieczeństwa korzysta z określonych form sztucznej
inteligencji, przy czym aż 91% z nich ma obawy, że ta technologia może zostać wykorzystana
przeciwko nim przez hakerów320.Specjaliści odpowiedzialni za ochronę systemów
informatycznych mogą wykorzystywać narzędzia sztucznej inteligencji przede wszystkim
do czynności, w których kluczową rolę odgrywa symulacja standardowych zachowań
oraz wykrywanie powtarzalnych wzorców i jednocześnie odstępstw od normy, które z uwagi
na skalę przetwarzanych danych mogą zostać niewykryte przez człowieka. Odnosi się
to zarówno do standardowych danych, przesyłanych na bieżąco przez sieć, jak i informacji
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
320
Zob. Webroot. Smarter Cybersecurity, Game Changers: AI and Machine Learning in Cybersecurity. A
U.S./Japan Comparison, 2017.
321
Zob. Trend Micro Polska, Sztuczna inteligencja – przyjaciel i wróg bezpieczeństwa informatycznego, [on-
line], Trend Micro, 16.08.2018, https://blog.trendmicro.pl/2018/08/16/sztuczna-inteligencja-przyjaciel-i-wrog-
bezpieczenstwa-informatycznego/ (19.04.2020).
121
3,92 mln USD322, zaś w 2017 r. w Wielkiej Brytanii straty z tego tytułu wyceniono
na ok. 2,7 mld GBP, a przeciętny czas potrzebny do wykrycia incydentu bezpieczeństwa
określono jako 163 dni323. Automatyzacja, możliwa dzięki wdrożeniu rozwiązań AI, znacząco
skraca ten okres – opierając się na danych pochodzących z prac badawczych, wiadomości
czy blogów, sztuczna inteligencja dokonuje zaawansowanych analiz i na ich podstawie
dostarcza informacji ułatwiających walkę z pojawiającymi się alarmami bezpieczeństwa,
co skutkuje skróceniem czasu reakcji na ataki324. Szybkość wykrycia zagrożenia i reakcji
na nie ma niebagatelne znaczenie w przypadku ataku z wykorzystaniem oprogramowania
typu ransomware, ukierunkowanego na złośliwe szyfrowanie plików o znaczeniu
strategicznym (krytycznym) dla organizacji. Wykorzystanie uczenia maszynowego pozwala
wykryć nawet minimalne, pojawiające się niespójności oraz nieautoryzowane zmiany,
które wskazują na szyfrowanie plików przezszkodliwe oprogramowanie, co finalnie pozwala
uniknąć naruszeń bezpieczeństwa polegających na utracie dostępności i integralności
przetwarzanych danych. Możliwe jest również prewencyjne blokowanie potencjalnie
szkodliwych plików i procesów - jeszcze przed faktycznym rozpoczęciem infekcji
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
325
Zob. IBM, Wimbledon 2017, [on-line], IBM, b.r., https://www.ibm.com/case-studies/wimbledon-2017,
(10.07.2020).
326
Zob. Ibidem.
327
Zob. IBM Security, Sztuczna inteligencja…, (26.04.2020).
123
3.4. AI w sferze bezpieczeństwa ekonomicznego i zdrowotnego
328
M.J. Walker, Top Trends in the Gartner Hype Cycle for Emerging Technologies, [on-line], gartner.com,
2017, https://www.gartner.com/smarterwithgartner/top-trends-in-the-gartner-hype-cycle-for-emerging-
technologies-2017/ (02.06.2020).
329
financialtechnologies, insurancetechnologies
330
Zob. A. Trapp (red.), AI: wyzwania i konsekwencje. Pilot view, Gdańsk 2019, s. 76.
124
– w taki sposób, aby przewidzieć jego przyszłe potrzeby i w optymalny, a jednocześnie
zyskowny sposób na nie odpowiedzieć.
Możliwości wykorzystania AI w marketingu są bardzo rozległe. SAS Institute
zdefiniował sześć kluczowych obszarów zastosowania sztucznej inteligencji w tej branży,
wyróżniając wśród nich331:
wsparcie procesów decyzyjnych i zwiększenie sprzedaży – AI i uczenie maszynowe
pozwalają uzyskać precyzyjny profil konsumenta, co z kolei pozwala przewidzieć,
w jaki sposób kupujący, pochodzący z poszczególnych grup odbiorców, zareagują
na konkretną ofertę. Wykorzystując te mechanizmy można dobrać i zaproponować
klientowi spersonalizowaną ofertę, dopasowaną do jego przewidywanych oczekiwań,
co zwiększa szansę na sprzedaż produktu; o tym, jak często wykorzystywany jest ten
sposób, przekonują się użytkownicy internetu, którzy po obejrzeniu konkretnych treści
otrzymują spersonalizowane reklamy produktów podobnych do oglądanych materiałów;
wsparcie działań z obszaru cross-sellingu i up-sellingu – wykorzystując ogromne ilości
przetwarzanych danych dotyczących zakupów i preferencji konsumentów,
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
331
Zob. Sztuczna Inteligencja i jej zastosowanie w marketingu, [on-line] properad.pl, 18.01.2019,
https://properad.pl/artykul/62/Sztuczna-Inteligencja-i-jej-zastosowanie-w-marketingu (07.07.2020).
125
dla klienta, opracowanie ukierunkowanej na zysk strategii działania oraz niezwłoczną
reakcję na zachodzące w otoczeniu zmiany; nowoczesne narzędzia działające w oparciu
o technologię AI pozwalają również przygotowywać zróżnicowane scenariusze
i przewidywać skutki określonych działań marketingowych, co umożliwia opracowanie
i wdrożenie skutecznych mechanizmów kontrolnych, minimalizujących potencjalne straty
wywołane błędnymi decyzjami;
analizę danych z wielu źródeł - wiedza o kliencie jest, oprócz pieniędzy, najbardziej
cenną walutą branży finansowej. Dotychczas klientów poddawano tradycyjnym
procedurom badawczym i stosowano wobec nich standardowe zabiegi marketingowe.
Dane o klientach pozyskiwano i analizowano w oparciu o niespójne techniki i narzędzia
– obsługa klienta, marketing i sprzedaż wykorzystywały odrębne technologie
gromadzenia danych. Wdrożenie nowych rozwiązań technologicznych pozwoliło
połączyć i zapewnić spójność wskazanych obszarów – współcześnie ocena klienta,
badanie jego potencjału i preferencji czy przygotowanie i sprzedaż produktu odbywa się
najczęściej w jednej, wspólnej przestrzeni cyfrowej. Wykorzystywane do tego celu
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
332
Zob. A. Mimaroglu, 3 Ways Artificial Intelligence Has Sparked Marketing and Sales Transformation, [on-
line], entrepreneur.com, 27.06.2019, https://www.entrepreneur.com/article/335779 (09.07.2020).
126
wykorzystywanym w tym obszarze jest RankBrain – część rozbudowanego algorytmu
Google, którego skuteczność oparta jest na nieustannym pozyskiwaniu nowych danych.
Wraz z każdym zapytaniem, które internauta wprowadza do wyszukiwarki Google,
RankBrain wzbogaca swoją bazę o nowe, precyzyjne dane. Program sprawdza jednocześnie,
które strony swoją treścią pozwalają lepiej odpowiedzieć na zadane zapytania,
co m.in. pozwala podwyższyć pozycje wyświetlania stron mniej „doinwestowanych”
przez twórców, ale zawierających bardziej precyzyjną lub bardziej przystępną
dla użytkownika informację. Wśród kluczowych czynnikówRankBrain, które mają wpływ
na kolejność wyświetlania i sugerowanie użytkownikowi określonych stron, Justyna
Podsiadło wyróżnia następujące parametry:333
kliknięcia – liczbę, częstotliwość i regularność odwiedzin witryny przez użytkowników;
jakość wizyty – jak długo użytkownicy korzystali z treści zamieszczonych na stronie,
ile czasu przeznaczyli na śledzenie treści, która część strony zawierała odpowiedź
na ich pytania;
zainteresowanie stroną – czy użytkownik korzystał z jednej podstrony, czy korzystał
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
333
Zob. J. Podsiadło, Sztuczna inteligencja w SEO. Jak Google wykorzystuje AI?, [on-line], delante.pl,
30.03.2020, https://delante.pl/ai-sztuczna-inteligencja-w-seo/ (06.07.2020).
127
określenie profilu użytkownika (w tym danych językowych i demograficznych) i wdrożenie
skutecznych metod komunikacji.
Sztuczna inteligencja znajduje również zastosowanie w obszarze zwiększania
bezpieczeństwa klienta podczas korzystania z usług finansowych. Jednym z największych
wyzwań, z którymi mierzą się obecnie światowe instytucje finansowe, jest skuteczne
zapobieganie nieuprawnionemu przejmowaniu kont bankowych. Ataki phishingowe
na klientów banków oraz brak efektywnego sposobu powstrzymywania wycieków
z baz danych sprawiają, że nieustannie zwiększa się zapotrzebowanie na niezawodne,
a jednocześnie przystępne dla użytkownika systemy zabezpieczeń bankowych. Specjaliści
od systemów IT w bankowości dążą zatem do ulepszania i optymalizacji rozwiązań, które
zapewnią bezpieczeństwo przetwarzania zgromadzonych zbiorów danych, koncentrując
się przede wszystkim na sposobach dostępu do konta online (procedurach autoryzacji
i logowania do konta). Stosowanie tradycyjnych rozwiązań (logowanie za pomocą hasła
złożonego z ciągu znaków) jest narażone na atak ze strony botów ukierunkowanych
na złamanie i kradzież kodów i haseł zabezpieczających. Wśród nowych rozwiązań,
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
334
ATO – skrót od AccountTakeover Online, pol. atak prowadzący do przejęcie konta online; Zob. J. Babicz,
Sztuczna inteligencja zablokuje kradzieże z kont bankowych dokonywane przez cyberprzestępców, „Dziennik
Bałtycki” [on-line], 29.01.2018, https://dziennikbaltycki.pl/sztuczna-inteligencja-zablokuje-kradzieze-z-kont-
bankowych-dokonywane-przez-cyberprzestepcow/ar/c3-12889010, (17.04.2020).
128
korzystania z urządzenia używanego do prowadzenia bankowości elektronicznej, np. obsługi
ekranu dotykowego, sposobu poruszania myszką czy indywidualnego rytmu pisania
na klawiaturze.
W obszarze bezpieczeństwa ekonomicznego, rozwiązania bazujące na sztucznej
inteligencji stosują zarówno banki, jak i ubezpieczyciele. Firma ubezpieczeniowa AXA,
w celu osiągnięcia lepszych wyników przy określaniu ryzyka ubezpieczeń samochodowych,
wykorzystuje oprogramowanie Tensor Flow. Obsługuje ono platformę uczenia maszynowego
(Google Cloud Machine Learning Engine). System ten osiągnął 78% skuteczności
przy ocenie klientów tzw. wysokiego ryzyka, podczas gdy w tym samym obszarze wyniki
poprzednio stosowanego algorytmu (Random Forest) oscylowały w granicach
40%335.Technologia oparta o sztuczną inteligencję wykorzystywana jest również
w bezpośrednim kontakcie z klientem. Przedsiębiorstwo Insurify oferuje klientom możliwość
porównania dostępnych ofert ubezpieczeniowych i wyboru najbardziej optymalnej
w trakcie rozmowy przez telefon (lub czat) z wirtualnym doradcą. Wirtualny asystent
nie tylko rozumie pytania, ale również jest w stanie prowadzić rozmowę z klientem,
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
338
Zob. N. Biedrzycki, Sztuczna inteligencja jest sprawnym bankierem, [on-line], norbertbiedrzycki.pl,
14.01.2020, https://norbertbiedrzycki.pl/sztuczna-inteligencja-jest-sprawnym-bankierem/ (03.05.2020).
339
Zob. https://digit.co (05.05.2020).
130
ich wykorzystanie w tradycyjnych procesach biznesowych, m.in. do szybkiej i obiektywnej
identyfikacji, czy nie doszło do zakłócenia łańcucha dostaw. Jednocześnie sztuczna
inteligencja może stać się wymiernym elementem ochrony systemu informatycznego
organizacji poprzez blokowanie możliwości użycia sprzętu, który jest domyślnie podatny
na ataki. To z kolei zmniejsza ryzyko podłączenia zainfekowanego dysku do łańcucha dostaw
biznesu.
Istotne znaczenie w kontekście zapewniania bezpieczeństwa ekonomicznego
340
i społeczno-gospodarczego ma obszar bezpieczeństwa zdrowotnego . Chodzi tu przede
wszystkim o uwzględnienie w budżecie państwa nakładów finansowych niezbędnych
do zapewnienia sprawnego funkcjonowania systemu świadczeń socjalnych osobom starszym,
niepełnosprawnym i chorym. Im dłużej członkowie społeczeństwa cieszą się dobrym
zdrowiem i sprawnością psychofizyczną, tym mniej obciążony jest krajowy budżet, ponieważ
obywatele są w stanie sami się utrzymać, nie potrzebując jednocześnie pomocy socjalnej.
W tym obszarze istnieją szerokie możliwości zastosowania sztucznej inteligencji,
przede wszystkim w narzędziach i systemach wsparcia opieki nad osobami starszymi
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
343
Zob. M. Kuchta, Aplikacja zamiast wizyty u lekarza? Ada zdiagnozuje Twoje objawy, [on-line],
marketinglink.pl, 20.04.2017, https://marketinglink.pl/aplikacja-zamiast-wizyty-u-lekarza-ada-zdiagnozuje-
twoje-objawy/ (02.06.2020).
344
W. Fehler, Sztuczna inteligencja…, s. 79.
345
Zob. I. Stone, 30 Most Technologically Advanced Cancer Centers in the World, [on-line],
topmastersinhealthcare.com, 2016, https://www.topmastersinhealthcare.com/30-most-technologically-advanced-
cancer-centers-in-the-world/ (02.06.2020).
132
holistyczne informacje o stanie zdrowia”346. Wymaga to oczywiście opracowania
odpowiednich algorytmów, dostosowanych do rodzaju i cech charakterystycznych
dla diagnozowanych chorób, co pozwoli na zrozumienie i wykrycie zarówno ostrych stanów
chorobowych, jak i wartości parametrów życiowych odbiegających od standardowych,
bezpiecznych norm. Obecny potencjał sztucznej inteligencji w obszarze profilaktyki i ochrony
zdrowia można odnieść nie tylko do osób starszych i chorych – technologie oparte
na AI mogą być wykorzystywane w codziennej aktywności każdej osoby, niezależnie od jej
kondycji i stanu zdrowia.
Jeżeli chodzi o osoby starsze, niepełnosprawne i przewlekle chore, możliwość
wykorzystania technologii opartych na AI w ich wsparciu nie kończy się na działaniach
o charakterze medycznym. Jak wskazuje Bogdan Mróz, odpowiednio zaprogramowane
inteligentne urządzenia domowe (tzw. smart devices) są w stanie pomóc tym osobom
w prowadzeniu gospodarstwa domowego i organizacji codziennego życia, zwiększając
ich komfort i samodzielność. Istotne znaczenie mają tu przede wszystkim osobiste roboty-
asystenci, które mogłyby zarówno wykonywać skomplikowane, precyzyjne czynności
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
(np. zapinanie guzików podczas pomocy osobie w ubraniu się), jak i pomagać w obowiązkach
domowych poprzez przygotowywanie jedzenia czy wykonywanie czynności i zabiegów
higienicznych347. Jest to szansa dla starzejących się społeczeństw, umożliwiająca
ich członkom zachowanie samodzielności i sprawności, zarówno fizycznej, jak i psychicznej,
co przekłada się na odwrócenie niepokojących trendów związanych z obecnym, zastałym
stylem życia tej grupy społecznej, niezdrowym sposobem odżywiania czy coraz mniejszej
troski o zdrowie. B. Mróz podkreśla, że szansą to jest zwłaszcza wdrożenie i powszechne
wykorzystywanie aplikacji mobilnych monitorujących ruch i aktywność osób,
zintegrowanych z platformami kontaktów w mediach społecznościowych. Działania te będą
sprzyjać utrzymaniu zdrowia psychicznego i fizycznego. Dokładając do tego domowe
systemy monitorowania stanu zdrowia, pozwalające na zaalarmowanie służb medycznych
lub pracowników opieki społecznej w sytuacjach krytycznych oraz inteligentne urządzenia
o charakterze wspomagająco-asystującym (w postaci egzoszkieletów, systemów sterowanych
mową, gestami lub nawet myślami), można zauważyć, że wizja odciążenia szpitali i placówek
opiekuńczych poprzez możliwość domowej rehabilitacji pacjentów jest coraz bardziej realna.
Jednocześnie należy mieć na uwadze, że im dłużej osoby starsze lub chore zachowają
sprawność i będą zdolne do samodzielnego funkcjonowania, tym mniejsza będzie skala
obserwowanego już problemu z zapewnianiem im optymalnej, profesjonalnej opieki, zarówno
ze strony personelu opiekuńczego, jak i członków ich rodziny.
346
D. McIlwraith, H. Marmanis, D. Babenko, Inteligentna sieć. Algorytmy przyszłości, Gliwice 2017, s. s. 215.
347
Zob. B. Mróz, Konsument a wyzwania technologiczne XXI wieku, „Studia Ekonomiczne. Zeszyty Naukowe
Uniwersytetu Ekonomicznego w Katowicach”, 2017, nr 330, s. 145.
133
Biorąc pod uwagę powyższe argumenty, obszary bezpieczeństwa ekonomicznego
i zdrowotnego wydają się być jednymi z najbardziej chłonnych i otwartych na rozwój
potencjału związanego z powszechnym wykorzystaniem technologii sztucznej inteligencji. W
tych sektorach obserwuje się bowiem bardzo dużą ilość praktycznych, inteligentnych
rozwiązań podnoszących codzienny komfort życia człowieka oraz przyspieszających procesy
obsługi użytkownika i kontaktu z nim.
do tych aspektów nie ogranicza – wolność myśli, sumienia, mowy, stylu życia,
przynależności etnicznej, płci, poczucia przynależności do stowarzyszeń, związków,
obejmując także kulturalne i polityczne współzawodnictwo”348. Wdrażanie do powszechnego
użytku nowoczesnych technologii znacząco wpłynęło na zmianę stylu życia społeczeństw
w państwach wysoko rozwiniętych i rozwijających się. Dążenie człowieka do zwiększania
własnego komfortu życia, wprowadzania udogodnień pozwalających oszczędzić czas
i pieniądze poprzez automatyzację coraz większej liczby czynności dnia codziennego
stworzyło szeroki rynek zbytu dla urządzeń funkcjonujących w oparciu o AI. Pierwszym
obszarem jest możliwość wykorzystywania funkcjonalności stosowanych w inteligentnych
domach i związanych z rozwojem Internetu rzeczy (ang. IoT – Internet of Things).
„Inteligentne” urządzenia stanowiące wyposażenie domu lub mieszkania są nieustannie
podłączone do Internetu, co sprawia, że ich mieszkańcy mogą zdalnie zarządzać systemami
alarmowymi, oświetleniem czy ogrzewaniem za pomocą aplikacji zainstalowanej w telefonie.
Dzięki temu możliwe jest zapewnienie użytkownikom adekwatnego poziomu bezpieczeństwa
(poprzez możliwość bieżącego poglądu i reakcji na niepożądane zdarzenia, np. włamanie),
komfortu termicznego czy np. utrzymanie satysfakcjonującej jakości powietrza. Kreowany
przez wizjonerów obraz „podłączonego do Internetu mieszkania, które zrobi za ciebie zakupy,
umówi cię na spotkanie, skomunikuje się ze smartfonem, rozpocznie gotowanie obiadu
348
J. Czaja, Kulturowe czynniki bezpieczeństwa, Kraków 2008, s. 35.
134
i włączy pralkę”349 (lub inne sprzęty domowe) stał się realny. Udostępnione użytkownikom
udogodnienia są doceniane przede wszystkim przez osoby aktywne zawodowo, obciążone
licznymi obowiązkami, dla których możliwość zaprogramowania i automatyzacji części prac
domowych pozwala na bardziej efektywne wykorzystywanie czasu wolnego. W literaturze
przedmiotu funkcjonuje określenie „inteligentny budynek” oznaczające wykorzystanie
w różnych budynkach (zarówno biurowych, jak i mieszkalnych) systemów wykazujących
cechy sztucznej inteligencji, w szczególności zdolność uczenia się, kojarzenia,
przewidywania czy podejmowania decyzji350. Jedną z pierwszych definicji inteligentnego
budynku zaproponował w 1989 r. Paul Robathan, odnosząc się przede wszystkim do celów
zarządzania nim – wśród nich wymienił zwiększenie komfortu użytkowników, podniesienie
poziomu bezpieczeństwa, zmniejszenie kosztów utrzymania i eksploatacji nieruchomości
oraz zwiększenie jej atrakcyjności rynkowej351. Wraz z rozwojem dziedziny oraz wdrażaniem
nowych rozwiązań technologicznych kształtowały się kolejne definicje inteligentnych
budynków – warta uwagi jest ta zaprezentowana przez SMARTech,
zgodnie z którą jest to „budynek zaawansowany technicznie z systemem czujników
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
353
Zob. M. Cieciura, Podstawy technologii informacyjnych z przykładami zastosowań, Warszawa 2006, s. 498-
500.
354
Zob. J. Argasiński, Sztuczna inteligencja w grach wideo, [w:] A. Pitrus (red.), Olbrzym w cieniu: gry wideo w
kulturze audiowizualnej, Kraków 2012, s. 44.
136
gracza (odbijanie piłki, unikanie pocisku, podążanie za postacią) – ten rodzaj inteligencji,
sprowadzający się do operowania nielicznymi zakodowanymi regułami, długo dominował
w grach, głównie z uwagi na ograniczoną moc obliczeniową oraz niewielką pamięć
operacyjną popularnych ówcześnie urządzeń. Z biegiem lat wymagania graczy rosły,
a to przyczyniło się do powstawania nowych i bardziej efektywnych rozwiązań. W pierwszej
dekadzie XXI w. coraz większego znaczenia nabierała AI – jej zadaniem nie było już tylko
tworzenie i kontrolowanie otoczenia gracza, ale również sterowanie fizjologią, a nawet
psychologią postaci, co miało wymóc na graczu większe zaangażowanie w grę.
Funkcjonowanie sztucznej inteligencji w grach opiera się w szczególności na podejmowaniu
decyzji przez oprogramowanie na podstawie określonego modelu pozyskiwania
i przetwarzania informacji. Program komputerowy dostaje zestaw danych wejściowych,
poddaje go analizie i na tej podstawie dostarcza dane wyjściowe, regulujące wybrany aspekt
rozrywki. Złożony model zachowań AI, na podstawie zadanego zestawu informacji,
konstruuje zachowanie odwzorowujące domniemane, przewidywane zachowanie
inteligentnego uczestnika rozrywki. Planowanie inteligentnych zachowań obiektów w grach
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
obejmuje tworzenie algorytmów, które regulują złożone partie rozgrywki, m.in. procedury
sterowania ruchem, budowy strategii, procesów decyzyjnych, wchodzenie w interakcje
z użytkownikiem (lub grupą użytkowników), a także procesy zachodzące w środowisku gry.
Krzysztof Wardziński wyróżnia trzy kategorie zastosowania sztucznej inteligencji
w grach komputerowych355. Pierwszą z nich jest urealnienie świata gry – rolą AI jest
sterowanie działaniami NPC356, z którymi ma styczność bohater sterowany przez gracza.
Drugą kategorią jest wsparcie rozgrywania walki – w tym przypadku sztuczna inteligencja
steruje postaciami w trakcie walki. Jest to najczęściej spotykana forma AI, stosowana w grach
strategicznych i tzw. strzelankach. Trzecim zastosowaniem jest komentowanie wydarzeń
dziejących się w świecie gry na podstawie bieżących działań gracza – tę formę można
najczęściej spotkać w grach sportowych (FIFA, UFC). Inteligentne specjalizacje znalazły
miejsce w planie polityki regionalnej na lata 2014-2020 – oznacza to, że producenci gier
komputerowych mogli liczyć na dofinansowanie ze środków europejskich z uwagi na wysoki
potencjał rozwojowy357.
Sztuczna inteligencja znalazła szerokie zastosowanie w branży portali randkowych.
Podstawowy sposób jej wykorzystania to profilowanie behawioralne, polegające na analizie
profili użytkowników i zawartych w nich informacji, umożliwiające wyszukanie osób
355
Zob. K. Wardziński, Przegląd algorytmów sztucznej inteligencji stosowanych w grach komputerowych,
„Homo Communicativus”, 2008, nr 3, s. 249.
356
ang. Non-PlayableCharacter – postać niegrywalna, sterowana przez grę, a nie przez gracza.
357
Zob. Zastosowanie algorytmów sztucznej inteligencji w grach komputerowych, [on-line], bks.pr.radom.pl,
b.r., http://www.bks.pr.radom.pl/publikacje/SI%20w%20grach.pdf (11.05.2020).
137
o zbliżonych preferencjach i sparowanie ich358. Metoda ta, oparta na mechanizmach uczenia
maszynowego, pozwala osobom korzystającym z usług tych portali zaoszczędzić czas –
użytkownikom wyświetlane są bowiem profile osób, które spełniają ich określone kryteria.
Jest to swoista automatyzacja usług oferowanych przez biura matrymonialne,
których pracownicy analizowali wymogi zawarte w składanych ogłoszeniach i na ich
podstawie kojarzyli osoby w pary. W tym aspekcie technologia przekroczyła nawet
możliwości poznawcze człowieka - Grzegorz Lindenberg, opierając się na badaniach
przeprowadzonych przez naukowców ze Stanford wskazuje, że AI na podstawie analizy
zdjęcia potrafi również określić hetero- lub homoseksualne preferencje użytkowników359,
co znacząco przyczynia się do trafności wyboru potencjalnego partnera.
Oprócz działań na rzecz zwiększania komfortu użytkowników i oszczędzania
ich czasu, sztuczna inteligencja znajduje zastosowanie w podnoszeniu poziomu
ich bezpieczeństwa. W 2019 r. grupa naukowców pod przewodnictwem prof. Toma Sorella
opracowała algorytm analizujący profile użytkowników portali randkowych w celu wykrycia
oszustów wykorzystujących metodę „love scamming” czyli wyłudzania pieniędzy od ofiary
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
za pomocą oszustwa miłosnego360. Analiza zawartego w profilu zestawu danych (jak płeć,
wiek, pochodzenie etniczne), wstawionych zdjęć, sposobu prowadzenia strony oraz języka
użytego do autoprezentacji i w przesyłanych wiadomościach, przeprowadzona na kontach
ponad 15 tys. użytkowników strony Dating’NMore, pozwoliła badaczom stworzyć algorytm
wykrywający fałszywe profile, jak również mechanizm ostrzegający przed nimi innych
użytkowników.Bazą do nauki AI były w tym przypadku konta zweryfikowane i uznane
za fałszywe przez administrację portalu.
Na zastosowanie sztucznej inteligencji zdecydowała się również aplikacja randkowa
Tinder. AI znalazła zastosowanie w kilku aspektach jej działania. Pierwszym jest wdrożenie
systemu wykrywania obraźliwych treści wiadomości – jego implementacja ma na celu
ochronę użytkowników przed niestosownymi i wulgarnymi zachowaniami innych osób,
co ma sprawić, że platforma stanie się bardziej przyjazna i bezpieczna. System oparty
o uczenie maszynowe analizuje wiadomości wysyłane pomiędzy użytkownikami,
a w przypadku wykrycia w korespondencji treści (lub zdjęć) agresywnych lub niestosownych
pyta odbiorcę, czy ta wiadomość wydała mu się obraźliwa. W przypadku odpowiedzi
358
Zob. M. Płoszczyński, Sztuczna inteligencja zmieni rynek contactcenter?, [on-line], tworzywa.pl, 27.12.2017,
https://www.tworzywa.pl/news/prezentacje/sztuczna-inteligencja-zmieni-rynek-contact-center,101.html
(27.05.2020).
359
Zob. G. Lindenberg, Ludzkość poprawiona. Jak najbliższe lata zmienią świat, w którym żyjemy, Kraków,
2019.
360
Pod pozorem dążenia do stworzenia relacji, oszuści matrymonialni wyłudzają od ofiar duże sumy pieniędzy,
po czym urywają kontakt i znikają z portalu randkowego; zob. U. Lesman, AI wykryje oszustów na aplikacji
randkowej. Kim są?, „Rzeczpospolita” [on-line], 11.05.2019, https://cyfrowa.rp.pl/technologie/34860-si-
wykryje-oszusta-matrymonialnego-kto-najczesciej-sciemnia-i-jak?utm_source=rp&utm_medium=teaser
_redirect (10.05.2020).
138
twierdzącej, system umożliwia odbiorcy zablokowanie nadawcy wiadomości i zgłoszenie
naruszenia regulaminu przez tę osobę, co może również przełożyć się na całkowite
zablokowanie jej w serwisie. Algorytm uczył się na wiadomościach zgłoszonych jako
obraźliwe przez użytkowników aplikacji. Docelowym rozwiązaniem jest pełna personalizacja
systemu, uwzględniająca osobiste preferencje każdego użytkownika – treści obraźliwe
dla jednej osoby mogą być bowiem neutralne (lub nawet preferowane) dla innych.
Zapowiadane jest również wdrożenie prewencyjnego działania algorytmu – w przypadku
wykrycia niestosownych treści w jeszcze niewysłanej wiadomości, nadawca ma być pytany,
czy na pewno chce ją wysłać do odbiorcy, co ma zapewnić użytkownikowi
czas na przemyślenie swojego działania i jego potencjalnych skutków361.
Sztuczna inteligencja pozwoliła również wdrażać działania zabezpieczające
użytkowników w świecie rzeczywistym. W styczniu 2020 r. właściciele Tindera rozpoczęli
prace nad dodaniem do aplikacji tzw. guzika paniki – jeżeli w trakcie realnego spotkania
z innym użytkownikiem aplikacji osoba poczuje się zagrożona, będzie mogła skorzystać
z dyskretnego, wbudowanego w platformę, alarmu. Po odebraniu zgłoszenia z urządzenia,
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
361
Zob. J. Kołtunowicz, Tinder da ci szansę (na niebycie chamem), [on-line], sztucznainteligencja.org.pl,
21.02.2020, https://www.sztucznainteligencja.org.pl/tinder-da-ci-szanse-na-niebycie-chamem/ (05.05.2020).
362
Zob. Fotografia 3.
363
Zob. P. Mazurkiewicz, Obraz robota poszedł za 430 tys. dolarów, „Rzeczpospolita” [on-line], 25.10.2018,
https://cyfrowa.rp.pl/technologie/28603-roboty-maluja-obrazy-pisza-wiersze (07.06.2020).
139
człowieka. Dlatego też, jeżeli za powstanie obrazu odpowiada wyłącznie maszyna, to należy
go traktować wyłącznie w kategoriach sztuki dekoracyjnej.
Żródło: B. Grygiel, Ten upiorny obraz namalowała Sztuczna Inteligencja. Sprzedany na aukcji za zawrotną
sumę, [on-line], focus.pl, 01.03.2019, https://www.focus.pl/artykul/sprzedany-za-prawie-pol-miliona-dolarow-
upiorny-obraz-namalowany-przez-sztuczna-inteligencje (07.06.2020).
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
364
Zob. T. Jurczak, Maszyna pisze powieści. Można je kupić w księgarni internetowej, [on-line],
sztucznainteligencja.org, 05.11.2019, https://www.sztucznainteligencja.org.pl/algorytm-pisze-powiesci-mozna-
je-kupic-w-ksiegarni-internetowej/ (10.05.2020).
140
partnera przez Internet), ale również w coraz większym stopniu jest w stanie zastąpić
człowiekowi relacje z innymi ludźmi. Specjalista od sztucznej inteligencji, David Levy,
wskazuje, że z czasem roboty mogą zacząć być postrzegane jako potencjalni partnerzy
człowieka– wystarczy jedynie, że „zaczną wyglądać, mówić i zachowywać się jak ludzie” 365.
Wśród cech, które miałyby dawać robotowi przewagę nad człowiekiem w tym obszarze,
badacz zwrócił uwagę na możliwość stworzenia partnera o idealnym charakterze,
dostosowanego do potrzeb człowieka wchodzącego z nim w relację. W zależności
od preferencji, robot mógłby okazywać wybrane emocje, co pozwoliłoby wyeliminować
z tworzonego związku m.in. nerwowość, zazdrość czy arogancję366. Przy jednoczesnej
zdolności do prowadzenia interesującej, inteligentnej rozmowy i personalizacji w zakresie
spełniania potrzeb seksualnych człowieka, robot może stać się odpowiedzią na poszukiwania
właściwego partnera przez osoby samotne czy wycofane ze społeczeństwa. Zdaniem autora
kluczowe w kontekście nawiązania relacji człowieka z robotem są emocje użytkownika
odczuwane w kontakcie z maszyną – jeżeli są one takie same jak doświadczane w kontakcie
z żywym człowiekiem, to nie ma znaczenia brak faktycznej wzajemności uczuć ze strony
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
365
P. Ratner, Humans Could Be Marrying Robots By 2050, Claims Robot Expert, [on-line], bigthink.pl, 2017,
https://bigthink.com/human-robot-marriages-possible-before-2050-claims-robot—expert [za:] M. Pawlińska,
Dopuszczalność gwałtu na humanoidalnym robocie, “Acta UniversitatisLodziensis. Folia Iuridica”, 2019, t. 86,
s. 10.
366
Zob. Ibidem.
367
Zob. N. Sharkey, A. van Wynsberghe, S. Robbins, E. Hancock, Our Sexual Future with Robots. A Foundation
for Responsible Robotics Consultation Report, Haga, 2017, s. 9-11.
368
Zob. M. Dębska, Seks-roboty, [on-line], Uniwersytet Warszawski, 2019,
https://www.fuw.edu.pl/~szczytko/JTD2019-20/Marta_Dębska_SEKS-ROBOTY.pdf (04.06.2020).
141
Zwierzątko to wymagało codziennej opieki w postaci karmienia, zabawy i zapewnienia snu.
W zamian za poświęcony czas zabawka odwdzięczała się dobrą kondycją i wirtualnie
wyrażaną radością z kontaktu z użytkownikiem, co budowało więź pomiędzy człowiekiem
a urządzeniem. Z czasem wirtualne zwierzęta otrzymały robotyczne ciała (Aibo, pies firmy
Boston Dynamics), a na obecnym poziomie zaawansowania technologicznego wchodzenie
w interakcje z nimi nie różni się (pod względem zachowania, reakcji, możliwości zabawy)
od kontaktu z żywym zwierzęciem. Skoro jest zatem możliwe stworzenie emocjonalnej więzi
z robotem przypominającym domowego pupila, prezentującym zachowania właściwe
dla swojego żywego odpowiednika, to nie można wykluczyć, że człowiek jest w stanie wejść
w związek z humanoidalnym robotem, zachowującym się w sposób analogiczny
do zakochanego człowieka, zdolnym do spełniania jego emocjonalnych potrzeb.
Jest to możliwe, biorąc pod uwagę fakt, że istotą sztucznej inteligencji jest uczenie się
na podstawie doświadczenia. W tym przypadku niezbędna byłaby faza dostosowywania
osobowości robota do danej osoby, przypominająca etap poznawania się i wchodzenia
w relację przez dwoje ludzi. Ucząc się i odtwarzając zachowania użytkownika, robot może
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
369
Zob. B. Timmins, The New Robots with <Frigid> Settings Allow Men to Simulate Rape, “Independent UK”
[on-line], 2017, https://www.independent.co.uk/life-style/sex-robots-frigid-settings-rape-simula-tion-men-
sexual-assault-a7847296.html (05.06.2020).
142
to należy uznać takie rozwiązanie za swoistego rodzaju bufor, mogący zwiększyć poziom
bezpieczeństwa.
144
wykorzystujących sztuczną inteligencję jest elementem niezbędnym do osiągnięcia poziomu,
na którym państwo może zostać uznane za liczące się pod względem militarnym na arenie
międzynarodowej. Mówiąc o znaczeniu sztucznej inteligencji w zapewnianiu bezpieczeństwa
państwa należy podkreślić, że rozwiązanie, w którym stanowi ona element procesu
decyzyjnego, a nie jest jego ostatecznym ogniwem, pozwala na zachowanie kontroli
nad jej dalszym rozwojem w kierunku i stopniu pożądanym przez człowieka.
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
145
4. Negatywne aspekty zastosowania sztucznej inteligencji w XXI w.
370
Zob. A. Kim i in., Cyber Attack Vulnerabilities Analysis for Unmanned Aerial Systems, [on-line], American
Institute of Aeronautics and Astronautics, b.r., https://static1.squarespace.com/static/553e8918e4b0c79e
77e09c4d/t/5ae86e6a8a922d40d2c0d1bd/1525182105346/AIAA-Infotech_Threats-and-Vulnerabilities-
Analysis.pdf (28.02.2020).
371
Zob. R. Kopeć, op. cit., s. 47.
146
dla własnego życia. Argumentem przeciwników wykorzystania bezzałogowych platform
jest przede wszystkim brak realnej odpowiedzialności za decyzje, których konsekwencją
jest odbieranie życia. Krytycy takiego działania podnoszą, iż udział dronów w precyzyjnych
operacjach bojowych ogranicza zakres konsekwencji wynikających z użycia siły,
zaś dotychczas czynnik ten był jednym z kluczowych aspektów branych pod uwagę
przy podejmowaniu decyzji372. Kolejnym argumentem przeciwników wykorzystywania
dronów w działaniach bojowych, jest aspekt psychologiczny. Poza oczywistymi korzyściami
militarnymi, bezzałogowe statki powietrzne wzbudzają bowiem strach wśród przeciwników
- stan lęku i niepewności w szeregach członków grup terrorystycznych, prowadząc
do osłabienia ich morale. Strach ten wynika przede wszystkim ze świadomości precyzyjnego
nakierowania broni na cel, nieodwracalności ataku i braku czynnika ludzkiego
w tym procesie. Oznacza to zarówno niemożność odwołania się do odruchów ludzkich
(np. wzbudzenia litości czy zaskoczenia napastnika), ale również brak możliwości działań
odwetowych skutkujących fizycznymi obrażeniami przeciwnika – maksymalną konsekwencją
dla strony dysponującej bezzałogowym statkiem powietrznym są straty finansowe związane
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
372
Zob. W. Leśnikowski, Bezzałogowe platformy w cyberprzestrzeni, Toruń 2017, s. 237-238.
373
Merriam-Webster Dictionary, Collateral damage, [on-line], Merriam-Webster, b.r., https://www.merriam-
webster.com/dictionary/collateral%20damage, (12.02.2018).
147
uzbrojonych dronów, ukierunkowane na tzw. selektywną eliminację osób podejrzewanych
o prowadzenie działalności terrorystycznej374. Działania te traktuje się jako tzw. armchair
warfare, czyli prowadzenie operacji zbrojnych z poziomu domowego fotela, zaś operatorom
maszyn zarzuca się prezentowanie mentalności playstation, rozumianej jako skłonność
do postrzegania rzeczywistości konfliktu na podobieństwo gry komputerowej.
To z kolei ma przekładać się na prezentowanie niebezpiecznej tendencji do nadmiernego,
szybkiego i bezrefleksyjnego otwierania ognia. Operatorzy dronów sterują bowiem nimi
zdalnie z bezpiecznych baz ulokowanych na terenie Stanów Zjednoczonych, wobec czego
mają nie czuć rzeczywistej odpowiedzialności za życie i śmierć innych osób375.
Zrozumiałym jest, że prowadząc działania zbrojne, strony konfliktu dążą
do minimalizacji strat własnych. Wykorzystanie robotów na polu walki uznawane
jest za najnowszy przejaw tzw. risk-transfer militarism, czyli prowadzenia działań wojennych
w taki sposób, aby maksymalnie ograniczyć ryzyko strat dla własnych żołnierzy poprzez
przerzucenie go na inne podmioty. To właśnie dążenie do minimalizacji strat własnych stało
się nadrzędnym motywem i wyznacza nowy schemat działań zbrojnych prowadzonych
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
374
Zob. R. Kopeć, Robotyzacja wojny, „Społeczeństwo i Polityka”, 2016, nr 4 (49), s. 48.
375
Zob. G. Simons, Drone Diplomacy, “The Link”, 2011, nr 2 (44), s. 11.
376
Zatrudnianie przez USA prywatnych firm wojskowych (PMC, private military contractors) było działaniem
powszechnym podczas wojny w Iraku.
377
Zob. E.N. Luttwak, Toward Post-Heroic Warfare: The Obsolence of Total War, “Foreign Affairs”, 1995, nr
74 (3), s. 109-123; [za:] R. Kopeć, op. cit., s. 48.
148
Prowadzenie wojny pozbawionej ryzyka śmierci własnych żołnierzy, nawet jeśli,
co do zasady, jest możliwe, to może powodować trudne do przewidzenia następstwa
o charakterze psychologicznym. Z jednej strony, w ujęciu taktycznym, powszechne
wykorzystanie robotów bojowych pozwoli prowadzić bardziej racjonalne działania, ponieważ
wyeliminowany zostanie czynnik strachu przed utratą własnego życia. Panika ogarniająca
żołnierzy stawała się bowiem nierzadko przyczyną klęski. Dodatkowo, oddzielenie człowieka
od fizycznego zabijania – w wymiarze przestrzennym, czasowym, a nawet moralnym
(jeżeli decyzja o użyciu siły będzie podejmowana przez autonomiczną maszynę) – pozwoli
zmniejszyć, a nawet wyeliminować awersję do użycia broni, uznawaną za ważny czynnik
obniżający skuteczność żołnierza, zwłaszcza w sytuacji długotrwałego obserwowania
przyszłej ofiary. Z kolei w wymiarze strategicznym podnoszony jest zarzut, że możliwość
prowadzenia wojny zrobotyzowanej przyczyni się do zniesienia moralnej bariery
powstrzymującej przed podjęciem decyzji o rozpoczęciu kolejnego konfliktu zbrojnego.
Istotnym niebezpieczeństwem wynikającym z prowadzenia tego rodzaju działań jest to,
że zapewnienie braku ofiar lub ich minimalizacja ofiar własnych oznacza brak konsekwencji
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
378
Zob. M.N. Vego, Effect-Based Operations: A Critique, „Joint Forces Quarterly”, 2006, nr 41, s. 51–57.
149
Zakładając prawdopodobne i realistyczne oczekiwanie, że wojna zrobotyzowana może
co prawda ograniczyć, ale nie całkowicie wyeliminować straty własne, należy mieć
na uwadze, że strona dysponująca tą technologią nie będzie wystawiać do walki i narażać
jednocześnie na ryzyko większej liczby żołnierzy, niż tylko tej niezbędnej. Wykorzystywanie
przewagi do zapewnienia ochrony państwa i społeczeństwa nie jest uznawane za niemoralne –
wręcz przeciwnie, posiadana przewaga technologiczna i umiejętność jej wykorzystania
do wygrania walki uważana jest za typowy przejaw tzw. zachodniego sposobu prowadzenia
wojen. Zgodnie z koncepcją sposobu prowadzenia wojen, przyjęty model zaangażowania
w konflikt zbrojny odzwierciedla kulturę danego społeczeństwa i pozwala wyodrębnić
określone, względnie trwałe cechy charakterystyczne dla danej społeczności i jej organizacji
militarnych379. Wojny prowadzone przez społeczeństwa zachodnie wpisują się w model
kapitałochłonny, czyli wykorzystujący ekonomiczną, naukową i technologiczną wyższość
nad przeciwnikiem, nie zaś „ludzkochłonny", opierający się na przewadze liczebnej.
Robotyzacja walki doskonale wpisuje się w tę tendencję, stając się kolejnym czynnikiem
zwiększającym przewagę technologiczną.
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
Warto w tym fragmencie rozważań podnieść ,że zachodni sposób prowadzenia wojen
jest odmienny od modeli wywodzących się z innych kręgów kulturowych, zwłaszcza
dominujących w obszarze Bliskiego Wschodu. Modele te opierają się na innych środkach
budowania przewagi militarnej niż wyższość technologiczna, różnią się również podejściem
do uznawania określonych działań za moralnie uzasadnione lub wręcz przeciwnie – za godne
potępienia. Co za tym idzie, w starciu z fundamentalizmem islamskim robotyzacja pola walki
może stanowić wielowymiarowe wyzwanie. Po pierwsze, wykorzystanie zdalnie sterowanych
maszyn zamiast żywych żołnierzy zostanie uznane za niehonorową formę walki, wręcz wyraz
tchórzostwa społeczeństwa zachodniego, a zarazem przejaw arogancji wobec przeciwnika.
Po drugie zaś, w przypadku kiedy rzeczywiście doszłoby do wojny, w której jedna strona
reprezentowana byłaby wyłącznie przez roboty, a zatem przeciwnik nie miałby możliwości
zabijania żołnierzy, to za moralnie i instrumentalnie uzasadnione mógłby on uznać ataki
terrorystyczne. Skoro bowiem bogate i zaawansowane technologicznie społeczeństwo
zachodnie schowałoby się za maszynami i robotami, to atakowanie jego członków,
przede wszystkim zaś cywili (bo wojskowi pozostawaliby poza zasięgiem odziaływania)
stałoby się jedyną dostępną dla przeciwnika opcją, która mogłaby dodatkowo zostać uznana
za sprawiedliwą karę za tchórzostwo380.
379
Zob. R. Kopeć, Rewolucja w sprawach wojskowych w kontekście zachodniego sposobu prowadzenia wojen,
„Kultura i Polityka”, 2014, nr 16, s. 66–67.
380
Zob. P.M. Asaro, How Just Could a Robot War Be?, [w:] P. Brey, A. Briggle, K. Waelbers (red.), Current
Issues in Computing and Philosophy, Amsterdam 2008, s. 63.
150
Postępująca robotyzacja działań wojennych może doprowadzić także do pojawienia
się asymetrycznych środków walki, trudnych obecnie do przewidzenia. Można zakładać
m.in. nasilenie działań zaliczanych do obszaru lawfare, w którym jednym
z wykorzystywanych środków prowadzenia wojny jest system prawny. Zakłada on
m.in. możliwość stosowania jako środka walki prawa humanitarnego, np. wykorzystania
wiedzy o obowiązujących regułach otwierania ognia do zbudowania przewagi taktycznej.
Przejawem takiego podejścia jest np. wykorzystywanie do dokonywania ataków
na przeciwnika osób uznawanych powszechnie za niewalczące, czyli kobiet i dzieci.
W tym przypadku zakłada się, że reguły prawa humanitarnego uniemożliwią lub co najmniej
utrudnią przeciwdziałanie takiemu atakowi, ponieważ druga strona zawaha się
przed neutralizacją napastnika-dziecka, mając na uwadze ewentualne konsekwencje prawne
za pozbawienie życia cywila. Innym przykładem tego typu moralnie wątpliwych działań
jest celowe prowokowanie uderzeń odwetowych przeciwnika, które spowodują ofiary
w ludności cywilnej i będą mogły być wykorzystywane do działań propagandowych strony
prowokującej atak381. W tym kontekście zastosowanie robotów autonomicznych mogłoby
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
381
Tego typu działania stosował m.in. Hamas, ostrzeliwując terytorium Izraela ze Strefy Gazy – palestyńskie
wyrzutnie instalowano na obiektach cywilnych. Kiedy Izrael w odwecie zaatakował te obiekty, bojownicy
Hamasu mieli zakazać dokonywania ewakuacji z nich ludności cywilnej, aby wykazać, że przeciwnik łamie
międzynarodowe prawo humanitarne poprzez atak na nieuzbrojone społeczeństwo; zob. R. Czulda, Operacja
Protective Edge w Strefie Gazy, „Nowa Technika Wojskowa”, 2014, nr 10, s. 66.
382
Zob. R. Arkin, Governing Lethal Behavior: Embedding Ethics in a Hybrid Deliberative/Reactive
Architecture, [w:] T. Fong, K. Dautenhahn (red.), HRI ’08 International Conference on Human Robot
Interaction, Association for Computing Machinery, New York 2008, s. 9.
http://www.cc.gatech.edu/ai/robot-lab/online-publications/formalizationv35.pdf, s. 72–75.
151
brak wyraźnej granicy pomiędzy wrogami a sojusznikami, a nawet między walczącymi
i nieuczestniczącymi w walce, robotom może zabraknąć „moralnej intuicji”, a sterujące nimi
algorytmy zderzą się z nieprzewidzianymi sytuacjami, w których nawet człowiek miałby
uzasadnione wątpliwości natury moralnej.
Niezależnie od powyższego, choć robotyzacja pola walki zawiera w sobie potencjał
do zmiany charakteru wojny, to nie zmienia jej natury. Walki nadal będą prowadzić ludzie,
zmieni się jedynie używana przez nich broń Należy zatem raczej odrzucić wizję bezkrwawej
wojny robotów i nie przyjmować bezkrytycznie iluzji, zgodnie z którą wojna może być łatwa,
czysta i pozbawiona ofiar w ludziach. Warto w tym kontekście dostrzec ,że w grudniu 2018 r.
Komisja Europejska wypracowała stanowisko w zakresie dostosowania międzynarodowego
prawa konfliktów zbrojnych do wyzwań związanych z upowszechnianiem nowoczesnych
technologii, w tym sztucznej inteligencji. W dokumencie zatytułowanym
jako „Skoordynowany plan w sprawie sztucznej inteligencji” wskazano, że stosowanie AI
w systemach uzbrojenia może zmienić charakter konfliktów zbrojnych, co budzi zarówno
poważne obawy, jak i wątpliwości. Autorzy planu podkreślili jednocześnie,
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
383
Zob. Komunikat Komisji do Parlamentu Europejskiego, Rady Europejskiej, Rady Europejskiego Komitetu
Ekonomiczno-Społecznego i Komitetu Regionów: Skoordynowany plan w sprawie sztucznej inteligencji, Komisja
Europejska, Bruksela 2018, s. 9.
152
masowych ataków z jej użyciem oraz czy jej wykorzystanie pozostanie w zgodności
z tzw. klauzulą Martensa384 i nakazami świadomości społecznej. Jako nowy rodzaj broni,
narzędzia wykorzystujące sztuczną inteligencję muszą podlegać regulacjom ram prawnych
międzynarodowego prawa humanitarnego i pozostawać w zgodzie z jej zasadami
i regułami385.
Broń AI, w szczególności letalne autonomiczne jej systemy, stanowią poważne
wyzwanie w wymiarze etycznym. Tego rodzaju narzędzia, w odróżnieniu od żołnierza
posługującego się bronią konwencjonalną, nie podlegają emocjom i nie można
zagwarantować, że każdy przypadek zauważonego odstępstwa od stanu pojmowanego
jako prawidłowy i pożądany, będą traktować indywidualnie. O ile (zapewne) będą w stanie
zinterpretować konkretne zachowanie człowieka jako gotowość do walki, tak pojęciem
dla nich abstrakcyjnym może się okazać historyczna, kulturowa, religijna czy humanistyczna
wartość określonego obiektu. Współcześnie mało realne wydaje się również pełne
zrozumienie przez autonomiczną maszynę prawa do życia czy takich wartości jak wolność,
równość czy sprawiedliwość. Istnieje zatem prawdopodobieństwo, że użycie broni AI będzie
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
384
Zgodnie z klauzulą Martensa, w przypadkach nieuregulowanych zapisami konwencji haskiej, dotyczącymi
prowadzenia wojny lądowej, jak również innymi umowami międzynarodowymi, osoby cywilne i kombatanci
pozostają pod ochroną i władzą zasad prawa międzynarodowego wynikających z ustalonych zwyczajów, zasad
humanizmu oraz wymagań powszechnego sumienia; zob. T. Widłak, Klauzula Martensa na tle pojęcia
“ludzkość” w prawie międzynarodowym, „Międzynarodowe Prawo Humanitarne”, 2012, nr 3, s. 173-186.
385
Zob. L. Qiang, X. Dan, Legal regulation of AI weapons under international humanitarian law: A Chinese
perspective, Humanitarian Law&Policy, [on-line], icrc.org, 02.05.2019, https://blogs.icrc.org/law-and-
policy/2019/05/02/ai-weapon-ihl-legal-regulation-chinese-perspective/ (21.07.2020).
153
zarówno programiści, jak i użytkownicy końcowi, są prawnie zobowiązani do podjęcia
wszelkich możliwych środków zapobiegawczych, które zapewnią wykorzystywanie tej broni
z poszanowaniem podstawowych zasad międzynarodowego prawa humanitarnego.
Kwestia rozmytej odpowiedzialności za wykorzystanie broni autonomicznej
w konflikcie zbrojnym cały czas stanowi duże wyzwanie dla bezpieczeństwa państwa.
Ogólnie rzecz biorąc, za użycie broni AI odpowiedzialni są ludzie, ale kto konkretnie
powinien ponosić tę odpowiedzialność? Czy będą to projektanci, producenci broni,
programiści czy użytkownicy końcowi, czyli operatorzy? A może politycy decydujący
o wdrożeniu nowoczesnych technologii do systemów uzbrojenia? W opinii badaczy z Chin,
utrzymujących się w ścisłej czołówce światowych liderów w obszarze rozwoju i praktycznego
zastosowania AI, główną odpowiedzialność za bezprawne ataki przeprowadzone
386
z wykorzystaniem broni AI muszą wziąć na siebie operatorzy tej broni . Jako argument
wskazano art. 35 przytaczanego wcześniej protokołu dodatkowego do konwencji genewskich,
stanowiący, że w każdym konflikcie zbrojnym, prawo stron konfliktu do wyboru metod
lub środków prowadzenia wojny nie jest nieograniczone. Zatem w przypadku pełnej
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
386
Ibidem.
154
prawa humanitarnego i konfliktów zbrojnych nie odpowiadają w pełni nowym wyzwaniom
związanym z analizowaną problematyką, głównie z uwagi na fakt, że ich zadaniem
było utworzenie norm w zakresie stosowania broni konwencjonalnej. Ciągły rozwój
wykorzystywanych militarnie technologii niesie za sobą nowe, nieznane dotąd zagrożenia
i wyzwania, które prawdopodobnie nie zmaterializowałyby się, gdyby nie przekroczono
granic ustalonych dla broni i walki konwencjonalnej. Dlatego też, oprócz opracowywania
nowych regulacji międzynarodowych w tym zakresie, niezbędne jest zobowiązanie
poszczególnych państw do wypracowania narodowych, przejrzystych przepisów i procedur
związanych z wykorzystaniem broni autonomicznej. Wiodącą rolę w tym procesie powinny
odgrywać państwa wysoko zaawansowane technologicznie, zwłaszcza w obszarze sztucznej
inteligencji.
Sztuczna inteligencja może stać się również narzędziem działań ukierunkowanych
na zmiany porządku geopolitycznego. Sztuczna inteligencja jest technologią o dwojakim
zastosowaniu i słusznie uznaje się, że może ona zmienić oblicze działań wojennych.
Oprócz możliwego zastosowania AI jako broni w cyberprzestrzeni, prawdopodobne jest jej
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
155
monopolistą”387. Również w tym samym roku chiński rząd zadeklarował, że chciałby
do 2030 r. stać się światowym liderem w obszarze AI, co więcej – obecnie państwo
to przewodzi w rankingach inwestycji w technologie AI zarówno ze źródeł publicznych,
jak i z funduszy prywatnych. Jednocześnie przewaga technologiczna jest jednym
z priorytetów chińskiego planu gospodarczego „Made In China 2025”388. Natomiast jeszcze
w 2018 r. Departament Obrony USA powołał Wspólne Centrum Sztucznej Inteligencji
(JAIC), którego głównym celem jest zapewnienie amerykańskiej armii „asymetrycznej
przewagi w całym spektrum konfliktu” do 2024 r.389 Zakładany koszt tego przedsięwzięcia
wynosi 1,75 mld dolarów. Jednocześnie amerykańska Rada Innowacji dla Bezpieczeństwa
(DIB) wskazuje, że armia Stanów Zjednoczonych ma za sobą długą historię etycznego
wykorzystania nowych technologii. Instytucja ta wydała także zalecenia w zakresie używania
sztucznej inteligencji przez Departament Obrony USA (DOD), obejmujące takie kryteria
jak odpowiedzialność, ostrożność, zrozumiałość, niezawodność i adekwatność w stosunku
do zamiarów390. Jeżeli chodzi o odpowiedzialność, wskazano, że wszelkie konsekwencje
rozwoju i wykorzystywania AI w wojskowości powinni ponosić ludzie, co oznacza,
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
387
Putin: Leader In artificial intelligence will rule world, [on-line], CNBC, 04.09.2017,
https://www.cnbc.com/2017/09/04/putin-leader-in-artificial-intelligence-will-rule-world.html (03.07.2020).
388
Zob. In Davos, US executives warn that China is winning the AI race, “The Straits Times” [on-line],
24.01.2019, https://www.straitstimes.com/world/europe/in-davos-us-executives-warn-that-china-iswinning-the-
ai-race (04.07.2020).
389
Zob. B. Mitchell, Artificial intelligence is the heart of CIO Dana Deasy’s plan to modernize the DOD, [on-
line], fedscoop.com, 23.08.2018, https://www.fedscoop.com/artificial-intelligence-dod-strategy-cio-dana-deasy/
(03.07.2020).
390
Zob. S. Palczewski, op. cit., (18.02.2020).
156
regularnie testować. Ostatnim warunkiem określonym przez DIB jest adekwatność
w stosunku do zamiarów – AI powinna być zaprojektowana i wykreowana w taki sposób,
aby spełniać swoją zaplanowaną funkcję a jednocześnie posiadać zdolność wykrywania
i unikania pojawiających się zakłóceń, błędów i szkód. W praktyce sztucznej inteligencji
należy zapewnić zdolność do samodzielnego diagnozowania i wykrywania nieprawidłowości
w działaniu, w tym również do autonomicznej dezaktywacji czynników powodujących
problemy w jej funkcjonowaniu.
dla użytkownika. System prowadzenia pojazdów autonomicznych opiera się w dużej mierze
na wykorzystaniu czujników, kamer, radarów i innych tego typu technologii. Specyficzne
warunki drogowe w postaci intensywnych opadów śniegu, mgły czy zapylenia mogą
znacząco utrudniać prawidłowe działanie zastosowanych rozwiązań. Dlatego też
dla zapewnienia pełnego bezpieczeństwa zarówno operatora, jak i innych uczestników ruchu
drogowego, wszystkie urządzenia muszą być całkowicie niezależne od warunków otoczenia.
Problemy mogą być generowane również przez nieoczekiwane sytuacje na drodze,
jak np. roboty drogowe, zmiana sposobu sterowania ruchem (policjant) czy pojawienie się
pojazdu uprzywilejowanego. Istotne jest zatem, aby pojazdy autonomiczne były w stanie
na bieżąco stosować rozwiązania adekwatne do pojawiających się okoliczności.
Kolejną problematyczną kwestią jest selekcja przetwarzanych danych pod względem
ich faktycznej użyteczności w systemie prowadzenia pojazdu autonomicznego. Zainstalowane
w nich czujniki zbierają i przekazują do systemu bardzo dużą ilość danych, natomiast
w wielu sytuacjach drogowych niezbędna jest ich odpowiednia interpretacja i określenie,
które z tych danych są w tym momencie najbardziej istotne. Nie można wykluczyć zaistnienia
sytuacji, w której pojazd błędnie zinterpretuje warunki otoczenia z powodu zbyt wielu
informacji z niego pochodzących394.
393
Zob. S. Pilath, Automated vehicles in the EU, [on-line], europa.eu, 01.2016.,
https://www.europarl.europa.eu/RegData/etudes/BRIE/2016/573902/EPRS_BRI(2016)573902_EN.pdf
(08.11.2018).
394
Ibidem.
158
Zdaniem Tomasza Neumanna, jednym z kluczowych problemów związanych
z szerokim zastosowaniem pojazdów autonomicznych jest zgodność z obowiązującymi
przepisami prawa. Zgodnie z art. 8 Konwencji wiedeńskiej z 1968 r.,
czyli międzynarodowego traktatu określającego zasady ruchu drogowego obowiązującego
w 73 państwach, które sygnowały dokument, „każdy pojazd w ruchu lub zespół pojazdów
w ruchu powinien mieć kierującego”, a „każdy kierujący powinien mieć niezbędną sprawność
fizyczną i psychiczną oraz być fizycznie i psychicznie zdolny do kierowania. Każdy kierujący
pojazdem motorowym powinien mieć zasób wiadomości oraz umiejętności niezbędnych
do kierowania pojazdem; jednakże to postanowienie nie stanowi przeszkody do nauczania
kierowania pojazdem zgodnie z ustawodawstwem krajowym. Każdy kierujący powinien stale
panować nad swoim pojazdem (…)”395. Taki zapis stanowi zaprzeczenie idei pojazdów
autonomicznych, dlatego też istotne jest, aby przed ich pojawieniem się na drogach państw-
sygnatariuszy prawnie uregulować wszystkie aspekty ich wdrożenia. Warto mieć też
na uwadze, że nie wszystkie państwa ratyfikowały Konwencję wiedeńską – przykładem mogą
być Stany Zjednoczone, w których testy pojazdów autonomicznych są legalne i zgodne
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
395
Konwencja wiedeńska o ruchu drogowym z 8 listopada 1968 r., Dz.U. 1988 nr 5 poz. 40 i 44; por. Ustawa z
dnia 20 czerwca 1997 r. Prawo o ruchu drogowym, Dz.U. 1997 nr 98 poz. 602.
159
metodyce klasyfikacji wypadków przez towarzystwa ubezpieczeniowe. Niektórzy specjaliści
w tej dziedzinie proponują stworzenie funduszy odszkodowawczych dla osób,
które ucierpiały w wypadkach spowodowanych przez pojazdy autonomiczne, inni z kolei
wskazują, że to producenci pojazdów i sterującego nim oprogramowania powinni ponosić
odpowiedzialność za powstałe w ten sposób szkody396.
Jeżeli chodzi o kwestię bezpieczeństwa komunikacyjnego, niezbędne jest odniesienie
do negatywnych aspektów związanych z wdrażaniem i korzystaniem z pojazdów
autonomicznych. Główną wątpliwością w tym zakresie jest zachowanie pojazdu w sytuacji,
gdy system zdoła przewidzieć kolizję, ale nie będzie w stanie jej zapobiec. Czyje życie
i zdrowie będzie wówczas chronił – kierowcy, pasażera, przechodnia? Jakimi czynnikami
będzie się kierował dokonując oceny? Eksperci Polskiego Instytutu Ekonomicznego
podkreślają, że jednym z kluczowych wyzwań związanych z masową produkcją
i wykorzystywaniem samochodów autonomicznych jest odpowiednie zbadanie aspektów
moralnych i ich dostosowanie do zróżnicowanych globalnie warunków kulturowych 397.
Jak wskazuje Piotr Arak, Dyrektor Polskiego Instytutu Ekonomicznego, „z raportu
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
396
Zob. S. Gless, E. Silverman, T. Weigend, If Robots Cause Harm, Who is to Blame? Self-Driving Cars and
Criminal Liability, „New Criminal Law Review”, 2016, nr 19 (3).
397
Zob. A. Kubisiak, Czynniki etyczne i kulturowe przeciwko samochodom autonomicznym?, [on-line], Polski
Instytut Ekonomiczny, 14.12.2018, http://pie.net.pl/wp-content/uploads/2018/12/14_12_2018_Czynniki-etyczne-
i-kulturowe-przeciwko-samochodom-autonomicznym.pdf (05.03.2020).
398
Ibidem.
160
ocalenie większej liczby ludzkich istnień jest preferowane ponad możliwość zachowania
życia mniejszej liczby ludzi399.
Jednocześnie wyniki badań ujawniły istotne różnice w poglądach determinowane
rodzimą kulturą respondentów. Tomasz Kwarciński, analityk PIE podkreśla, że uzyskane
wyniki mają istotne znaczenie praktyczne. Decydenci polityczni będą musieli
zaimplementować do porządku prawnego przepisy odnoszące się do decyzji moralnych
podejmowanych przez sztuczną inteligencję400, zaś korporacje motoryzacyjne dostarczające
produkty na światowe rynki będą musiały wziąć pod uwagę zróżnicowane preferencje
i intuicje moralne odbiorców swoich pojazdów. Ekspert nie wyklucza również, że pojazdy
zaprogramowane przez zachodnich producentów przyczynią się do zmiany dotychczasowych
poglądów i intuicji użytkowników, co sprawi, że przeprogramowaniu ulegnie nie tylko
dotychczasowy sposób organizacji ruchu ulicznego, ale również myślenie w kategoriach
dobra i zła.
Kolejna kwestia to czas wprowadzania pojazdów autonomicznych do ruchu
drogowego. Jak wskazuje już wcześniej przywoływany T. Neumann, istotne jest, aby proces
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
tej implementacji był jak najkrótszy, tak aby całkowicie wyeliminować z użytku pojazdy
konwencjonalne, ponieważ pozwoli to podnieść poziom bezpieczeństwa komunikacyjnego
i transportowego401. Tymczasem, jeżeli nawet pojazdy autonomiczne staną się powszechnie
dostępne, kierowcy z różnych względów mogą nie być zainteresowani wymianą swoich aut.
Abstrahując od kwestii finansowych, związanych z nieuniknionymi kosztami zakupu nowego
samochodu, niektórzy kierowcy są emocjonalnie przywiązani do swoich pojazdów,
a przeciętny użytkownik auta wymienia je co ok. 10 lat402. Można zatem założyć,
że większość pojazdów uczestniczących w ruchu drogowym będzie wymagała uczestnictwa
kierowcy jeszcze wiele lat po tym, jak pojazdy autonomiczne znajdą powszechne
zastosowanie. To z kolei, w perspektywie długofalowej może skutkować niepożądanymi
tendencjami. Rządy państw, kierując się dążeniem do tego, aby proces wdrażania pojazdów
autonomicznych przebiegał w skali globalnej, mogą bowiem zadecydować o konieczności
rezygnacji użytkowników z pojazdów tradycyjnych, co spowoduje trudności ekologiczne,
wynikające z konieczności składowania wyeksploatowanych pojazdów oraz ekonomiczne,
związane z brakiem środków finansowych na zakup autonomicznego środka transportu.
Z technicznego punktu widzenia, wśród kluczowych wyzwań technologicznych w obszarze
bezpieczeństwa komunikacyjnego i transportowego, wynikających z upowszechniającego się
stosowania sztucznej inteligencji w pojazdach autonomicznych, P. Skruch wymienia
399
Ibidem.
400
W 2018 r. jedynym krajem, który wdrożył takie regulacje, były Niemcy.
401
Zob. T. Neumann, Perspektywy wykorzystania pojazdów autonomicznych…, s. 791.
402
Ibidem.
161
określenie poziomu niezawodności systemów wykorzystujących AI, a także prawidłowe
zdefiniowanie zbiorów testowych, walidacyjnych i uczących, których zastosowanie przekłada
się na bezpieczeństwo systemów jazdy autonomicznej403.
403
Zob. P. Skruch, op. cit.
404
Zob. S. Gliwa, op. cit.
405
Fake Data Injection – pl. wprowadzenie nieprawdziwych danych.
406
Zob. I. Albrycht, Cyberbezpieczeństwo w erze sztucznej inteligencji, [w:] I. Albrycht, S. Autolitano, P.
Gęborys i in., Wyzwania w cyberprzestrzeni. Przykłady rozwiązań, zagrożenia, regulacje, Kraków 2019, s. 39-
40.
162
w odpowiednio dużej skali mogą nie tylko zakłócić funkcjonowanie infrastruktury miejskiej
(a w zależności od okoliczności i rodzaju systemu – również państwowej), ale także
spowodować bezpośrednie szkody fizyczne. Mogą również zaszkodzić (w trudnej
do określenia skali) działalności gospodarczej prowadzonej przez przedsiębiorców.
Biorąc pod uwagę, że ze wsparcia oprogramowania AI w trakcie procesów decyzyjnych
korzystają również ubezpieczyciele, a nawet politycy, prawdopodobnym zagrożeniem stają
się ataki na wykorzystywane w tych obszarach algorytmy szacujące ryzyko i podejmujące
decyzje. Możliwe są również bezpośrednie ataki na modele używane do uczenia i treningu
systemów AI, w wyniku których systemy te od początku działałyby w sposób szkodliwy
dla swoich użytkowników.
Eksperci ds. cyberbezpieczeństwa przewidują, że przekształcenia zachodzące
w tym obszarze w wyniku rozpowszechniania zastosowania AI będą wiązały się z nasileniem
liczby cyberataków, ich automatyzacją oraz znacznym podniesieniem ich efektywności.
Izabela Albrycht zwraca uwagę na sposób, w jaki sztuczna inteligencja zmieni ekonomię
cyberataków – analiza prawdopodobnych zysków i kosztów hakerów pozwala założyć,
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
że opłacalne staną się ataki na cele uważane dotychczas za nierentowne, w tym biznesowe,
cywilne i wojskowe. Jednocześnie, dzięki rosnącej wydajności, łatwości i skalowalności
cyberataków z wykorzystaniem AI, może wzrosnąć liczba podmiotów zdolnych
do ich przeprowadzania407.
Wśród przykładowych cyberataków, które dzięki zastosowaniu technologii AI
mogą stać się znacznie bardziej zaawansowane, należy wyróżnić phishing, wykorzystanie
inteligentnego złośliwego oprogramowania a także zautomatyzowane cyberataki.
Jeżeli chodzi o phishing, to przewiduje się, że ta forma ataku stanie się nie tylko bardziej
zautomatyzowana, ale przede wszystkim spersonalizowana – do tego stopnia, że odbiorca
wiadomości nie będzie w stanie odróżnić, czy korespondencja jest prawdziwa,
czy wygenerowana przez automat. Wyprodukowane komunikaty będą nawiązywały
do faktycznych interakcji użytkowników, o których wiedza pozyskiwana jest na podstawie
pozostawianych przez nich cyfrowych śladów. Ślady te już teraz niezwykle szybko się
powiększają, głównie z powodu powszechnego zjawiska zapisywania danych zarówno
przez urządzenia połączone w sieci internetu rzeczy, jak i przez wykorzystywane
przez użytkowników aplikacje. Dane te mogą być wygenerowane i udostępnione świadomie
(np. poprzez aktywność w mediach i portalach społecznościowych – Facebook, Twitter,
Instagram), jak również pozyskiwane nieoficjalnie (wgląd do kontaktów, notatek
i wiadomości użytkownika, zapis jego lokalizacji, dostęp do czujników monitorujących
parametry ciała, stale uruchomiony mikrofon). Zdaniem Juliana Kinga, komisarza Unii
407
Zob. Ibidem.
163
Europejskiej ds. Unii Bezpieczeństwa, „AI otwiera możliwości korzystania z i nadużywania
ogromnych ilości danych osobowych”408.
W kwestii złośliwego oprogramowania (malware), sztuczna inteligencja może zostać
wykorzystana do zaawansowanego uczenia go o cyfrowym środowisku, w którym
owo oprogramowanie działa, tak aby malware mógł imitować typowe zachowanie
bezpiecznych plików w danym systemie. W ten sposób szkodliwy program będzie działał
w sposób niewykrywalny dla systemów bezpieczeństwa, ominie zabezpieczenia i wydobędzie
z systemu pożądane dane bez uruchamiania alarmu oprogramowania antywirusowego409.
Zagrożenie stanowią również zautomatyzowane cyberataki wielosektorowe, ponieważ
wsparcie ich sztuczną inteligencją, dzięki której maszyny będą w stanie dokonywać ataków
bez przerwy, pozwoli zastąpić w tym zakresie hakerów. Możliwe staną się także szeroko
zakrojone ataki kombinowane, czyli wykorzystujące wszystkie wrażliwe punkty
(błędy oprogramowania, kanały mediów społecznościowych, podatność użytkowników
na ataki socjologiczne) – tutaj AI znajdzie zastosowanie w monitorowaniu i zbieraniu
informacji o możliwych, niezabezpieczonych elementach systemu. Tego rodzaju
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
412
Zob. B. Pac, Zewnętrzny i wewnętrzny wymiar wojny informacyjnej. Ujęcie systemowo-procesowe, [w:] T.W.
Grabowski, M. Lakomy, K. Oświecimski (red. nauk.), Bezpieczeństwo informacyjne w dobie postprawdy,
Kraków 2018, s. 60.
413
Zob. Ibidem, s. 62.
414
Zob. B. Pac, A. Nowak, M. Borecki, Zastosowanie operacji informacyjnych w planowaniu i prowadzeniu
działań przez Siły Zbrojne RP w ujęciu doktrynalnym, Warszawa 2008, s. 34-37.
165
dezinformacji, mogą służyć realizacji dążeń do naruszeń prywatności i wolności,
radykalizacji zachowań społecznych, szkodliwego wpływu na debatę społeczną, polaryzacji
społeczeństwa czy prowokowania zamieszek i protestów, a w konsekwencji spowodować
podważenie zasad demokracji. Najbardziej prawdopodobnym zagrożeniem w tym aspekcie
wydaje się być możliwe przejście w nowy wymiar kampanii dezinformacyjnych,
a nawet wojen, z wykorzystaniem tzw. deepfake’ów, czyli sfabrykowanych
lub zmanipulowanych, ale wiarygodnie wyglądających nagrań audio i video,
których uczestnikami staną się osoby publiczne. W rękach cyberprzestępców i przeciwników
politycznych takie materiały mogą stać się narzędziem szantażu, kompromitacji, sabotażu
i zastraszenia osób, których wizerunek został w nich wykorzystany. Jednocześnie masowe
użycie takich materiałów może sprawić, że społeczeństwo nie będzie w stanie zaufać
informacjom przekazywanym w mediach lub zacznie wierzyć w treści nieprawdziwe.
Dezinformację można wręcz uznać za główne narzędzie wojny informacyjnej – zgodnie
z definicją zawartą w „Słowniku terminów i definicji NATO”, pod pojęciem tym należy
rozumieć „wszelkie przedsięwzięcia mające na celu wprowadzenie przeciwnika
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
415
AAP-6. Słownik terminów i definicji NATO, [on-line], wp.mil.pl, 2017,
https://wcnjik.wp.mil.pl/u/AAP6PL.pdf, s. 128 (10.03.2019).
416
Zob. J. Syta, Konieczność skutecznej ochrony Infrastruktury Krytycznej Państwa w świetle najciekawszych
ataków, 2018, [on-line: prelekcja na Exatel Security Days], (09.11.2019).
166
zniszczeniu uległo 150 m rurociągu Baku-Tbilisi-Ceyhan. Odkryte po ataku zakłócenia pracy
kamer monitorujących otoczenie wokół rurociągu oraz brak zarejestrowania eksplozji
przez jakiekolwiek czujniki wskazywały na to, że do przeprowadzenia ataku wykorzystano
sieć. Cyberataki mogą zatem doprowadzić do zniszczeń fizycznych. Szczególnie
niebezpieczne dla funkcjonowania państwa może być odcięcie od dostaw energii elektrycznej.
W kontekście opisanych wcześniej zagrożeń bezpieczeństwa informacyjnego,
konieczne jest zatem zachowanie przez człowieka zdolności krytycznego myślenia
i weryfikacji pozyskiwanych informacji oraz ich źródeł. Jest to o tyle istotne, że treści
przygotowywanych, udostępnianych i powielanych przy użyciu narzędzi opartych
na sztucznej inteligencji stale przybywa. Według raportu „Bot Traffic Report 2016”,
mniej niż połowa całego ruchu w Internecie (48%) jest generowana przez ludzi – pozostałe
52% to działalność botów, wyręczających człowieka w konkretnych czynnościach,
w tym przypadku – w aktywności internetowej. Około 30% z nich to złe boty,
wykorzystywane do przestępczości internetowej. Mogą one zostać nielegalnie wynajęte
i użyte do szybkiego rozprzestrzeniania zarówno złośliwego oprogramowania i wirusów,
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
417
Zob. J. Nowak, Koniec hegemonii homo sapiens. Na jakich polach sztuczna inteligencja zdominuje
człowieka?, „Forbes” [on-line], 18.09.2017, https://www.forbes.pl/opinie/sztuczna-inteligencja-zagrozeniem-dla-
ludzi-na-jakich-polach-zdominuje-czlowieka/0lmq3hl (27.07.2020).
418
Oszacowano, że operacje prowadzone przez Willy’ego stanowiły od 30 do nawet 50% całego obrotu tej
giełdy; zob. M. Kosior, Studium upadku Mt Gox. Sprawa Willy Bot’a, [on-line], bithub.pl, 26.02.2019,
https://bithub.pl/artykuly/sprawa-willy-bota-studium-manipulacji/ (28.07.2020).
167
przeznaczonego na prowadzenie kampanii reklamowej. Wśród innych przykładów szkodliwej
działalności można wymienić dostarczanie wydawcom baz danych zawierających ogromne
ilości rekordów, fałszywe, sztucznie stworzone rekordy
Nowe technologie mogą być również wykorzystywane do tworzenia zaawansowanej,
szkodliwej inżynierii społecznej. Wsparcie sztucznej inteligencji umożliwi bowiem
prowadzenie zautomatyzowanej, zaawansowanej i spersonalizowanej propagandy społecznej,
w szczególności za pośrednictwem mediów społecznościowych. Treść przesyłanych
informacji może być dostosowywana do poszczególnych użytkowników na podstawie śladu
cyfrowego, ujawniającego aktywność w cyberprzestrzeni, preferencje, przekonania,
a nawet określony nastrój, jak również przekazywana różnymi kanałami komunikacji
wykorzystywanymi przez użytkownika.
W omawianym kontekście prawdopodobne stają się również nadużycia inwigilacji –
dane masowo gromadzone przez systemy wykorzystujące AI mogą być analizowane
nie tylko przez agencje wywiadowcze, ale również przez hakerów, którzy mogą wykorzystać
zdobyte informacje do działań niezgodnych z prawem. Jednocześnie dostęp i korzystanie
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
419
S. Ulam, Tribute to John von Neumann, “Bulletin of the American Mathematical Society”, 1958, nr 3 (64), s.
1-49.
168
wynalazkiem człowieka”420. Teorię I.J. Gooda o niekontrolowanej eksplozji inteligencji
spopularyzował Vernor Vinge, używając w jej kontekście terminu osobliwość: „(…)
Wkrótce stworzymy inteligencje większe niż nasze własne. Gdy to się stanie, ludzka historia
osiągnie pewną osobliwość, intelektualny punkt przejściowy tak nieprzenikniony,
jak zakrzywiona czasoprzestrzeń w środku czarnej dziury, i świat przestanie być dla nas
zrozumiały”421. Obawy te nie zniknęły i są wyrażane również przez współczesnych badaczy,
ekspertów i filozofów – zdaniem Nicka Bostroma, naiwnym jest oczekiwanie,
że byty wyposażone w inteligencję przewyższającą ludzką będą działać zgodnie z intencjami
człowieka. Nie można bowiem założyć, ze superinteligencja będzie wyznawać
i identyfikować się z wartościami przypisywanymi świadomemu i rozwijającemu się
społeczeństwu, czyli naukową ciekawością, altruizmem, duchowym oświeceniem
i kontemplacją, bezinteresownością czy dążeniu do zapewniania sobie prostych, życiowych
przyjemności. Trudno również jednoznacznie odpowiedzieć na pytanie, czy realizując
postawione sobie cele, niezrozumiałe dla człowieka z powodu przekroczenia dostępnych dla
niego granic intelektualnych, superinteligencja nałoży sobie ograniczenia pozwalające
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
lub połaskotanie badaczy, ale nie można również wykluczyć, że za najbardziej skuteczną
metodę wywołania uśmiechu uzna sparaliżowanie mięśni ludzkiej twarzy i utrzymanie ich
w grymasie uśmiechu lub wszczepienie do mózgu człowieka elektrod stymulujących pracę
mięśni twarzy. Pozostając w obszarze bezpieczeństwa państwa, celem postawionym
przed AI mogłoby być opracowanie skutecznego sposobu zapewniania pokoju na świecie.
Nie można wykluczyć, że za najbardziej efektywną metodę osiągnięcia tego celu sztuczna
inteligencja uzna całkowite wyeliminowanie człowieka jako głównego (i w zasadzie
jedynego) generatora konfliktów zbrojnych. Ewentualnie, przyjmując za punkt wyjścia
określenie przyczyn działań wojennych, może uznać za zasadne zniszczenie wszystkich
zasobów naturalnych, tak aby człowiek nie miał o co walczyć. Oczywiście formułując
zadanie dla AI można by wprowadzić odpowiednie warunki ograniczające jej działania,
ale nie sposób przewidzieć wszystkich, w tym również potencjalnie niebezpiecznych metod,
które uzna za skuteczne w realizacji celu.
423
J. Nowak, op. cit.
170
jak i emocjonalnych. Wśród najczęściej podnoszonych wątpliwości społecznych
i kulturowych, Monika Torczyńska424 wymienia w pierwszej kolejności możliwość
manipulowania jednostkami lub społecznościami w obszarze życia społecznego poprzez
opisane w poprzednich podrozdziałach deepfake’i, czyli zniekształcanie i fałszowanie treści
audio i wideo. Obecne możliwości technologiczne pozwalają na tworzenie wiarygodnych
manipulacji filmowych, które mogą być wykorzystane m.in. do kompromitowania
przeciwników politycznych, kreowania pożądanych postaw opinii publicznej w działaniach
na rzecz pozyskania i utrzymania władzy politycznej, czy nawet fałszowania dowodów
w sprawach kryminalnych425. Podobne działania mogą zostać wykorzystane do kształtowania
określonych preferencji konsumenckich, poprzez nakłanianie społeczeństwa do wyboru
konkretnych dóbr i usług. Technologia deepfake może zostać także użyta w celu ośmieszenia,
dyskryminacji czy stygmatyzacji jednostek, np. poprzez umieszczenie ich obrazu w treściach
je kompromitujących lub zawstydzających, co może prowadzić do podejmowania decyzji
ingerujących w osobistą sferę życia i relacje interpersonalne.
Jako kolejne możliwe zagrożenie M. Torczyńska identyfikuje transformację dotyczącą
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
428
Zob. P. Stylec-Szromek, Sztuczna inteligencja – prawo, odpowiedzialność, etyka, „Zeszyty Naukowe
Politechniki Śląskiej. Seria: Organizacja i Zarządzanie”, 2018, z. 123, s. 506.
429
K. Różanowski, op. cit., s. 132-133.
172
Jak wskazuje Bogdan Mróz430, zachowanie elementów kontroli nad sztuczną inteligencją jest
kluczowe, m.in. ze względu na konieczność określania odpowiedzialności za podjęte decyzje.
Warto mieć również na uwadze możliwe ograniczenia dotyczące prywatności
i wolności jednostek w sferze aktywności politycznej i gospodarczej. Obywatel-konsument
staje się obiektem wszechobecnego marketingu konsumenckiego i politycznego,
co może prowadzić do utraty jego podmiotowości i przekształcenia w uprzedmiotowiony cel
sprzedażowy i propagandowy431. Proceder ten wiąże się z powszechnym gromadzeniem
informacji i danych osobowych członków społeczeństwa przez organizacje
i przedsiębiorstwa, ukierunkowane zwłaszcza na działalność internetową. B. Mróz podkreśla,
że masowe gromadzenie i przetwarzanie danych stwarza zagrożenie nie tylko dla szeroko
rozumianej wolności w Internecie, ale również dla wolności obywatelskiej, niezbędnej
do realizacji założeń wolności i równości społecznej432.
Obawy emocjonalne przed szerokim zastosowaniem technologii opartych na sztucznej
inteligencji wynikają również z niepewności w stosunku do innowacji technologicznych,
a przede wszystkim z negatywnego podejścia do możliwości utraty dotychczasowego
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
430
Zob. B. Mróz, op. cit., s. 144.
431
Zob. M. Torczyńska, op. cit., s. 111.
432
Zob. B. Mróz, op. cit., s. 147.
433
A. Mirski, Inteligencja naturalna a sztuczna, czyli inteligencja podmiotu i przedmiotu, [w:] E. Szumakowicz
(red.), Granice sztucznej inteligencji. Eseje i studia, Kraków 2000, s. 83.
173
do katastrofy”434. Należy zatem uznać, że większym problemem związanym ze sztuczną
inteligencją jest nie to, że jej wytwory i narzędzia osiągną w przyszłości poziom inteligencji
równy człowiekowi lub go przewyższający, ale że ludzie go obsługujący maszyny
wykorzystujące nowe technologie popełnią błąd lub też sami wykorzystają ich potencjał
do celów pozostających w sprzeczności z normami prawnymi lub moralnymi.
Inny negatywny aspekt wykorzystania sztucznej inteligencji przedstawia Chris Brahm
– jego zdaniem AI może przyczynić się do zaniku empatii. Systematycznie zwiększa się
liczba firm używająca czat botów lub innych zautomatyzowanych rozwiązań do kontaktów
ze swoimi klientami, co może prowadzić do utraty bliskich więzi z odbiorcami. W obszarze
organizacji sztuczna inteligencja może stwarzać zagrożenie dla menadżerów
wykorzystujących algorytmy do zarządzania zespołami, co oddala ich od pracowników
oraz ich problemów, które tradycyjnie byłyby na bieżąco omawiane z przełożonym. Dlatego
też, choć systemy wspierane AI bez wątpienia zwiększają dynamikę procesów biznesowych
i pozwalają unikać dużej ilości ludzkich błędów, to w procesy decyzyjne nadal musi być
zaangażowany człowiek. Aby zachować kontrolę nad funkcjonowaniem wdrażanych
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
434
Zob. K. Różanowski, op. cit., s. 109.
435
Zob. Ch. Brahm, 6 nieoczywistych zagrożeń biznesowych wynikających z rosnącej popularności sztucznej
inteligencji, „Magazyn ITwiz”, 2018, nr 12, s. 13.
174
lub – w zależności od tego, przez kogo jest nadzorowana – może celowo wprowadzać
użytkownika w błąd. Przykładem takiej sytuacji jest korzystanie z treści wyświetlanych
na Facebooku. Polubienie określonego materiału powoduje uruchomienie algorytmów
generujących wyświetlanie treści zbliżonych do tych już zaakceptowanych przez odbiorcę.
W dalszej perspektywie użytkownikowi wyświetlają się jedynie materiały potwierdzające
jego poglądy, w tym uprzedzenia, co z kolei może sprawić, że stanie się on mniej
tolerancyjny wobec odmiennych przekonań prezentowanych przez inne osoby436. Podobne
tendencje można odnaleźć na innych portalach, w których wykorzystywane systemy
rekomendacji mogą podświadomie skłaniać użytkownika do działania w określony sposób –
do obejrzenia określonego filmu, sprawdzenia nieznanej piosenki, przeczytania konkretnej
książki czy umówienia się na randkę z polecaną przez algorytm osobą. Z jednej strony
jest to zdecydowana oszczędność czasu i wysiłku klientów, który musieliby poświęcić
na znalezienie materiałów trafiających w ich gust, z drugiej jednak pojawiają się pytania
o sposób działania algorytmów generujących wyświetlanie polecanych treści. Czy są one
całkowicie bezstronne i bezinteresowne, czy może zostały zasponsorowane i teraz każdemu
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
438
Zob. D. McIlwraith, H. Marmanis, D. Babenko, op. cit., s. 25-26.
439
Zob. E. Bendyk, Czy przyszłość nas potrzebuje, „Polityka”, 2018, nr 1 (3142), s. 94.
440
Zob. A. Mirski, op. cit., s. 84.
441
Zob. E. Bendyk, op. cit.
176
od zawsze, na miarę swoich możliwości, dążył do zmiany otaczającego go środowiska.
Obecnie jednak ma miejsce niespotykana wcześniej skala przemian, które noszą znamiona
osobliwości, rozumianej w tym kontekście jako taki punkt w rozwoju cywilizacyjnym,
od którego postęp techniczny nabiera takiej prędkości, że wszelkie przewidywania odnośnie
do przeszłości stają się niewykonalne442. W kontekście pracy ludzkiej, osobliwość polegająca
na dojściu do takiego etapu rozwoju sztucznej inteligencji, w którym przewyższa ona poziom
inteligencji człowieka, może zostać wykorzystana do wspomagania ludzkiego potencjału,
ale również zmieniać w ten sposób charakter aktywności zawodowej i warunki pracy.
Perspektywa czasowa bardziej zaawansowanych zmian, wskazywana obecnie przez
ekspertów, to jedno pokolenie, czyli ok. 20-30 lat. Samo udoskonalanie ludzkich możliwości
i ułatwianie wykonywania przez człowieka pracy nie budzi zastrzeżeń, ale konkretne obawy
rodzi ryzyko zastąpienia pracy ludzkiej pracą robota. W 2013 r. prognozowano,
że w nieodległej perspektywie czasowej ok. 47% dotychczasowych miejsc pracy zostanie
zastąpionych robotami. Cztery lata później prognozy opracowane na podstawie badań
prowadzonych przez uniwersytety Oxford i Yale, w których uczestniczyło 325 naukowców
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
z całego świata, nie były dużo bardziej optymistyczne – wskazano, że w 2024 r. przestaną być
potrzebni tłumacze językowi (wykorzystanie sztucznej inteligencji będzie tańsze, szybsze
i bardziej opłacalne), a w ciągu 45 lat roboty będą w stanie opanować wszystkie zadania
wykonywane dotychczas przez ludzi443. Podobne wyniki badań opublikowali w 2017 r.
amerykańscy badacze, analizujący wpływ nowej rewolucji przemysłowej na rynek pracy
oraz rolę, jaką spełnia w niej robotyzacja i technologie oparte na AI. Z ich raportu „When
Will AI Exceed Human Performance? Evidence from AI Experts” wynika, że w 2053 r.
roboty będą już w stanie wykonywać skomplikowane zawody manualne, co pozwoli zastąpić
ludzkich chirurgów i innych lekarzy, których praca wymaga wysokiej precyzji444.
W podobnym tonie wypowiadają się twórcy raportu Dell Technologies 445 - wyniki ich badań
wskazują, że ok. 85% stanowisk, które będą oferowane w 2030 r., nie zostało jeszcze
utworzonych, ponieważ powstanie nowa, chłonna branża związana z zarządzaniem zasobami
robotów. Biorąc pod uwagę, że rozwiązania bazujące na sztucznej inteligencji wprowadzane
są w coraz większej ilości przedsiębiorstw, gdzie wykorzystywane są do optymalizacji
procesów, redukcji kosztów i automatyzacji pracy polegającej na wykonywaniu
powtarzalnych, wręcz algorytmicznych zadań, nie dziwi fakt, że pracownicy obawiają się
442
Zob. J. Kopka, Czy praca w przyszłości może ulec dehumanizacji, „Władza Sądzenia”, 2017, t. 13, s. 171.
443
Zob. Kiedy roboty zastąpią ludzi? Szybciej, niż myślisz, „Forbes” [on-line], 26.04.2018,
https://www.forbes.pl/gospodarka/sztuczna-inteligencja-kiedy-komputery-zastapia-ludzi/zjxvwme (29.07.2020).
444
Zob. K. Grace i in., When Will AI Exceed Human Performance? Evidence from AI Experts, [on-line],
arxiv.org, 2017, https://arxiv.org/abs/1705.08807 (29.07.2020).
445
Zob. Dell Technologies, The Next Era of Human-Machine Partnerships. Emerging Technologies’ Impact on
Society&Work in 2030, Institute For The Future, 2017.
177
negatywnego wpływu tych rozwiązań zarówno na poziom swojego wynagrodzenia,
jak i bezpieczeństwo zatrudnienia. Wśród dodatkowych zagrożeń wskazywanych przez
pracowników branż, w których wdraża się nowe rozwiązania technologiczne, pojawiają się
także obawy przed nasileniem kontroli i podsłuchu, jak również dehumanizacja pracy
przejawiająca się w konieczności wykonywania poleceń robotów.
Analizując przedstawione powyżej wyzwania należy jednak podkreślić,
że na obecnym etapie rozwoju sztuczna inteligencja nie jest w stanie zastąpić człowieka
we wszystkich procesach decyzyjnych. Nie można wykluczyć, że w przyszłości część obecnie
znanych zawodów i profesji zniknie z rynku pracy, ale w ich miejsce pojawią się nowe.
Aby dostosować się do nadchodzących zmian, konieczne będzie doszkolenie
lub przekwalifikowanie części pracowników. Przewidywane daty całkowitej dominacji
robotów na rynku pracy są różne, odległe i bliżej niesprecyzowane, natomiast zdaniem
badaczy, w wyścigu o wysoką pozycję w nowym, zrobotyzowanym świecie, liczyć się będą
państwa dysponujące bogatym zapleczem naukowym, inwestujące w badania naukowe
i rozwój technologii związanych z AI. Eksperci zwracają również uwagę, że dostosowanie się
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
446
J. Dukaj, Sztuka w czasach sztucznej inteligencji, [on-line], Forum Przyszłości Kultury, 2017,
https://forumprzyszloscikultury.pl/upload/jacek-dukaj-sztuka-w-czasach-sztucznej-inteligencji-pdf (28.07.2020).
178
i dezinformacji, istotnym ryzykiem jest możliwość wyeliminowania artystów z obiegu
kulturalnego z uwagi na przewagę AI w obszarze wydajności pracy – szybkości myśli
i szybkości produkcji. Podczas gdy napisanie powieści zajmie człowiekowi kilka miesięcy,
a nawet kilka lat, tak sztuczna inteligencja może hipotetycznie wygenerować dużo większą
ilość sensownej treści – faktycznym ograniczeniem jest w tym zakresie moc obliczeniowa
maszyny.
180
5. Główne obszary wyzwań i zagrożeń dla bezpieczeństwa w świetle
rozwoju sztucznej inteligencji
181
7. W jaki sposób można zapewnić bezpieczne i etyczne wykorzystanie sztucznej
inteligencji w bezpieczeństwie?
Odnosząc się do przyjętych metod i technik badawczych należy wskazać, że badanie
przeprowadzono z wykorzystaniem metody ankietowej. Przyjęto technikę indywidualnej
ankiety elektronicznej, której narzędzie stanowił anonimowy kwestionariusz ankiety.
Skorzystano z narzędzia formularzy Google – link do przygotowanego w tej aplikacji
kwestionariusza ankiety został wysłany do 100 badaczy z wybranych polskich uczelni
i naukowych ośrodków badawczych prowadzących prace nad sztuczną inteligencją,
m.in. z Wydziału Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej
Akademii Górniczo-Hutniczej w Krakowie, Wydziału Informatyki Politechniki Białostockiej,
Wydziału Informatyki i Zarządzania Politechniki Wrocławskiej, Wydziału Matematyki,
Informatyki i Mechaniki Uniwersytetu Warszawskiego, jak również Wydziału Nauk Ścisłych
i Przyrodniczych Uniwersytetu Przyrodniczo-Humanistycznego w Siedlcach. Link do ankiety
umieszczono także na stronie Klubu Biznesu dla Przedsiębiorców Business Centre Club,
co umożliwiło przeprowadzenie badania wśród przedsiębiorców wykorzystujących sztuczną
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
447
Zob. M. Andrałojć, Zalety i ograniczenia ankiety internetowej jako metody zbierania materiału badawczego
w dziedzinie zzl, „Zarządzanie Zasobami Ludzkimi”, 2006, nr 5, s. 111-112.
182
anonimowości respondentów – w przeciwieństwie do wywiadu bezpośredniego
lub telefonicznego, ankieta elektroniczna (internetowa) eliminuje możliwe niekorzystne
efekty związane z obecnością ankietera i jego ewentualnego wpływu na udzielane
odpowiedzi. Anonimowość pozwala również na bardziej stanowcze i jednoznaczne wyrażanie
opinii. Kolejną zaletą ankiety internetowej jest wykorzystanie innowacyjnych rozwiązań
technologicznych ułatwiających zarówno samo jej wypełnienie, jak i analizę udzielonych
odpowiedzi. Możliwe jest m.in. blokowanie pytań obowiązkowych (co daje gwarancję,
że wszyscy respondenci udzielą na nie odpowiedzi), automatyczne pomijanie pytań,
które nie dotyczą danej ankietowanej osoby, czy też komunikacja z uczestnikiem badania
za pomocą pojawiających się okienek z ostrzeżeniami, wyjaśnieniami lub informacjami
dodatkowymi. Odpowiedzi udzielane przez respondentów na pytania z kwestionariusza
internetowego zapisują się na serwerze, przy czym do momentu zakończenia ankiety
uczestnik może wrócić do dowolnego zagadnienia, przemyśleć swoją odpowiedź
i ewentualnie ją zmienić. Dodatkową zaletą jest fakt, że respondent może wypełnić ankietę
w dogodnym dla siebie momencie, w przeciwieństwie do ankiety prowadzonej telefonicznie
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
183
zawodowo z rozwojem technicznym, ankietowanych zapytano, czy sztuczna inteligencja
ma dostrzegalny wpływ na ich codzienne życie448.
3%
15%
Raczej tak
47% Zdecydowanie tak
Raczej nie
Trudno powiedzieć
35%
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
448
Rozkład odpowiedzi ilustruje Wykres 1.
449
Rozkład odpowiedzi ilustruje Wykres 2.
184
i związane z nim zastosowanie sztucznej inteligencji w nowoczesnych rodzajach broni,
autonomicznych pojazdach wojskowych, platformach bezzałogowych czy w konstruowaniu
robotów-żołnierzy. Ta opcja została wskazana przez 21 (52,5%) respondentów.
77,5%
0 5 10 15 20 25 30 35
450
Zob. Wykres 3.
185
Wykres 3. Rozkład odpowiedzi na pytanie 3. W której z wymienionych dziedzin bezpieczeństwa,
Pani/Pana zdaniem, sztuczna inteligencja znajdzie w najbliższej przyszłości najszersze
zastosowanie?
70%
0 5 10 15 20 25 30
451
Zob. Wykres 4.
186
Wykres 4. Rozkład odpowiedzi na pytanie 4. Wystąpienie którego z poniższych zagrożeń,
wynikających z korzystania z rozwiązań opartych na technologii sztucznej inteligencji, uważa
Pani/Pan za najbardziej niebezpieczne dla społeczeństwa?
8%
8%
45%
15%
17%
7%
Niejawne stosowanie systemów AI, bez informowania użytkownika o statusie rozmówcy, co może prowadzić
do powstawania więzi, wywierania wpływu na użytkownika lub poczucia obniżenia jego wartości
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
Naruszenie praw obywatelskich poprzez stosowanie mechanizmów oceny punktowej, co może doprowadzić
do dyskryminacji i utraty autonomii człowieka
Osiągnięcie poziomu technologicznej osobliwości, czyli punktu, w którym AI prześcignie inteligencję ludzką,
stając się nieprzewidywalną i niekontrolowaną przez człowieka
453
Zob. Wykres 6.
189
Wykres 6. Rozkład odpowiedzi na pytanie 6. W którym spośród wymienionych obszarów
dostrzega Pani/Pan największe prawdopodobieństwo zaistnienia niepożądanych skutków
wykorzystania rozwiązań opartych na technologii sztucznej inteligencji?
32,5%
80%
27,5%
12,5%
67,5%
5%
42,5%
0 5 10 15 20 25 30 35
Bezpieczeństwo użytkowników
Celem kolejnego pytania było zbadanie czy eksperci i osoby pracujące na co dzień
ze sztuczną inteligencją postrzegają możliwość osiągnięcia przez AI poziomu inteligencji
równego lub przewyższającego poziom inteligencji tworzącego ją człowieka jako zjawisko
negatywne czy pozytywne. Respondentów poproszono zatem, aby określili swoje podejście
wskazując jedną z proponowanych odpowiedzi454.
454
Zob. Wykres 7.
190
Wykres 7. Rozkład odpowiedzi na pytanie 7. Czy możliwość osiągnięcia przez sztuczną
inteligencję poziomu inteligencji równego lub przewyższającego poziom inteligencji tworzącego
ją człowieka uznaje Pani/Pan za zjawisko pozytywne czy negatywne?
10%
15%
Zdecydowanie pozytywnie
5%
Raczej pozytywne
Raczej negatywne
Zdecydowanie negatywne
25% 45%
Trudno powiedzieć
5% 5%
15%
Zdecydowanie tak
455
Zob. Wykres 8.
191
rozwoju AI za możliwe, zaś 5% prezentuje przekonanie, że sztuczna inteligencja
zdecydowanie jest w stanie osiągnąć, a nawet przekroczyć ludzki poziom inteligencji we
wskazanym okresie. 5% badanych nie określiło jednoznacznie swoich przewidywań odnośnie
do zaproponowanego tempa i możliwości rozwoju AI w kontekście ewentualnego osiągnięcia
punktu superinteligencji.
Podsumowując tę część badania należy uznać, że zdaniem ekspertów i osób
pracujących na co dzień ze sztuczną inteligencją, w ciągu najbliższych 30 lat raczej nie
osiągnie ona poziomu inteligencji równego lub przekraczającego poziom intelektualny
tworzącego ją człowieka, natomiast sama możliwość osiągnięcia takiego punktu jej rozwoju
uznawana jest za zjawisko raczej pozytywne.
Celem kolejnego pytania była próba ustalenia czy w opinii ekspertów należałoby
ograniczyć możliwości prowadzenia badań nad tworzeniem i rozwojem sztucznej inteligencji,
np. w celu zapewnienia ścisłej kontroli nad jej etycznym wykorzystaniem lub utrzymania
odpowiednio wysokiego poziomu prac badawczych. Ankietowanych poproszono, aby
wskazali czy widzą potrzebę wprowadzenia ograniczeń w tym zakresie, a jeżeli tak, to jakie
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
456
Zob. Wykres 9.
192
uczelnie wyższe, zaś 7% uczestników wskazało, że instytucjami właściwymi w tym zakresie
są państwowe instytuty badawcze.
Istotą następnego pytania było określenie czy w opinii badanych fakt sponsorowania
(finansowania) prowadzenia badań nad wykorzystaniem sztucznej inteligencji w określonym
przez inwestora obszarze daje mu możliwość wyłącznego decydowania o celu i sposobie
zastosowania tych rozwiązań technologicznych. Ankietowanych poproszono o określenie
swojego stanowiska w tej kwestii poprzez wskazanie tej odpowiedzi, z którą najbardziej się
zgadzają457.
Wykres 10. Rozkład odpowiedzi na pytanie 10. Czy Pani/Pana zdaniem, o celu wykorzystania
technologii opartych na sztucznej inteligencji może decydować jedynie osoba lub organizacja
sponsorująca prowadzenie badań w zamówionym przez siebie obszarze?
5%
10%
25%
Zdecydowanie tak
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
Raczej tak
Raczej nie
Zdecydowanie nie
Trudno powiedzieć
18%
42%
457
Rozkład uzyskanych odpowiedzi ilustruje Wykres 10.
193
nieograniczony, decydować o celach i sposobach wykorzystania wyników tych badań,
rozumianych w analizowanym kontekście jako wypracowane w ich trakcie technologie,
narzędzia i rozwiązania.
We wcześniejszych rozdziałach dysertacji458 ustalono, że istniejące rozwiązania
prawne w obszarze stosowania sztucznej inteligencji w poszczególnych sferach
bezpieczeństwa wymagają dostosowania do stale zwiększającego się tempa rozwoju nowych
technologii. Chcąc zbadać stanowisko ekspertów w analizowanej kwestii, respondentów
poproszono o udzielenie odpowiedzi na pytanie czy dostrzegają oni potrzebę wprowadzenia
odgórnych regulacji prawnych odnoszących się do zasad tworzenia i rozwoju sztucznej
inteligencji oraz nadzorowania tego procesu przez wyspecjalizowane organy nadzorcze459.
Wykres 11. Rozkład odpowiedzi na pytanie 11. Czy dostrzega Pani/Pan potrzebę wprowadzenia
odgórnych regulacji prawnych dotyczących zasad tworzenia i rozwoju sztucznej inteligencji?
10%
22%
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
10%
Zdecydowanie tak
Raczej tak
Raczej nie
Zdecydowanie nie
Trudno powiedzieć
25%
33%
458
Zob. Rozdział 4, podrozdział 4.1. Zagrożenia, wyzwania i dylematy związane z wykorzystaniem sztucznej
inteligencji w sferze bezpieczeństwa militarnego.
459
Zob. Wykres 11.
194
i wykorzystywania narzędzi opartych na technologii sztucznej inteligencji, poproszono ich
o wskazanie instytucji, które ich zdaniem powinny być odpowiedzialne za stworzenie,
wdrożenie i przestrzeganie prawa związanego z nowymi technologiami, w tym AI460.
O udzielenie odpowiedzi na to pytanie poproszono jedynie tych respondentów,
którzy w pytaniu poprzednim udzielili odpowiedzi twierdzącej („raczej tak”
lub „zdecydowanie tak”) – (łącznie było to 19 osób).
Wykres 12. Rozkład odpowiedzi na pytanie 12. Kto, Pani/Pana zdaniem, powinien być
odpowiedzialny za regulacje prawodawstwa związanego z technologią sztucznej inteligencji?
16%
Sejm i Senat
Adminstracja samorządowa
Organizacje przedsiębiorców
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
32%
Inne organizacje lub instytucje
5% międzynarodowe
10% Inne
0%
0%
460
Zob. Wykres 12.
195
w zakresie bezpiecznego i etycznego zastosowania sztucznej inteligencji, to kwestia jego
zaprojektowania, wprowadzenia i zapewnienia przestrzegania leży raczej w kompetencjach
organów i instytucji międzynarodowych niż państwowych.
Celem kolejnego pytania było zbadanie czy eksperci i osoby pracujące na co dzień
z AI miały styczność z dokumentami odnoszącymi się do kwestii etycznych zasad tworzenia
i korzystania ze sztucznej inteligencji, a jeżeli tak, to z jakimi. Ankietowanych poproszono
zatem o wskazanie wszystkich dokumentów, z jakimi mieli okazję się zapoznać, zarówno
w trakcie pracy, jak i poza nią461.
Wykres 13. Rozkład odpowiedzi na pytanie 13. Proszę wskazać dokumenty określające etyczne
zasady tworzenia i korzystania ze sztucznej inteligencji, z którymi miał/-a Pan/Pani styczność
12,5%
25%
47,5%
30%
15%
37,5%
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
0 5 10 15 20
Zasady z Asimolar
Wytyczne Komisji Europejskiej w zakresie etyki dotyczące godnej zaufania sztucznej inteligencji
Rezolucja Parlamentu Europejskiego z dnia 16 lutego 2017 r. zawierająca zalecenia dla Komisji
w sprawie przepisów prawa cywilnego dotyczących robotyki (2015/2103(INL))
Międzynarodowe Standardy Rozwoju Sztucznej Inteligencji OECD
461
Zob. Wykres 13.
196
styczności z żadnym oficjalnym dokumentem, który odnosiłby się do etycznych zasad
tworzenia i zastosowania AI.
Kolejne dwa pytania miały na celu zbadanie podejścia respondentów do kwestii
uregulowania prawnego statusu sztucznej inteligencji, przede wszystkich autonomicznych
robotów, w kontekście odpowiedzialności za swoją pracę w tym za niepożądane
lub niebezpieczne działania przez nie spowodowane. W pierwszej kolejności ankietowanych
poproszono, aby określili swoje stanowisko w zakresie nadania urządzeniom (autonomicznym
maszynom o sztucznej inteligencji) osobowości prawnej462.
Wykres 14. Rozkład odpowiedzi na pytanie 14. Czy Pani/Pana zdaniem, urządzenia (w tym
roboty) i programy oparte na technologii sztucznej inteligencji powinny otrzymać w przyszłości
osobowość prawną?
5%
13% 5%
Zdecydowanie tak
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
Raczej tak
25%
Raczej nie
Zdecydowanie nie
Trudno powiedzieć
52%
462
Rozkład odpowiedzi ilustruje Wykres 14.
463
Zob. Wykres 15.
197
Wykres 15. Rozkład odpowiedzi na pytanie 15. Czy Pani/Pana zdaniem, urządzenia (w tym
roboty) i programy oparte na technologii sztucznej inteligencji powinny otrzymać w przyszłości
osobowość elektroniczną?
12%
30%
Zdecydowanie tak
Raczej tak
Raczej nie
Zdecydowanie nie
35%
Trudno powiedzieć
18%
5%
W tym przypadku rozkład odpowiedzi ankietowanych był nieco inny niż w pytaniu
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
464
Zob Robot odpowie za swoją pracę? Już musimy rozmawiać, jak to uregulować, „Business Insider” [on-line],
10.03.2017, https://businessinsider.com.pl/technologie/nowe-technologie/roboty-i-sztuczna-inteligencja-a-prawo
-i-osobowosc-prawna/k2e2zdx (27.08.2020).
198
spoczywa na projektancie lub konstruktorze maszyny, czy na osobach korzystających
z gotowych maszyn, w pierwszej kolejności respondentów poproszono o wskazanie
czy projektanci i twórcy AI powinni ponosić odpowiedzialność za szkody spowodowane
przez maszyny, oprogramowanie i/lub urządzenia, których działanie byłoby w pełni zgodne
z wgranym algorytmem (np. wadliwym kodem)465.
Wykres 16. Rozkład odpowiedzi na pytanie 16. Czy Pani/Pana zdaniem, projektanci i twórcy
sztucznej inteligencji powinni ponosić odpowiedzialność za szkody popełnione przez
maszyny/oprogramowanie/urządzenia, których działanie byłoby zgodne z wgranym
algorytmem?
15%
25%
8% Zdecydowanie tak
Raczej tak
Raczej nie
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
40%
465
Zob. Wykres 16.
466
Zob. Wykres 17.
199
Wykres 17. Rozkład odpowiedzi na pytanie 17. Czy Pani/Pana zdaniem, projektanci i twórcy
sztucznej inteligencji powinni ponosić odpowiedzialność za to, w jaki sposób inne podmioty będą
korzystać z efektów ich pracy?
5% 5%
15%
Zdecydowanie tak
Raczej tak
Raczej nie
43%
Zdecydowanie nie
Trudno powiedzieć
32%
do dyspozycji innego podmiotu, który będzie z niej korzystał do własnych celów, projektanci
i twórcy urządzenia lub oprogramowania przestają być odpowiedzialni za to, w jaki sposób
będzie ono wykorzystywane. Jeżeli dysponent maszyny korzysta z niej w nieostrożny sposób
lub wprost używa jej jako narzędzia do wyrządzenia zamierzonej szkody, to jest
on odpowiedzialny za jej działania. Odmienne zdanie wyraziło łącznie 20% respondentów,
którzy wskazali, że odpowiedzialność za sposób wykorzystania sztucznej inteligencji przez
inne podmioty spoczywa na konstruktorze. 5% badanych nie określiło jednoznacznie swojego
stanowiska w analizowanej kwestii.
Podsumowując tę część badania należy stwierdzić, że w opinii większości
respondentów odpowiedzialność za aktywność maszyny wyposażonej w sztuczną
inteligencję, pozostającą w zgodności z zadanym jej algorytmem powinien ponosić
jej projektant i konstruktor, ale nie jest on odpowiedzialny za sposób, w jaki z efektów
jego pracy będą korzystały kolejne podmioty dysponujące maszyną, oprogramowaniem
lub urządzeniem.
Pytanie nr 18 miało na celu zbadanie podejścia respondentów do kwestii świadomości
społecznej w zakresie interakcji ze sztuczną inteligencją i możliwości decydowania
o jej ewentualnym zastosowaniu. Ankietowanych poproszono zatem o wskazanie,
czy zgadzają się ze stwierdzeniem, że ludzie powinni mieć możliwość wyboru w zakresie
korzystania ze sztucznej inteligencji w różnych sferach swojego życia. Jako przykład
200
praktycznego zastosowania AI praktycznego użycia wskazano bankowość, medycynę
i prawo467.
Wykres 18. Rozkład odpowiedzi na pytanie 18. Czy zgadza się Pani/Pan z twierdzeniem,
że społeczeństwo powinno mieć możliwość wyboru, czy pozostawiać decyzję w rękach sztucznej
inteligencji i w jakim stopniu oddać jej decyzyjność w określonych obszarach?
0%
3%
10%
Zdecydowanie tak
Raczej tak
50% Raczej nie
Zdecydowanie nie
37% Trudno powiedzieć
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
467
Zob. Wykres 18.
468
Zob. Wykres 19.
201
Wykres 19. Rozkład odpowiedzi na pytanie 19. W jakim obszarze działalności Pani/Pana
organizacji wykorzystuje się rozwiązania oparte na technologii sztucznej inteligencji?
Inne 20%
Bezpieczeństwo 23%
Logistyka 13%
0 5 10 15 20
202
do zadań, które dotychczas wykonywał człowiek i potencjalną dehumanizację pracy
postrzegają w kategoriach szansy czy zagrożenia469.
Wykres 20. Rozkład odpowiedzi na pytanie 20. Czy Pani/Pana zdaniem, wykorzystanie
rozwiązań opartych na technologii sztucznej inteligencji do pracy wykonywanej dotychczas
przez człowieka i związana z tym dehumanizacja pracy stanowi szansę czy zagrożenie dla
społeczeństwa?
12%
23%
Zdecydowanie szansę
Raczej szansę
5% Raczej zagrożenie
Zdecydowanie zagrożenie
20%
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
469
Zob. Wykres 20.
470
Rozkład odpowiedzi ilustruje Wykres 21.
203
Wykres 21. Rozkład odpowiedzi na pytanie 21. Czy Pani/Pana zdaniem, upowszechnienie
technologii sztucznej inteligencji przyniesie wymierne korzyści w skali globalnej dla poniższych
odbiorców?
204
albo dodatkowego przeszkolenia pracownika w celu umożliwienia efektywnej pracy
z nowoczesnymi technologiami.
W kolejnym pytaniu postanowiono zbadać zdanie respondentów na temat podatności
i zagrożeń, które utrudniają (lub mogą utrudniać) wdrożenie i upowszechnienie stosowania
rozwiązań opartych na technologii sztucznej inteligencji. Ankietowanych poproszono
o wskazanie maksymalnie trzech czynników mogących opóźnić, utrudnić lub uniemożliwić
ten proces471.
Wykres 22. Rozkład odpowiedzi na pytanie 22. Jakie dostrzega Pani/Pan trudności związane z
wdrożeniem i stosowaniem rozwiązań opartych na technologii sztucznej inteligencji?
Inne 7,5%
Słabo rozwinięta infrastruktura informacyjna i
telekomunikacyjna 15%
Wysokie podatki 5%
0 10 20 30
471
Zob. Wykres 22.
205
że do ich prawidłowego funkcjonowania niezbędny jest – zdaniem uczestnika badania –
subiektywny czynnik ludzki (intuicja lub sumienie). Najmniej liczna grupa badanych
wskazała, że na przeszkodzie sprawnego i powszechnego wdrażania rozwiązań bazujących
na AI stoją takie czynniki jak wysokie koszty pracy i wysokie podatki.
Intencją kolejnego pytania było zbadanie poziomu zaufania respondentów
do konkretnych, praktycznych form wykorzystania AI w poszczególnych obszarach życia
i bezpieczeństwa. Respondentów poproszono w tym celu o wskazanie, czy sami skorzystaliby
z czterech konkretnych osiągnięć technologicznych, których funkcjonowanie wiąże się
z wykorzystaniem sztucznej inteligencji472.
Wykres 23. Rozkład odpowiedzi na pytanie 23. Czy zdecydował/by/-aby się Pan/Pani
na skorzystanie z poniżej wymienionych osiągnięć technologicznych wiążących się
z wykorzystaniem sztucznej inteligencji?
472
Zob. Wykres 23.
206
respondentów. Na skorzystanie z usług medycznych realizowanych przez urządzenia
lub programy oparte na technologii AI zamiast wizyty i diagnozy postawionej
przez tradycyjnego lekarza zdecydowałoby się bowiem 47% ankietowanych, a prawie
co trzeci wybrał w tej kwestii odpowiedź przeczącą. Niewiele mniej, bo 45% badanych
powierzyłoby programom działającym w oparciu o sztuczną inteligencję realizację zadań
dotyczących obsługi prawnej – odmienne zdanie wyraziło 37% uczestników badania.
Najmniejszym zaufaniem respondentów cieszyła się propozycja powierzenia programom
bazujących na AI wykonywania nienadzorowanych operacji finansowych – połowa badanych
nie zdecydowałaby się na skorzystanie z takiej usługi, w przeciwieństwie do 35%
ankietowanych którzy dopuszczali taką możliwość.
O ile w poprzednim pytaniu badano stosunek ekspertów do już istniejących rozwiązań
wykorzystujących sztuczną inteligencję, tak w kolejnej części badania odniesiono się
do dalszych perspektyw rozwoju i wykorzystania tej dziedziny nauki. Chcąc zbadać
przewidywania i prognozy ekspertów w omawianym obszarze, w szczególności w kontekście
zastosowania AI w poszczególnych obszarach bezpieczeństwa, respondentów poproszono
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
473
Zob. Wykres 24.
207
Wykres 24. Rozkład odpowiedzi na pytanie 24. Mając na uwadze dotychczasowy i
prognozowany stan rozwoju technologii opartych na sztucznej inteligencji, proszę wskazać
prawidłowe, w Pani/Pana opinii, zakończenie zdania: "W związku z rozwojem technologii
opartych na sztucznej inteligencji…”
… średni koszt pozyskania usług lub produktów specjalistycznych wzrośnie. 13% 87%
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
… średni koszt pozyskania usług lub produktów specjalistycznych spadnie. 78% 22%
… oferowane klientom produkty i usługi będą w przyszłości za bardzo
spersonalizowane.
35% 65%
… oferowane klientom produkty i usługi będą w przyszłości bardziej
spersonalizowane.
95% 5%
474
Zob. Wykres 25.
208
Wykres 25. Rozkład odpowiedzi na pytanie 25. Jak określiłby/-aby Pan/Pani swoje stanowisko
odnośnie szans i zagrożeń wynikających z wdrażania i rozwoju technologii opartych o sztuczną
inteligencję?
210
Zdaniem ankietowanych, potencjalne i realne zagrożenia związane z zastosowaniem
rozwiązań bazujących na technologii sztucznej inteligencji mogą obejmować:
bezpieczeństwo militarne (uzyskanie bardzo dużej przewagi militarnej jednych państw
nad innymi, wykorzystanie w działaniach zbrojnych wobec ludności cywilnej
niezaangażowanej w konflikt, możliwość powstania nowego wyścigu zbrojeń, tym razem
w obszarze broni informacyjnej i broni autonomicznej - to zwiększa prawdopodobieństwo
rozpoczęcia konfliktu hybrydowego (i zwycięstwa w nim));
bezpieczeństwo informacji, w szczególności w odniesieniu do kwestii prywatności
użytkowników (inwigilacja i zagrożenie prywatności, profilowanie osób w odniesieniu
do ich potencjalnych zachowań w przyszłości);
bezpieczeństwo personalne człowieka, ze szczególnym uwzględnieniem aspektów życia
społecznego i przyjętych norm kulturowych (oparcie AI na stereotypach i uprzedzeniach,
obniżenie ludzkich zdolności nawiązywania więzi społecznych, utrata zdolności
krytycznego myślenia, poleganie na spersonalizowanych informacjach bez rozważenia,
czy na pewno oferowane osobom rozwiązania są dla nich najlepsze, obniżenie poczucia
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
211
prawdopodobieństwa bezpiecznego i etycznego wykorzystania sztucznej inteligencji mogą
przyczynić się takie czynniki jak:
dostosowanie obowiązującego prawodawstwa w obszarze nowych technologii
do zmian zachodzących w sferze bezpieczeństwa, które wynikają z postępującego
rozwoju technologicznego (m.in. poprzez: określenie uwarunkowań prawnych
co do sposobów wykorzystania AI – np. analogicznych do tych dotyczących badań
na zwierzętach, ustalenie zasad ponoszenia odpowiedzialności za działania podejmowane
przez automaty, jak również uregulowanie kwestii wykorzystania broni autonomicznej
w konfliktach zbrojnych – w tym zakresie pojawiające się problemy i wątpliwości
powinny być rozwiązywane w drodze dialogu członków międzynarodowych
społeczności, a wypracowane rozwiązania wdrażane w sposób podobny do konwencji
o użyciu określonych rodzajów broni); niezależnie od przyjętych rozwiązań prawnych
należy pamiętać o niemożliwym do wyeliminowania ryzyku, że nie wszystkie podmioty
się im podporządkują, zwłaszcza że wykorzystanie metod sztucznej inteligencji
do inwigilacji społeczeństwa (pod pretekstem poprawy bezpieczeństwa obywateli)
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
212
Zdaniem 7 respondentów nie da się zapewnić w pełni etycznego i bezpiecznego
sposobu wykorzystania rozwiązań bazujących na sztucznej inteligencji. Swoje stanowisko
uzasadniali oni argumentami odnoszącymi się do:
nieprzewidywalności działania AI, jak również braku algorytmicznego (kompletnego
i spójnego matematycznie) modelu człowieka, który AI mogłaby odwzorować –
ewentualne rozwiązania prawne mogłyby się wówczas opierać jedynie na odgórnej
zasadzie „primum non nocere";
decydującej roli „niedoskonałości” człowieka i jego realnych problemów z zapewnieniem
etycznego i bezpiecznego wykorzystywania sił, środków i zasobów, którymi
już dysponuje (np. pieniędzy, zasobów naturalnych, przewagi nad innymi gatunkami).
214
postępującego rozwoju technologicznego jako zjawiska o charakterze globalnym,
potrzebującego uniwersalnych rozwiązań o zbliżonym charakterze, niezależnie od państwa,
w jakim upowszechniane są nowe technologie, w tym sztuczna inteligencja.
Na podstawie uzyskanych wyników należy również stwierdzić, że zdaniem specjalistów
badania nad tworzeniem i rozwojem sztucznej inteligencji nie powinny być ograniczane
poprzez umożliwianie ich prowadzenia jedynie określonym instytucjom i organizacjom.
O ile jednak w prowadzeniu badań w zakresie wykorzystania AI w poszczególnych obszarach
bezpieczeństwa nie powinno być ograniczeń instytucjonalnych, o tyle osoba lub organizacja
finansująca ich prowadzenie nie powinna jako jedyna, w sposób nieograniczony, decydować
o celach i sposobach wykorzystania wyników tych badań – technologii, narzędzi i rozwiązań.
Ostatni problem badawczy odnosił się do określenia metod pozytywnego i etycznego
wykorzystania sztucznej inteligencji w sferze bezpieczeństwa. Ustalono, że szanse
w tym zakresie można zwiększyć poprzez cztery podstawowe obszary działań.
Pierwszy z nich to dostosowanie obowiązującego prawodawstwa w obszarze nowych
technologii do zmian zachodzących w bezpieczeństwie, które wynikają z postępującego
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
rozwoju technicznego. Drugim jest prowadzenie dalszych badań nad AI, testowanie
wypracowanych rozwiązań do momentu osiągnięcia optymalnego poziomu bezpieczeństwa.
W tym zakresie ważna jest także interdyscyplinarna współpraca środowisk naukowych
z branżą technologiczną i usługowo-produkcyjną. Trzeci element to konieczność zachowania
kontroli człowieka nad rozwojem technologii i pojawiającymi się rozwiązaniami
w tym zakresie, jak również możliwościami ich wykorzystania. W tej kwestii istotny aspekt
stanowi zapewnienie równowagi pomiędzy inteligencją człowieka i inteligencją maszyny - AI
należy stosować tylko w tych obszarach, gdzie może ona realnie przyczynić do podniesienia
poziomu bezpieczeństwa, a możliwe konsekwencje wynikające z jej implementacji nie okażą
się przewyższać potencjalnych szans. Ostatni, czwarty komponent bezpieczeństwa
korzystania ze sztucznej inteligencji to zapewnienie transparentności działań AI.
Człowiek musi bowiem być świadomy interakcji ze sztuczną inteligencją, w szczególności
podczas kontaktów i usług wirtualnych. Natomiast, nawet jeśli możliwe okaże się wdrożenie
optymalnych mechanizmów bezpieczeństwa, należy mieć świadomość, że nigdy nie da się
całkowicie wyeliminować ryzyka nieetycznego i zagrażającego bezpieczeństwu sposobu
wykorzystania rozwiązań bazujących na sztucznej inteligencji.
215
obowiązującego prawodawstwa do dynamicznego rozwoju technologicznego jest tematem
znanym i istotnym dla społeczności międzynarodowej. Warto wskazać w tym miejscu,
że w lutym 2017 r. w Parlamencie Europejskim zorganizowano seminarium poświęcone
rozwojowi robotyki i sztucznej inteligencji. W jego trakcie analizowano raport Komisji
Prawnej Parlamentu Europejskiego ,,Świat robotów w kontekście wyzwań prawa cywilnego",
zawierający zapisy dotyczące reakcji na problemy związane z analizowanym
zagadnieniem475. W efekcie seminarium, 16 lutego 2017 r. uchwalono rezolucję Parlamentu
Europejskiego zawierającą zalecenia w sprawie przepisów prawa cywilnego dotyczących
robotyki476. Tym samym rozpoczęto międzynarodową dyskusję na temat konieczności
pilnego wprowadzenia dodatkowych norm związanych z funkcjonowaniem AI
we współczesnym świecie, dostosowanych do tempa rozwoju technologicznego, jak również
tego, jak owe normy powinny brzmieć. Tematem przewodnim była kwestia
odpowiedzialności sztucznej inteligencji – zarówno z perspektywy prawa, jak i etyki.
Wizja nadchodzących zmian wymaga bowiem dostosowania obowiązującego prawa
do ewoluującej rzeczywistości – głównie ze względu na fakt, że zastępowanie ludzi w pracy
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
oraz pojawianie się autonomicznych robotów w społeczeństwie niesie za sobą wiele wyzwań
o charakterze prawnym, etycznym i społecznym. Dodatkowo, pomimo ryzyk związanych
z rozwojem AI, trudno jest obecnie wskazać jednoznaczne i konkretne rozwiązania
umożliwiające ich skuteczną minimalizację. W rezolucji umieszczono zapisy dotyczące
m.in. takich kwestii jak:
ogólne zasady dotyczące rozwoju robotyki i AI do celów cywilnych,
badania i innowacje,
zasady etyczne,
utworzenie europejskiej agencji ds. nowoczesnych technologii,
prawo własności intelektualnej w kontekście przepływów danych,
standaryzacja bezpieczeństwa i ochrony,
autonomiczne środki transportu,
roboty przeznaczone do opieki i roboty medyczne,
naprawa i usprawnianie ludzkiego organizmu,
edukacja i zatrudnienie,
wpływ na środowisko naturalne,
odpowiedzialność.
475
Zob. P. Stylec-Szromek, op. cit s. 504.
476
Rezolucja Parlamentu Europejskiego z dnia 16 lutego 2017 zawierająca zalecenia dla Komisji w sprawie
przepisów prawa cywilnego dotyczących robotyki (2015/2103(INL)).
216
W kontekście głównego nurtu rozważań zawartych w rozprawie, na szczególną uwagę
zasługują zwłaszcza dwa działy rezolucji – pierwszy z nich odnosi się do ogólnych zasad
rozwoju robotyki i sztucznej inteligencji do celów cywilnych, drugi zaś poświęcony
jest zasadom etycznym. W pierwszym dziale Parlament Europejski wskazuje wspólne cechy
inteligentnych robotów477, do których zaliczono:
brak funkcji życiowych w rozumieniu biologicznym;
zdobywanie autonomii z wykorzystaniem czujników lub za pomocą wymiany danych
z otoczeniem oraz ich analizy;
co najmniej minimalną formę fizyczną;
zdolność dostosowywania swojego zachowania oraz działań do otoczenia;
zdolność do uczenia się, opartego na zdobytym doświadczeniu oraz interakcji
z otoczeniem – zasada fakultatywna.
Dodatkowo w analizowanym dziale zaproponowano wprowadzenie unijnego systemu
rejestracji robotów na rynku wewnętrznym Unii Europejskiej, przy czym kryteria klasyfikacji
robotów podlegających zarejestrowaniu miałyby zostać uzgodnione w dalszej kolejności.
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
477
Do grupy inteligentnych robotów zaliczono systemy cyberfizyczne, systemy autonomiczne, inteligentne
roboty autonomiczne oraz ich podkategorie; zob. Rezolucja 2015/2103(INL).
217
inteligencji, które mogą mieć istotny wpływ na życie przynajmniej jednej osoby”478.
Warunkiem poszanowania tej zasady jest możliwość przedstawienia obliczeń dokonanych
za pomocą systemu AI w formie zrozumiałej dla człowieka, dlatego też zaawansowane roboty
powinny być wyposażone w tzw. „czarną skrzynkę”, która zawierałaby dane dotyczące
wszystkich operacji wykonanych przez maszynę, a zwłaszcza kroków logicznych,
które doprowadziły do podjęcia przez nią określonej decyzji. Ramy etyczne w zakresie
robotyki i sztucznej inteligencji powinny opierać się natomiast przede wszystkim na zasadzie
przynoszenia korzyści, nieszkodliwości, autonomii oraz sprawiedliwości, a także
na podstawowych zasadach i wartościach stanowiących fundament prawodawstwa wszystkich
państw członkowskich Unii Europejskiej, tj. godności ludzkiej, równości, sprawiedliwości,
równouprawnieniu, braku dyskryminacji, możliwości wyrażenia świadomej zgody, ochronie
życia prywatnego i rodzinnego, ochronie danych, braku stygmatyzacji, przejrzystości oraz
odpowiedzialności jednostki.
W załączniku do rezolucji zaproponowano kodeksy postępowania dla osób i instytucji
pracujących nad rozwojem i wykorzystaniem sztucznej inteligencji, tj. inżynierów
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
478
Ibidem.
218
powinien uwzględnić prawo każdej jednostki do prywatności, a co za tym idzie –
nie ma prawa do zbierania, wykorzystywania ani ujawniania danych osobowych
bez zgody osoby, której dane te dotyczą;
nie może wykorzystywać robota w sposób niezgodny z obowiązującymi normami
i zasadami etycznymi oraz prawnymi;
nie ma prawa modyfikować robota w sposób, który umożliwi wykorzystanie go
jako broni.
Zaprezentowane w rezolucji działania mają charakter wstępny, ale dają dobrą
podstawę do tworzenia regulacji prawnych w przyszłości. Niewątpliwym celem ich
wypracowania było również uspokojenie opinii publicznej, w kontekście pojawiania się
głosów niepewności i niezadowolenia w związku z wdrażaniem kolejnych rozwiązań
wykorzystujących sztuczną inteligencję. Problemem często podnoszonym w odniesieniu
do dalszego rozwoju tej dziedziny nauki jest kwestia odpowiedzialności.
Można tu wyodrębnić dwa kluczowe wątki. Pierwszy z nich to odpowiedzialność prawna
za aktywność maszyn i jej skutki, a drugi to odpowiedzialność samego automatu w sytuacji,
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
kiedy robot będzie autonomiczny, zaś jego działanie będzie sprzeczne z intencjami twórcy.
Warto zauważyć, że analizowana problematyka nie stanie się aktualna dopiero w momencie
zrównania poziomu sztucznej inteligencji z ludzką – należy mieć na uwadze, że już obecny
poziom rozwoju AI generuje chociażby wątpliwości co do zasad odpowiedzialności za szkodę
spowodowaną przez robota, natomiast znacząco zyska ona na znaczeniu w momencie
powstania pierwszych maszyn zdolnych do podejmowania w pełni samodzielnych decyzji.
Wówczas, mając na względzie perspektywę gospodarczą oraz kwestie polityki społecznej,
niezbędne będzie zapewnienie inteligentnym maszynom możliwości samostanowienia.
Przywoływana wcześniej rezolucja 2015/2013 (INL) w zakresie odpowiedzialności
cywilnej robotów podkreśla, że jakiekolwiek rozwiązanie prawne nie może ograniczać
rodzaju lub zakresu szkód, za które można byłoby uzyskać odszkodowanie, jak również
nie powinno ograniczać form odszkodowania oferowanego osobom poszkodowanym w
wyniku działań automatów wyłącznie z uwagi na pozaludzką przyczynę szkody. Proponuje
również utworzenie obowiązkowego systemu ubezpieczeń, opartego na zobowiązaniu
producenta inteligentnych robotów do wykupienia ubezpieczenia w związku z wytwarzanymi
maszynami. System ten mógłby zostać dodatkowo uzupełniony funduszem gwarancyjnym,
tak aby umożliwić dokonywanie napraw wykonanych szkód w sytuacjach nieobjętych
ubezpieczeniem. Parlament Europejski rekomenduje, aby wszelkie decyzje polityczne
w zakresie zasad odpowiedzialności cywilnej stosowanych do robotów i sztucznej inteligencji
podejmować dopiero po konsultacjach z podmiotami, które realizują ogólnoeuropejskie
projekty badawczo-rozwojowe w zakresie robotyki i neuronauk. Stanowisko to uzasadnia
219
tym, że naukowcy i eksperci prowadzący prace nad AI są w stanie prawidłowo ocenić ryzyka
i konsekwencje związane z tym procesem.
Jedną z najbardziej kontrowersyjnych propozycji odpowiedzi na to wyzwanie
jest nadanie sztucznej inteligencji osobowości prawnej. Takie rozwiązanie dawałoby
podstawy do ograniczania siły przetargowej producentów robotów, którzy zgodnie
z tym prawem staliby się ich właścicielami. Kolejne potencjalne korzyści obejmują ochronę
miejsc pracy oraz zapewnienie wsparcia małym przedsiębiorcom. Wcześniej jednak
należałoby uregulować status robotów w stanie „pośrednim”, czyli dysponujących
ograniczoną świadomością, rozumiejących proste polecenia wydawane w języku naturalnym
oraz identyfikujące nawet tak abstrakcyjne pojęcia jak złość, radość, strach czy gniew.
Na tym etapie mogą pojawić się obawy dysponujących nimi przedsiębiorców co do dalszego
rozwoju AI, prowadzące do działań mających na celu jego zahamowanie – w obawie przed
utratą prawa właściciela do zarządzania maszyną jako nie w pełni świadomą istotą.
Jak wskazuje Michał Ziemski479, w tej sytuacji pomocne mogą okazać się rozwiązania
legislacyjne zapewniające ograniczoną autonomię prawną robotów przy jednoczesnym
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
479
Zob. M. Ziemski, Osoba elektroniczna posiadająca osobowość elektroniczną, „In Gremio”, 2017, nr 105 [on-
line], ingremio.org, 2017, https://ingremio.org/2017/01/osoba-elektroniczna-posiadajaca-osobowosc-
elektroniczna (13.08.2020).
480
W analizowanej koncepcji - robotowi
481
Zob. U. Pagallo, Killers, fridges, and slaves: a legal journey in robotics, “AI & Society”, 2011, nr 26(4), s.
52-53.
220
społecznego. Z kolei wprowadzenie w życie koncepcji cyfrowego peculium mogłoby stać się
motywacją dla właścicieli robotów w zakresie przyznawania maszynom własnego majątku
lub zapewniania określonej płynności finansowej, stanowiąc swoistą gwarancję
dla kontrahenta. W przypadku błędu, nieprawidłowego lub niezgodnego z prawem działania
odzyskiwałby on bowiem swoją należność wynikającą z umowy. Jeżeli zaś robot nie miałby
adekwatnego zabezpieczenia finansowego, to kontrahenci nie ryzykowaliby zawierania
umowy na wykonanie oferowanych przez niego usług. W ten sposób maszyny autonomiczne
szybko stałyby się pracownikami mniej konkurencyjnymi od ludzi. Z drugiej strony,
rozproszona odpowiedzialność stałaby się również czynnikiem motywującym konsumentów
do korzystania z usług świadczonych przez człowieka, przynajmniej do momentu, w którym
robot nie uzyskałby płynności finansowej adekwatnej do ryzyka związanego z korzystaniem
z usług osoby elektronicznej. Z kolei warunkiem do tego niezbędnym byłoby prawidłowe
i zgodne z założeniami świadczenie oferowanego zakresu prac i usług, determinujące
uzyskanie wynagrodzenia za wykonane działanie.
Powyższa analiza pozwala stwierdzić, że w kontekście wykorzystania robotów
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
482
Zob. M. Nowakowski, Dlaczego sztuczna inteligencja to nie osoba (prawna)?, [on-line], fintek.pl,
29.08.2019, https://fintek.pl/dlaczego-sztuczna-inteligencja-to-nie-osoba-prawna/ (18.09.2020).
221
formalnym, reprezentowane przez osoby fizyczne – w postaci zarządów, pełnomocników
czy wspólników. Przyznanie osobowości prawnej wymaga jednak spełnienia określonych
warunków, tj.: posiadania zdolności do czynności prawnych i zdolności prawnej. Zdolność
do czynności prawnych jest rozumiana jako możliwość nabywania praw i zaciągania
zobowiązań. O ile potencjalnie sztuczna inteligencja mogłaby nabywać określone prawa,
to mniej oczywista wydaje się jej zdolność do zaciągania zobowiązań. Ta bowiem
jest nierozerwalnie związana z możliwością ponoszenia odpowiedzialności za brak ich
wykonania lub niewłaściwą realizację. Przyjmując założenie, że AI dysponuje jakimś
majątkiem (np. kapitałem powierzonym mu do użytku przez twórcę lub właściciela), można
w pewien sposób zabezpieczyć kwestię odpowiedzialności finansowej, natomiast
w określonych przypadkach sposób naprawienia szkody483 może być inny niż finansowy
i wiązać się z koniecznością osobistego jego wykonania – a taki warunek w przypadku
sztucznej inteligencji może się okazać niewykonalny. Można by co prawda oprzeć się
na odpowiedzialności na zasadzie ryzyka, ale tę ponosiłby w tym przypadku raczej twórca
sztucznej inteligencji, dystrybutor, właściciel lub inny podmiot dysponujący algorytmem,
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
483
Ustawa z dnia 23 kwietnia 1964 r. - Kodeks cywilny, Dz.U. 1964 nr 16 poz. 93, art. 471.
222
precyzyjnego przypisania kwestii odpowiedzialności za poczynione działania. Dopóki
sztuczna inteligencja nie ma zdolności prawnej (bo zdolność tę posiada w jej zakresie
konkretna osoba fizyczna), nierealne jest nadanie jej statusu osoby prawnej.
Niezależnie od powyższych rozważań, przyznanie sztucznej inteligencji statusu osoby
prawnej wymagałoby zastanowienia nad konkretnymi kwestiami formalnymi, obejmującymi
w szczególności takie zagadnienia jak rejestrowanie i ewidencjonowanie (oraz przypisanie
do właściwego typu rejestru), a także określenie momentów „narodzenia i śmierci” AI.
Biorąc pod uwagę opcję, w której sztuczna inteligencja zawsze będzie od kogoś zależna,
co oznacza, że teoretycznie w każdym momencie można by ją wyłączyć lub włączyć,
to czy tego typu działania należy traktować jako śmierć czy uśpienie AI? I kto wówczas
odpowiadałby za podjęte aktywności i ich konsekwencje obszarze prawa administracyjnego
i cywilnego?
W kwietniu 2020 r. do kwestii odpowiedzialności za systemy sztucznej inteligencji
oficjalnie odniosła się Komisja Prawna Parlamentu Europejskiego, publikując „Projekt
sprawozdania z zaleceniami dla Komisji w sprawie systemu odpowiedzialności cywilnej
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
484
Zob. M. Chojnowski, Kto wdrożył, niech odpowiada. Unijny projekt regulacji SI, [on-line],
sztucznainteligencja.org, 18.05.2020, https://www.sztucznainteligencja.org.pl/kto-wdrozyl-niech-odpowiada-
unijny-projekt-regulacji-si/ (29.11.2020).
223
maksymalną wysokość odszkodowania w przypadku spowodowania śmierci lub uszczerbku
na zdrowiu (ma ona wynosić 10 mln euro) oraz rekompensaty za straty materialne
(maksymalnie 2 mln euro za jedno zdarzenie).
Z kolei podmioty wdrażające systemy sztucznej inteligencji spoza grupy wysokiego
ryzyka zostaną objęte odpowiedzialnością na zasadzie winy. Oznacza to, że firmy nie będą
ponosić odpowiedzialności, jeżeli udowodnią, że szkoda nie powstała w wyniku ich działań.
Niezależnie od klasy systemu AI, z odpowiedzialności za wywołane przez niego szkody
nie będzie zwalniało uznanie systemu za autonomiczny485. Utworzenie stabilnych ram
prawnych w obszarze AI w Unii Europejskiej ma nie tylko zapewnić poszkodowanym prawo
do roszczeń odszkodowawczych, ale także przyczynić się do sukcesu technologii rozwijanych
i upowszechnianych w Europie. Podnoszenie poziomu ich bezpieczeństwa wpłynie bowiem
pozytywnie na poziom zaufania bezpieczeństwa do tworzących je podmiotów i może
skutkować powszechną adaptacją narzędzi wykorzystujących sztuczną inteligencję.
Coraz więcej pytań pojawiających się licznych w dyskusjach o obecnych i przyszłych
zastosowaniach sztucznej inteligencji skupia się na dylematach etycznych, pozostających
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
przez wiele lat domeną rozważań czysto teoretycznych. Rosnąca świadomość badaczy,
twórców, ale i użytkowników AI sprawia, że coraz częściej odchodzi się od stricte technicznej
strony rozważań nad jej naturą, kładąc coraz większy nacisk na relację człowiek-sztuczna
inteligencja. W obliczu dynamicznego rozwoju nowych technologii, w tym AI, jej badacze
oraz twórcy już teraz muszą decydować jak aplikacje i urządzenia będą postępowały
w nieoczywistych, niejednoznacznych moralnie sytuacjach. Dostrzec można również
narastającą presję społeczną, aby sztuczna inteligencja była zarówno bezpieczna, jak i etyczna
dla ludzi. W toczonych dyskusjach podkreśla się bowiem, że to technologia ma służyć
człowiekowi, a nie odwrotnie. Takie podejście daje szansę na to, że AI wesprze ludzi
w rozwiązywaniu zarówno obecnych, jak i przewidywanych problemów świata.
Najpowszechniej znany dylemat etyczny związany z AI to kwestia wykorzystania
jej możliwości w autonomicznych pojazdach. Najczęściej powtarzane pytanie dotyczy
zachowania pojazdu w sytuacji, kiedy na trasie napotka przeszkodę (np. przechodnia) i będzie
musiał wybierać pomiędzy bezpieczeństwem swojego pasażera a innych uczestników ruchu.
Nawet jeśli spółki motoryzacyjne nie chciałyby pozostawiać tej decyzji samym pojazdom,
tylko np. zatrudniłyby etyków rozstrzygających tego typu dylematy, to nadal problematyczna
pozostaje kwestia ewentualnych kryteriów i wartości, na które człowiek miałby się powołać
ustanawiając wytyczne i reguły dla systemów. Kolejne wątpliwości rodzi kwestia
odpowiedzialności za wypadek takiego samochodu. Niezależnie od proponowanych
odpowiedzi, wiadomym jest, że sztuczna inteligencja kierująca pojazdem, sterująca bronią
485
Ibidem.
224
autonomiczną lub nawet porównująca kompetencje kandydatów w programie rekrutacyjnym
proponuje człowiekowi określone decyzje, ale to człowiek będzie ponosił
ich konsekwencje486. To trudne moralnie zagadnienie potęguje dodatkowo fakt, że etykę
do AI będą implementować ludzie – przedstawiciele różnych kultur i światopoglądów,
wyznający odmienne wartości moralne. Ciężko będzie zatem ustalić spójną i jednolitą wersję
etyczną.
Obecnie aplikacje i narzędzia zasilane sztuczną inteligencją na postawie analiz
dostępnych materiałów dokonują profilowania osób, których danymi dysponują. Możliwości
te są szeroko wykorzystywane choćby w branży finansowej – dzięki nim banki prowadzą
analizy wiarygodności kredytowej swoich klientów. Odnotowano już przypadki, kiedy
algorytm w wyraźny sposób dyskryminował określone grupy społeczne, proponując
m.in. osobom samotnie wychowującym dzieci kredyty na niekorzystnych warunkach
– z uwagi na to, że przewidywał ich zagrożenie utratą pracy i związanymi z tym trudnościami
ze spłatą zawartych zobowiązań. Zaprojektowane w ten sposób aplikacje wzbudzają
wątpliwości etyczne – ich przeciwnicy oczekują od człowieka współpracującego z maszyną
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
innych decyzji, niż zasugerowane przez algorytmy, które uczą się na „skrzywionych danych
statystycznych”487. W tym kontekście główne zarzuty kierowane pod adresem systemów
opartych na AI to powielanie stereotypów i pogłębianie podziałów społeczeństwa488.
Tymczasem eksperci przewidują, że w niedalekiej przyszłości, sztuczna inteligencja
będzie w dużo szerszym zakresie wspierać decyzje człowieka w jeszcze bardziej
odpowiedzialnych, a jednocześnie wrażliwych obszarach, co może skutkować zwiększeniem
skali dyskryminacji i wykluczeń. Za obszary szczególnie wrażliwe można uznać w tym
kontekście medycynę i sądownictwo. Z jednej strony bowiem wykorzystanie AI
w diagnostyce medycznej lub też do rozstrzygania sporów sądowych zwiększa szansę
na podejmowanie bardziej trafnych diagnoz i ferowanie bardziej sprawiedliwych wyroków,
co jest możliwe dzięki analizie wielu danych. Z drugiej jednak strony zrozumiałe są obawy
społeczeństwa, że wszelkie błędy algorytmu lub niedopatrzenie człowieka nadzorującego jego
działanie mogą skutkować podjęciem błędnej decyzji, której skutki odczuwalnie wpłyną
na zdrowie i życie ludzi. W tych branżach niezbędna jest zatem wiedza dotycząca wielu ryzyk
i zapewnienie optymalnych, sprawdzonych rozwiązań. Należy również mieć świadomość,
że pojawią się osoby, które odmówią korzystania z upowszechniających się rozwiązań
wykorzystujących AI w najbardziej wrażliwych sferach życia społecznego, gdzie głównym
486
Zob. THINKTANK, Iloraz sztucznej inteligencji. Potencjał sztucznej inteligencji w sektorze publicznym,
Warszawa 2020, s. 27.
487
Ibidem, s. 29.
488
Zob. E. Pluta, Etyczna sztuczna inteligencja. Czy etykę można zaprogramować?, [on-line], swps.pl, 08.2020,
https://swps.pl/strefa-psyche/blog/relacje/22399-etyczna-sztuczna-inteligencja-czy-etyke-mozna-zaprogramowac
(08.12.2020).
225
podmiotem decyzyjnym pozostaje obecnie człowiek (lekarz czy sędzia) i z myślą o nich
trzeba wypracować alternatywne metody realizacji określonych usług.
W odpowiedzi na zaprezentowane dylematy, na świecie powstają już pierwsze
regulacje etyczne, które nakłaniają projektantów, konstruktorów i użytkowników sztucznej
inteligencji do przestrzegania określonych wartości przy planowaniu, tworzeniu
i wykorzystywaniu systemów AI. W opublikowanych w 2020 r. przez Komisję Europejską
„Wytycznych w zakresie etyki dotyczące wiarygodnej sztucznej inteligencji” sformułowano
cztery kluczowe zasady etyczne, których przestrzeganie warunkuje rzetelne opracowywanie,
wdrażanie i wykorzystywanie systemów AI. Określono je mianem imperatywów etycznych
podkreślając, że specjaliści w dziedzinie sztucznej inteligencji zawsze powinni dążyć
do ich przestrzegania. Zasady te obejmują:
poszanowanie autonomii człowieka,
zapobieganie szkodom,
sprawiedliwość,
możliwość wyjaśnienia489.
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
489
Wytyczne w zakresie etyki dotyczące godnej zaufania sztucznej inteligencji, Komisja Europejska, Bruksela
2019, s. 14-16.
226
należy zapewnić ich brak podatności na wykorzystanie w złym zamiarze. Przy projektowaniu,
opracowywaniu i wdrażaniu rozwiązań AI wymagane jest uwzględnienie potrzeb osób
wymagających szczególnego traktowania (dzieci, osób starszych i niepełnosprawnych)
oraz zwrócenie uwagi na możliwe sytuacje, w których wykorzystanie AI powodowałoby
lub nasilało asymetrię w relacjach, np. pomiędzy pracodawcami i pracownikami czy władzą
a obywatelami. Zapobieganie szkodom uwzględnia również kwestie ochrony środowiska
naturalnego i wszystkich żyjących istot.
Zasada sprawiedliwości oznacza, że opracowywanie, wdrażanie i wykorzystywanie
systemów sztucznej inteligencji musi przebiegać w sposób sprawiedliwy, zarówno
w wymiarze materialnym, jak i proceduralnym. Wymiar materialny wiąże się z obowiązkiem
zapewnienia równego i sprawiedliwego podziału korzyści i kosztów oraz wolności jednostek
i grup od stronniczości, stygmatyzacji i dyskryminacji. Stosowanie tych wytycznych
w procesie projektowania i implementacji AI podnosi szanse na zwiększenie sprawiedliwości
społecznej, zwłaszcza kiedy idzie w parze ze wspieraniem równych szans w zakresie dostępu
do wiedzy, edukacji, usług, towarów i technologii. Z kolei proceduralny wymiar
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
490
W lutym 2017 r. Komitet Etyczny Społeczeństwa Japońskiego wydał zalecenia w zakresie etyki AI, ze
szczególnym uwzględnieniem zaangażowania publicznego.
227
Kanadę491 czy Singapur492. Pomimo, że wdrażanie rekomendacji etycznych w obszarze AI
nadal jest na etapie początkowym, to coraz więcej środowisk (państw, organizacji, firm
i instytucji) zdaje sobie sprawę, że przy pracy ze sztuczną inteligencją konieczne
jest uwzględnienie problemów natury moralnej. Jest to efekt m.in. narastających obaw
społecznych, że AI może wymknąć się spod kontroli człowieka, a nawet stać się główną
przyczyną zagłady ludzkości. Należy jednak podkreślić, że taki scenariusz uważa
za prawdopodobny jedynie marginalna część badaczy i twórców nowych rozwiązań
technologicznych lub – częściej – osoby, które nie rozumieją istoty AI. Z drugiej zaś strony
coraz więcej ludzi, nawet jeżeli nie do końca pojmuje specyfikę funkcjonowania sztucznej
inteligencji, to ma świadomość, że jest ona szeroko stosowana w przestrzeni publicznej,
choćby w kampaniach politycznych za pośrednictwem mediów społecznościowych,
m.in. dzięki możliwości wpływu na przebieg wyborów za pośrednictwem ogólnodostępnych
danych. Dzięki temu rośnie świadomość zagrożeń będących efektem nieuprawnionego
wykorzystywania danych osobowych – dużą rolę w jej podniesieniu wśród obywateli
UE wprowadziło rozporządzenie RODO493. To pokazuje, że jednym z kluczowych
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
491
W listopadzie 2017 r. Rząd Kanady ogłosił program AI&Society (sztuczna inteligencja i społeczeństwo),
ukierunkowany na wsparcie badań w obszarze spraw ekonomicznych, społecznych i filozoficznych.
492
W sierpniu 2018 r. Minister Komunikacji Singapuru powołał Komitet Doradczy w zakresie aspektów
etycznych AI i danych.
493
Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r. w sprawie
ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu
takich danych oraz uchylenia dyrektywy 95/46/WE (ogólne rozporządzenie o ochronie danych).
228
prowadzenie badań i rozwój działalności produkcyjnej w dziedzinie robotów. Takie działanie
może przyciągać start-upy i wymiernie przekładać się na pozycję państwa je oferującego
w obszarze rozwoju AI. Ważne jest również zapewnienie wzajemnego, transgranicznego
uznawania standardów technicznych oraz reguł interoperacyjności systemów AI,
a także stworzenie bezpiecznych warunków dla międzynarodowych transferów
technologicznych. Jeżeli chodzi o efektywne wdrożenie sztucznej inteligencji do biznesu,
to warto zauważyć, że kwestia ta odnosi się zarówno do dostawców rozwiązań AI, jak
również do przedsiębiorców, którzy chcą z tej technologii korzystać. Pierwsza grupa powinna
gromadzić doświadczenie w konkretnych branżach – celem programistów i inżynierów AI
jest dostosowanie oferowanej technologii do potrzeb biznesu i korzyści związane
z wdrażaniem rozwiązań na coraz większą skalę. Odpowiednie uzasadnienie biznesowe
stanowi bowiem jeden z istotniejszych czynników sukcesu dla firm działających w sferze
AI494. Ważnym elementem jest również poprawienie wciąż niedoskonałej technologii –
głównie w zakresie rozumienia poleceń człowieka przez maszynę i udzielania precyzyjnej
odpowiedzi na zadane pytanie. W odniesieniu do organizacji korzystających z AI należy
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
natomiast zauważyć, że potencjał przyszłych zmian jest bardzo duży – w skali globalnej
widać konkurencyjność nowych firm, korzystających z rozwiązań AI, w stosunku
do podmiotów od dawna istniejących na rynku, ale bazujących na standardowych
technologiach. Przebudowa dotychczasowych modeli biznesowych przedsiębiorstw
i włączenie w te procesy sztucznej inteligencji będzie wymagało od organizacji działań
obejmujących495: opracowanie biznesowego uzasadnienia dla wdrażania AI, stworzenie
ekosystemu danych, ocenę zasobów i prawdopodobnych modeli wdrażania, zintegrowanie AI
z podstawowymi procesami biznesowymi firmy i zapewnienie dobrego kontaktu człowieka
z maszyną, a także zadbanie o otwartość kultury organizacyjnej i szkolenia dla pracowników,
tak aby szybko i skutecznie reagować na ich obawy związane z rozwijaniem i implementacją
narzędzi zmieniających procesy i automatyzujących poszczególne czynności.
Jednym z obszarów gospodarki, w której pojawiają się dylematy związane
z prognozowanym wykorzystaniem sztucznej inteligencji, jest inżynieria produkcji. Głównym
wyzwaniem w tym aspekcie jest możliwość samodzielnego podejmowania decyzji przez
maszynę przy jednoczesnym braku osobowości prawnej. Jak wskazuje
Artur Wymysłowski496, generuje ona problemy o charakterze prawnym (np. trudności
494
Zob. Rewolucja AI. Jak sztuczna inteligencja zmieni biznes w Polsce, [on-line] mckinsey.com, 2017,
https://www.mckinsey.com/pl/~/media/McKinsey/Locations/Europe%20and%20Middle%20East/Polska/Raport
y/Rewolucja%20AI%20Jak%20sztuczna%20inteligencja%20zmieni%20biznes%20w%20Polsce/Raport-
AI_Forbes_PL.pdf (20.10.2020).
495
Zob. Ibidem, s. 36-38.
496
Zob. A. Wymysłowski, Wyzwania inżynierii produkcji w ramach koncepcji rozwoju przemysłu 4.0, [w:] B.
Pretkiel, J. Czapla, J. Barciński, (red.), Perspektywy wdrożenia sztucznej inteligencji, zmiany normatywne,
społeczne i ekonomiczne, [on-line], Instytut Sienickiego, 2020, https://instytut-sienickiego.pl/wp-
229
w określeniu odpowiedzialności w sytuacji wystąpienia awarii lub nieszczęśliwego wypadku,
spowodowanego działaniem AI), ekonomicznym (określenie zasad ubezpieczenia i wypłaty
odszkodowań w przypadku wykorzystywania (lub odmowy korzystania) z narzędzi AI),
socjologicznym (zmiany sposobu myślenia społecznego o roli człowieka w procesie
produkcyjnym, możliwych sposobach pracy oraz zakresie świadczonych usług), społecznym
(zmierzenie się z wizją funkcjonowania części społeczeństwa w ramach bezwarunkowego
dochodu podstawowego), etycznym (ocena skutków decyzji podejmowanych przez AI)
oraz psychologicznym (kwestia wspólnego, niezakłóconego funkcjonowania człowieka
i sztucznej inteligencji). Biorąc pod uwagę, że głównie dzięki rozwojowi technologii
komputerowych znajdujemy się obecnie jako społeczeństwo na etapie rozwoju określanym
terminem społeczeństwa wiedzy497, a w efekcie na rynku pracy poszukiwani i dobrze opłacani
są pracownicy o wiedzy branżowej i pozabranżowej, co z kolei przekłada się na wydajność
pracy i wysoki poziom zaawansowania technologicznego nowych produktów, nie powinno
się rozważać możliwości wyhamowania rozwoju technologicznego, a zamiast tego skupić się
na poszukiwaniu najbardziej efektywnych i bezpiecznych form ich wykorzystania. Systemy
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
content/uploads/2020/05/Perspektywy-wdrożenia-sztucznej-inteligencji-zmiany-normatywne-społeczne-i-
ekonomiczne.pdf (20.10.2020).
497
Co oznacza, że wiedza, zasoby finansowe i środki produkcji są dostępne dla społeczeństwa i mogą być np.
sprzedawane lub wypożyczane, zaś właścicielami zakładów przemysłowych są przede wszystkim rozproszone
instytucje i grupy finansowe (np. jako posiadacze akcji giełdowych), które realizują procesy produkcyjne
poprzez zatrudnianie dyrektorów, inżynierów i pracowników, przy czym zarządzanie hierarchiczne zastępuje się
zarządzaniem procesowym.
230
ich wykonywania np. w chmurach obliczeniowych. Dodatkowo, przetwarzanie dużej ilości
danych i informacji, przy jednoczesnym utrzymaniu dokładności i precyzji w wykonywaniu
prostych, powtarzalnych czynności przez długi czas jest znacznie efektywniejsze, jeżeli
wykorzysta się w tych procesach systemy komputerowe, automaty, roboty i technologie AI.
Najbardziej realną prognozą jest zatem dalszy rozwój koncepcji Przemysłu 4.0, co może
przełożyć się na wzrost wydajności produkcji i efektywności pracy, wykreowanie nowych
modeli działalności biznesowej oraz stopniowe ukierunkowywanie działalności
na specjalizowane (dedykowane) produkty przemysłowe i usług498. Do osiągnięcia tego celu
niezbędne są w szczególności takie działania jak upowszechnianie zastosowania AI, dążenie
do utworzenia ogólnoświatowej sieci komputerowej i społecznościowej, budowa chmur
obliczeniowych i dużych baz danych czy tworzenie inteligentnych fabryk, maszyn
i produktów. W efekcie należy spodziewać się podniesienia poziomu bezpieczeństwa
ekonomicznego poprzez zapewnienie wzrostu produktu krajowego brutto. Do zwiększenia
poziomu bezpieczeństwa ekonomicznego może przyczynić się również upowszechnienie
zastosowania AI w inteligentnych systemach zarządzania, jednak pod warunkiem,
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
że organizacje, które zechcą czerpać korzyści z jej wykorzystania, skłonią się ku pozyskaniu
specjalistycznych umiejętności i kompetencji w takich obszarach jak informatyka,
matematyka, logika, statystyka i analiza dużych zbiorów danych. Istotnym trendem
rozwojowym systemów zarządzania jest również czerpanie wzorców z nauk biologicznych
(np. obliczenia membranowe), fizycznych czy mechaniki. Przełomowym wydarzeniem w tym
obszarze wydaje się być opracowanie komputera kwantowego, który umożliwia znaczne
zwiększenie wydajności – maszyna ta może prowadzić jednocześnie kilka etapów obliczeń
lub przeanalizować równolegle kilka wariantów rozwiązania określonego problemu. Eksperci
przewidują, że w najbliższych latach komputery kwantowe znajdą szerokie zastosowanie
w logistyce (jako fundament optymalizujący procesy dostaw) oraz finansach (gdzie posłużą
do określania kluczowych elementów ryzyka inwestycyjnego)499. To z kolei przyczyni się
do zwiększenia wartości organizacji stosujących te narzędzia na rynku międzynarodowym
oraz uzyskania przewagi konkurencyjnej nad przedsiębiorstwami zamkniętymi
na nowoczesne rozwiązania technologiczne.
W kontekście tematu prowadzonych rozważań mieści się również kwestia prognoz
dotyczących dalszego rozwoju i wykorzystania AI w obszarze cyberbezpieczeństwa. Sztuczna
inteligencja nie tylko wpłynie na procesy usprawniające działanie przedsiębiorstw
czy podniesie poziom ich ochrony, ale może także zmienić dotychczasowy katalog zagrożeń.
498
Zob. A. Wymysłowski, op. cit., s. 13-15.
499
Zob. W. Kulik, Co to jest komputer kwantowy? Oto podstawy, [on-line], benchmark.pl, 10.04.2020,
https://www.benchmark.pl/aktualnosci/co-to-jest-komputer-kwantowy-podstawy-wideo.html (19.01.2020).
231
Zdaniem ekspertów500 AI oraz uczenie maszynowe może przynieść wykładniczy wzrost
bezpieczeństwa teleinformatycznego, głównie poprzez zwiększenie odporności punktów
końcowych. Narzędzia bazujące na sztucznej inteligencji będą doskonalone, a możliwość
dostępu do coraz większego zestawu danych (zarówno historycznych, jak i generowanych
w czasie rzeczywistym), co sprawi, że zarządy firm będą dążyły do zwiększania budżetu
i wdrażania działań na rzecz sprawniejszego wykrywania zagrożeń z wykorzystaniem
nowoczesnych technologii. Istnieje niestety obawa, że na rozwoju nowoczesnych technologii
skorzystają także cyberprzestępcy, którzy zyskają możliwość ich zastosowania do omijania
systemów kontroli bezpieczeństwa i dokonywania ataków oraz włamań. Nowoczesne
rozwiązania zwiększą bowiem skuteczność analizy mechanizmów obronnych w celu
wyszukiwania ich słabych punktów, ale także umożliwią podłączanie się pod strumienie
przesyłanych danych i wykorzystywanie ich do prowadzenia dalszych ataków. AI może się
również stać narzędziem służącym poprzejmowania kont użytkowników – głównym
zagrożeniem w tym wymiarze jest to, że w obliczu rozwoju technologii IT hasła nie zapewnią
już wystarczającej ochrony danych, podobnie jak kody captcha. Z kolei coraz większa ilość
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
500
Zob. S. Gliwa, op.cit.
232
o selektywnym udostępnianiu ich określonym podmiotom w zamian za dostępność
konkretnych dóbr i usług.
Kolejnym przewidywanym trendem jest walka pomiędzy sztuczną inteligencją
wykorzystywaną do ataku oraz stosowaną do ochrony danych, systemów i bezpieczeństwa
organizacji. W tym aspekcie istotne jest to, że o ile atakujący koncentruje się jedynie
na znalezieniu luki w zabezpieczeniach, to ochrona musi skupić się dodatkowo na ich
wyeliminowaniu i uniemożliwieniu powstawaniu kolejnych niebezpiecznych punktów
dostępu.
Warto również wspomnieć o perspektywach dalszego upowszechniania rozwiązań
bazujących na AI w sferze bezpieczeństwa militarnego. O stałym zainteresowaniu
wykorzystania sztucznej inteligencji do celów wojskowych świadczą działania podejmowane
przez Stany Zjednoczone (współpraca z Google w zakresie Projektu Maven,
czyli wykorzystania oprogramowania przetwarzającego obraz rejestrowany przez drony
bojowe będące na wyposażeniu amerykańskiej armii w celu skuteczniejszego rozpoznawania
konkretnych obiektów na obrazie rejestrowanym z dużej wysokości), Chiny (projektowanie,
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
501
Zob. R. Morrison, Cyborg super soldiers: US Army report reveals vision for deadly ‘machine humans’ with
infrared sight, boosted strength and mind-controlled weapons by 2050, „Daily Mail” [on-line], 29.12.2019,
https://www.dailymail.co.uk/sciencetech/article-7738669/US-Military-scientists-create-plan-cyborg-super-
soldier-future.html (18.01.2021).; por. Chiny prowadzą testy na ludziach. Tworzą superżołnierza, [on-line],
o2.pl, 06.12.2020, https://www.o2.pl/informacje/chiny-prowadza-testy-na-ludziach-tworza-super-zolnierza-
658335818 7981376a (18.01.2021).
233
bezzałogowych może pełnić rolę odstraszającą sprawiając, że przeciwnik odstąpi od walki,
z drugiej zaś – jeżeli zorientuje się, że w obrębie danego obiektu nie znajduje się człowiek,
może przeprowadzić planowane uderzenie zgodnie z wcześniejszym założeniem. Należy mieć
również na uwadze, że jeśli dana operacja będzie prowadzona przez sztuczną inteligencję,
to prawdopodobnie zostanie ona w pełni zrealizowana w założonym zakresie, ale skutkiem
ubocznym może być zaognienie sytuacji w innym obszarze. W przypadku braku kontroli
człowieka nad AI może dojść również do sytuacji, w której autonomiczny system użyje siły
tam, gdzie człowiek nie planował tego robić502. Możliwe negatywne konsekwencje
uprawdopodabnia również fakt, że decyzje podejmowane przez AI są natychmiastowe,
w związku z czym niespodziewana eskalacja konfliktu również może nastąpić w chwilę
po przeprowadzonym ataku. Nowe wyzwania stwarza również możliwość zaangażowania
sztucznej inteligencji w procesy decyzyjne – jednym z nich jest niebezpieczeństwo związane
z wprowadzeniem dowódców wojskowych w błąd, co może przełożyć się na wywołanie
chaosu i niepewności na polu bitwy. Sztuczna inteligencja postrzega i interpretuje bowiem
określone działania w sposób odmienny od percepcji człowieka, co może skutkować różnymi
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
502
Zob. Wong Y.H. (et al.), Deterrence In the Age of Thinking Machines, [on-line], RAND, 2020,
https://www.rand.org/pubs/research_reports/RR2797.html (02.06.2020).
503
O możliwościach zastosowań AI do eliminacji określonego celu może świadczyć akcja z 27 listopada 2020
r., kiedy w Teheranie doszło do zabójstwa irańskiego naukowca nuklearnego, Mohsena Fakrizadeha. Zginął on
w wyniku wystrzału 13 pocisków z auta sterowanego z poziomu satelity, wyposażonego również we
wspomagane przez AI systemy namierzania i przybliżania celu503. Jednocześnie system sterowania bronią był
tak precyzyjny, że żona naukowca, siedząca w odległości ok. 25 cm od niego, nie odniosła obrażeń fizycznych.
234
przygotowań do „wojny przyszłości”504. W jego opinii, postępująca cyfrowa rewolucja może
wywrzeć bardzo duży wpływ zarówno na znaną dotychczas rolę państwa, biznesu
czy społeczeństwa. Duże znaczenie mają w tym obszarze działania sił wywiadowczych
i kontrwywiadowczych państwa, które z jednej strony powinny w jak największym stopniu
wykorzystać potencjał nowych narzędzi i rozwiązań bazujących na AI, a z drugiej –
odpowiednio zabezpieczyć zasoby i informacje strategiczne dla państwa, do których mogą
uzyskać dostęp podmioty niepożądane, bazując na tych samych, nowoczesnych
technologiach. Przedstawione kierunki zmian pozwalają wysunąć wniosek, że sztuczna
inteligencja w sferze militarnej oznacza nie tylko powstanie i upowszechnienie autonomicznej
broni czy robotów bojowych, ale także automatyzację całego teatru działań. Konieczne
wydaje się zatem określenie w jakim stopniu nowoczesna technologia może wspomóc,
ale i ograniczyć rolę człowieka w bezpośrednich operacjach wojennych, w tym także
w kluczowych dla ich powodzenia procesach decyzyjnych.
Dalszy rozwój technologiczny znajdzie również odzwierciedlenie w sektorze
bezpieczeństwa zdrowotnego. W miarę rozwoju procesów przetwarzania danych
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
504
Zob. S. Palczewski, Sztuczna inteligencja zmieni dynamikę konfliktu. Wojsko stanie przed nowymi
zagrożeniami, 10.02.2020, cyberdefence24.pl, https://www.cyberdefence24.pl/sztuczna-inteligencja-zmieni-
dynamike-konfliktu-wojsko-stanie-przed-nowymi-zagrozeniami (19.11.2020).
235
na uwadze, że tak jak w innych obszarach bezpieczeństwa, tak i w zakresie bezpieczeństwa
zdrowotnego upowszechnienie nowych rozwiązań technologicznych obok szans rozwoju
tej branży generuje także nowe wyzwania i zagrożenia. Np. w związku z tym, że algorytmy
oparte na metodach AI na tyle sprawnie analizują ogromne ilości danych, pojawia się obawa,
iż dokonane przez nie odkrycia będą poprawne i weryfikowalne, ale niezrozumiałe
dla człowieka. Dyskusje na ten temat prowadzone są m.in. w dziedzinach, w których skok
technologiczny przyczynił się do pozyskania olbrzymich ilości danych, tj. w biologii
molekularnej czy fizyce cząstek elementarnych. Dlatego istotne jest zapewnienie możliwości
interpretowania metod i wyników wygenerowanych przez algorytm. Jak wskazuje
Jakub Nalepa, „(…) AI może służyć pomocą, wskazując obszary danych, które są
potencjalnie interesujące i mogą prowadzić do jakiegoś odkrycia. Może wręcz odkryć coś,
czego sami nie zdołalibyśmy zauważyć. Ale nawet takie podpowiedzi trzeba poddać
interpretacji, zastanowić się, skąd się wzięły…”505. Inną istotną przeszkodę stanowią
utrudniania komunikacji i współpracy pomiędzy różnymi wykorzystywanymi systemami.
Wyzwaniem w tym zakresie jest zatem zapewnienie współdziałania rozumianej
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
505
Zob. K. Jałochowski, Człowiek zdecyduje, „Polityka”, 2020, nr 47, s. 20.
236
wykorzystywanie i przekazywanie danych, a także stały rozwój algorytmów staje się zatem
elementarną kompetencją poszczególnych państw i ich gospodarek. Narodową strategię
rozwoju AI posiada już wiele państw, przy czym najbardziej precyzyjnie mechanizmy
wsparcia jej rozprzestrzeniania zaprezentowała Kanada, Niemcy i Francja.
Należy zauważyć, że również organizacje międzynarodowe coraz częściej podejmują
działania ukierunkowane na opracowanie strategii dotyczących rozwoju sztucznej inteligencji.
Angażują się one również w tworzenie konkretnych rekomendacji i wytycznych w obszarze
wdrażania rozwiązań AI w zróżnicowanych sektorach bezpieczeństwa. Za główny motyw
podejmowanych przez nie działań należy uznać potrzebę opracowania jednolitych, spójnych
ram, które mogą nie tylko przyczynić się do zwiększenia korzyści społecznych płynących
z upowszechniania sztucznej inteligencji, ale także pozwolą ustalić kluczowe zagrożenia,
ryzyka i wyzwania, których zdefiniowanie jest niezbędne dla bezpiecznego rozwoju
tej dziedziny nauki.
W maju 2019 r. Organizacja Współpracy Gospodarczej i Rozwoju (OECD)
opublikowała pierwsze międzyrządowe standardy rozwoju sztucznej inteligencji. Intencją
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
rekomendacji jest wsparcie innowacji i budowa zaufania do AI, głównie poprzez promowanie
odpowiedzialnego zarządzania i poszanowania praw człowieka oraz wartości
demokratycznych. Dokument tworzą dwie sekcje – pierwsza przeznaczona jest dla twórców
rozwiązań z zakresu sztucznej inteligencji, drugą zaś skierowano do decydentów,
odpowiedzialnych za tworzenie krajowych polityk506. Pierwsza sekcja określa pięć
fundamentalnych zasad odpowiedzialnego zarządzania sztuczną inteligencją:
rozwój AI dla dobrobytu i zrównoważonego rozwoju – sztuczna inteligencja powinna być
wykorzystywana do zapewniania dobrobytu ludzkości i przynoszenia korzyści planecie,
a rozwój technologii nie może skutkować brakiem poszanowania środowiska naturalnego
i zaburzeniem idei zrównoważonego rozwoju;
koncentrację na wartościach i człowieku – twórcy sztucznej inteligencji powinni
respektować prawa człowieka, praworządność i wartości demokratyczne; systemy
autonomiczne powinny mieć zabezpieczenia, które umożliwią ludziom przejęcie kontroli
nad maszyną w sytuacji zagrożenia;
transparentność – systemy AI powinny być projektowane w sposób przejrzysty
i umożliwiający uzyskanie przez człowieka informacji o sposobach działania systemu
oraz odtworzenie logiki podejmowania decyzji przez algorytm, jak również poznanie
czynników mających wpływ na tę decyzję; podkreślono również, że użytkownik musi
mieć prawo zakwestionowania decyzji podjętej przez automat;
506
Zob. OECD, Recommendation of the Council on Artificial Intelligence, 2019.
237
bezpieczeństwo – bezpieczeństwo użytkownika powinno być zapewniane już na etapie
projektowania rozwiązań AI, tak aby przeciwdziałać wykorzystaniu sztucznej inteligencji
do nieodpowiednich celów – wymaga to systematycznej analizy ryzyka na każdym etapie
życia maszyny oraz możliwości wglądu we wcześniejszą historię decyzji podejmowanych
przez automat;
odpowiedzialność – dokument wskazuje, że odpowiedzialność za prawidłowe
funkcjonowanie systemów sztucznej inteligencji oraz przestrzeganie zasad etycznych
ponoszą ich twórcy507.
W drugiej sekcji rekomendacji sformułowano zasady dla decydentów, tworzących
narodowe polityki i strategie, w tym regulujące również zagadnienia rozwoju
i upowszechniania AI. Do tego katalogu zaliczono:
inwestowanie w badania i rozwój – państwa zachęca się do rozważenia długofalowych
inwestycji w badania i rozwijanie AI, jak również do tworzenia optymalnych warunków
dla sektora prywatnego, aby również i w tym obszarze inwestowano w technologię godną
zaufania, etyczną i odpowiedzialną społecznie;
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
507
Zob. J. Balcewicz, Etyczna sztuczna inteligencja – rekomendacje OECD, [on-line], NASK, 30.05.2019,
https://cyberpolicy.nask.pl/etyczna-sztuczna-inteligencja-rekomendacje-oecd/ (27.11.2020).
238
zwiększających bezpieczeństwo pracowników, rozwój przedsiębiorczości
i maksymalizujących wydajność;
współpracę międzynarodową na rzecz budowy etycznej i godnej zaufania AI – zarówno
wewnętrzną, tj. w ramach państw członkowskich OECD, jak również zewnętrzną –
z innymi organizacjami; międzysektorowe i międzynarodowe inicjatywy służą bowiem
wymianie wiedzy i dobrych praktyk, promując jednocześnie rozwój standardów
technicznych dla nowych systemów. OECD powołała Komitet ds. Polityki Cyfrowej,
prowadzący prace nad sztuczną inteligencją we współpracy m.in. z UNESCO i Radą
Europy.
Postępujący rozwój nowoczesnych technologii, obejmujących również rozwiązania
bazujące na sztucznej inteligencji, wiąże się z głębokimi zmianami społecznymi. Należy
zapewnić, że technologia ta, jako dostrzegalny element codziennego życia człowieka, będzie
tworzona z poszanowaniem obywatelskich praw i wartości. Dlatego też temat etycznych
aspektów rozwoju AI, podejmowany jest na licznych forach międzynarodowych.
Spójne działania w obszarze wypracowania regulacji dotyczących etycznego
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
z tej dziedziny:
konieczność zwiększenia zdolności technologicznej i przemysłowej UE
oraz wykorzystania AI w różnych dziedzinach gospodarki – głównie poprzez zwiększenie
wydatków na AI, zarówno w sektorze prywatnym, jak i publicznym;
przygotowanie się do zmian społeczno-gospodarczych wynikających z rozwoju AI
(zwłaszcza w zakresie zmian na rynku pracy i konieczności tworzenia nowych
schematów edukacji);
przygotowanie adekwatnych ram prawnych i etycznych dla rozwoju sztucznej
inteligencji, w tym regulujących kwestie odpowiedzialności za produkt.
Drugim dokumentem jest „Skoordynowany Plan dla Sztucznej Inteligencji”,
opublikowany 7 grudnia 2018 r.513 Komisja Europejska podjęła w nim siedem głównych
zagadnień, koncentrujących się przede wszystkim na współpracy państw członkowskich
UE w zakresie rozwoju AI w Europie. Obejmują one kwestie:
określenia wspólnego celu i podjęcia wysiłków na rzecz rozwijania sztucznej inteligencji;
partnerstwa i współpracy sektora prywatnego i publicznego oraz finansowania start-upów
i firm innowacyjnych w dziedzinie AI;
510
Zob. Parlament Europejski, Regulacje ws. sztucznej inteligencji: oczekiwania Parlamentu, [on-line],
europa.eu, 21.10.2020, https://www.europarl.europa.eu/news/pl/headlines/society/20201015STO89417/
regulacje-ws-sztucznej-inteligencji-oczekiwania-parlamentu (30.11.2020).
511
Komunikat Komisji do Parlamentu Europejskiego…, s. 7.
512
Zob. R. Babraj, Sztuczna inteligencja dla Europy, [on-line], NASK, 25.04.2018,
https://cyberpolicy.nask.pl/sztuczna-inteligencja-dla-europy/ (26.11.2020).
513
Zob. M. Wrzosek, Skoordynowany Plan dla Sztucznej Inteligencji, [on-line], NASK, 07.12.2018,
https://cyberpolicy.nask.pl/skoordynowany-plan-dla-sztucznej-inteligencji/ (26.11.2020).
240
wzmacniania wiarygodności sztucznej inteligencji i działających w oparciu o nią
rozwiązań technologicznych;
dostosowywania systemów i programów szkolnictwa do nowych wyzwań, związanych
z rozwojem AI;
budowy europejskiej przestrzeni wymiany danych, niezbędnej dla dalszego rozwoju AI
w Europie – jako jej fundament wskazano wspólną bazę danych obrazów
diagnostycznych z sektora zdrowotnego oraz wsparcie rozwiązań sztucznej inteligencji
w cyberbezpieczeństwie;
opracowania wytycznych dotyczących etyki rozwoju AI oraz zapewnienia ram prawnych
sprzyjających innowacjom;
bezpieczeństwa sztucznej inteligencji, rozpatrywanego w aspekcie: wspierania sektora
bezpieczeństwa rozwiązaniami AI, ochrony tej technologii przed atakami oraz próby
określenia potencjalnych nadużyć dotyczących nieuprawnionego wykorzystania AI.
Kluczowym elementem „Planu…” są zaprezentowane w nim ramy dla krajowych
strategii sztucznej inteligencji, do przyjęcia których zachęcono państwa członkowskie.
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
514
Zob. Wytyczne w zakresie etyki…, s. 6.
241
przejrzystość – zapewnienie identyfikowalności, wytłumaczalności i komunikacji
z użytkownikiem;
różnorodność, sprawiedliwość i brak dyskryminacji – w tym unikanie niesprawiedliwej
stronniczości, zapewnienie udziału zainteresowanych stron oraz dostępność, zgodnie
z zasadą projektowania dla użytku wszystkich;
dobrostan społeczeństwa i środowiska – zrównoważony charakter rozwoju, nienaruszanie
środowiska naturalnego, poszanowanie społeczeństwa i demokracji;
odpowiedzialność – możliwość kontrolowania, monitorowanie, minimalizacja
i zgłaszanie negatywnych skutków działania, możliwość wypracowania kompromisów
i dochodzenia roszczeń515.
27 listopada 2019 r. w przemówieniu podczas posiedzenia plenarnego Parlamentu
Europejskiego, Ursula von de Leyen – Przewodnicząca Komisji Europejskiej – podkreśliła,
że cyfrowy rozwój Europy jest jednym z priorytetów Komisji. Określiła także sześć
kluczowych celów, które mają sprawić, że w 2050 r. Unia Europejska stanie się
„pierwszoplanową potęgą w sektorze cyfrowym”. Wspomniane cele to:
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
515
Zob. Ibidem, s. 17-25.
516
Zob. Komisja Europejska, Speech by President-elect von der Leyen in the European Parliament Plenary on
the occasion of the presentation of her College of Commissioners and their programme, [on-line], europa.eu,
27.11.2019, https://ec.europa.eu/commission/presscorner/detail/en/SPEECH_19_6408 (18.01.2021).
242
Kwota ta została zadysponowana w szczególności na finansowanie projektów
ukierunkowanych na budowę i wzmacnianie superkomputerów i przetwarzania danych
w Europie, upowszechnianie AI w społeczeństwie i gospodarce Wspólnoty, zapewnianie
cyberochrony gospodarki cyfrowej, demokracji i społeczeństwa, wdrożenie cyfrowej
transformacji w administracji publicznej i usługach użyteczności publicznej, zapewnianie
dostępu przedsiębiorstw do nowych technologii i wiedzy, a także na zwiększanie umiejętności
cyfrowych obecnych i przyszłych pracowników na europejskim rynku pracy517.
Zarówno w dokumentach i regulacjach OECD, jak i Komisji Europejskiej pojawiają
się zbliżone postulaty. Dotyczą one przede wszystkim opracowania spójnych ram prawnych
i etycznych dla bezpiecznej i godnej zaufania sztucznej inteligencji, zwiększania zdolności
Europy w obszarze AI poprzez inwestowanie w badania i rozwój tej dziedziny,
a także podkreślania znaczenia bezpieczeństwa AI, głównie w obszarze ochrony przed
zagrożeniami, prognozowania potencjalnych nadużyć i monitorowania poziomu ryzyka
w tym zakresie.
Europejska strategia rozwoju sztucznej inteligencji odzwierciedla przekonanie,
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
517
Zob. Komisja Europejska, Budżet UE: Komisja proponuje inwestycje w wysokości 9,2 mld euro w pierwszy w
historii program w dziedzinie technologii cyfrowych, [on-line], europa.eu, b.r.,
https://ec.europa.eu/commission/presscorner/detail/pl/ IP_18_4043 (18.01.2021).
243
Inne wątki odnoszące się do wykorzystania sztucznej inteligencji poruszają przede wszystkim
agencje:
UNICRI (United Nations Interregional Crime and Justice Research Institute –
Międzyregionalny Instytut ONZ ds. Badań nad Przestępczością i Wymiarem
Sprawiedliwości) - w 2015 r. instytut ten uruchomił specjalny program dotyczący
sztucznej inteligencji oraz robotyki; jako kluczowy element zrównoważonego rozwoju
tego sektoru, UNICRI wskazuje kompleksowe podejście, obejmujące perspektywę
krajową, regionalną, międzynarodową, prywatną oraz publiczną. Podejście to znalazło
odzwierciedlenie w 2017 r., kiedy Instytut utworzył Centrum Sztucznej Inteligencji
i Robotyki, czyli forum dialogu w zakresie zarządzania nowymi rozwiązaniami
technologicznymi, pozwalające na monitorowanie światowego poziomu rozwoju AI
przy jednoczesnym promowaniu współpracy międzynarodowej w zakresie wzajemnej
wymiany technologicznej oraz dążeniu do polityki zapewniającej bezpieczeństwo
i rozwój. Oprócz możliwości użycia sztucznej inteligencji w broni autonomicznej,
wśród głównych zagrożeń wynikających z jej upowszechnienia eksperci UNICRI
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
244
W listopadzie 2019 r. w podczas 40. sesji Konferencji Generalnej UNESCO
zadecydowano o podjęciu prac nad aktem prawa międzynarodowego w formie rekomendacji,
odnoszącego się do etycznych aspektów dalszego rozwoju i możliwych zastosowań sztucznej
inteligencji. W jego projekcie, skierowanym do państw członkowskich ONZ 17 września
2020 r., Sekretariat UNESCO podkreślił znaczenie różnych zastosowań AI w kontekście
światowej pandemii COVID-19, przede wszystkim możliwości jej wykorzystania w takich
obszarach jak telemedycyna, zdalne nauczanie oraz prace badawcze nad szczepionką.
Jednocześnie wyrażono obawy, że nieznany obecnie potencjał AI sprawia, iż „maszyny
zaczną decydować za człowieka, podważą jego prawo do prywatności oraz narażą
użytkowników na manipulacje, naruszając podstawowe wolności i prawa człowieka ponieważ
ogromna ilość danych przetwarzanych każdego dnia stwarza poważne wyzwania dotyczące
poufności, poszanowania życia prywatnego, ryzyka powielania praktyk dyskryminacyjnych
oraz upowszechniania stereotypów”518. Aby zapobiec spełnieniu negatywnego scenariusza
i zapewnić, że sztuczna inteligencja będzie służyć wyłącznie dobru wspólnemu, eksperci
UNESCO proponują utworzenie solidnych zasad etycznych regulujących wykorzystanie
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
520
Zob. Fundacja Digital Poland, op. cit., s. 6-8.
521
Zob. Oxford Insights, Government Artificial Intelligence Readiness Index 2019, [on-line], Oxford Insights,
2020, https://www.oxfordinsights.com/ai-readiness2019 (30.11.2020).
246
federalnym, a także podkreśla potrzebę ustanowienia krajowych standardów oraz zwiększenia
poziomu edukacji w tym zakresie. Nie sprecyzowano natomiast, jak będzie wyglądać
realizacja tych zaleceń, nie określono również bliższych terminów ich wdrożenia.
W strategicznym wymiarze wdrażania i powszechnego stosowania rozwiązań
bazujących na nowoczesnych technologiach oraz sztucznej inteligencji wyraźnie wyróżniają
się Chiny. Pekin postawił sobie bowiem za cel globalną dominację w tym obszarze
w perspektywie do 2030 r.
Poszczególne państwa Unii Europejskiej prowadzą również współpracę w dziedzinie
sztucznej inteligencji. Najszerszą platformą współpracy podmiotów Wspólnoty w tym
zakresie jest European AI Alliance. Sojusz ten zachęca podmioty takie jak przedsiębiorstwa,
organizacje konsumenckie, instytucje naukowe, związki zawodowe czy organizacje społeczne
do aktywnego uczestnictwa w procesie kształtowania europejskiej polityki dotyczącej AI,
będącego formą wsparcia prac ekspertów wysokiego szczebla w zakresie wytycznych
związanych ze sztuczną inteligencją. Dyskusje i wymiana informacji w ramach European AI
Alliance odbywają się na forum internetowym, gdzie uczestnicy publikują swoje
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
522
Zob. A. Zagórna, Włoska strategia: 1 mld euro na SI, [on-line], sztucznainteligencja.org, 01.10.2020,
https://www.sztucznainteligencja.org.pl/wloska-strategia-1-mld-euro-na-si/ (18.01.2021).
247
i kulturowej ewolucji Europy. Dzięki temu możliwe będzie np. obejrzenie zabytkowych
obiektów w różnych momentach ich historii. W prace nad projektem zaangażowały się m.in.
europejskie biblioteki narodowe, archiwa państwowe, muzea, ośrodki badawcze
i akademickie, przedsiębiorstwa oraz instytucje rządowe. W mniejszej skali swoją historię
rekonstruują i planują odtwarzać również pojedyncze miasta, jak Wenecja (od 2012 r.), Paryż,
Budapeszt, Jerozolima czy Amsterdam. Współpracę europejskich miast w obszarze rozwoju
AI można również obserwować na przykładzie projektu AI4CITIES, który 1 stycznia 2020 r.
wystartował w wiodących miastach klimatycznych kontynentu, tj. w Kopenhadze,
Helsinkach, Amsterdamie, Tallinie, Paryżu i Stavanger. Inicjatywa ta została zaplanowana
na 3 lata, a jej celem jest opracowanie skutecznych, przełomowych rozwiązań, które dzięki
wykorzystaniu sztucznej inteligencji pomogą miastom osiągnąć neutralność węglową523.
Priorytetem w tym zakresie ma być zastosowanie AI w transporcie miejskim oraz branży
energetycznej, ponieważ te obszary generują największą emisję gazów cieplarnianych
w miastach.
Obecnie w światowej, publicznej debacie dotyczącej dalszego rozwoju
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
523
Zob. THINKTANK, op. cit., s. 41.
248
Filmy i książki science fiction, media oraz szeroko rozumiana popkultura podsycają
myślenie człowieka o sztucznej inteligencji jako o istocie niemal boskiej, która z jednej strony
może rozwiązać wszystkie problemy współczesnego świata, ponieważ znacznie przewyższy
zarówno zdolności umysłowe człowieka, jak i jego ograniczenia fizyczne, z drugiej zaś –
będzie dążyła do eliminacji ludzkości jako zbędnego, a wręcz szkodliwego ogniwa w procesie
udoskonalania świata. Co ciekawe, zgodnie z tymi wyobrażeniami, AI będzie bazować
na pozbawionej emocji, neutralnej i obiektywnej ocenie rzeczywistości, opartej
na dotychczasowych wydarzeniach, co tworzy dość negatywny obraz postrzegania ludzkości
przez nią samą. Skoro bowiem człowiek obawia się uznania przez sztuczną inteligencję
za element niepotrzebny i szkodliwy, to dlaczego nie dąży do zmiany tego wyobrażenia,
np. poprzez zmianę swojego postępowania? Niezależnie jednak od powyższych rozważań,
na chwilę obecną nie istnieje ani maszyna, ani aplikacja, ani system, który rozumie i odtwarza
zdolności umysłowe człowieka i zachodzące w jego mózgu procesy myślowe. Pomimo,
że istniejące algorytmy potrafią w sposób inteligentny rozwiązywać złożone i specjalistyczne
problemy, to i dziś, i w przyszłości za rozwój sztucznej inteligencji jest i będzie
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
250
Zakończenie
tej dziedziny nauki mogą się zmaterializować w każdym z jego wymiarów. Jeżeli chodzi
o celowe działanie człowieka, to za najbardziej prawdopodobne uważa się zastosowanie
sztucznej inteligencji w sposób nieetyczny w obszarze bezpieczeństwa militarnego
(gdzie jej rozwiązania mogą być wykorzystane do niekontrolowanego rozwoju
autonomicznej broni letalnej przy jednocześnie rozmytej, niedookreślonej
odpowiedzialności za jej wykorzystanie w trakcie konfliktu zbrojnego), informacyjnego
(w szczególności w obszarze dezinformacji i zagrożeń dla cyberbezpieczeństwa),
komunikacyjnego (dotyczą one głównie nieustalonej odpowiedzialności prawnej
związanej ze stosowaniem pojazdów autonomicznych i braku przejrzystości kryteriów
zapewniania bezpieczeństwa uczestników ruchu drogowego) oraz społecznego
(w społeczeństwie dostrzegalne są obawy dotyczące dehumanizacji pracy i wzrostu
bezrobocia).
Odnosząc się do szóstego szczegółowego problemu badawczego dotyczącego dylematów
etycznych związanych ze stosowaniem sztucznej inteligencji w dziedzinie
bezpieczeństwa należy stwierdzić, że o ile w chwili obecnej korzyści płynące
z wykorzystania jej rozwiązań w poszczególnych sektorach bezpieczeństwa w sposób
wymierny i zauważalny zwiększają jego poziom, o tyle wątpliwości etyczne koncentrują
się przede wszystkim na kwestiach związanych z nieuprawnionym wykorzystaniem AI
w celach bojowych oraz zagadnieniach związanych z ponoszeniem odpowiedzialności
za decyzje maszyn i systemów autonomicznych. W dyskursie społecznym podnoszona
jest również kwestia niekontrolowanego rozwoju superinteligencji, którą w świetle
254
przedstawionych rozważań należy jednak uznać za element pozostający, jak na razie,
w sferze długoterminowych prognoz.
Jeżeli chodzi o postawione hipotezy (główną i szczegółowe), to w wyniku
przeprowadzonych w procesie badawczym ich weryfikacji w odniesieniu do hipotezy
głównej potwierdzono, że sztuczna inteligencja stanowi czynnik, który w XXI wieku coraz
silniej oddziałuje na bezpieczeństwo państw, znajdując zastosowania w licznych jego
wymiarach, zaś wpływu tego nie można określić jako jednoznacznie pozytywnego
lub destrukcyjnego – wynika to zarówno z dynamicznego charakteru badań nad sztuczną
inteligencją, co przekłada się na ciągły rozwój tej dziedziny i doskonalenie jej narzędzi,
jak również z licznych wątpliwości związanych z etycznym i praktycznym wymiarem
jej funkcjonowania.
Ponadto, w odniesieniu do hipotez szczegółowych:
potwierdzono, że istotą współczesnego bezpieczeństwa jest zapewnienie jego podmiotom
możliwości przetrwania oraz rozwoju, rozumianego jako względnie swobodna realizacja
własnych interesów w otaczającym go środowisku przy wykorzystaniu pojawiających się
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
255
w poszczególnych wymiarach bezpieczeństwa, wiąże się zarówno z generowaniem
nowych szans, jak również z powstawaniem, nieznanych wcześniej wyzwań i zagrożeń;
obecnie wymierne, dostrzegalne korzyści wynikające z upowszechniania inteligentnych
rozwiązań w zróżnicowanych sferach bezpieczeństwa, obejmujące w szczególności
przyspieszenie procesu przetwarzania danych, skutkujące wsparciem procesu
decyzyjnego, jak również ułatwienia w wykonywaniu zadań trudnych, niebezpiecznych
lub powtarzalnych, przesłaniają potencjalne negatywne skutki tych działań, które mogą
zmaterializować się w przyszłości, w wyniku czego sztuczna inteligencja w kontekście
oddziaływania na bezpieczeństwo państwa traktowana jest raczej jako szansa
niż zagrożenie;
wraz z upowszechnianiem rozwiązań sztucznej inteligencji w globalnej przestrzeni
publicznej, zarówno państwa, jak i inne podmioty stosunków międzynarodowych
dostrzegają konieczność opracowania i wdrożenia adekwatnych przepisów dotyczących
uregulowania statusu prawnego sztucznej inteligencji, określenia odpowiedzialności za jej
działania, a także zapewnienia możliwości etycznego i bezpiecznego jej wykorzystania;
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
257
nią i tworzenia systemów (maszyn, aplikacji) spełniających oczekiwania zarówno
biznesowe, jak i społeczne;
możliwości budowy systemu oceny skuteczności i efektywności wdrażanych rozwiązań
z zakresu sztucznej inteligencji na potrzeby systemu bezpieczeństwa państwa.
Na koniec należy podkreślić, że sztuczna inteligencja ma pozytywny potencjał
w wielu obszarach bezpieczeństwa – począwszy od ochrony zdrowia i wsparcia
bezpieczeństwa ekonomicznego i społecznego, przez sfery bezpieczeństwa finansowego,
ekonomicznego, technologicznego i teleinformatycznego, aż po bezpieczeństwo militarne
i geopolityczne. Do pełnego jego wykorzystania niezbędne jest zapewnienie,
że beneficjentami tych korzyści nie staną się wyłącznie najbogatsze państwa
i przedsiębiorstwa świata. Postępujący rozwój technologiczny powinien bowiem niwelować
nierówności gospodarcze i społeczne, zamiast je pogłębiać. Tak sformułowany cel
jest możliwy do realizacji pod warunkiem respektowania zasad etycznych przez twórców
i użytkowników AI, dostosowania obowiązujących regulacji prawnych do nowych wyzwań
oraz działania w poszanowaniu praw człowieka oraz wartości demokratycznych. Niezbędne
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
jest także projektowanie nowych rozwiązań w taki sposób, aby zapewnić i umożliwić ludziom
zakwestionowanie decyzji podejmowanych przez system (lub maszynę) oraz zachowanie
kontroli człowieka nad sztuczną inteligencją.
258
Bibliografia
Odpowiedzialnego Rozwoju do roku 2020 (z perspektywą do 2030 r.), M.P. 2017, poz. 260.
10. Zarządzenie nr 162 Prezesa Rady Ministrów z dnia 9 października 2020 r. w sprawie Komitetu
Rady Ministrów do spraw Bezpieczeństwa Narodowego i spraw Obronnych, M.P. 2020, poz.
918.
11. Biała Księga Bezpieczeństwa Narodowego RP, Biuro Bezpieczeństwa Narodowego, Warszawa
2013.
12. Strategia Bezpieczeństwa Narodowego Rzeczypospolitej Polskiej 2020, Biuro Bezpieczeństwa
Narodowego, Warszawa 2020.
13. Strategia Bezpieczeństwa Narodowego Rzeczypospolitej Polskiej z 2014 r., Biuro
Bezpieczeństwa Narodowego, Warszawa 2014.
14. Koncepcja Obronna Rzeczypospolitej Polskiej, Ministerstwo Obrony Narodowej, Warszawa
2017.
15. Decyzja Nr 235/DNiSZW Ministra Obrony Narodowej z dnia 26 czerwca 2019 r. w sprawie
wprowadzenia do użytku służbowego w resorcie obrony narodowej dokumentu pt. Priorytetowe
kierunki badań w resorcie obrony narodowej na lata 2017-2026.
16. Rezolucja Parlamentu Europejskiego z dnia 16 lutego 2017 zawierająca zalecenia dla Komisji w
sprawie przepisów prawa cywilnego dotyczących robotyki (2015/2103(INL)).
17. Projekt sprawozdania z zaleceniami dla Komisji w sprawie systemu odpowiedzialności cywilnej
za sztuczną inteligencję (2020/2014(INL)), Parlament Europejski, 2020.
18. Sprawozdanie z zaleceniami dla Komisji w sprawie systemu odpowiedzialności cywilnej za
sztuczną inteligencję (2020/2014(INL)), Parlament Europejski, 2020.
19. Komunikat Komisji do Parlamentu Europejskiego, Rady Europejskiej, Rady Europejskiego
Komitetu Ekonomiczno-Społecznego i Komitetu Regionów: Skoordynowany plan w sprawie
sztucznej inteligencji, Komisja Europejska, Bruksela 2018.
20. Wytyczne w zakresie etyki dotyczące godnej zaufania sztucznej inteligencji, Komisja
Europejska, Bruksela 2019.
21. Recommendation of the Council on Artificial Intelligence, OECD, OECD Legal Instruments,
2019.
259
22. Krajowa Rada Bezpieczeństwa Ruchu Drogowego, Narodowy Program Bezpieczeństwa Ruchu
Drogowego 2013-2020, Warszawa 2013.
23. PN-ISO/IEC 27001:2007, Technika informatyczna – Techniki bezpieczeństwa – Systemy
zarządzania bezpieczeństwem informacji – Wymagania, Warszawa 2007.
1. Albrycht I., Autolitano S., Gęborys P. i in., Wyzwania w cyberprzestrzeni. Przykłady rozwiązań,
zagrożenia, regulacje, Instytut Kościuszki, Kraków 2019.
2. Anderson J.M., Nalra N., Stanley K.D. i in., Autonomous Vehicle Technology. A Guide for
Policymakers, RAND Corporation, Santa Monica 2014.
3. Artiemjew P., Wybrane paradygmaty sztucznej inteligencji, Wydawnictwo Polsko-Japońskiej
Wyższej Szkoły Technik Komputerowych, Warszawa 2013.
4. Asimov I., I, Robot, Street and Smith Publications, Inc., New York, 1942.
5. Berrick C.A., Highway Safety: Selected Cases of Commercial Drivers with Potentially
Disqualifying Impairments, The U.S. Government Accountability Office, Washington DC 2013.
6. Bobrov D.B., Haliżak E., Zięba R. (red.), Bezpieczeństwo narodowe i międzynarodowe u
schyłku XX wieku, Wydawnictwo Naukowe SCHOLAR, Warszawa 1997.
7. Bolc L., Zaremba P., Wprowadzenie do uczenia się maszyn, Akademicka Oficyna Wydawnicza
RM, Warszawa 1992.
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
36. Greniewski H., Cybernetyka niematematyczna, Wydawnictwo Naukowe PWN, Warszawa 1982.
37. Haber L.H. (red.), Społeczeństwo informacyjne – wizja czy rzeczywistość? T.1., Wydawnictwo
Akademii Górniczo-Hutniczej, Kraków 2004.
38. Haliżak E., Kuźniar R. (red.), Stosunki międzynarodowe. Geneza, struktura, dynamika,
Wydawnictwo Uniwersytetu Warszawskiego, Warszawa 2004.
39. Harari Y.N., 21 lekcji na XXI wiek, Wydawnictwo Literackie, Kraków 2018.
40. Harari Y.N., Sapiens. Od zwierząt do bogów, Wydawnictwo Literackie, Kraków 2018.
41. Haugeland J., Artificial Intelligence: The Very Idea, The MIT Press, Cambridge 1985.
42. Hawkins J., Istota inteligencji, Helion, Gliwice 2006.
43. Hicks J.O., Management Information Systems: A User Perspective, West Publishing Company,
St Paul 1993.
44. Hołyst B. (red.), Człowiek w sytuacji trudnej, Polskie Towarzystwo Higieny Psychicznej,
Warszawa 1991.
45. Hołyst B., Jałoszyński K., Letkiewicz A. (red.), Wojna z terroryzmem w XXI wieku,
Wydawnictwo Wyższej Szkoły Policji, Szczytno 2009.
46. Hołyst B., Wiktymologia, Wydawnictwo LexisNexis Polska, Warszawa 2000.
47. Jagusiak B. (red.), Współczesne wyzwania bezpieczeństwa Polski, Wojskowa Akademia
Techniczna, Warszawa 2015.
48. Jagusiak B. (red.), Zagrożenia bezpieczeństwa państwa: geneza i charakter uwarunkowań,
Wojskowa Akademia Techniczna, Warszawa 2015.
49. Jakubczak R. (red.), Obrona narodowa w tworzeniu bezpieczeństwa III RP, Wydawnictwo
Bellona, Warszawa 2003.
50. Jakubczak R., Flis J. (red.), Bezpieczeństwo narodowe Polski w XXI wieku. Wyzwania i
strategie, Wydawnictwo Bellona, Warszawa 2006.
51. Jakubczak R., Wiśniewski B. (red.), Wyzwania, szanse, zagrożenia i ryzyko dla bezpieczeństwa
narodowego RP o charakterze wewnętrznym, Wyższa Szkoła Policji, Szczytno 2016.
261
52. Janczak J., Nowak A., Bezpieczeństwo informacyjne. Wybrane problemy, Wydawnictwo ASW,
Warszawa 2013.
53. Jemioło T., Malak K. (red.), Bezpieczeństwo zewnętrzne Rzeczypospolitej Polskiej,
Wydawnictwo AON, Warszawa 2002.
54. Kalita C., Zasady pisania licencjackich i magisterskich prac badawczych: poradnik dla
studentów, Arte, Biała Podlaska 2011.
55. Kasperski M. J., Sztuczna Inteligencja, Helion, Gliwice 2003.
56. Kitler W., Bezpieczeństwo narodowe RP. Podstawowe kategorie, uwarunkowania, system,
Wydawnictwo AON, Warszawa 2011.
57. Knight A.V., Silk D.J., Managing information, McGraw Hill, London 1990.
58. Korzeniowski L.F., Podstawy nauk o bezpieczeństwie, Difin, Warszawa 2012.
59. Kubiak M., Topolewski S. (red.), Bezpieczeństwo informacyjne w XXI wieku, Wydawnictwo
Uniwersytetu Przyrodniczo-Humanistycznego w Siedlcach, Siedlce- Warszawa 2016.
60. Kuc B.R., Ścibiorek Z., Podstawy metodologiczne nauk o bezpieczeństwie, Wydawnictwo
Menedżerskie PTM, Warszawa 2013.
61. Kukułka J. (red.), Bezpieczeństwo międzynarodowe w Europie Środkowej po zimnej wojnie,
Agencja Scholar, Warszawa 1994.
62. Kurzweil R., Nadchodzi osobliwość. Kiedy człowiek przekroczy granice biologii, Kurhaus
Publishing, Warszawa 2016.
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
63. Kurzweil R., The Age of Spiritual Machines: How we will Live, Work and Think in the New Age
of Intelligent Machines, Phoenix Orion Books, London 1999.
64. Leśnikowski W., Bezzałogowe platformy w cyberprzestrzeni, Wydawnictwo Adam Marszałek,
Toruń 2017.
65. Liderman K., Bezpieczeństwo informacyjne, Wydawnictwo Naukowe PWN, Warszawa 2012.
66. Lindenberg G., Ludzkość poprawiona. Jak najbliższe lata zmienią świat, w którym żyjemy,
Wydawnictwo Otwarte, Kraków 2018.
67. Lyons J., Semantics, Penguin Books, Harmondsworth 1977.
68. Łuczak J., Tyburski M., Systemowe zarządzanie bezpieczeństwem informacji ISO/IEC 27001,
Poznań 2009.
69. Maddison R. (red.), Information Systems Development for Managers, Paradigm, London 1989.
70. Malara Z., Rzęchowski J., Zarządzanie informacją na rynku globalnym. Teoria i praktyka,
Wydawnictwo C.H. Beck, Warszawa 2011.
71. McIlwraith D., Marmanis H., Babenko D., Inteligentna sieć. Algorytmy przyszłości, Helion,
Gliwice 2017.
72. Mesner Z., Informacja ekonomiczna a zarządzanie przedsiębiorstwem, Wydawnictwo Naukowe
PWN, Warszawa 1971.
73. Mikulski J. (red.), Management Perspective for Transport Telematics, Transport System
Telematics, Kraków 2018.
74. Milward G.E., Organization and Methods – A Service to Management, McMillan, London
1967.
75. Minkina M., Zieliński J. (red. nauk.), Od nauk wojskowych do nauk o bezpieczeństwie,
Wydawnictwo Uniwersytetu Przyrodniczo-Humanistycznego, Siedlce 2016.
76. Mulawka J.J., Systemy ekspertowe, Wydawnictwa Naukowo-Techniczne, Warszawa 1996.
77. Negnevitsky M., Artificial Intelligence: A Guide to Intelligent Systems, Pearson Education,
Harlow 2005.
78. Nęcka E., Inteligencja i procesy poznawcze, Oficyna Wydawnicza „Impuls”, Kraków 1994.
262
79. Niezabitowska E. (red.), Budynek inteligentny. Tom I. Potrzeby użytkownika a standard
budynku inteligentnego, Wydawnictwo Politechniki Śląskiej, Gliwice 2005.
80. Nowak E., Nowak M., Zarys teorii bezpieczeństwa narodowego, Difin, Warszawa 2011.
81. Pitrus A. (red.), Olbrzym w cieniu: gry wideo w kulturze audiowizualnej, Wydawnictwo
Uniwersytetu Jagiellońskiego, Kraków 2012.
82. Pokruszyński W., Bezpieczeństwo. Teoria i praktyka, Wyższa Szkoła Bezpieczeństwa
Publicznego i Indywidualnego Apeiron, Kraków 2017.
83. Prochożewa A.A. (red.), Obszczaja tieorija nacjonalnej biezopasnosti, Izdatelstwo RAGS,
Moskwa 2005.
84. Raczkowski K., Żukrowska K., Żuber M., Interdyscyplinarność nauk o bezpieczeństwie, Difin,
Warszawa 2013.
85. Rich E., Knight K., Nair S.B., Artificial Intelligence, McGraw-Hill, New Delhi-New York
1991.
86. Robathan P., Intelligent Building Guide, Intelligent Buildings Institute IBI, Washington 1989.
87. Rutkowski L., Metody i techniki sztucznej inteligencji, Wydawnictwo Naukowe PWN,
Warszawa 2009.
88. Schalkoff R.J., Artificial Intelligence: An Engineering Approach, McGraw-Hill, New York
1990.
89. Sharkey N., van Wynsberghe A., Robbins S., Hancock E., Our Sexual Future with Robots. A
Foundation for Responsible Robotics Consultation Report, Foundation for Responsible
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
263
103. Wodecki A., Sztuczna inteligencja w kreowaniu wartości organizacji, Wydawnictwo edu-Libri,
Kraków-Legionowo 2018.
104. Wróblewski R., Wprowadzenie do nauk o bezpieczeństwie, Wydawnictwo Uniwersytetu
Przyrodniczo-Humanistycznego, Siedlce 2017.
105. Zając J., Włodkowska-Bagan A., Kaczmarski M. (red.), Bezpieczeństwo międzynarodowe.
Polska-Europa-Świat, Uniwersytet Warszawski, Warszawa 2015.
106. Zieliński J. (red.), Inteligentne systemy w zarządzaniu, Wydawnictwo Naukowe PWN,
Warszawa 2000.
107. Zieliński Z.E. (red.), Rola informatyki w naukach ekonomicznych i społecznych. Innowacje i
implikacje interdyscyplinarne, Wydawnictwo Wyższej Szkoły Handlowej, Kielce 2014.
108. Zięba R. (red.), Bezpieczeństwo międzynarodowe po zimnej wojnie, Wydawnictwa Akademickie
i Profesjonalne, Warszawa 2008.
109. Zięba R., Instytucjonalizacja bezpieczeństwa europejskiego: koncepcje – struktury –
funkcjonowanie, Wydawnictwo Naukowe SCHOLAR, Warszawa 2001.
110. Znamierowski Cz., Szkoła prawa. Rozważania o państwie, Oficyna Naukowa, Warszawa 1999.
111. Żuchowski J. (red.), Innowacyjność w kształtowaniu jakości wyrobów i usług, Politechnika
Radomska, Radom 2006.
2. Andrałojć M., Zalety i ograniczenia ankiety internetowej jako metody zbierania materiału
badawczego w dziedzinie zzl, „Zarządzanie Zasobami Ludzkimi”, 2006, nr 5.
3. Bednarek-Michalska B., Wolny dostęp do informacji i wiedzy czy wykluczenie edukacyjne?
Trendy światowe a Polska, „Biuletyn EBIB”, 2005, nr 2(63).
4. Bendyk E., Czy przyszłość nas potrzebuje, „Polityka”, 2018, nr 1 (3142).
5. Bieleń S., Polityki bezpieczeństwa państw, „Teka Komisji Politologii i Stosunków
Międzynarodowych PAN”, 2010, t. 5.
6. Bober B., Bezpieczeństwo zdrowotne jako istotny komponent bezpieczeństwa państwa, „Studia
nad bezpieczeństwem”, 2016, nr 1.
7. Bostrom N., How long before superintelligence?¸”Linguistic and Philosophical Investigations”,
2006, nr 5 (1).
8. Brahm Ch., 6 nieoczywistych zagrożeń biznesowych wynikających z rosnącej popularności
sztucznej inteligencji, „Magazyn ITwiz”, 2018, nr 12.
9. Chmieliński B., Rozważania nad naukami o bezpieczeństwie i bezpieczeństwem społeczności
lokalnych, „Historia i Polityka”, 2018, nr 23(30).
10. Chojnacki J., Pasek D., Historia wykorzystania bezzałogowych statków powietrznych, „Rocznik
Bezpieczeństwa Międzynarodowego”, 2017, nr 1 (11).
11. Ciszek M., Teoretyczne podstawy bezpieczeństwa państwa, „Prosopon. Europejskie Studia
Społeczno-Humanistyczne”, 2011, nr 2.
12. Czapczuk A., Dawidowicz J., Piekarski J., Metody sztucznej inteligencji w projektowaniu i
eksploatacji systemów zaopatrzenia w wodę, „Rocznik Ochrona Środowiska”, 2015, t. 17.
13. Czekaj J., Metody zarządzania informacją w przedsiębiorstwie,„Zeszyty Naukowe Akademii
Ekonomicznej w Krakowie. Seria Specjalna, Monografie”, 2000, nr 143.
14. Czulda R., Operacja Protective Edge w Strefie Gazy, „Nowa Technika Wojskowa”, 2014, nr 10.
15. Dąbrowski A., Sztuczna inteligencja, „Delta”, 2018, nr 5.
16. Fehler W., O pojęciu polityki wewnętrznego bezpieczeństwa państwa, „Studia
Prawnoustrojowe”, 2014, nr 23.
264
17. Fehler W., Sztuczna inteligencja – szansa czy zagrożenie, „Studia Bobolanum”, 2017, nr 3(28).
18. Gless S., Silverman E., Weigend T., If Robots Cause Harm, Who is to Blame? Self-Driving
Cars and Criminal Liability, „New Criminal Law Review”, 2016, nr 19 (3).
19. Grabowski M., Zając A., Dane, informacja, wiedza – próba definicji, „Zeszyty Naukowe
Uniwersytetu Ekonomicznego w Krakowie”, 2009, nr 798.
20. Hołdanowicz G., Roboty meldują się do służby, „Raport WTO”, 2006, nr 10.
21. Jałochowski K., Człowiek zdecyduje, „Polityka”, 2020, nr 47.
22. Januszko-Szakiel A., Open Archival Information System (OAIS) - standard w zakresie
archiwizacji publikacji elektronicznych, „Przegląd Biblioteczny” 2005, z. 3.
23. Kaczmarczyk B., Bezpieczeństwo i jego typologie, „Nauki Humanistyczne i Społeczne Na
Rzecz Bezpieczeństwa”, 2013, vol. 31.
24. Kaczmarek J., Problemy bezpieczeństwa RP, „Myśl Wojskowa”, 1991, nr 1.
25. Kaplan A., Haenlein M., Siri, Siri, in my hand: Who’s the fairest in the land? On the
interpretations, illustrations, and implications of artificial intelligence, „Business Horizons”,
2019, vol. 62, is. 1.
26. Kobyłko G., Morawski M., Przedsiębiorstwo zorientowane na wiedzę, „E-mentor”, 2006, nr 4
(16).
27. Kołodziejczyk A., Bezpieczeństwo jako fenomen społeczny: pojęcie bezpieczeństwa, jego
interpretacje i odmiany, „Saeculum Christianum”, 2007, nr 14/1.
28. Kopeć R., Rewolucja w sprawach wojskowych w kontekście zachodniego sposobu prowadzenia
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
265
42. Osika G., Czekając na osobliwość – o modelach interpretacji techniki, „Filo-Sofija. Z
problemów współczesnej filozofii (VI)”, 2017, nr 39.
43. Pacholski Ł., Butowski P., Aktualności wojskowe. Hiszpania kupuje bezzałogowce Reaper,
„Lotnictwo Aviation International”, 2016, nr 3.
44. Pagallo U., Killers, fridges, and slaves: a legal journey in robotics, “AI & Society”, 2011, nr
26(4).
45. Pawlińska M., Dopuszczalność gwałtu na humanoidalnym robocie, “Acta Universitatis
Lodziensis. Folia Iuridica”, 2019, t. 86.
46. Pokruszyński W., Bezpieczeństwo narodowe u progu XXI wieku, „Zeszyty Naukowe AON”,
2008, nr 1(70).
47. Racka K., Big Data – znaczenie, zastosowania i rozwiązania technologiczne, „Zeszyty
Naukowe PWSZ w Płocku. Nauki Ekonomiczne”, 2016, nr 1 (23).
48. Roguski J., Chmielewski M., Wantoch-Rekowski R., Zastosowanie symulacji wirtualnej do
szkolenia w zakresie bezpieczeństwa użytkowania obiektu na przykładzie terminalu lotniczego,
„Bezpieczeństwo i Technika Pożarnicza”, 2016, vol. 43, nr 3.
49. Różanowski K., Sztuczna inteligencja: rozwój, szanse i zagrożenia, „Zeszyty Naukowe:
Warszawska Wyższa Szkoła Informatyki”, 2007, nr 2.
50. Sadowska E., Zagrożenia asymetryczne – definicja, świadomość społeczna i rola we
współczesnym świecie, „Rocznik Bezpieczeństwa Międzynarodowego”, 2017, nr 2.
51. Searle J.R., Umysł, mózg i nauka, „The Behavioral and Brain Sciences”, 1982, nr 5(2).
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
52. Shannon C.E., A mathematical theory of Communications, „Bell System Technical Journal”,
1948, vol. 27.
53. Simons G., Drone Diplomacy, “The Link”, 2011, nr 2 (44).
54. Stylec-Szromek P., Sztuczna inteligencja – prawo, odpowiedzialność, etyka, „Zeszyty Naukowe
Politechniki Śląskiej. Seria: Organizacja i Zarządzanie”, 2018, z. 123.
55. Sulowski S., W poszukiwaniu definicji bezpieczeństwa wewnętrznego, „Przegląd
Bezpieczeństwa Wewnętrznego”, 2009, nr 1.
56. Szymański K., Transhumanizm, „Kultura i Wartości”, 2015, nr 13.
57. Tadeusiewicz R., Elektroniczne zwierzęta, „Wszechświat”, 2011, nr 7-9.
58. Torczyńska M., Sztuczna inteligencja i jej społeczno-kulturowe implikacje w codziennym życiu,
„Kultura i Historia”, 2019, nr 36.
59. Ulam S., Tribute to John von Neumann, “Bulletin of the American Mathematical Society”,
1958, nr 3 (64).
60. Vego M.N., Effect-Based Operations: A Critique, „Joint Forces Quarterly”, 2006, nr 41.
61. Wardziński K., Przegląd algorytmów sztucznej inteligencji stosowanych w grach
komputerowych, „Homo Communicativus”, 2008, nr 3.
62. Widłak T., Klauzula Martensa na tle pojęcia “ludzkość” w prawie międzynarodowym,
„Międzynarodowe Prawo Humanitarne”, 2012, nr 3.
63. Wilk T., Pawlak P., Kongestia transportowa, „Logistyka”, 2014, nr 6.
64. Wrzosek M., Zagrożenia bezpieczeństwa Polski. Teoria i praktyka, „Bellona”, 2013, nr 2.
65. Wyskwarski M., Zarządzanie wiedzą w małych i średnich przedsiębiorstwach – wykorzystanie
urządzeń NAS, „Zeszyty Naukowe Politechniki Śląskiej. Seria: Organizacja i Zarządzanie”,
2014, z. 68 (1905).
66. Zięba R., Pojęcia i istota bezpieczeństwa państwa w stosunkach międzynarodowych, „Sprawy
Międzynarodowe”, 1989, nr 10.
67. Ziemski M., Osoba elektroniczna posiadająca osobowość elektroniczną, „In Gremio”, 2017, nr
105.
266
Źródła internetowe:
8. Bełcik A., Narodowa strategia AI pod ostrzałem rynku, [on-line], pb.pl, 17.09.2019,
https:.//www.pb.pl/narodowa-strategia-ai-pod-ostrzalem-rynku-970605 (15.09.2020).
9. Berger A., Sztuczna inteligencja Google’a tworzy własne systemy szyfrowania, [on-line],
trybawaryjny.pl, 13.11.2016, https://trybawaryjny.pl/sztuczna-inteligencja-googlea-tworzy-
wlasne-systemy-szyfrowania/ (09.07.2020).
10. Biedrzycki N., Sztuczna inteligencja jest sprawnym bankierem, [on-line], norbertbiedrzycki.pl,
14.01.2020, https://norbertbiedrzycki.pl/sztuczna-inteligencja-jest-sprawnym-bankierem/
(03.05.2020).
11. Biedrzycki N., Wojskowe roboty mogą podejmować decyzję o naszym życiu lub śmierci,
„Business Insider” [on-line], 03.03.2019, https://businessinsider.com.pl/technologie/nowe-
technologie/technologie-i-sztuczna-inteligencja-w-wojsku-i-jej-wykorzystanie/5r0d9rd,
(18.02.2020).
12. Boston Dynamics, Atlas, [on-line], bostondynamics.com, 24.09.2019,
https://www.bostondynamics.com/atlas (10.07.2020).
13. Chang K., Can Robots Become Conscious?, „The New York Times” [on-line], 11.11.2003,
https://www.nytimes.com/2003/11/11/science/can-robots-become-conscious.html (22.05.2019).
14. Chiny prowadzą testy na ludziach. Tworzą superżołnierza, [on-line], o2.pl, 06.12.2020,
https://www.o2.pl/informacje/chiny-prowadza-testy-na-ludziach-tworza-super-zolnierza-
6583358187981376a (18.01.2021).
15. Chojnowski M., Kto wdrożył, niech odpowiada. Unijny projekt regulacji SI, [on-line],
sztucznainteligencja.org, 18.05.2020, https://www.sztucznainteligencja.org.pl/kto-wdrozyl-
niech-odpowiada-unijny-projekt-regulacji-si/ (29.11.2020).
16. Chustecki J., Sztuczna inteligencja – szanse i zagrożenia, [on-line], 19.02.2019,
https://www.computerworld.pl/news/Sztuczna-inteligencja-szanse-i-zagrozenia,412196.html,
(01.06.2019).
17. Coppinger R., Northrop Grumman Global Hawk Block 20 achieves 33h endurance, [on-line],
flightglobal.com, 04.04.2008, https://www.flightglobal.com/news/articles/northrop-grumman-
global-hawk-block-20-achieves33h-e-222768/ (28.02.2020).
267
18. Dąbrowski M., Bojowe roboty – rewolucja na polu walki [analiza], [on-line], defence24.pl,
22.04.2018, https://www.defence24.pl/bojowe-roboty-rewolucja-na-polu-walki-analiza
(13.07.2020).
19. Dąbrowski M., Chińskie roje dronów na Morzu Południowochińskim, [on-line], defence24.pl,
04.06.2018, https://www.defence24.pl/chinskie-roje-dronow-na-morzu-poludniowochinskim
(04.06.2020).
20. Dębska M., Seks-roboty, [on-line], Uniwersytet Warszawski, 2019,
https://www.fuw.edu.pl/~szczytko/JTD2019-20/Marta_Dębska_SEKS-ROBOTY.pdf
(04.06.2020).
21. Dukaj J., Sztuka w czasach sztucznej inteligencji, [on-line], Forum Przyszłości Kultury, 2017,
https://forumprzyszloscikultury.pl/upload/jacek-dukaj-sztuka-w-czasach-sztucznej-inteligencji-
pdf (28.07.2020).
22. Dul F., Wprowadzenie do sztucznej inteligencji, [on-line], Politechnika Warszawska, 2014,
https://www.meil.pw.edu.pl/content/download/filw/ AI_Wstep_14 (13.09.2019).
23. Duszczyk M., Autobusy zamawiane jak Uber. Wpadli na to Polacy, „Rzeczpospolita” [on-line],
09.09.2019, https://cyfrowa.rp.pl/biznes/37305-autobusy-zamawiane-jak-uber-wpadli-na-to-
polacy, (03.03.2020).
24. Encyklopedia PWN, Inteligencja, [on-line], encyklopedia.pwn.pl, b.r.,
https://encyklopedia.pwn.pl/haslo/inteligencja;3915042.html (13.05.2019).
25. Finnie S., Cyber threats fueled by AI: Security’s next big challenge, [on-line], csoonline.com,
30.10.2018, https://www.csoonline.com/article/3315740/cyber-threats-fueled-by-ai-securitys-
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
next-big-challenge.html (03.07.2020).
26. Galeon D., For the First Time, a Robot Passed a Medical Licensing Exam, [on-line],
futurism.com, 20.11.2017, https://futurism.com/first-time-robot-passed-medical-licensing-exam
(02.06.2020).
27. Ganascia J.G., Przegalińska A., Technologie realne i wyobrażone, „Tygodnik Powszechny”
[on-line], 2018, https://www.tygodnikpowszechny.pl/technologie-realne-i-wyobrazone-155005
(28.02.2020).
28. Gliwa S., AI vs AI. Jakie trendy bezpieczeństwa i zagrożeń czekają nas w 2020 roku?, [on-line],
CyberDefence24, 25.11.2019, https://www.cyberdefence24.pl/ai-vs-ai-jakie-trendy-
bezpieczenstwa-i-zagrozen-czekaja-nas-w-2020-roku (24.04.2020).
29. Gmys Ł., Bezpieczeństwo transportu drogowego, „Poradnik Spedytora” [on-line], 2012,
http://poradnikspedytora.pl/2012/bezpieczenstwo-transportu-drogowego/ (01.04.2019).
30. Gołąbiowski Ł., Zabójcze drony – pięć najniebezpieczniejszych maszyn, „Komputer Świat” [on-
line], 2016, http://www.komputerswiat.pl/artykuly/redakcyjne/2016/06/zabojcze-drony-piec-
najniebezpieczniejszych-maszyn.aspx (16.03.2018).
31. Gozdek J., Historia sztucznej inteligencji, [on-line], chip.pl, 03.12.2013,
https://www.chip.pl/2013/12/historia-sztucznej-inteligencji/ (14.10.2019).
32. Górecki P., Uczenie maszynowe, sztuczna inteligencja i samo(świadomość), [on-line],
tabletowo.pl, 23.11.2014, https://www.tabletowo.pl/uczenie-maszynowe-sztuczna-inteligencja-
i-samoswiadomosc/ (12.01.2020).
33. Grace K. i in., When Will AI Exceed Human Performance? Evidence from AI Experts, [on-line],
arxiv.org, 2017, https://arxiv.org/abs/1705.08807 (29.07.2020).
34. Grygiel B., Ten upiorny obraz namalowała Sztuczna Inteligencja. Sprzedany na aukcji za
zawrotną sumę, [on-line], focus.pl, 01.03.2019, https://www.focus.pl/artykul/sprzedany-za-
prawie-pol-miliona-dolarow-upiorny-obraz-namalowany-przez-sztuczna-inteligencje
(07.06.2020).
35. IBM Security, Sztuczna inteligencja rozwiązaniem wzmacniającym bezpieczeństwo, [on-line],
IBM, b.r., https://www.ibm.com/pl-pl/security/artificial-intelligence (26.04.2020).
268
36. IBM, Wimbledon 2017, [on-line], IBM, b.r., https://www.ibm.com/case-studies/wimbledon-
2017, (10.07.2020).
37. In Davos, US executives warn that China is winning the AI race, “The Straits Times” [on-line],
24.01.2019, https://www.straitstimes.com/world/europe/in-davos-us-executives-warn-that-
china-iswinning-the-ai-race (04.07.2020).
38. Jassem K., Sztuczny umysł między językami, [on-line], sztucznainteligencja.org, 28.03.2019,
https://www.sztucznainteligencja.org.pl/sztuczny-umysl-miedzy-jezykami/ (10.07.2020).
39. Jurczak T., Autonomiczne pojazdy: 12 przykazań dla branży, [on-line], sztucznainteligencja.org,
09.07.2019, https://www.sztucznainteligencja.org.pl/autonomiczne-pojazdy-12-przykazan-
branzy/ (05.03.2020).
40. Jurczak T., Maszyna pisze powieści. Można je kupić w księgarni internetowej, [on-line],
sztucznainteligencja.org, 05.11.2019, https://www.sztucznainteligencja.org.pl/algorytm-pisze-
powiesci-mozna-je-kupic-w-ksiegarni-internetowej/ (10.05.2020).
41. Karp M., Grabowski M., Systemy ekspertowe i ich zastosowanie, [on-line], Akademia Górniczo-
Hutnicza, b.r., https://home.agh.edu.pl/ligeza/wik/media/presentations/systexp.pdf (13.01.2020).
42. Kasperski M., Kilka słów w kwestii Chińskiego Pokoju i dwu innych argumentów przeciw SI: sir
Rogera Penrose’a i z redukcjonizmu, [on-line], kognitywistyka.net, 2002,
http://www.kognitywistyka.net/artykuly/mk-kswapsi.pdf (20.05.2019).
43. Katedra Inżynierii Komputerowej Politechniki Częstochowskiej, Sieci neuronowe. Historia,
[on-line], Politechnika Częstochowska, 2004, https://iisi.pcz.pl/nn/historia.php (17.01.2020).
44. Kharpal A., Amazon’s voice assistant Alexa could be a $10 billion ‘mega-hit’ by 2020:
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
269
54. Kopańko K., Kurs autobusem zamawiany ze smartfona i optymizowany przez AI? To pomysł
polskiego startupu, [on-line], spidersweb.pl, 16.09.2019, https://spidersweb.pl/bizblog/broomee-
autobus-ai-smartfon/ (03.03.2020).
55. Korolov M., AI isn’t just for the good guys anymore, [on-line], CSO, 01.02.2017,
https://www.csoonline.com/article/3163022/ai-isnt-just-for-the-good-guys-anymore.html
(30.05.2017).
56. Korzeniowski B., Sztuczna inteligencja do zarządzania ruchem w miastach, „Motomi
Magazyn” [on-line], 28.08.2018, https://magazynmotomi.pl/2018/05/28/sztuczna-inteligencja-
do-zarzadzania-ruchem-w-miastach/ (04.03.2020)
57. Kosior M., Studium upadku Mt Gox. Sprawa Willy Bot’a, [on-line], bithub.pl, 26.02.2019,
https://bithub.pl/artykuly/sprawa-willy-bota-studium-manipulacji/ (28.07.2020).
58. Kotowski A., Sony sprzedało 3 mln gogli PlayStation VR, [on-line], PCLab, 17.08.2018,
https://pclab.pl/news 78655.html (23.05.2019).
59. KRFMCG: Jakie korzyści może wnieść wizja komputerowa dla sieci detalicznych?, [on-line],
wiadomoscihandlowe.pl, 28.05.2019, https://www.wiadomoscihandlowe.pl/artykuly/krfmcg-
jakie-korzysci-moze-wniesc-wizja-komputerow,54756 (01.12.2019).
60. Kryśkiewicz Ł., Sztuczna inteligencja w sektorze finansowym, [on-line], di.com.pl, 2017,
http://di.com.pl/sztuczna-inteligencja-w-sektorze-finansowym-58641, (15.05.2018).
61. Kubera G., Ochrona punktów końcowych – co trzeba o niej wiedzieć, „Computer World” [on-
line], 27.12.2018, https://www.computerworld.pl/news/Ochrona-punktow-koncowych-co-
trzeba-o-niej-wiedziec,411609.html (23.04.2020).
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
62. Kubisiak A., Czynniki etyczne i kulturowe przeciwko samochodom autonomicznym?, [on-line],
Polski Instytut Ekonomiczny, 14.12.2018, http://pie.net.pl/wp-
content/uploads/2018/12/14_12_2018_Czynniki-etyczne-i-kulturowe-przeciwko-samochodom-
autonomicznym.pdf (05.03.2020).
63. Kuchta M., Aplikacja zamiast wizyty u lekarza? Ada zdiagnozuje Twoje objawy, [on-line],
marketinglink.pl, 20.04.2017, https://marketinglink.pl/aplikacja-zamiast-wizyty-u-lekarza-ada-
zdiagnozuje-twoje-objawy/ (02.06.2020).
64. Kulik W., Co to jest komputer kwantowy? Oto podstawy, [on-line], benchmark.pl, 10.04.2020,
https://www.benchmark.pl/aktualnosci/co-to-jest-komputer-kwantowy-podstawy-wideo.html
(19.01.2020).
65. Kuźmińska-Sołśnia B., Siwiec T., Zastosowanie algorytmów sztucznej inteligencji w grach
komputerowych, [on-line], bks.pr.radom.pl, b.r.,
http://www.bks.pr.radom.pl/publikacje/SI%20w%20grach.pdf (11.05.2020).
66. Lesman U., AI wykryje oszustów na aplikacji randkowej. Kim są?, „Rzeczpospolita” [on-line],
11.05.2019, https://cyfrowa.rp.pl/technologie/34860-si-wykryje-oszusta-matrymonialnego-kto-
najczesciej-sciemnia-i-jak?utm_source=rp&utm_medium=teaser _redirect (10.05.2020).
67. Leśkow J., Obywatel i demokracja w cywilizacji cyfrowej, „Rzeczpospolita” [on-line], 2019,
https://cyfrowa.rp.pl/opinie/37104-dyrektor-nask-obywatel-i-demokracja-w-cywilizacji-
cyfrowej, (29.02.2020).
68. Łakomy M., Data mining od podszewki, [on-line], Computerworld.pl, 11.05.1998,
https://www.computerworld.pl/news/Data-mining-od-podszewki,284591.html (12.01.2020)
69. Malak K., Typologia bezpieczeństwa. Nowe wyzwania, [on-line], stosunkimiedzynarodowe.pl,
2010, http://www.stosunki-miedzynarodowe.pl/referaty/ typologia-bezpieczenstwa-nowe-
wyzwania.html (15.03.2019).
70. Mazurkiewicz P., Obraz robota poszedł za 430 tys. dolarów, „Rzeczpospolita” [on-line],
25.10.2018, https://cyfrowa.rp.pl/technologie/28603-roboty-maluja-obrazy-pisza-wiersze
(07.06.2020).
71. Merriam-Webster Dictionary, Collateral damage, [on-line], Merriam-Webster, b.r.,
https://www.merriam-webster.com/dictionary/collateral%20damage, (12.02.2018).
270
72. Milipedia, IAI Eitan/Heron TP, [on-line], infolotnicze.pl, 16.12.2011,
https://www.infolotnicze.pl/2011/12/16/iai-eitan-heron-tp/, (16.03.2018).
73. Mimaroglu A., 3 Ways Artificial Intelligence Has Sparked Marketing and Sales
Transformation, [on-line], entrepreneur.com, 27.06.2019,
https://www.entrepreneur.com/article/335779 (09.07.2020).
74. Ministerstwo Cyfryzacji, Inteligentne systemy transportowe, [on-line], gov.pl, 08.05.2019,
https://www.gov.pl/web/5g/inteligentne-systemy-transportowe (04.03.2020).
75. Mitchell B., Artificial intelligence is the heart of CIO Dana Deasy’s plan to modernize the
DOD, [on-line], fedscoop.com, 23.08.2018, https://www.fedscoop.com/artificial-intelligence-
dod-strategy-cio-dana-deasy/ (03.07.2020).
76. Morrison R., Cyborg super soldiers: US Army report reveals vision for deadly ‘machine
humans’ with infrared sight, boosted strength and mind-controlled weapons by 2050, „Daily
Mail” [on-line], 29.12.2019, https://www.dailymail.co.uk/sciencetech/article-7738669/US-
Military-scientists-create-plan-cyborg-super-soldier-future.html (18.01.2021).
77. Neurosoft, Przetwarzanie języka naturalnego, [on-line], neurosoft.pl, b.r.,
https://neurosoft.pl/technologie/przetwarzanie-jezyka-naturalnego/ (12.01.2020).
78. Nowak A., Zbiory przybliżone w obszarze systemów ekspertowych, [on-line], Uniwersytet
Śląski, b.r., http://zsi.tech.us.edu.pl/~anowak/files/pawlak.pdf (12.01.2020).
79. Nowak J., Koniec hegemonii homo sapiens. Na jakich polach sztuczna inteligencja zdominuje
człowieka?, „Forbes” [on-line], 18.09.2017, https://www.forbes.pl/opinie/sztuczna-inteligencja-
zagrozeniem-dla-ludzi-na-jakich-polach-zdominuje-czlowieka/0lmq3hl (27.07.2020).
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
80. Nowak-Brzezińska A., Odkrywanie wiedzy z danych przy użyciu zbiorów przybliżonych. Wykład
2, [on-line], Uniwersytet Śląski, b.r., http://zsi.tech.us.edu.pl/~nowak/bios/owd/w2.pdf
(12.01.2020).
81. Nowakowski M., Dlaczego sztuczna inteligencja to nie osoba (prawna)?, [on-line], fintek.pl,
29.08.2019, https://fintek.pl/dlaczego-sztuczna-inteligencja-to-nie-osoba-prawna/ (18.09.2020).
82. Ocean Alpha, Get Closer to Ocean, [on-line], oceanalpha.com, b.r.,
https://www.oceanalpha.com/product-item/dolphin1/ (07.07.2020).
83. Ontotext, What is the DIKW Pyramid? [on-line] ontotext.com, b.r.,
https://www.ontotext.com/knowledgehub/fundamentals/dikw-pyramid (19.02.2018).
84. OSNews, Sztuczna inteligencja. Naturalne przetwarzanie języka, [on-line], osnews.pl,
04.12.2016, http://osnews.pl/sztuczna-inteligencja-naturalne-przetwarzanie-jezyka/
(12.01.2020).
85. Ośrodek Przetwarzania Informacji – Państwowy Instytut Badawczy, Słownik, [on-line],
sztucznainteligencja.org., b.r., https://www.sztucznainteligencja.org.pl/slownik/robotyka
(10.01.2020).
86. Oxford Insights, Government Artificial Intelligence Readiness Index 2019, [on-line], Oxford
Insights, 2020, https://www.oxfordinsights.com/ai-readiness2019 (30.11.2020).
87. Palczewski S., Etyczna sztuczna inteligencja na polu bitwy? Amerykańskie wojsko uważa, że to
możliwe, [on-line], CyberDefence24, 05.11.2019, https://cyberdefence24.pl/etyczna-sztuczna-
inteligencja-na-polu-bitwy-amerykanskie-wojsko-uwaza-ze-to-możliwe (08.02.2020).
88. Palczewski S., Sztuczna inteligencja zmieni dynamikę konfliktu. Wojsko stanie przed nowymi
zagrożeniami, [on-line], CyberDefence24.pl, 10.02.2020,
https://www.cyberdefence24.pl/sztuczna-inteligencja-zmieni-dynamike-konfliktu-wojsko-
stanie-przed-nowymi-zagrozeniami (19.11.2020).
89. Parlament Europejski, Regulacje ws. sztucznej inteligencji: oczekiwania Parlamentu, [on-line],
europa.eu, 21.10.2020, https://www.europarl.europa.eu/news/pl/headlines/
society/20201015STO89417/regulacje-ws-sztucznej-inteligencji-oczekiwania-parlamentu
(30.11.2020).
271
90. Peserada K., Przetestujcie sztuczną inteligencją generującą tekst, [on-line], antyradio.pl,
07.11.2019, https://www.antyradio.pl/Technologia/Internet/Przetestujcie-sztuczna-inteligencje-
generujaca-tekst-36826 (12.01.2020).
91. Pilath S., Automated vehicles in the EU, [on-line], europa.eu, 01.2016.,
https://www.europarl.europa.eu/RegData/etudes/BRIE/2016/573902/EPRS_BRI(2016)573902_
EN.pdf (08.11.2018).
92. Pluta E.,. Etyczna sztuczna inteligencja. Czy etykę można zaprogramować?, [on-line], swps.pl,
08.2020, https://swps.pl/strefa-psyche/blog/relacje/22399-etyczna-sztuczna-inteligencja-czy-
etyke-mozna-zaprogramowac (08.12.2020).
93. Płoszczyński M., Sztuczna inteligencja zmieni rynek contactcenter?, [on-line], tworzywa.pl,
27.12.2017, https://www.tworzywa.pl/news/prezentacje/sztuczna-inteligencja-zmieni-rynek-
contact-center,101.html (27.05.2020).
94. Podsiadło J., Sztuczna inteligencja w SEO. Jak Google wykorzystuje AI?, [on-line], delante.pl,
30.03.2020, https://delante.pl/ai-sztuczna-inteligencja-w-seo/ (06.07.2020).
95. Polski Komitet ds. UNESCO, Sztuczna inteligencja a etyka – prace nad zaleceniem UNESCO,
[on-line], UNESCO, b.r., https://www.unesco.pl/neste/1/article/1/sztuczna-inteligencja-a-etyka-
8211-prace-nad-zaleceniem-unesco-1/ (17.01.2021).
96. Prajsnar P., Co wiemy o sztucznej inteligencji? Niewiele, a i tak za mało, [on-line], Online
Marketing, 16.09.2019, https://o-m.pl/artykul/co-wiemy-o-sztucznej-inteligencji-niewiele-a-i-
tak-za-malo (02.12.2019).
97. Pretkiel B., J. Czapla, J. Barciński (red.), Perspektywy wdrożenia sztucznej inteligencji, zmiany
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
272
107. Skruch P., Sztuczna inteligencja i samochody autonomiczne, [on-line], Aptiv, 11.12.2018,
https://www.pzpm.org.pl/pl/download/file (04.03.2020).
108. Sony, Aibo – unleash wonder, [on-line], aibo.com, b.r., https://us.aibo.com (20.09.2019).
109. Stone I., 30 Most Technologically Advanced Cancer Centers in the World, [on-line],
topmastersinhealthcare.com, 2016, https://www.topmastersinhealthcare.com/30-most-
technologically-advanced-cancer-centers-in-the-world/ (02.06.2020).
110. Syta J., Konieczność skutecznej ochrony Infrastruktury Krytycznej Państwa w świetle
najciekawszych ataków, 2018, [on-line: prelekcja na Exatel Security Days], (09.11.2019).
111. Sztuczna Inteligencja i jej zastosowanie w marketingu, [on-line] properad.pl, 18.01.2019,
https://properad.pl/artykul/62/Sztuczna-Inteligencja-i-jej-zastosowanie-w-marketingu
(07.07.2020).
112. Sztuczna inteligencja zarządzi naszymi miastami, [on-line], Newseria, 31.05.2019,
http://www.outsourcingportal.eu/pl/sztuczna-inteligencja-zarzadzi-naszymi-miastami
(03.03.2020).
113. Tadeusiewicz R., Pierwsza wyspa w archipelagu sztucznej inteligencji – metody symboliczne,
[on-line], natemat.pl, 05.06.2015, https://natemat.pl/144731,pierwsza-wyspa-w-archipelagu-
sztucznej-inteligencji-metody-symboliczne (12.01.2020).
114. Talk to Transformer, [on-line], b.r., https://talktotransformer.com (12.01.2020).
115. The EU needs its own security strategy to confront the digital threat, “Financial Times” [on-
line], 31.01.2019, https://www.ft.com/content/cd9f206e-2562-11e9-b20d-5376ca5216eb
(02.07.2020).
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
116. The Society for the Study of Artificial Intelligence and Simulation of Behavior (AISB), What is
Artificial Intelligence, [on-line], AISB, b.r., https://www.aisb.org.uk/public-engagement/what-
is-ai (13.05.2019).
117. Timmins B., The New Robots with <Frigid> Settings Allow Men to Simulate Rape,
“Independent UK” [on-line], 2017, https://www.independent.co.uk/life-style/sex-robots-frigid-
settings-rape-simula-tion-men-sexual-assault-a7847296.html (05.06.2020).
118. Trend Micro Polska, Sztuczna inteligencja – przyjaciel i wróg bezpieczeństwa informatycznego,
[on-line], Trend Micro, 16.08.2018, https://blog.trendmicro.pl/2018/08/16/sztuczna-
inteligencja-przyjaciel-i-wrog-bezpieczenstwa-informatycznego/ (19.04.2020).
119. Turek A., Sztuczna inteligencja – realne zagrożenie? Gates: „Nie rozumiem, czemu niektórzy
się nie przejmują”, [on-line], innpoland.pl, 30.05.2017, http://innpoland.pl/115221,sztuczna-
inteligencja-realne-zagrozenie-gates-nie-rozumiem-czemu-niektorzy-sie-nie-przejmuja,
(23.05.2019).
120. Vinge V., The Coming Technological Singularity: How to Survive in the Post-Human Era, [on-
line], San Diego State University, 1993, https://edoras.sdsu.edu/~vinge/misc/ singularity.html
(04.07.2020).
121. Walker M.J., Top Trends in the Gartner Hype Cycle for Emerging Technologies, [on-line],
gartner.com, 2017, https://www.gartner.com/smarterwithgartner/top-trends-in-the-gartner-hype-
cycle-for-emerging-technologies-2017/ (02.06.2020).
122. Wong Y.H. (et al.), Deterrence In the Age of Thinking Machines, [on-line], RAND, 2020,
https://www.rand.org/pubs/research_reports/RR2797.html (02.06.2020).
123. Woś K., Sztuczna inteligencja: przez nią coraz mniej myślimy i działamy bez zastanowienia,
[on-line], antyweb.pl, 22.04.2020, https://antyweb.pl/sztuczna-inteligencja-przez-nia-coraz-
mniej-myslimy-i-dzialamy-bez-zastanowienia/ (02.07.2020).
124. Wrzosek M., Skoordynowany Plan dla Sztucznej Inteligencji, [on-line], NASK, 07.12.2018,
https://cyberpolicy.nask.pl/skoordynowany-plan-dla-sztucznej-inteligencji/ (26.11.2020).
125. Xuanzun L., China’s first unmanned missile boat revealed at Airshow China 2018, “Global
Times” [on-line], 07.11.2018, http://www.globaltimes.cn/content/1126362.shtml (07.07.2020).
273
126. Zagórna A., Włoska strategia: 1 mld euro na SI, [on-line], sztucznainteligencja.org, 01.10.2020,
https://www.sztucznainteligencja.org.pl/wloska-strategia-1-mld-euro-na-si/ (18.01.2021).
Inne źródła:
1. Boryś W., Słownik etymologiczny języka polskiego, Wydawnictwo Literackie, Kraków 2010.
2. Dell Technologies, The Next Era of Human-Machine Partnerships. Emerging Technologies’
Impact on Society&Work in 2030, Institute For The Future, 2017.
3. Fundacja Digital Poland, Przegląd Strategii Rozwoju Sztucznej Inteligencji na Świecie,
Fundacja digitalpoland, Warszawa 2018.
4. Game Changers: AI and Machine Learning in Cybersecurity. A U.S./Japan Comparison,
Webroot. Smarter Cybersecurity 2017.
5. Gibilis S. (red.), The McGraw-Hill Illustrated Encyclopedia of Robotics & Artificial
Intelligence, McGraw-Hill Companies, New York 1994.
6. Gould J., Kolb W.L. (red.), A dictionary of the Social Sciences, Tavistock, London 1964.
7. Govini, Department of Defense Artificial Intelligence, Big Data and Cloud Taxonomy, 2017.
8. Hoadley D.S., Lucas N.J., Artificial Intelligence and National Security, Congressional Research
Service, 2018.
9. IBM Security, How much would a data breach cost your business? 2019 Cost of a Data Breach
Report, 2019.
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
10. Insurance Institute for Highway Safety, New estimates of benefits of crash avoidance features
on passenger vehicles, “Status Report”, 2010, nr 45.
11. IT Governance Institute, COBIT 4.1. Metodyka. Cele kontrolne. Wytyczne zarządzania Modele
dojrzałości, IT Governance Institute, Rolling Meadows 2010.
12. Kaczmarek J., Łepkowski W., Zdrodowski B. (red. nauk.), Słownik terminów z zakresu
bezpieczeństwa narodowego, Wydawnictwo AON, Warszawa 2008.
13. Kitler W., Obrona narodowa III RP: pojęcie, organizacja, system, rozprawa habilitacyjna,
„Zeszyty Naukowe AON”, Warszawa 2002.
14. Koziej S., Wstęp do teorii i historii bezpieczeństwa – skrypt internetowy¸ Warszawa 2010.
15. Krawiec K., Przetwarzanie i rozpoznawanie obrazów: wprowadzenie, Poznań 2018.
16. Laprus M. (red.), Leksykon wiedzy wojskowej, Wydawnictwo Ministerstwa Obrony Narodowej,
Warszawa 1979.
17. McKinsey&Company, Forbes Polska, Rewolucja AI. Jak sztuczna inteligencja zmieni biznes w
Polsce, 2017.
18. Michałowska G. (red.), Mały słownik stosunków międzynarodowych, Wydawnictwa Szkolne i
Pedagogiczne, Warszawa 1997.
19. Mojsiewicz C. (red.), Leksykon współczesnych międzynarodowych stosunków politycznych, Atla
2, Wrocław 2004.
20. Olszak P., Rozpoznawanie obiektów na zdjęciach poprzez zadawanie minimalnej liczby pytań,
praca magisterska, Toruń: Uniwersytet Mikołaja Kopernika, 2010.
21. Pac B., Nowak A., Borecki M., Zastosowanie operacji informacyjnych w planowaniu i
prowadzeniu działań przez Siły Zbrojne RP w ujęciu doktrynalnym, Warszawa 2008.
22. PWC, 2018 AI Predictions: 8 insights to shape business strategy, 2018.
23. Ranft F., Adler M., Diamond P. i in., Freeing the Road: Shaping the future for autonomous
vehicles, A Policy Network Special Report, Policy Network, London 2016.
24. Reich L., Sawyer D., Archiving Referencing Model, White Book, Issue 5, CCSDS 1999.
274
25. Słownik terminów z zakresu bezpieczeństwa narodowego, Wydawnictwo AON, Warszawa
2008.
26. Szymeczko W., Perspektywy wykorzystania pojazdów autonomicznych w transporcie
drogowym w Polsce, praca inżynierska, Akademia Morska, Gdynia 2018.
27. The Oxford Reference Dictionary, Oxford: Oxford University Press, 1991.
28. THINKTANK, Iloraz sztucznej inteligencji. Potencjał sztucznej inteligencji w sektorze
publicznym, Ośrodek dialogu i analiz THINK TANK, Warszawa 2020.
29. Trapp A. (red.), AI: wyzwania i konsekwencje. Pilot view, infuture hatalska foresight institute,
Gdańsk 2019.
30. Zgółkowa H., Praktyczny słownik współczesnej polszczyzny, T. 40, Wydawnictwo Kurpisz,
Poznań 1994.
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
275
Spis rysunków i fotografii
Spis wykresów
276
Wykres 10. Rozkład odpowiedzi na pytanie 10. Czy Pani/Pana zdaniem, o celu wykorzystania
technologii opartych na sztucznej inteligencji może decydować jedynie osoba lub organizacja
sponsorująca prowadzenie badań w zamówionym przez siebie obszarze? ............................ 193
Wykres 11. Rozkład odpowiedzi na pytanie 11. Czy dostrzega Pani/Pan potrzebę
wprowadzenia odgórnych regulacji prawnych dotyczących zasad tworzenia i rozwoju
sztucznej inteligencji?............................................................................................................. 194
Wykres 12. Rozkład odpowiedzi na pytanie 12. Kto, Pani/Pana zdaniem, powinien być
odpowiedzialny za regulacje prawodawstwa związanego z technologią sztucznej inteligencji?
................................................................................................................................................ 195
Wykres 13. Rozkład odpowiedzi na pytanie 13. Proszę wskazać dokumenty określające
etyczne zasady tworzenia i korzystania ze sztucznej inteligencji, z którymi miał/-a Pan/Pani
styczność................................................................................................................................. 196
Wykres 14. Rozkład odpowiedzi na pytanie 14. Czy Pani/Pana zdaniem, urządzenia (w tym
roboty) i programy oparte na technologii sztucznej inteligencji powinny otrzymać w
przyszłości osobowość prawną? ............................................................................................. 197
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
Wykres 15. Rozkład odpowiedzi na pytanie 15. Czy Pani/Pana zdaniem, urządzenia (w tym
roboty) i programy oparte na technologii sztucznej inteligencji powinny otrzymać w
przyszłości osobowość elektroniczną? ................................................................................... 198
Wykres 16. Rozkład odpowiedzi na pytanie 16. Czy Pani/Pana zdaniem, projektanci i twórcy
sztucznej inteligencji powinni ponosić odpowiedzialność za szkody popełnione przez
maszyny/oprogramowanie/urządzenia, których działanie byłoby zgodne z wgranym
algorytmem? ........................................................................................................................... 199
Wykres 17. Rozkład odpowiedzi na pytanie 17. Czy Pani/Pana zdaniem, projektanci i twórcy
sztucznej inteligencji powinni ponosić odpowiedzialność za to, w jaki sposób inne podmioty
będą korzystać z efektów ich pracy? ...................................................................................... 200
Wykres 18. Rozkład odpowiedzi na pytanie 18. Czy zgadza się Pani/Pan z twierdzeniem, że
społeczeństwo powinno mieć możliwość wyboru, czy pozostawiać decyzję w rękach
sztucznej inteligencji i w jakim stopniu oddać jej decyzyjność w określonych obszarach? .. 201
Wykres 19. Rozkład odpowiedzi na pytanie 19. W jakim obszarze działalności Pani/Pana
organizacji wykorzystuje się rozwiązania oparte na technologii sztucznej inteligencji? ....... 202
Wykres 20. Rozkład odpowiedzi na pytanie 20. Czy Pani/Pana zdaniem, wykorzystanie
rozwiązań opartych na technologii sztucznej inteligencji do pracy wykonywanej dotychczas
przez człowieka i związana z tym dehumanizacja pracy stanowi szansę czy zagrożenie dla
społeczeństwa? ....................................................................................................................... 203
277
Wykres 21. Rozkład odpowiedzi na pytanie 21. Czy Pani/Pana zdaniem, upowszechnienie
technologii sztucznej inteligencji przyniesie wymierne korzyści w skali globalnej dla
poniższych odbiorców? .......................................................................................................... 204
Wykres 22. Rozkład odpowiedzi na pytanie 22. Jakie dostrzega Pani/Pan trudności związane
z wdrożeniem i stosowaniem rozwiązań opartych na technologii sztucznej inteligencji? .... 205
Wykres 23. Rozkład odpowiedzi na pytanie 23. Czy zdecydował/by/-aby się Pan/Pani na
skorzystanie z poniżej wymienionych osiągnięć technologicznych wiążących się z
wykorzystaniem sztucznej inteligencji?................................................................................. 206
Wykres 24. Rozkład odpowiedzi na pytanie 24. Mając na uwadze dotychczasowy i
prognozowany stan rozwoju technologii opartych na sztucznej inteligencji, proszę wskazać
prawidłowe, w Pani/Pana opinii, zakończenie zdania: "W związku z rozwojem technologii
opartych na sztucznej inteligencji…” .................................................................................... 208
Wykres 25. Rozkład odpowiedzi na pytanie 25. Jak określiłby/-aby Pan/Pani swoje
stanowisko odnośnie szans i zagrożeń wynikających z wdrażania i rozwoju technologii
opartych o sztuczną inteligencję? .......................................................................................... 209
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
Spis tabel
278
Załączniki
Załącznik 1. Kwestionariusz ankiety
524
W rozumieniu osób i przedstawicieli organizacji, którzy rozwijają, uruchamiają i wykorzystują systemy
sztucznej inteligencji.
279
Bezpieczeństwo ekonomiczne (handel i biznes, działalność marketingowa,
dokonywanie transakcji finansowych, inwestycje, obsługa klienta, usługi
ubezpieczeniowe)
Bezpieczeństwo kulturowe (personalizacja komunikatów, personalizacja reklam,
działalność artystyczna, tworzenie dzieł kultury – teksty literackie, filmy, muzyka)
Bezpieczeństwo energetyczne (zarządzanie zużyciem energii, wydobycie
i wykorzystanie surowców naturalnych, wytwarzanie i zaopatrywanie w energię
elektryczną i gaz, )
Inne – jakie?
Bezpieczeństwo ekonomiczne
Bezpieczeństwo kulturowe
Bezpieczeństwo energetyczne
Inne – jakie?
281
Odpowiedzialność finansowa za szkody spowodowane przez autonomiczne urządzenia
i/lub programy
Transparentność działań podejmowanych przez autonomiczne urządzenia lub programy
Kwestie związane z ochroną własności przemysłowej i intelektualnej, prawa
autorskiego
Ochrona pracowników, których zadania przejmowane są przez autonomiczne
urządzenia lub programy
282
Zdecydowanie tak
Raczej tak
Raczej nie
Zdecydowanie nie
Trudno powiedzieć
12. (Jeżeli w pyt. 11. odpowiedziano „Zdecydowanie tak” lub „Raczej tak”)
Kto, Pani/Pana zdaniem, powinien być odpowiedzialny za regulacje prawodawstwa
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
283
Nie miałam/-em styczności z żadnym dokumentem odnoszącym się do etycznych zasad
tworzenia i korzystania ze sztucznej inteligencji
Raczej nie
Zdecydowanie nie
Trudno powiedzieć
285
Konsumenci □ Tak □ Nie □ Trudno powiedzieć
Gospodarka krajowa □ Tak □ Nie □ Trudno powiedzieć
Administracja publiczna □ Tak □ Nie □ Trudno powiedzieć
Jakość życia społeczeństwa □ Tak □ Nie □ Trudno powiedzieć
Środowisko naturalne □ Tak □ Nie □ Trudno powiedzieć
286
24. Mając na uwadze dotychczasowy i prognozowany stan rozwoju technologii
opartych na sztucznej inteligencji, w każdej parze poniższych twierdzeń proszę
wskazać prawidłowe, w Pani/Pana opinii, zakończenie zdania.
W związku z rozwojem technologii opartych na sztucznej inteligencji…
a) □ … oferowane klientom produkty i usługi będą w przyszłości bardziej
spersonalizowane.
□ … oferowane klientom produkty i usługi będą w przyszłości za bardzo
spersonalizowane.
b) □ … średni koszt pozyskania usług lub produktów specjalistycznych spadnie.
□ … średni koszt pozyskania usług lub produktów specjalistycznych wzrośnie.
c) □ … poziom bezpieczeństwa programów i urządzeń IT zwiększy się.
□ … poziom bezpieczeństwa programów i urządzeń IT zmniejszy się.
d) □ … całkowite koszty pracy przedsiębiorstw (zakup technologii, zakup i konserwacja
sprzętu, szkolenie i utrzymanie personelu) zmniejszą się.
□ … całkowite koszty pracy przedsiębiorstw (zakup technologii, zakup i konserwacja
sprzętu, szkolenie i utrzymanie personelu) zwiększą się.
Pobrano z https://bazawiedzy.uph.edu.pl / Downloaded from Repository of Siedlce University of Natural Sciences and Humanities 2023-07-16
Doktorant
Wykładowca
Specjalista – członek zespołu badawczego
C. Ze sztuczną inteligencją
Nie pracuję
Pracuję poniżej 1 roku
Pracuję 1 rok – 5 lat
Pracuję 5 lat – 10 lat
Pracuję dłużej niż 10 lat
D. Wykształcenie
Podstawowe
Zasadnicze zawodowe
Średnie
Wyższe
288