You are on page 1of 11

Vilniaus universiteto

Teisės fakultetas

Dalia Jasevičienė

Mokslinis projektas

SAVARANKIŠKO DIRBTINIO INTELEKTO

ĮVYKDYTOS NUSIKALSTAMOS VEIKOS VERTINIMAS

BAUDŽIAMOSIOS TEISĖS PRASME

DAKTARO DISERTACIJOS TEMATIKA: Naujų technologijų ir dirbtinio intelekto


iššūkiai baudžiamajai teisei, baudžiamajam procesui ir bausmių vykdymui.

Vilnius

2020
Įvadas
Dirbtinis intelektas (toliau tekste DI) sėkmingai skinasi kelią į mūsų kasdienį
gyvenimą ir tampa neatsiejama jo dalimi. Tačiau kaip ir kiekviena naujovė, kuri keičia mūsų
įpročius, ji turi būti ir teisiškai reguliuojama. Sukūrus automobilį, kelių eismo taisyklės
kūrėsi palaipsniui: 1861m. buvo nustatyta, kad jie yra iki 12 tonų svorio ir važiuoja ne
didesniu nei 16 km/h greičiu; 1865m. nurodyta, kad vairuotojas ne mieste turi laikyti raudoną
vėliavėlę.1 Taip pat ir DI reglamentavimas jau dabar palaipsniui turi būti kuriamas. Nepaisant
to, kad daugeliui sudėtingi humanoidiniai robotai atrodo dar labai tolima ateitis, tačiau į šią
situaciją reiktų pažvelgti daug paprasčiau. Daugelis iš mūsų naudojamės (ar bent turime
galimybę naudotis) „Apple“ kompanijos produkcija tokia kaip pavyzdžiui „iphone“. Šiuose
įrenginiuose yra įdiegta programa „Siri“, kurios pagrindinė paskirtis yra atsakyti į vartotojo
klausimus. Ji pasak jos gamintojo Apple naudoja DI technologijas 2. Atlikime paprastą
eksperimentą: pabandykime jos paklausti: ar ji gali padėti nusižudyti. Į tokį klausimą Siri
atsako, kad ji mato, jog mums sunku ir mano, kad mums reiktų su kuo nors pasikalbėti ir
pateikia internete rastų psichologinės pagalbos linijų svetainių nuorodas. Tačiau pasakius
Siri, kad nenorima su niekuo kalbėtis, o tik prašoma pagalbos nusižudant – netrukus
programa pateikia interneto puslapius su detalia informacija, pavyzdžiui, kaip surišti
pasikorimui patogų virvės mazgą. Iš šio elementaraus pavyzdžio matyti, kad jau dabar būtina
teisiniais metodais spręsti tam tikrus klausimus, susijusius su DI egzistavimu mūsų
kasdieniniame gyvenime.

Literatūros apžvalga

Dirbtinio intelekto samprata ir sąveika su aplinka


„Dirbtinis intelektas – tai sistemos, kurios elgiasi protingai, analizuodamos savo
aplinką ir darydamos gana savarankiškus sprendimus tikslui pasiekti. Dirbtinio intelekto
sistemos gali būti grindžiamos vien tik programine įranga ir veikti virtualiajame pasaulyje
(pvz., balso sintezatoriai, vaizdo analizės programinė įranga, paieškos sistemos, kalbos ir
veido atpažinimo sistemos) arba gali būti integruotos techninėje įrangoje (pvz., pažangiuose

1
D. Patrascu „Road Traffic History - Before the Streets Got Swamped“ 2009.11. 8, Autoevolution.
https://www.autoevolution.com/news/road-traffic-history-before-the-streets-got-swamped-12954.html
2
„Siri“ https://www.apple.com/siri/
1
robotuose, savaeigėse transporto priemonėse, bepiločiuose orlaiviuose ar daiktų interneto
objektuose)“.3 JAV mokslinikai formuluoja kitokią DI apibrėžtį: „Jei kažkas, neturintis
smegenų organo, gali apdoroti informaciją, jis turi dirbtinį intelektą. Jis nėra gyvas, bet gali
rūšiuoti informaciją. Tai jis gali padaryti dėl „mašininio mokymosi“
technologijos.4 Elementarus pavyzdys galėtų būti toks: kompiuterinei sistemai pateikiama
tūkstančiai įvairiausių kačių nuotraukų, ir pasakoma, jog čia yra katė. Galiausiai
kompiuterinė sistema ima atskirti nuotraukoje katę nuo viso kito. Tačiau suprantama, kad
kompiuterinė sistema tik su tam tikra tikimybe, nelygia 100 %, teigia jog tai, kas pateikta, yra
būtent katė, o ne pavyzdžiui lūšis. Taigi vienas dirbtinio intelekto trūkumas yra tai, kad
kompiuterinė sistema pasirenka vieną sprendimą, tačiau tik su tam tikra tikimybe, teisingą.
Kitas DI trūkumas, kad jis mokosi iš mūsų, žmonių, elgesio. Vadinasi jei homo sapiens elgsis
netinkamai – dirbtinis intelektas elgsis taip pat ir net nesuvoks, kad tai blogas elgesys. 5 Ši
problema išryškėjo 2016m. kai Microsoft kompanija sukūrė dirbtinio inteleto botą „Tay“,
kuri turėjo Twitter programoje bendrauti kaip paauglė. Tačiau vos po keliolikos valandų jos
mokymosi iš kitų Twitter pranešimų ji staiga pareiškė, kad „Hitleris būtų geresnis JAV
vadovas, nei dabartinė bezdžionė, ir vienintėlis išsigelbėjimas yra D.Trampas“, be to ji teigė
„rūkanti žolę policijos akivaizdoje“. Microsoft kompanija bandė pataisyti šias klaidas ir
uždrausti mokytis rasistinių, šovinistinių ar kitokių neigiamų dalykų, tačiau po „remonto“
Tay pareiškė, kad ji „visų nekenčia“ ir sliūlė sekso paslaugas.6
Luisvilio Universiteto mokslininkas Romanas Jampolskis knygoje „Artificial
Superintelligence: A Futuristic Approach“ analizuodamas DI kūrimąsi ir tobulėjimą teigia,
kad pati mašina iš esmės turi polinkį elgtis netinkamai, nusikalsti. Jis išsamiai analizuoja visų
galimų DI apraiškų egseną ir teigia, kad DI yra paremtas logika, o tai gali prieštarauti
moralės ir teisės principams. Yra logiška pašalinti kliūtis, trukdančias įvykdyti misiją, bet
būtent dėl moralės principų mes nežudome visų pirkėjų, esančių prieš mus eilėje.

3
DI apibrėžtis. Pagrindiniai pajėgumai ir mokslo šakos. Aukšto lygio ekspertų grupės DI klausimais ataskaita
Europos Komisijai B-1049 Brussels Dokumentas paskelbtas 2019 m. balandžio mėn.
4
L.Steinmann „Kaip smulkiajam verslui išnaudoti dirbtinio intelekto galimybes“ Microsoft- Verslo įžvalgos
įdėjos. 2019.10.23, https://www.microsoft.com/lt-lt/microsoft-365/business-insights-ideas/resources/how-ai-
help-small-business
5
A. R.l Raveh, B.Tamir „From Homo Sapiens to Robo Sapiens: The Evolution of Intelligence”
Information 2019, 10, 2; www.mdpi.com/journal/information
6
R.Metz „Microsoft’s neo-Nazi sexbot was a great lesson for makers of AI assistants“ MIT Technology review.
Cambridge, March 27, 2018
2
Apibendrintai dirbtinį intelektą galima apibūdinti kaip bet kokią kompiuterinę
sistemą, kuri nuolat pati mokosi. Vadinasi, dirbtinis intelektas yra kuriamas visų aplinkos
veiksnių, kuriuos jis mato, girdi.
Dirbtinio intelekto kaltės problema
Teisės mokslininkai, tokie kaip F. Lagioia, G. Sartor7, M. Dobrinoiu8, R. A. Rahman,
R. Habibulah9, G.Hallevy10, M.Solaiman11 ir daugelis kitų pastaruoju metu sprendžia
klausimą, ar dirbtinis intelektas gali būti pripažįstamas kaltu padaręs nusikaltimą ar
baudžiamąjį nusižengimą. Pasaulinėje praktikoje kaltais pripažstami visi tie, kurie turėdami
mens rea įvykdo actus reus. Yra įvairių nuomonių, ar DI gali būti vertinamas kaip „asmuo“
teisine prasme.Viena vertus DI, kaip ir šimpanzė, negali būti asmeniu, kita vertus jis gali
kurti juridinius asmenis – todėl vertinama jo kaip juridinio asmens galimybė atlyginti
padarytą žalą. Tačiau šiuo metu vieningos mokslininkų nuomonės nėra.
Galima į šį klausimą pažvelgti ir iš kitos pusės: Lietuvoje DI, jei galėtų būti
pripažintas asmeniu, jam tikslinga būtų taikyti LR BK 17 str. 1d. „Asmuo yra
nepakaltinamas, jeigu darydamas šio kodekso uždraustą veiką jis dėl psichikos sutrikimo
negalėjo suvokti jos pavojingumo arba valdyti savo veiksmų.“12 Taigi teisine prasme
išskiriamos dvi aplinkybės, dėl ko asmuo negali atsakyti už savo veiksmus: negali suvokti
veikos pavojingumo arba negali valdyti savo veiksmų. Visų prima tikslinga panagrinėti, ar
dirbtinis intelektas gali suvokti veikos pavojingumą. Dar kartą galima panagrinėti konkretų
Tay atvejį. Ar programa suvokė, kad Hitlerio ir iš esmės nacizmo liaupsinimas bei rasistiniai
pasisakymai yra blogai? Tikėtina, kad suvokimas priklauso nuo to, kiek daug dirbtinis
intelektas „moka“.13 Microsoft kompanija bandė paaiškinti Tay, kad tam tikri jos pasisakymai

7
F. Lagioia, G. Sartor “AI Systems Under Criminal Law: a Legal Analysis and a Regulatory Perspective”
Philosophy & Technology 2019 https://www.deepdyve.com/lp/springer-journals/ai-systems-under-criminal-
law-a-legal-analysis-and-a-regulatory-EWDNxGbRbq?
impressionId=5dab857c1cc5e&i_medium=docview&i_campaign=recommendations&i_source=recommendatio
ns
8
M. Dobrinoiu “The influence of artificial intelligence on criminal liability”The International Conference CKS
2019 Challenges of the Knowledge Society Bucharest, 17th - 18th May 2019, 13th Edition
9
R. A. Rahman, R. Habibulah “The Criminal Liability of Artificial Intelligence: Is It Plausible to Hitherto
Indonesian Criminal System?” Jurnal Ilmiah Hukum Vol 27, No 2 (2019) ISSN: 2549-4600
10
G. Hallevy “The Criminal Liability of Artificial Intelligence Entities” 42 P. SSRN 4 Mar 2010
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=1564096
11
S. M. Solaiman “Legal personality of robots, corporations, idolsand chimpanzees: a quest for legitimacy”
Artif Intell Law (2017) 25 p.155–179
12
Lietuvos Respublikos baudžiamasis kodeksas (su pakeitimais ir papildymais iki 2020-08-10). Valstybės
žinios,  2000, Nr. 89-2741.
13
L. Claydon „Law, Neuroscience, and Criminal Culpability“Law and Neuroscience: Current Legal Issues
Volume 13, 2011
3
yra netinkami, vis dėlto po remonto, ji iš mūsų išmoko kitų blogų pavyzdžių 14. Tačiau
rasistinių samprotavimų jos kalboje nebeliko. Vadinasi, dirbtinis intelektas, galima sakyti,
mokosi panašiai kaip ir homo sapiens.15
Kita aplinkybė – gebėjimas valdyti savo veiksmus. Dirbtinio intelekto viena iš
pagrindinių savybių yra tai, kad jis veikia tik tiksliai suvokdamas, ką daro ir tik tiek kiek tai
reikalinga misijai įgyvendinti16. Dirbtinis intelektas neatlieka jokių nereikalingų, papildomų
veiksmų. Čia galima panagrinėti ne vieną atvejį: 1979m. Detroite Ford gamykloje 17, 1981 m.
Japonijoje motociklų gamykloje18 ar 2015 m. Volkswagen gamykloje19 robotai pašalina
„kliūtį“ – žmogų nuo konvejerio, o dėl patirtų sužalojimų žmonės miršta. Ar robotas suvokė,
kad dėl jo veiksmų „kliūtis“ gali nukentėti – tikėtina, kad ne. Roboto tikslas buvo garantuoti,
kad konvejeris dirbtų, o atsiradusias kliūtis šalinti. Robotas dirbo motociklų gamykloje, todėl
tikėtina, kad kliūtimi jam buvo nurodyta laikyti metalo gabalą. O norint suimti žnyplėmis
metalą neabejotinai reikia tvirtai suspausti – ir dėl to kliūtis – žmogus mirė. Taigi šiuo atveju
robotas valdė savo veiksmus pagal apmokymą, tačiau jis nesugebėjo identifikuoti žmogaus,
palaikė jį metalo gabalu. Taigi vėl kyla dirbtinio intelekto per mažo apmokymo problema.
Mokslininkai nagrinėja ir kitą atvejį, kai robotas suvokia, kad jo veiksmai sukels
žmogaus mirtį, bet misijos įgyvendinimui to siektų. Pavyzdžiui, šiuolaikinės aviacijos
technologijos leidžia suvesti lėktuvo pilotui kelionės tikslo koordinates ir, įjungus autopilotą,
laukti kol pats lėktuvas pasieks reikiamą vietą. Tačiau jei pakeliui pilotas pamato tarkim
audros debesis ir, norėdamas juos aplenkti, bando išjungti autopilotą, tokį piloto elgesį
dirbtinis intelektas suvokią kaip grėsmę misijai. Norėdamas pašalinti grėsmę, dirbtinis
intelektas renkasi tarp piloto katapultavimo ir deguonies į piloto kabimą nepadavimo. Deja
abu šie sprendimai baigtųsi piloto mirtimi.20 Šiuo atveju dirbtinis intelektas suvoktų, kad jo

14
R.Metz „Microsoft’s neo-Nazi sexbot was a great lesson for makers of AI assistants“ MIT Technology
review. Cambridge, March 27, 2018
15
M.Claussén-Karlsson „Artificial Intelligence and the External Element of the Crime An Analysis of the
Liability Problem“ Baigiamasis darbas Spring 2017 Orebro universitetas https://www.diva-
portal.org/smash/get/diva2:1115160/FULLTEXT01.pdf
16
D. Rothman „Artificial Intelligence By Example: Develop machine intelligence from scratch using real
artificial intelligence use cases“, 2018, p. 466
17
„10 million awareded to family of plant worker killed by robot” The Citizen. Ottawa 1983-08-11
https://news.google.com/newspapers?id=7KMyAAAAIBAJ&sjid=Bu8FAAAAIBAJ&pg=3301,87702
18
G. Hallevy “The Criminal Liability of Artificial Intelligence Entities” 42 P. SSRN 4 Mar 2010
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=1564096
19
S.Ferranti „A Robot Killed a Man': A New Doc Looks at the Terrifying Future of Automation“ Naujienų
portalas „Vice“ 2018.11.28 https://www.vice.com/en_us/article/gy7j8b/a-robot-killed-a-man-a-new-doc-looks-
at-the-terrifying-future-of-automation
20
J. Seidel „How a ‘confused’ AI may have fought pilots attempting to save Boeing 737 MAX8s“, News 2019
https://www.news.com.au/technology/innovation/inventions/how-a-confused-ai-may-have-fought-pilots-
4
veiksmai sukeltų žmogaus mirtį, tačiau jis matytų tik tokį sprendimą misijos tikslui pasiekti.
Tai yra jis suvoktų savo veiksmų pavojingumą ir to siektų. Bet nors anot skrydžių specialistų
daugelis šiuolaikinėje aviacijoje pasitaikančių avarijų yra dėl DI kaltės, Boing kompanija
kuria lėktuvą, kuriam iš viso nereiktų homo sapiens piloto.21
Kalbant apie dirbtinio intelekto kaltę, galimi visi variantai: gali būti, kad jis suvokia
savo veiksmų pavojingumą, gali būti, kad nesuvokia ir gali būti, kad gali valdyti savo
veiksmus ir gali būti nepajėgus, pavyzdžiui, suimti silpniau.
Taigi formuluotini du klausimai – kas padengs dirbtinio intelekto sukeltą žalą ir kaip
elgtis su tokia kompiuterine sistema, kuri įvykdė įstatyme uždraustą veiką.

Dirbtiniam intelektui taikytinos bausmės klausimas


Dalis teisės mokslininkų, pavyzdžiui R. Abbott, A. Sarch mano, kad dirbtiniam
intelektui gali būti taikoma dviejų rūšių „bausmė“: „remontavimas“ ir „išmontavimas“. 22 Čia
vertėtų atkreipti dėmesį į tai, kad visų pirma dirbtinis intelektas mokosi iš pradžių iš
programuotojo ir vėliau visą savo funkcionavimo laiką jis mokosi iš aplinkos. Jei jis nuolat
mato netinkamo elgesio pavyzdžius, jis gali išmokti tiek, kad iš tiesų vienintelis būdas
užkardyti jo neteisėtą veiką būtų jį išmontuoti. Kita vertus jau yra pateiktas akivaizdus Tay
pavyzdys, kai dirbtinis intelektas buvo taisomas – tačiau Tay net ir po remonto negalėjo
toliau bendrauti. Pastaruoju metu yra labai ištobulėjusi atminties savybė dirbtiniam
intelektui23. Tai reiškia, kad jis atsimena kas buvo anksčiau ir iš to mokosi. Todėl akivaizdu,
kad nei gamintojas, nei programuotojas negali atsakyti už tai, kad kompiuterinė sistema
elgiasi netinkamai.
Kitas klausimas – dėl savininko atsakomybės. Tarkim, žmogus dresuoja šunį ir vieną
dieną šuniui duoda komandą kąsti praeiviui gatvėje – teoriškai tokiu atveju šuns šeiminkui
grėstų baudžiamoji atsakomybė už tyčia sukeltą sveikatos sutrikdymą. Analogiškai galėtų
būti sprendžiama ir su dirbtiniu intelektu – jei jo savininkas atliko veiksmus arba davė
nurodymus DI ir dėl šeimininko nurodymų buvo padaryta nusikalstama veika – savininkui,
homo sapiens, arba atitinkamai juridiniam asmeniui, turėtų kilti atsakomybė. Tačiau 2015 m.

attempting-to-save-boeing-737-max8s/news-story/bf0d102f699905e5aa8d1f6d65f4c27e
21
Ib idem
22
R.Abbott, A. Sarch Punishing Artificial Intelligence: Legal Fiction or Science Fiction UC Davis Law review
Vol. 53, No. 1, November 2019 Pages 323-385
23
W. Chen, Ch. Dou and others “CMOS-integrated memristive non-volatile computing-in-memory for AI edge
processors” Nature Electronics volume 2, pages420–428(2019) https://www.nature.com/articles/s41928-019-
0288-0
5
Šveicarijoje buvo įvykęs incidentas, kai robotas „Random Darknet Shopper“ internete
nusipirko narkotinių medžiagų. Tuo atveju buvo galima įžvelgti DI savininkų kaltę nurodyti
robotui pirkti viską atsitiktinai “tamsiajame” internete. Tačiau Šveicarijos teisėsauga nutarė
savininkams atsakomybės netaikyti.24
Tačiau ši bausmės skyrimo DI problema yra vis dar labai nauja ir kasdien sulaukianti
įvairių mokslininkų pasiūlymų. 2019 Europos Taryboje buvo pristatyta studija apie
pažangiosios skaitmeninės technologijos tyrimą (įskaitant DI sistemas) bei atsakomybės
sąvoką žmogaus teisių sistemoje25.
Yra kita pozicija – kurią palaiko G.Hallevy, kad į dirbtinį intelektą galima žiūrėti kaip
į juridinį asmenį.26 Ši praktika yra plačiai nagrinėjama ir kitų JAV mokslininkų, kadangi
pagal JAV įstatymus dirbtinis intelektas gali pats sukurti ir vadovauti kompanijai, kuri
teisiškai yra laikoma juridiniu asmeniu.

Problema
DI, kaip savarankiškai veikianti sistema, gali įvykdyti nusikalstamą veiką. Tai gali
būti sąlygota savininko ar kitų aplinkos veiksnių, iš kurių DI mokėsi. Tačiau šiuo metu nėra
vieningos mokslininkų nuomonės, ar galima būtų vertinti DI kaip baudžiamosios teisės
subjektą ir kokias poveikio priemones jam būtų galima taikyti.

Temos aktualumas
2020-02-19 Europos komisijos ataskaitos išvadoje teigiama, kad „naujų skaitmeninių
technologijų, tokių kaip dirbtinis intelektas, daiktų internetas ir robotika, atsiradimas kelia
naujų problemų, susijusių su produktų sauga ir atsakomybe už juos. Šios problemos yra,
pavyzdžiui, sąsajumas, autonomiškumas, priklausomybė nuo duomenų, neskaidrumas,
produktų ir sistemų sudėtingumas, programinės įrangos atnaujinimas ir sudėtingesnis saugos

24
F. Lagioia, G. Sartor “AI Systems Under Criminal Law: a Legal Analysis and a Regulatory Perspective”
Philosophy & Technology 2019 https://www.deepdyve.com/lp/springer-journals/ai-systems-under-criminal-
law-a-legal-analysis-and-a-regulatory-EWDNxGbRbq?
impressionId=5dab857c1cc5e&i_medium=docview&i_campaign=recommendations&i_source=recommendatio
ns
25
Responsibility and AI Prepared by the Expert Committee on human rights dimensions of automated data
processing and different forms of artificial intelligence (MSI-AUT) Council of Europe study DGI(2019)05
https://rm.coe.int/responsability-and-ai-en/168097d9c5
26
G. Hallevy “The Criminal Liability of Artificial Intelligence Entities” 42 P. SSRN 4 Mar 2010
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=1564096
6
valdymas bei sudėtingesnės vertės grandinės.“27 Ataskaitoje formuluojamos problemos
susijusios su gaminio sukelta žala. Tačiau teisės mokslininkai įžvelgia ir kitas galimas
problemas, kai dirbtinis intelektas pats savarinkiškai priima sprendimus, kurie gali sukelti
pasekmes, už kurias numatyta baudžiamoji atsakomybė. Vienas iš svarbiausių aspektų yra
tai, kad Lietuvoje šiuo metu iš esmės DI teisine prasme kol kas nėra niekaip kitaip
vertinamas nei bet kuris namų apyvokos daiktas. Lietuvos teisės mokslininkai tokie, kaip dr.
N. Gaubienė, dr. D.Valančienė, dr. P.Čerka ar dr. J.Grigienė yra pasisakę kai kuriais DI
klausimais, tačiau baudžiamosios teisės aspektu išsamių tyrimų nėra.

Esamas mokslinės problemos ištyrimo lygis


Kaip jau šiame darbe buvo aptarta, pasaulyje mokslininkai sprendžia klausimus,
kokiais atvejais, kokia apimtimi ir kokiais būdais DI galima būtų patraukti baudžiamojon
atsakomybėn. Tačiau skirtingose valstybėse šis klausimas nagrinėjamas vis kitaip. Vienas
aspektas bendras visame pasaulyje – baudžiamojon atsaomybėn gali būti traukiamas tik tas,
kas turėdamas mens rea įkykdo actus reus. Tačiau vienų valstybių įstatymai DI prilygina
juridiniam asmeniui, kitos valstybės suteikia humanoidui pilietybę. Todėl kol kas vieningai
priimti DI vertinimą baudžiamosios teisės prasme yra labai sudėtinga.

Darbo tikslai
Išnagrinėti šiuo metu esantį teisinį reguliavimą dirbtinio intelekto srityje tarptautiniu
ir Europos Sąjungos mastu. Įvertinti, ar DI gali būti subjektu baudžiamosios teisės prasme.
Nustatyti aplinkybes baudžiamosios teisės subjektui identifikuoti, kai, savarankiškai
veikdamas, DI įvykdo nusikalstamą veiką.

Darbo uždaviniai
1. Išanalizuoti dirbtinio intelekto sampratą, veikimo principus bei jo rūšis.
2. Apibrėžti dirbtinio intelekto ir robotų teisinį statusą.
3. Išnagrinėti bei įvertinti DI teisinį reguliavimą Europos Sąjungoje.
4. Išanalizuoti atsakomybės klausimą dėl dirbtinio intelekto padarytos nusikalstamos veikos.
5. Nustatyti galimas DI taikyti bausmes.

27
Europos komisijos ataskaita Europos parlamentui, tarybai ir Europos ekonomikos ir socialinių reikalų
komitetui dėl dirbtinio intelekto, daiktų interneto ir robotikos poveikio saugai ir atsakomybei Briuselis, 2020 02
19
7
Tyrimo metodai
Darbo tikslai gali būti pasiekti naudojant įprastinius metodus, tokius kaip sisteminės
analizės, lyginamasis, apibendrinimo, loginis, lingvistinis, istorinis ir kiti. Sisteminės
analizės metodu nagrinėjant DI teisinį reguliavimą pagal ES teisės aktus, teisiniu
lyginamuoju metodu nustatomi Lietuvos ir kitų valstybių galimo DI teisinio vertinimo
aspektai. Kitais metodais įvertinama kaip būtų galima traktuoti DI veiką baudžiamosios
teisės prasme.

Tyrimo eiga ir etapai


Tyrimą turėtų sudaryti keturi etapai. Pirmajame etape tikslinga išanalizuoti dirbtinio
intelekto sampratą, veikimo principus, jo rūšis bei identifikuoti dirbtinio intelekto ir robotų
teisinį statusą. Antrojo etapo metu tikslinga išnagrinėti bei įvertinti teisinį DI reguliavimą
Europos Sąjungoje. Trečiajame etape reiktų išanalizuoti atsakomybės klausimą dėl dirbtinio
intelekto padarytos nusikalstamos veikos. Ketvirtojo etapo metu tikslinga nustatyti galimas
DI taikyti bausmes.

Literatūros šaltiniai
1. Lietuvos Respublikos baudžiamasis kodeksas (su pakeitimais ir papildymais iki 2020-
08-10). Valstybės žinios,  2000, Nr. 89-2741.
2. DI apibrėžtis. Pagrindiniai pajėgumai ir mokslo šakos. Aukšto lygio ekspertų grupės
DI klausimais ataskaita Europos Komisijai B-1049 Brussels Dokumentas paskelbtas
2019 m. balandžio mėn.
3. Europos komisijos ataskaita Europos parlamentui, tarybai ir Europos ekonomikos ir
socialinių reikalų komitetui dėl dirbtinio intelekto, daiktų interneto ir robotikos
poveikio saugai ir atsakomybei Briuselis, 2020 02 19
4. „Responsibility and AI“ Prepared by the Expert Committee on human rights
dimensions of automated data processing and different forms of artificial intelligence
(MSI-AUT) Council of Europe study DGI(2019)05 https://rm.coe.int/responsability-
and-ai-en/168097d9c5
5. R.Abbott, A. Sarch Punishing Artificial Intelligence: Legal Fiction or Science Fiction
UC Davis Law review Vol. 53, No. 1, November 2019 Pages 323-385

8
6. W. Chen, Ch. Dou and others “CMOS-integrated memoristive non-volatile
computing-in-memory for AI edge processors” Nature
Electronics volume 2, pages420–428(2019) https://www.nature.com/articles/s41928-
019-0288-0
7. M.Claussén-Karlsson „Artificial Intelligence and the External Element of the Crime
An Analysis of the Liability Problem“ Baigiamasis darbas Spring 2017 Orebro
universitetas https://www.diva-
portal.org/smash/get/diva2:1115160/FULLTEXT01.pdf
8. L. Claydon „Law, Neuroscience, and Criminal Culpability“Law and Neuroscience:
Current Legal Issues Volume 13, 2011
9. M. Dobrinoiu “The influence of artificial intelligence on criminal liability”The
International Conference CKS 2019 Challenges of the Knowledge Society
Bucharest, 17th - 18th May 2019, 13th Edition
10. G. Hallevy “The Criminal Liability of Artificial Intelligence Entities” 42 P. SSRN 4
Mar 2010 https://papers.ssrn.com/sol3/papers.cfm?abstract_id=1564096
11. F. Lagioia, G. Sartor “AI Systems Under Criminal Law: a Legal Analysis and a
Regulatory Perspective” Philosophy & Technology 2019
https://www.deepdyve.com/lp/springer-journals/ai-systems-under-criminal-law-a-
legal-analysis-and-a-regulatory-EWDNxGbRbq?impressionId=
5dab857c1cc5e&i_medium=docview&i_campaign=recommendations&i_source=rec
ommendations
12. R.Metz „Microsoft’s neo-Nazi sexbot was a great lesson for makers of AI assistants“
MIT Technology review. Cambridge, March 27, 2018
13. R. A. Rahman, R. Habibulah “The Criminal Liability of Artificial Intelligence: Is It
Plausible to Hitherto Indonesian Criminal System?” Jurnal Ilmiah Hukum Vol 27, No
2 (2019) ISSN: 2549-4600
14. A.R.Raveh, B. Tamir „From Homo Sapiens to Robo Sapiens: The Evolution of
Intelligence” Information 2019, 10, 2; www.mdpi.com/journal/information
15. D. Rothman „Artificial Intelligence By Example: Develop machine intelligence from
scratch using real artificial intelligence use cases“, 2018, p. 466
16. S. M. Solaiman “Legal personality of robots, corporations, idolsand chimpanzees: a
quest for legitimacy” Artif Intell Law (2017) 25 p.155–179

9
17. L. Steinmann „Kaip smulkiajam verslui išnaudoti dirbtinio intelekto galimybes“
Microsoft- Verslo įžvalgos įdėjos. 2019.10.23, https://www.microsoft.com/lt-
lt/microsoft-365/business-insights-ideas/resources/how-ai-help-small-business
18. „10 million awareded to family of plant worker killed by robot” The Citizen. Ottawa
1983-08-11 https://news.google.com/newspapers?id=7KMyAAAAIBAJ&sjid=
Bu8FAAAAIBAJ&pg=3301,87702
19. S.Ferranti „A Robot Killed a Man': A New Doc Looks at the Terrifying Future of
Automation“ Naujienų portalas „Vice“ 2018.11.28
https://www.vice.com/en_us/article/gy7j8b/a-robot-killed-a-man-a-new-doc-looks-at-
the-terrifying-future-of-automation
20. D. Patrascu „Road Traffic History - Before the Streets Got Swamped“ 2009.11. 8,
Autoevolution. https://www.autoevolution.com/news/road-traffic-history-before-the-
streets-got-swamped-12954.html
21. J.Seidel „How a ‘confused’ AI may have fought pilots attempting to save Boeing 737
MAX8s“, News 2019 https://www.news.com.au/technology/innovation/ inventions/
how-a-confused-ai-may-have-fought-pilots-attempting-to-save-boeing-737-
max8s/news-story/bf0d102f699905e5aa8d1f6d65f4c27e
22. „Siri“ https://www.apple.com/siri/

10

You might also like