You are on page 1of 12

EL DERECHO PENAL DE EMPRESA Y LOS DELITOS

COMETIDOS CON EL USO DE INTELIGENCIA ARTIFICIAL

JAVIER VAi.iS PRIETO


Profesor Titular de Derecha Penal
Uníoersidad de Ormuu/11

Jesús Maníncz dedicó mucho tiempo de su investigación y docencia a los de­


lnos pauimornalcs y socíocconómícos, tema al que dedicamos mucho uempo de
debate, desde perspecuvas difcremes. Otro de los grandes recuerdos con él es el
apoyo con la iecnotogta que le aponaba.
Demro de este triste homena¡c a una bella persona voy a intentar aglminar es­
tos dos temas en esta pequeña contribución a su merecido recuerdo.
La extensión de los sistemas imeligemes parn realizar tareas amónomas en in­
versión, clasificación de productos, etc. no se encuentra exemo de aiaques a los
bienes jurídicos recogidos en esta tipologia de delilos, creando nuevas fonnas de
afectación a los mismos con una gravedad que debe de ser analizada por el Derecho
Penal para derermmar su sanción o no.
Con este fin vamos a establecer Lm:1 definición que 1engan un significado juri­
dico de lo que es un sistema imeligeme. Vamos a describir casos reales en los que
el uso de la imeligencia artificial ha producido un perjuicio en el pauimonio, los
consumidores y el derecho a la libre competencia. Vamos a determinar si estos casos
afecran a los bienesjuridicos regulados en el Tírnlo XIII.

l. DIF1CULTADES PARA ENCOI\'TR,\R UNA DEF1NICIÓN JURÍDICA


DE INTEUGENCIAARTffiCIAL
El grupo de expertos de alto nivel en inteligencia anificial de la Comisión
Europea ha redactado las guías éticas de la imeligencia artificial intentando enmar­
car el concepto de inteligencia artificial. Resalta la dificuhad de definir lo que es la
imeligencia, tamo en humanos como en máquinas, ya que se mua de un concepto
vago. Es por ello, que prefieren centrarse en el concepto de racionalidad, enten­
dida como la habilidad de elegir la mejor opción para conseguir un determinado
objetivo, dados determinados criterios y los recursos disponibles. Dada las dificul­
tades, prefieren utilizar el ténnino sistema de inteligencia artificial para definir a
cualquier componente basado en inteligencia artificial, ya sea software o hardware.
El decantarse por esta decisión se basa en que la imeligencia artificial se encuentra

­417­
<18 j,WU'.R VAI.Ui l'RlY.TO

incluida como un componente de sistemas mayores, principalmente de robótica,


más que como un linico individual e independiente. 1
Contintía el documcmo con algunas dcrinicioncs como aprendizaje de máqui­
na, inteligencia, imcligcncia anilicia\ general o específica, crc., para, finalmente,
considerar la imcligcncia anificial como "sistemas de soñware (y posiblemente,
tambtéu. de hardware) diseñados por humanos que, dado un objetivo complejo,
actúa en la dimensión !Tsica o digital mediante la percepción de su cmorno, adqui­
riendo de datos, interpretando daros estructurados y descsrructurados, razonando
el conocimicnm o procesando la información derivados de estos datos ydccidicnclo
Ja/s mejores acción/es para conseguir el fin perseguido. Los sistemas de inteligen­
cia artificial pueden usar reglas simbólicas, aprender un modelo numérico o pue­
den adaptar su componamtemo analizando como el cmorno se ve aíecmdo por sus
acciones previas."!
Es1á definición incluiría los dos tipos de imeligencia artificial: la basada en el
conocímíemo y la basada en datos, pero incidiendo en el auge de la creación y datos
)' su procesanueruo en la tercera rcvolucíón debido a la utilización de móviles y el
abaratamiento y capacidad de los sistemas de atmacenamíemo.
Para emender cómo \<l a afectar al mundo del Derecho y cómo se \.1 a tener
que lidiar en el sistema judicial cuando lleguen los problemas serios, nos podemos
quedar con algunos puntos interesantes.
El primero es entender que la imeligencia artificial es una herramienta creada
por las personas. Esto implica que, aunque pueda crear cosas, siempre va a ser me­
diame unos patrones impuestos por los humanos, que son el origen.
El segundo es que los algoritmos de toma de decisiones de los sistemas de inte­
ligencia artificial se alimentan de datos.
Un tercer punto de interés es que cada sistema de imeligencia anificial tiene
un objetivo deiermtnado en su función. Esta característica es importante puesto
que limita mucho los problemas a los que nos vamos a encontrar y facilita la siste­
matización de estos. Asi, el acotar el ámbito de aplicación también pennite concen­
trarse en la adopción de medidas preventivas y de control para evitar un impacto
negativo en los derechos fundamentales de los ciudadanos.
Por Ultimo, la definición del grupo de altos expertos, aunque no lo numera
expresamente, indica que los sistemas inteligentes no son capaces de adivinar lo
imprevisto ni de crear algo de la nada. Todo aprendizaje, intento de predecir el
futuro o realización de tareas se basa en precedentes que pueden venir de los datos
o de situaciones que dan infonnación de precedentes, pero no es capaL de actuar
de forma efectiva ame situaciones novedosas. Dentro de nuesu­o análisis jurídico
de la definición hay que rechazar cualquier intento de equiparar las acciones de los
humanos con las de los sistemas inteligentes por muy eficaces que puedan ser. Hoy

INDt.PENDENT I IIGI 1­LEVEL EXPERT GROUP ON ARTIFICIAL. INTELLIGENCE, A


/Hfinilum o/ Al: Alain Capab,litin and l>uapún�. t.uropcan Commission. 2019, p. 1 [Consultado
02/03/2020 J https://tr..rnropa.rnjd,gital-:.1ngk-marlu:f/m/nrws/rkfinilion-artlfu:ial-intdligma-main-ca-
pah1/,/1r.s-a,1d-!iCÍmtlfJC-auciplina
2 lbid .. p. 6.
1'1 dm:t-Jw /�in/ de onprrsa )' los ddilo!i romdidm ro,1 d wo de inldigmda artiflMJ 4 19

por hoy, no existe un sistema inteligente capaz de reaccionar como un humano,


aunque puede rcalíz.ar rareas de estos con mayor eficacia. Por poner un ejemplo, los
coches autónomos tienen serias dificultades de identificar señales de u.ílico cuando
las situaciones no son ideales. Así, que una serial esté doblada o que renga pegatinas
en su superficie hace que el velnculo no sea capaz de idemificarla de forma apro­
piada.' Lo que para un humano es un problema que se resuelve sin pensar para una
maquina puede constituir 11n problema sin solución que, en la vida real, sí puede
tener 11n impacto jurídico importante.

11. SITUACIONES REALES DE CONFLICTO

1. Derechos relacionados con los consumidores


Los primeros en utilizar algoriunos para fidelizar a sus cliemes y mandar pu­
blicidad personalizada fueron las cadenas de supermercados, allá por la década de
los años 90 del siglo pasado. Wallmarla y Tcsco pusieron un sistema de pumos para,
a cambio de la utilización de los datos de su compra, realizar descuentos y ofertas
especiales de productos. El objetivo principal es el análisis de los datos de sus consu­
midores con el fin de mejorar sus ventas y prepararse para la demanda de productos
que van a necesitar en cada momento. De esta fonna, analizando los datos del tiem­
po se puede prever cuando va a iniciarse la temporada de barbacoas y preparar los
productos que se demandan para esta actividad.
Esta estraregía fue mejorada por Target, una tienda online de descuento nonea­
mericana, utilizando los datos de ventas con tarjetas de crédito, la infonnación sobre
la navegación de los usuarios mediante las cookies y encuestas. enlazando perfiles de
consumidores con detenninados productos con el fin de ofertar los productos que
pueden necesitar en el futuro dependiendo de los parámetros de consumo perfila­
dos. Uno de los ejemplos de la estrategia de la empresa fue enlazar a las consumidoras
con la compra de crema hidratante para piel. Target consiguió realizar una relación
entre ambos datos, consiguiendo un objetivo de consumidor clave para los supenner­
cados, las mujeres embarazadas. Siguiendo con su objetivo, Target envió publicidad
sobre productos para bebes ­pañales, leche en polvo, chupetes, cunas, etc.­ a sus po­
sibles consumidoras entre las que se encontraba el domicilio de una familia, con dos
adolescentes, que no deseaba más descendencia. El padre, enfadado, contactó con
Target para quejarse por intentar influir en sus hijas a ser madres al mandar publici­
dad sobre productos para bebes al domicilio familiar. A los tres dias la empresa se dis­
culpó con el padre por el error y fue este el que tuvo que rerracrarse después de haber
recibido una nueva noticia dentro de su familia que desconocia. 1 Esta estrategia de
utilización de grandes datos de consumidores con algonunos es utilizada hoy dia por
muchas empresas de las que quit.ás la más importante, como empresa de publicidad,
es Google, que uuhza la infonnación de los correos electrónicos y de las cookies para

3 HROUSSARD. M., Artificial Unint�llign1a, MIT prcss. 2018. pp. 125 r ss.
4 DUIIIGG, C., wllow companics lcam your sccrcu". NYI'M, 2012. [Consultado
O 1 / 1 O /2020 J http://www. n)IÍ1114rom/20 I 2/02/ 19/mngazi�/slwp¡,ing-habib.hlml?_r= I
'120 j,WU'.JI. VAI.Ui 1'11.1Y.TO

personalizar la publicidad que aparece en sus productos (buscador, correo clccrrénl­


co, YouTubc, ctc.) mediante mlcroctíqucrado. Al igual que Facebook. Ambas realizan
pcr!ilados muy detallados. Personas con códigos postales de zonas pobres, que se de­
tienen en publicidad sobre préstamos o que han dado un me gusta a una campaña de
estrés postraumauco (susceptibles a recibir financiación estatal] son buscados como
obicüvos para determinados productos financieros. & Estas formas tan depredadoras
de anuncios" limitan la libre elección del ciudadano a la hora de elegir el producto
mas convcnlcntc para el consumidor.
La importancia de la Utilización de imeligencia anificial en publicidad se ha visto
en las nuevas empresas que han surgido: los corredores de datos. La. líder en este mer­
cado puede ser la empresa Palanlir pero hay más comoAcxiom, Corelogtc, Datalogic,
ChoicePoim o eüureau. La fünción de estos corredores es la de rcattzar referencias
cruzadas de iodos estos daros. l lay miles de daros con miles de detalles con miles
de categorías y detalles, muchos de ellos inferidos, que permiten realizar perfiles de
consumidores pam mrjorar las campañas de publicidad.7 En un caso, ChoicePoint
infonnó erróneamente de un delito de tr.í.fico de mcranreiamínas, poniendo al sttieLO
una etiqueta en su base de datos de delincueme mediante un sistema automático de
decisiones. EsLO derivó a que se rechazasen las solicitudes de préstamo y que, aunque
rectificó la infommción errónea en su base de datos, se le siguiesen denegando siste­
máticamente porque la infonnación de ese consumidor habia sido vendida a otros co­
rredores de datos, expandiendo una infonnación errónea sin posibilidad de control. 8

2. Libre mercado
Estos perfiles no solo sirven para ofrecer una publicidad personalizada a los
consumidores (con los problemas de igualdad que se han podido observar) sino
que también, añadído el poder de análisis de la inteligencia anificial, se utilizan
para modificar el precio de los productos dependiendo de datos clave como el dis­
trito postal asignado futuro comprador. A.'lí, los precios en seguros médicos pueden
cambiar entorno al 30% dependiendo de si el asegurado vive en un banio pobre o
no." Amazon determina el precio de sus productos mediante un algoritmo que en
un 80% de los casos beneficia a sus productos en contra de los de la competencia, 10
así como las compañías de vuelos también discriminan sus precios parn un mismo
vuelo y usuario. 11

5 O"NEIL, C., \\'roponsof malh iWnu:lwn, Pcnguin Books. 2016. p. 74.


6 lbid .. p. 79.
7 FRY. 11., Hello World. Haw lo k Human in IN Agr-of lhe Machme_ Transworld. 2018, p. 37 y
38.
8 PASCUALE, F., The /Yack /Jo,:: Socid]. 'fhe S«m Algunthnss Thal Con/rol Morn, and lnforma-
lwn. l larvard Uni\crsity Prcss. 2015. p. 33.
9 BROUSSARD, M., Arllfu:ial .. ,cit .• p. 114.
10 ANGWIN, J., MATl'U, S .. "Amazon Says lt 1'1115 Customcrs First. But 115 Pricing Algo­
rithm Docs11·1�. ProPuhlica. 2016. [Consultado 01/10/2020] hlljn://www.propublu:a.UQ!Jarlu:k/
a111azon-says--11-pu1s-cw101ners-firsUm/-1ts--fmang-algonlhm-doanl
11 SJ'ANISIJEVIC,J .. ­A travcllcr's guidc to airlinc priccdiscrimi11ation�·111cComcrsation.
20 18, [ Consnhado O l / l 0/2020 J hlljn://IMWnilffllllion.ami/llrlmvdm--guide--tlH.iirline-f,nce-ducnm1-
nalion,-98329
1'1 dm:t-Jw /�in/ de onprrsa )' los ddilo!i romdidm ro,1 d wo de inldigmda artiflMJ 421

Uno de los problemas del mundo digital es el de la catalogación de conteni­


dos. Las decisiones de las empresas a la bora de determinar que se muestra o no es
complicada, La tienda de Apple, en 2012, recibía mas de 10.000 aplicaciones al año.
Dentro de su política de no difundir en la Apple Store material poruograñco, veto
una aplicación, Eucalyptus, que permitía extraer y formatear textos que se encuen­
tran de forma abierta. con el argumento de que podía bajar versiones sin imágenes
del K.ama Stnra. No se sabe muy bien cuales fueron los argumentos para censurar
la aplicación. Lo mismo ocurrió con una aplicación de seguimiento de drenes. No
hay información al respecto. l? El resultado final fue un perjuicio económico a l;L'I
empresas que perdieron un número significativo de descargas.
Algo parecido ocurre con el buscador de Google, en donde la presemación de
paginas webs se hace mediante algoritmos que toma decisiones automaucas. Los
dos criterios principales son relevancia e importancia, pero no hay explicación so­
bre cómo se toman las decisiones. Esto tiene como resultado c¡ue, si Google no tiene
interés por algún contenido, este pase a estar poco caratogado. El resultado final de
los algoritmos es que dcrermínados contenidos no son accesibles. Esto ocurrió con
Foundem, una web de comparación de precios muy bien valorada por asociaciones
de consumidores y de tecnología. Sin embargo, Google drjo de mostrar la web en su
primera pagina de resultados. Aunque Foundem intentó pagar por aparecer en un
mejor lugar, Google no lo permitió. Siempre basado en el poco valor que le daba el
algoritmo a esa web. 13 Ya no es sólo que no permita salir en los primeros resultados,
sino que tiene el poder de limitar el crecimiento de muchos negocios.
Este conjunto de practicas comerciales y publicitarias consiguen como resulta­
do sesgar determinadas ideas" y productos limitando la libre competencia.

3. Seguros y servicios bancarios


Desde el inicio de la comr::uación de seguros se ha imemado mitigar el riesgo
que supone esta actividad. En los últimos años se ha encomendado la decisión de
conceder o no un seguro a datos objetivos. Con la posibilidad de tener perfiles cla­
ves de clientes se puede adaptar el seguro al sujeto. Así, para comr.uar un buen se­
guro médico encontraremos a algún consumidor encamado de comrolar sus cons­
rantes vitales (cuantas horas duenne, que anda 10.000 pasos al día, riuno cardiaco,
azúcar; etc.) y conseguir que le bajen la cuota garamízando su buen estado de salud.
Desaforumadameme para él las aseguradoras utilizan los datos no para dar un tra­
tamiento individualizado sino para dividir a la sociedad en pequeños grupos para
ofrecer diferentes productos y servicios a precio variable". Los modelos predictivos
militados en las aseguradoras nos asignan un grupo determinado sin saber muy
bien por qué estamos en él. De esta fonna, en el caso de los seguros de coches, pue­
de ser más determinante para la cuma los datos demográficos que los indicadores

12 PASCUAL.E, F.• ThdUaclc .... cit .. p. 62­­63.


13 !bid., p. 68­­69.
14 NOHU­., S. U .. Algonthms of �wn. How Sturrh Engi.vs llnnforu llacinn. Ncw York Uni­
vcrsity Prcss. 2018. p. 89.
15 O'Nt.lL. C .• \\Mpons.... cn.. p. l&I.
'122 j,WU'.JI. VAI.Ui 1'11.1Y.TO

de buena conducción. El resultado final es la utilización de indicadores no relacio­


nados con la persona individual sino con las características de grupos creados y ha
dado como resultado que este sistema sea injusto con los grupos mas pobres1e, a los
que se valoran como grupo determinado y no por sus posibilidades individuales a la
hora de poder arromar el pago del seguro.
En el sistema financiero los métodos algorítmicos han sido promocionados
desde hace tiempo con el fin de equülbrar el campo de actuación y disminuir los
riesgos. El principal objetivo de reducir los intermediarios en la concesión de prés­
tamos, hipotecas y otros servicios bancarios.
El secreto bancario es un argumento clásico que ha complicado el control y la
regulación del sistema bancario. Con el uso de algoritmos esta falta de información
no ha hecho sino aumenrar" la opacidad y la dificultad para controlarlos y tener un
conocímíemo de cómo toman sus decisiones.
Uno de los primeros sistemas basados en algoritmos parn la concesión de prés­
tamos en la banca es el FICO, creado ¡X)r Fllir tsaac Corpomlio11, que puntúa a cada
solicitame par.t saber cuál es el riesgo de incumplimiento en los pagos. Esta labor
se conoce como los informes de crédito que utili7..an los bancos. FICO no sólo pun­
túa sino que da infonnación sobre cuates son los criterios que le faltan al solici­
tante, permitiendo mejornr en la puntuación que obríene". En EE.UU. este tipo
de mformación está regulada y ha de ser pública parn el interesado. Sin embargo,
la evolución de este tipo de modelos predictivos ha ido evolucionando a sistemas
menos ciemilicos aüadíendo infonnación como el código postal o el hismrial de
navegación de imernet que ofrecen servicios financieros que al estar separados de
la banca no se encuemran regulados19 y escapan a esta obligación de suministro de
la infonnación, los llamados e-seores que hacen un perfil de mñrquerín y no de la
salud financiera del sujete, por ejemplo, si en la búsqueda de un vehículo se pincha
más veces en la información de un Porsche que en la de un SEAT. De esta mane­
ra se hace una presunción sobre la capacidad económica que tiene el sujeto, pero
también se puede poner otro tipo de infonnación como el lugar de residencia, que
pretende ser un indicador de la capacidad económica del sujeto. El problema viene
cuando estos indicadores son incluidos en gntpos de geme por variables lejanas al
individuo como el sexo, la religión o las relaciones familiares, siendo la decisión
final no si el sujeto es o no solvente, sino "gente como tú". !!O Estos e­seores se utilizan
como indicadores sobre las cualidades personales y se intercambian entre las em­
presas, creando un peligroso ciclo de pobreza en el que las personas que tienen di­
nero no son incluidos en el sistema rniemras que los que tienen problemas financie­
ros, reciben ayudas del Estado o están al limite se encuentran dentro de este sistema
de caralogacíón" que discrimina a las personas dependiendo de factores que en
muchos casos no son definidores del compormmiemo futuro de la persona. Estos

16 lbid .. p. 167.
17 PASCUALE, F., The /Yack ...• cit.. p. 1 W.
18 O'NEIL, C., ll'éapons .... cit .. p. 142.
19 lbid .. p. H3.
20 lbid .. p. H5.
21 lbid .. p. HS.
1'1 dm:t-Jw /�in/ de onprrsa )' los ddilo!i romdidm ro,1 d wo de inldigmda artiflMJ 423

sistemas simplistas que priorizan los beneficios económicos comprometen nuestra


capacidad de comprender ideas complejas."
Los mercados de valores son gesnonados con algornmos informáticos que ges­
tionan mas daros y reaccionan mas rapído que los humanos. El an:ilisis ;1111oma1i;,�1­
do que realizan gestiona muchísima información que las agencias de información
publican en redes sociales. En 2013 un grupo de piraras backcaron la cuenta de
Auocwted Pnss y pusieron un tweet que el presidente Obama había sido herido en
un ataque. Los a\goriunos empezaron a funcionar y el Dow Jones cayó 150 puntos
en 60 segundos causando unas pérdidas de 136.000 millones de dólares. Algo simi­
lar ocurrió en 2010, cuando en cinco minmos la Bolsa de Nueva York cayó 1.000
puntos y con un resulrado de un billón de dólares esfumados, sin rodavfa saber por
qué los algoritmos tornaron esas decisiones. z,
El efecto en el síucma económico de los sistemas imeligemes es basrame dc­
terminame en los derechos económicos de los ciudadanos, ya sea como derechos
patrimoniales o derechos laborales.

111. BIENES JURÍDICOS PATRIMONIALES Y SOCIOECONÓMICOS


AFECTADOS
Una de las principales milidades que tiene la aplicación de la imeligencia ar­
tificial en el sector empresarial/financiero es la mejora de los procedimiemos de
compravema de productos y servicios. Empezando desde la publicidad personaliza­
da que permite la oferta de productos adaptada a los perfiles de los consumidores
hasta los precios de los productos o los sistemas de compravema en el sistema finan­
ciero. Ademñs, los sistemas de control y conmuación de los trabajadores dentro de
la empresa también se esr.in adaptando a la nueva realidad en la automatización de
los procesos.
La protección de los consumidores, recogida en el anículo 51 de la Constitución
española de 19i8 y que ha visto su traslado al Código penal en el anículo 282, castiga
las ofenas de publicidad que hagan alegaciones falsas o manifiesten caractertsrícas
inciertas, que puedan causar un perjuicio grave y manifiesto a los consumidores. Este
tipo penal, bordeando el ilícito administrativo, es necesario" para proteger los intere­
ses de los consumidores en los at::tques mas graves a sus intereses y esut aceptado por
toda la doctrina que ha abordado este fenómeno cnmtnológíco.> Considerado como
un bienjmídico colectivo en el que se protege el derecho o el interés de los consumi­

22 NOHU., S. U., A{gvnthm.1'...• cit.. p. 118.


23 IIARARI. Y. N .. HumolHW. Debate, 2016, p. :W3y :W4.
2<1 GONí'.tÜ..EZ RUS,J. J.. Los rn� ntmómU:os tk WS wnsum�. Prwa:ió,1 pena� 1986. p.
806.
25 En sentido contrario MUNAGORRI L.AGUÍA.1..1.aflrol«ciónpenaltkWJanumnuiornfrm-
tea fa fnih/icidad nignnrull. Ar1. 282 tkl Código penal. Coma res. 1998, p. 80 y ss. DEMETRIO CRESPO.
t... ­A propósito del bien jurídico en el delito publicitario úpificado en el articulo 282 del Código
Penal cspaúol. (Una contribución a partir de una herramienta vaforauva)" GARCIA RIVAS. N.
/"roúr:aón penal de Con.rnrnulmni fa limón Europt!a. Unin:rsidad de Casutla­La Mancha. 2005, p. 171.
'124 j,WU'.JI. VAI.Ui 1'11.1Y.TO

dores" a recibir información veraz o el bien fünciomuniento del mercado, en el que


los consumidores van a tener la conñanza de que el producto es el verdadero Jo cual
implica una lealtad del comerciame ame el resto de compcüdores. Para Manínez
Bl!j,in Pérez este bienjurfdico vendrfa conectado a la afectación de otros bicueajurt­
dicos de carácter individual. %7 Si consideramos que Jo protegido en el artículo 282 es
el patrtmonlo" nos encontramos que hay que encontrar una relación directa entre la
publicidad gestionada por el sistema inteligente, que sea Iraudulcma, y un perjuicio
pantmonlal que se tiene que dar en la persona, Jo cual hace muy dificil su aplicación
)' la protección que debe de darse a los consumidores ame los malos usos de la intc­
ligencia ani!icial. La milización de ésta pone :1! consumidor, que ya se encuemra en
una situación de desventaja, a una mayor distancia de poder comrolar sus compras,
produciendo un tncrememo de la opacidad de la existente en la acrualidad. Esta con­
cepción del bien Jurídico no pcrmturra incriminar dcrcrmínadas conductas produci­
das por los sistemas ímelígemes y trasladaría la protección de estos al delito de estafa
en muchos de los componamiemos realizados, emendiendo que no se protege a la
colectividad sino exdusívamcme a los intereses individuales.
Otra área imeresame de aplicación es en la protección del mercado. Las de­
mocracias liberales se basan en un principio basíco que es la libre competencia. Sin
embargo, }�l se esra observando cómo los mercados se encuentran alterados por la
uulización de la imeligencia anificial en los mercados. La confianza de los inverso­
res, la transparencia o la libre formación de los precíosw, demro del bienjuridico
libre competencia, :,o se ,,e afectada tal y como hemos podido comprobar en los ca­
sos analízados anteriormente. Indudablemente, un bienjuridico como este deja un
amplio margen de acmación que se limita con la propia redacción del tipo, en nues­
tro caso, el aniculo 284 en los apartados I y 2. El primero se aplicaría a los supuestos
de uso de cualquier medio para la alteración de los precios que debe imponerse por
la oferta y la demanda, tanto para materias primas, índices de referencia, servicios
o cualesquiera ouas cosas muebles o inmuebles y el apartado segundo para el uso
de tecnologias de computación con la finalidad de alterar los precios de couzación
de un instrumento financiero o un contrato de contado sobre materias primas o de
manipular el cálculo de un indice de referencia. Demro del mercado financiero,

26 HENÍTt.Z ORTÚZAR. l. F., ­Delitos contra el patrimonio y orden sociocconórnico (X)w


MOR.JU.AS CUEVA. L, Slilnnn di! /Nff!Clw /'mal Parú fap«iaL Dykinson. 2020, p. 768. MACIAS
t..Sl'�JO, H., �n delito de publicidad cngaúosa". MORILL\S CUEVA. L, /Nff!Clw J consumo. AJ/}«los
pniaks, aviln J adminlllrativos, l))kinson, 2013. p. 187.
27 MARTÍNEZ HUJt\N l't:REZ, C., /Ñffl:lw pmal tronómico J di! la mijm:sa, Tirant lo nlanch,
201:í, p. l:íOy 151.
28 GAI..1\i'I �iUÑOZ. A., ­Delitos contra el mercado y los consumidores­ GALÁN MUÑOZ,
A.. NUÑEZ CASrAÑO. E., Manual di!dn-«lwpmaln:onómiro J di!la t:m�. Tirant lo nlanch, 2019.
p. 159.
29 DOH.AL PAÍS, A.. "La confusa armoni:r.ación de los delitos de manipulación de mercado
(an. 28<1) por l.i LO. I/2019w EPC, nº <10. 2020. p. 122.
30 MAKIÍNEZ BUJAN Pt'.REZ, C .. /Nff!Clw J>nral tnJnómiro J di! la mt/J=a. Parú esp«,al. Tlraru
lo Btanch, 2015. 5" ed., p. 339. OKl'IZ DE URIUNA G!Mt,NO. l .. "Selección de bicncs jurfdico­
penales conforme a la Constitución: El caso de la protección de la competencia" SILVA SÁ.t'ICI IEZ,
J. M., QUER,\ITJIMfNEZ.J.J., COR.COY IUDASOLO. M .. CASTIÑt.lRA PALOU, M. ·i:, 1-:.lludun
tk /Jerrx:lw proaL Hommaie al profesor Santiago Mir l"uig, B de F.. 2017. p. 1123 y ss.
1'1 dm:t-Jw /�in/ de onprrsa )' los ddilo!i romdidm ro,1 d wo de inldigmda artiflMJ 425

la utilización de algoritmos esta generalizada entre los sistemas de inversión y pre­


sema dos problemas que arccran al mercado libre: la ceruralización de los sistemas
de utilizan para infonnarsc y la amoreíerencia, la generación de iníormación clave
sobre sí mismos. si Los métodos algorítmicos en los sistemas financieros se centran
en el estudio de clientes mediante la creación de perfiles de usuarios con la finali­
dad de reducir riesgos y hacer análisis para ínvcrslón que, de por sí, son opacos y
que dificultan aún mas la transparencia con las black boxde los sistemas tntcllgcrucs,
viéndose claramente perjudicados estos clientes, 1X>r ejemplo, en el ámbito de la
conu.uación de seguros. l loy día, gran número de los negocios de bolsa los gestio­
nan algoritmos infonmíricos que procesan información en uempo real para realizar
sus compras al instante, siendo susceptibles de procesar información no veraz que
puede derivar en bajadas de precios por valor de más de 100.000 millones de dóla­
res en un periodo de un minuro. S:?
La hbre compercncía debe asegurar los precios más bajos y los servicios de mejor
calidad de tal manera que \�I}�,¡ a redundar en los consumidores, pero también debe
de tener una repcrcusícn en las pcrsonasjuridicas y en la administración púbhca."
El aruculo 282 bis prmege el libre mercado, en concreto, las operaciones con
míormación privilegiada y las manipulaciones del mercado. El bien jurídico, tal y
como esta redactado, se podría interpretar como la confianza y garantía inheremes
a los documento de emisión de cualquier instrnmemo financiero o información
de la sociedad>' que afecta al libre mercado." Se puede interpretar que este bien
jurídico está acompañado de la protección del patrimonio, siendo ambos los inte­
reses jurfdicos proiegídos. con algtin matiz emre el primer apanado (peligro de
perdida de patrimonio) y el segundo (lesión efecuva del patrimonio). :!111 Sin embar­
go, este precepm no pro1ege lo que debería por su origen, la Directiva 2003/6/
CE sobre operaciones con infonnación privilegiada y la manipulación del mercado,
quedándose en su incorporación al Código penal de fonna muy menguada a lo que
debería. 37 De igual fonna, ocurre con el anículo 285 y la utilización de información
privilegiada en la compr.l\'ema de instrumentos financieros, así como el resto de
artículos del 285 bis hasta el quater, donde se defiende el mercado libre.

31 PASCUALE.F., T/ublac/r... ,cil.,p.136.


32 IIARARI. Y. N .. Horno .... ch., p. 3'13.
33 ORTIZ DE URHINA GL\IENO, l., "Problemas (reales y ficticios) y necesidad de protcc­
cióu penal de la competencias en Espaúa: el caso de la í!iación de precios­ I IERNÁt'IDEZ l'I.ASEN­
CIA, J. U., La rnln'llmcwn pnial n1 la flro'KCW11 lh los inlnl2s tronómicos 1h los consum,� Marcial
1'011s, 2020. p. 263.
3'I FARANOO CABANA, P.. "Arucnlos 278 a 286: de los delitos relativos al mercado y a los
consumidores", GÓMEZ TOMILLO. M., Comrolarios P,áclicos al Código pmal. Aramadi. 2015, p.
4!'.>7. PUENTE ALBA. L M., ·E\ artículo 282 bis del código penal: la falsedad en la imcrsión en los
mercados de valores­ RJJPC. 2012. 11°7. p. 54.
35 CASH.LLÓ NICÁS. N .• "Artículo 28T COP,O DEL ROSAL., M .• Commlarios al Código Pe-
nal, Tomo/X, C�tJ. 2006, p. 22� yss.
36 MARTINEZ BUJA,'\l l'EREZ. C .. Dmx:lwj,maL ... cit .. p. 157.
37 PUt.NTt. ALIJA. L M .. ­� protección de los consumidores ame particulares productos
de inversión: análisis del ­casc Nueva Rumasa .. ­ l'UEN"TE ALJIA. L ,\l., /,a inlavffici6n f,nwl n1
mpur:slOJ fhfraudeyamupcitin, IXJSCh. 2015. p. 79.
'126 j,WU'.JI. VAI.Ui 1'11.1Y.TO

En las relaciones cmre los trabajadores y las empresas lambién los sistemas in­
tcligemes tienen un impacto en los derechos de los trabajadores. Los delitos que
protegen los derechos de los trabajadores" tienen cuatro apartados que castigan
determinadas acciones comra ellos. El artículo 311 protege a los trabajadores ante
las acciones de quien, mediame engaño, impongan a los trnbajadorcs a su servicio
condiciones laborales o de Seguridad Social que perjudiquen, supriman o restrin­
jan los derechos que tengan reconocidos por disposiciones legales, convenios colec­
tivos o contrato individual.
El artículo 314 castiga las discriminaciones por ideología, rcügtón o creencias,
su penenencia a una etnia, raza o nación, su sexo, orientación sexual, simación
familiar, enfermedad o discapacidad, por osrcmar la represenracíón legal o sindical
de los trabajadores, por el paremesco con otros trabajadores de la empresa o por el
uso de alguna de las lenguas oficiales dentro del Estado español, que seda un delito
especial con respecto al delito de discriminación que hemos visto amenormcmc.
Esca superposición ha sido considerada como prescindible teniendo en cuenta que
lo que se pena es la reincidencia después de sanción adnnnísiranva." El bienjuddi­
co prorcgtdo es la discriminación de los trabajadores. 00
Dentro de los derechos de reunión y sindicali7.ación el del¡ro regulado en el
aniculo 315 protegería las limirnciones a los derechos de sindicali7.ación que hemos
visto amerionneme cuando se realicen estas limitaciones mediame el uso desiste­
mas imeligemes en el puesto de trabajo. En concreto el bienjrnidico es la libertad
sindical y el derecho de huelga. •1
La mi\i;,ación de sistemas imeligemcs en el puesto de trabajo sin realizar una
valoración de riesgos laborales, principalmeme en la mili7.ación de robots en el
puesto de trabajo podrá afectar al bienjuddico recogido en artículo 316, haciendo
una interpretación amplia. Un elemento impon::nue, dentro de la Imerpreración
del precepto cuando la inteligencia artificial entra en la relación laboral, es la po­
sibilidad de comisión imprudente 1: ya que en un gr,m número de casos el amor
realmeme no quiere que se cornera el delito.

IV. CONCLUSIONES
La implementación de sistemas inteligentes dentro del proceso productivo de
las empresas es un avance que no va a tener freno. Su LISO ya está demostrando con­

38 MORILLAS CUEVA. L, "Delitos cornra los derechos de los trabajadores" MORILI.AS


CUEVA, L. Sislnna tU lxm'.ho PmaL Parli! fajNoal, l))kinson. 2019, p. 922. TERRADILLOS I\ASO­
CO,J. M., "Delitos contra los derechos de los trabajadores: \"CÍnticinco anos de política legislativa
errática­ E.PC, 2021. nº 4 1. p. 2.
39 LASCURAIN SJ­\NCIIEZ.J. A., ­tos derechos de los trabajadores: lo que sobra y lo que
falta" AIJPCP. 2004, nº 57. p. 27 y 28.
40 HAYLOS GRAU, A., TERRADIU.OS UASOCO,J., "Derecho penal del trabajo. Una re­
flexión general a partir de la experiencia normatim cspaúola" IU.lJS. 2008. nº 7. p. 6.
41 MAKIÍNEZ l!UJJ\N Pf.REZ, C.. lxm'.hoj,mal ... cit.. p. 370.
42 Cfr. OIAIZOI.A NOGAU.S. l .. ­Dclítos comra los derechos de los trabajadores [arts. 316
y 317 CP) y su rctacíon con los resultados lesivos" IIWJRJ.-1: 2010. p. 24.
1'1 dm:t-Jw /�in/ de onprrsa )' los ddilo!i romdidm ro,1 d wo de inldigmda artiflMJ 427

Illcros dentro del mercado que producen resuhados lesivos para los participantes
en el mismo. El sísrcma de delilos patrimoniales que tenemos en la actualidad nos
pcrnuurfa proteger adecuadameme a las vrctímas de este modelo automanzado de
toma de decisiones. Sin embargo, se presentan problemas importantes.
Por un lado, muchos de csras lesiones al bien jurídico se producen de rorma
imprudente, no se desea, pero, por el propio sistema inteligeme, se producen. En
muchos de los delilos de carácter parrtmonlal o sociocconómico no se prevé la posi­
bilidad de la comisión imprudente. Aún imponiendo un sistema de gobcrnanza de
la inteligencia artificial, salvo en los casos dolosos en los que no se desarrolla el plan
de gobcrnanza, quedarfan impunes.
A esto hay que aiíadir, la dificultad de encontrar una explicación de cómo el sis­
tema toma decisiones, lo que puede dificultar de manera importante la imputación
objetiva entre el uso de un sistema inteligeme y los resultados que se producen.
Estos retos que se plantean a la legislación penal han de ser abordados desde
un an:ílisis de impacto en los derechos fundamemales y desde sistema de preven­
ción. En los casos en que estos sistemas de protección no se lleven a cabo, debería
poder ser sancionado. Para el mundo empresarial tenemos el sistema de complia­
cce que puede solucionar parte del problema, pero no aborda todo el espectro del
fenómeno.

<13 ROMEO C,\S.Al!ONA, C. M .. "Criminal rcsponsibility of robots and atuonomous anifi­


cial lmclligcncc systcms?" Comuniciacionn rn f,ro/mxJad induslriaf ¡ rkm:Jw de la romjxlrocia. 2020. p.
173.

You might also like