You are on page 1of 14

POSTURA OFICIAL DE REPÚBLICA DE ISRAEL

Comité: General Assembly


Tema: Moral ethics in the use of artificial intelligence
La inteligencia es una profesión tan antigua como el tiempo, pero los nuevos
avances en inteligencia artificial y aprendizaje automático la están cambiando como
nunca antes. A medida que estas nuevas tecnologías maduran, es probable que
tengan implicaciones tanto previstas como inesperadas para la humanidad, y la
recopilación de información ya no será la misma. En Israel, la Unidad 8200, que es la
unidad cibernética de la inteligencia militar, está liderando la transformación en las
Fuerzas de Defensa de Israel.
Según el comandante de la Unidad 8200, una máquina puede utilizar big data para
crear información mejor que los humanos, pero no entiende el contexto, no tiene
emociones ni ética, y es incapaz de «pensar fuera de la caja». Por lo tanto, en lugar
de priorizar entre humanos y máquinas, deberíamos reconocer que, al menos en un
futuro previsible, las máquinas no sustituirán el papel de los humanos en la toma de
decisiones de inteligencia. Sin embargo, está claro que los profesionales de la
inteligencia deben adaptar su forma de conceptualizar la tecnología y el
pensamiento matemático en el siglo XXI.

Israel se encuentra en un camino firme hacia la posición de potencia en inteligencia


artificial. El país está comprometido en aumentar su presupuesto de investigación y
desarrollo, buscando liderar en el campo de la IA al igual que en la cibernética.
Además, Israel destaca en tecnología de defensa, como el sistema láser Iron Beam,
que ofrecerá una protección avanzada. El país reconoce la importancia de mantener
la superioridad en los campos de batalla emergentes y futuros, y la inversión en IA
es clave para asegurar este objetivo. El liderazgo de Israel en inteligencia artificial
no solo beneficiará al país, sino que también contribuirá al progreso global y a la
resolución de desafíos a nivel mundial.
La ética toma una nueva dimensión e importancia en el mundo actual. No
solamente necesitamos más científicos de datos sino personas formadas en
ética para que hagan buen uso de la tecnología, pensando en el bien de la
sociedad.
El desarrollo de la Inteligencia Artificial debe ir acompañado del desarrollo de la ética asociada con
esta tecnología. Estudios recientes muestran que el 92% de las empresas consideran prioritario
capacitar a sus tecnólogos en ética.unque la inteligencia artificial se empezó a desarrollar desde la
segunda guerra mundial, solamente durante los años recientes, hemos tenido un auge en su uso
cotidiano. Desde los asistentes virtuales en nuestros teléfonos inteligentes, hasta el apoyo en la
detención temprana de enfermedades, pasando por infinidad de tareas que realizamos a diario en
diferentes industrias. Todo esto se ha dado principalmente por el desarrollo en la capacidad de
computo que tenemos hoy en día, ya que para la utilización de este tipo de tecnologías es necesario
el uso de grandes volúmenes de datos.

Los gobiernos pueden utilizar la Inteligencia Artificial para ser más eficientes y
eficaces, así como para ofrecer a los ciudadanos servicios mejores y más
personalizados. Pero también es responsabilidad del gobierno servir de modelo
para el uso de la Inteligencia Artificial, regular la forma en que las empresas la
aplican y educar a los ciudadanos para que estén preparados para sus desafíos.
Y lo que es más importante, el gobierno debe identificar y gestionar los riesgos
que plantea la Inteligencia Artificial.
 Políticas internacionales y nacionales, así como marcos regulatorios para garantizar que
estas tecnologías emergentes beneficien a la humanidad en su conjunto.
 Una IA centrada en el ser humano. La IA debe estar al servicio de los intereses de los
ciudadanos, y no al revés.

Los 193 Estados miembros de la UNESCO han aprobado el primer marco ético sobre inteligencia
artificial.

Este histórico texto establece valores y principios comunes que guiarán la construcción de la
infraestructura jurídica necesaria para garantizar un desarrollo saludable de la inteligencia
artificial.

La inteligencia artificial es omnipresente, hace posibles muchas de nuestras rutinas diarias y está
dando resultados notables en ámbitos muy especializados, como la detección del cáncer y la
construcción de entornos inclusivos para personas con discapacidad. También puede ayudar a
combatir problemas como el cambio climático y el hambre en el mundo y a reducir la pobreza.

Pero esta tecnología también está trayendo consigo nuevos retos sin precedentes. Por ejemplo,
se está produciendo un aumento de los prejuicios de género y étnicos, amenazas significativas
contra la privacidad o peligros de la vigilancia masiva. Hasta ahora, no había normas universales
que dieran respuesta a estos problemas.

 “El mundo necesita reglas para que la inteligencia artificial beneficie a la humanidad. La
recomendación sobre la ética de la inteligencia artificial es una respuesta importante. Establece el
primer marco normativo mundial, al tiempo que otorga a los Estados la responsabilidad de
aplicarlo a su nivel. La UNESCO apoyará a sus 193 Estados Miembros en su aplicación y les
pedirá que informen periódicamente sobre sus progresos y prácticas”, declaró Audray Azoulay, la
directora general de la UNESCO,

sco clama por ética urgente para la inteligencia artificial.


La inteligencia artificial, según muestran programas lanzados al mercado recientemente, comporta riesgos
para la privacidad y otros derechos de las personas, así como para la democracia, por lo que la Unesco aboga
por normas nacionales que establezcan garantías en defensa de los ciudadanos y el ambiente.
31 de marzo de 2023
En una reciente publicación del medio ipsnoticias.net se da a conocer el artículo «La Unesco clama por ética
urgente para la inteligencia artificial».
Tras el pedido de más de 1000 profesionales de la tecnología para que se haga una pausa en el desarrollo de
la inteligencia artificial (IA), incluido el nuevo modelo de lenguaje Chat GPT, la Unesco pidió este viernes
31 la implementación inmediata del marco ético global sobre esa materia.
“El mundo necesita reglas éticas para la inteligencia artificial, es el desafío de nuestro tiempo. La
Recomendación de la Unesco sobre la ética de la IA establece el marco normativo apropiado”, dijo Audrey
Azoulay, directora general de esa Organización de las Naciones Unidas para la Educación, la Ciencia y la
Cultura.
La Unesco sostiene que ese marco normativo global, adoptado por unanimidad por los 193 Estados
miembros en noviembre de 2021, proporciona las garantías necesarias.
“Ahora es urgente que todos traduzcan este marco en estrategias y regulaciones nacionales. Debemos
traducir los compromisos en acción”, dijo Azoulay.
La Recomendación se describe como primer marco normativo global para el uso ético de la IA, a modo de
hoja de ruta para los países, que describe cómo amplificar los beneficios y reducir los riesgos que conlleva
esta tecnología.
Incluye acciones políticas en 10 áreas específicas: Evaluación de impacto ético, Gobernanza y rectoría
éticas, Política de datos, Desarrollo y cooperación internacional, Medio ambiente y ecosistemas, Género,
Cultura, Educación e investigación, Economía y trabajo, y Salud y bienestar social.
La Recomendación pide que se actúe más allá de lo que hacen las empresas tecnológicas y los gobiernos
para garantizar a las personas mayor protección, transparencia, capacidad de actuar y control de sus datos
personales.
Afirma que todos los individuos deberían poder acceder a sus registros de datos personales o incluso
borrarlos. También incluye acciones para mejorar la protección de los datos y el conocimiento y derecho del
individuo a controlar sus propios datos.
Además, aumenta la capacidad de los organismos reguladores de todo el mundo para hacerla cumplir.
En segundo lugar, prohíbe explícitamente el uso de sistemas de IA para la calificación social y la vigilancia
masiva.
Destaca que este tipo de tecnologías son muy invasivas, vulneran los derechos humanos y las libertades
fundamentales, y se utilizan de forma generalizada.
La Recomendación subraya que, a la hora de desarrollar marcos normativos, los Estados tengan en cuenta
que la responsabilidad última y la rendición de cuentas deben recaer siempre en los seres humanos, y que no
se debe otorgar personalidad jurídica a las tecnologías de IA por sí mismas.
También sienta bases de las herramientas para ayudar a países y empresas a evaluar el impacto de esos
sistemas en las personas, la sociedad y el medio ambiente, y anima a los Estados a que consideren añadir un
funcionario independiente de ética de la IA u otro mecanismo similar de seguimiento.
Subraya que los actores de la IA deben favorecer métodos eficaces en cuanto a datos, energía y recursos que
ayuden a garantizar que se convierta en una herramienta destacada en la lucha contra el cambio climático, y
en el tratamiento de los problemas medioambientales.
Pide a los gobiernos que evalúen el impacto medioambiental directo e indirecto a lo largo del ciclo de vida
del sistema de IA, lo que incluye su huella de carbono, el consumo de energía y el impacto ambiental de la
extracción de materias primas para apoyar la fabricación de tecnologías.
La Unesco se declaró especialmente preocupada por las cuestiones éticas que plantean estas innovaciones en
los campos de la lucha contra la discriminación y los estereotipos, incluidos los temas de género, la
fiabilidad de la información, la privacidad y la protección de los datos, los derechos humanos y ambientales.
Además, considera que la autorregulación de la industria no es suficiente para evitar estos daños éticos, y
aboga por establecer normas para que, cuando se produzcan daños, existan mecanismos de rendición de
cuentas y reparación que sean fáciles de solicitar por parte de las personas interesadas. .
Más de 40 países de todas las regiones del mundo ya están trabajando con la Unesco para desarrollar estas
salvaguardas de IA basadas en la Recomendación.
El nuevo llamado de la Unesco llegó dos días después de que un millar de profesionales y empresarios de las
nuevas tecnologías firmasen un llamado a hacer una pausa de seis meses en la investigación sobre IA aún
más potentes que ChatGPT 4, el modelo recién lanzado por la firma estadounidense OpenAI.
Noticia Relacionada

Artistas demandan a compañías de inteligencia artificial ...

Los firmantes advirtieron “grandes riesgos para la humanidad” en el nuevo modelo, y abogaron por
“sistemas de seguridad con nuevas autoridades reguladoras, vigilancia de los sistemas de IA, y técnicas que
ayuden a distinguir entre lo real y lo artificial”.
Asimismo, defendieron que existan “instituciones capaces de hacer frente a la dramática perturbación
económica y política (especialmente para la democracia) que causará la IA”, sin los controles adecuados.

lideres de las tres religiones abrahámicas -judaísmo, cristianismo e islam- firmaron este martes un acuerdo
conjunto para pedir que los avances en Inteligencia Artificial (IA) sigan principios éticos y respeten la
dignidad humana
De la mano con la inteligencia artificial aparece un reto muy importante para la humanidad. Bajo

qué principios éticos vamos a programar nuestros algoritmos de IA cuando se enfrenten a dilemas

complicados. Por ejemplo, si un carro autónomo se enfrenta a una situación en la cual una persona

está cruzando la calle y las únicas opciones posibles son: atropellar al peatón causándole la muerte

o desviar el carro y estrellarse contra una pared originando la muerte del pasajero, ¿Qué decisión

debe tomar? ¿Qué pasa si el peatón está cruzando la calle y el semáforo está en rojo? ¿Qué pasa si

quien viaja en el carro es una persona de edad avanzada y quien cruza la calle es joven? ¿Qué pasa

si el que va en el carro tiene familia y quien está cruzando no? Estas, y muchas más preguntas

deben ser resueltas con el fin de programar adecuadamente los algoritmos de IA que estamos

construyendo para los carros autónomos; así como para infinidad de situaciones, que se pueden

presentar cuando se va a hacer uso de la inteligencia artificial. ¿O acaso lo que debemos hacer es

dejar que el algoritmo decida por si solo?

Israel es actualmente el tercer país del mundo con mayor número de empresas que operan en el sector de la IA. La
inversión destinada a IA comprende el 42% del volumen total de inversión en alta tecnología en el país. En concreto,
entre los años 2011 y 2019, las inversiones en proyectos israelíes de IA de alta tecnología se multiplicaron por doce,
pasando de 305 millones de dólares a 4.000 millones. Dentro de esta tecnología, destacan los campos de la tecnología
de datos y el software empresarial (más del 40 %), los servicios en línea y las comunicaciones (30 %) y el sector
sanitario y asistencial (en torno al 13 %). La república de Israel en lo respecta a la ética moral en el uso de la
inteligencia artificial no han cumplido con estos principios éticos ya que usan un sistema telefónico llamado PEGAUS
usado por Gobiernos de todo el mundo es por ello que se le ha denominado Israel superpotencia del espionaje digital .
La ONG Forbidden Stories ha revelado que Gobiernos de todo el mundo llevan años usando esta sofisticada
tecnología de espionaje telefónico contra miles de activistas y periodistas, el software de espionaje israelí facilita las
violaciones de los derechos humanos.
Es importante destacar que diferentes países y organizaciones están trabajando para abordar estos desafíos éticos y
morales. Se están desarrollando marcos de ética de inteligencia artificial, se están estableciendo regulaciones y se está
fomentando la colaboración global para promover un uso responsable y ético de la inteligencia artificial ,al igual que
con cualquier tecnología, el uso de la inteligencia artificial puede plantear desafíos éticos y sociales. La
implementación responsable y ética de la inteligencia artificial es un tema de debate y preocupación en todo el mundo.
Por lo tanto, aunque Israel ha hecho avances significativos en el campo de la inteligencia artificial, es esencial evaluar
cómo se utiliza y qué impacto tiene en la sociedad en general.
La UNION EUROPEA A publicado una guía Señalando los siete requisitos para
que se pueda aplicar la Inteligencia Artificial correctamente: 1. Acción y
supervisión humanas. 2. Solidez técnica y seguridad. 3. Gestión de la privacidad
y de los datos. 4. Transparencia (incluidas la trazabilidad, la explicabilidad y la
comunicación). 5. Diversidad, no discriminación y equidad. 6. Bienestar social y
ambiental (incluido el respeto al medio ambiente, la sociedad y la democracia).
7. Rendición de cuentas.

Por ejemplo, el principio de transparencia obliga a que el uso de Machine


Learning "no supervisado" se deba complementar hasta poder explicar los
motivos detrás de las recomendaciones de la máquina. Si quieres leer la
diferencia entre el ML supervisado y no supervisado, pueden encontrar más
información aquí.

Las compañías más avanzadas en esta materia se están tomando muy en serio
todas estas cuestiones y dirigen su estrategia para sacar el máximo partido de
la Inteligencia Artificial asegurando el cumplimiento de los principios
expuestos u otros similares.

Un ejemplo de empresa de software de gestión de personas que utiliza


Machine Learning de forma muy amplia y tiene establecidos unos principios en
su aplicación es Workday. El este enlace puedes leer el artículo de Barbara
Cosgrove, Chief Privacy Officer de Workday, en el que habla del buen uso de
la Inteligencia Artificial. En el artículo habla de la utilidad de la IA para dar
información a las personas para que puedan tomar mejores decisiones y
realizar predicciones que lleven a mejores resultados, pero no suplantar a las
personas en la toma de decisiones. Posteriormente, enuncia los principios
para el uso del Machine Learning que aplica su organización.

En otro de los gigantes de los sistemas HCM, SuccesFactors, hablan en


este artículo sobre la importancia del concepto de responsabilidad del
algoritmo (Algorithmic accountability)  y cómo las empresas se están tomando
cada vez más en serio los riesgos y retos que implica el ML.

El CEO de Google, Sundar Pichai, ha escrito también sobre este tema,


reconociendo las dudas que despierta el uso y diseño de sistemas basados en
la IA. En un artículo en el que describe los 7 principios que sigue Google en su
aplicación, AI at Google: our principles se puede leer como hablan de evitar
sesgos, respetar la privacidad y ser responsable antes las personas en el
sentido de que los sistemas se diseñen para poder dar las explicaciones
oportunas y que esten sujetos a un apropiada dirección y control humano.

No cabe duda de que la Inteligencia Artificial es un mundo en el que


deberemos crecer de la mano de los principios éticos para avanzar con paso
firme.

La inteligencia es una profesión tan antigua como el tiempo, pero los nuevos
avances en inteligencia artificial y aprendizaje automático la están cambiando como
nunca antes. A medida que estas nuevas tecnologías maduran, es probable que
tengan implicaciones tanto previstas como inesperadas para la humanidad, y la
recopilación de información ya no será la misma. En Israel, la Unidad 8200, que es la
unidad cibernética de la inteligencia militar, está liderando la transformación en las
Fuerzas de Defensa de Israel.
Según el comandante de la Unidad 8200, una máquina puede utilizar big data para
crear información mejor que los humanos, pero no entiende el contexto, no tiene
emociones ni ética, y es incapaz de «pensar fuera de la caja». Por lo tanto, en lugar
de priorizar entre humanos y máquinas, deberíamos reconocer que, al menos en un
futuro previsible, las máquinas no sustituirán el papel de los humanos en la toma de
decisiones de inteligencia. Sin embargo, está claro que los profesionales de la
inteligencia deben adaptar su forma de conceptualizar la tecnología y el
pensamiento matemático en el siglo XXI.

El primer avance interesante que merece la pena destacar en la inteligencia israelí es la


traducción automática. En los últimos años, hemos asistido a avances sin
precedentes en la tecnología de la traducción; los algoritmos basados en redes
neuronales han conseguido ofrecer un nivel de traducción muy preciso. La
traducción de idiomas -como el árabe y el persa- al hebreo permite a los analistas de
inteligencia tener contacto directo con la materia prima y elimina la dependencia que
los analistas tenían de las propias unidades de recolección. Además, permite a los
analistas de inteligencia tratar con grandes depósitos de datos. Esto significa que la
Inteligencia Militar israelí ha comenzado a integrar motores de traducción
automática en sus procesos de trabajo y está empezando a renunciar a algunos de
sus traductores humanos. En su lugar, los militares están haciendo que parte de su
personal de inteligencia entrene a las máquinas para elevar el nivel de traducción
que proporcionan.
Un segundo avance se produce en el ámbito de la identificación de objetivos de
ataque en la guerra contra el terrorismo. Este proceso también se basa en
algoritmos avanzados en el campo del aprendizaje automático, utilizando la
capacidad de procesar grandes cantidades de información y cruzar muchas capas
de información geográfica para revelar anomalías en los datos. El cambio apareció
por primera vez en la reciente operación en Gaza (2021), en la que la inteligencia
militar israelí utilizó por primera vez la inteligencia artificial en una campaña para
identificar muchos objetivos terroristas en tiempo real.

ISRAEL
Israel ha estado trabajando en la normativa sobre IA "durante los últimos 18 meses" para lograr el equilibrio adecuado
entre innovación y la preservación de los derechos humanos y las garantías cívicas.

Ziv Katzir, director de planificación nacional de IA en la Autoridad de Innovación de Israel, publicó en octubre un
proyecto de política de IA de 115 páginas y y está recopilando las reacciones del público antes de tomar una decisión
definitiva.

Más de 300 expertos advierten que la IA pone a la Humanidad en riesgo de extinciónMás de 300 expertos advierten
que la IA pone a la Humanidad en riesgo de extinción
Más de 300 expertos advierten que la IA pone a la Humanidad en riesgo de extinción
Por otro lado, Israel se ha sumado a la carrera por el mercado de la IA fabricando uno de los ordenadores más potentes
dedicados a la inteligencia artificial.

El superordenador 'Israel-1', impulsado por NVIDIA, servirá con tecnología cloud a las aplicaciones de inteligencia
artificial generativa para entrenar a sus algoritmos con gran rapidez.

En cuanto a la responsabilidad del uso de sistemas de IA, al menos en Israel, nadie está a cargo de una de las
preocupaciones más acuciantes de la humanidad en la actualidad. La cuestión principal es quién debe ser el
responsable de vigilar y tratar los riesgos que plantea la inteligencia artificial.
Israel es uno de los líderes mundiales en lo que respecta a la tecnología de inteligencia artificial.
Israel es uno de los líderes mundiales en lo que respecta a la tecnología de inteligencia artificial. (Shutterstock)
¿Quién debe aportar soluciones adecuadas y, lo que es más importante, tranquilizar a los ciudadanos y empleados ante
los cambios drásticos que ha traído consigo la inteligencia artificial? No está claro si la autoridad para hacerlo reside
en la Dirección Nacional Cibernética y la Oficina del Primer Ministro, el Ministerio de Innovación, Tecnología y
Ciencia, o tal vez en el Ministerio de Defensa u otras oficinas gubernamentales.

En Italia, la Autoridad de Protección de Datos bloqueó recientemente el uso de ChatGPT y luego lo restableció tras el
cumplimiento de requisitos. La investigación reguladora en Italia comenzó después de que una brecha de seguridad
hiciera que ciertos usuarios presenciaran conversaciones de ChatGPT de otros usuarios, que podrían haber incluido su
información financiera.
En Alemania, el organismo regulador autorizado responsable de la protección de datos ha expresado su opinión sobre
los riesgos inherentes al servicio de IA, mientras que en Suecia el regulador de la privacidad ha anunciado que no tiene
previsto prohibir las actividades de ChatGPT. Además, el responsable de protección de datos de Irlanda está
examinando actualmente este asunto y sigue la actividad del regulador italiano.
¿Es posible luchar contra el antisemitismo a través de la inteligencia artificial?
Inteligencia artificial. (Shutterstock)
En cambio, en lugares como China, Hong Kong, Irán, Rusia y partes de África, no hay acceso a ChatGPT, y los
residentes de estos países no pueden abrir cuentas OpenAI. Parece que sólo Israel no tiene una opinión oficial sobre el
asunto, y no hay ningún organismo gubernamental israelí que se ocupe.
El rápido avance de la tecnología está dejando atrás organismos reguladores y procesos burocráticos arcaicos. Las
tecnologías que cambian la vida, como la inteligencia artificial, deben abordarse y tratarse lo antes posible para
establecer límites claros y líneas rojas antes de que sea demasiado tarde.
Osher Assor es Director General de la División de Ciberseguridad y Tecnología de Auren Israel y asesor cibernético
del Ministerio de Defensa.

El ejército de Israel está usando una IA que puede 'ver' a través de las paredes
El algoritmo es capaz de rastrear objetivos vivos a través de un edificio para que los soldados estén preparados para el
ataque al poder identificar si son adultos, niños o animales.
La potente industria informática israelí desempeña un papel clave por su dominio del
espionaje digital y de tecnologías informáticas. La clase política tiene estrechas
conexiones con Silicon Wadi, que proporciona ‘software’ espía a gobiernos de todo el
mundo para controlar a su población 'sospechosa'.

Reconociendo también que las tecnologías de la IA pueden agravar las divisiones


y desigualdades existentes en el mundo, dentro de los países y entre ellos, y que es
preciso defender la justicia, la confianza y la equidad para que ningún país y ninguna
persona se queden atrás, ya sea mediante el acceso equitativo a las tecnologías de
la IA y el disfrute de los beneficios que aportan o mediante la protección contra sus
consecuencias negativas, reconociendo al mismo tiempo las diferentes
circunstancias de los distintos países y respetando el deseo de algunas personas
de no participar en todos los avances tecnológicos
Equidad y no discriminación. Sostenibilidad. Derecho a la intimidad y protección de
datos. Transparencia y explicabilidad.
El judaísmo enfatiza la importancia de la responsabilidad ética y la justicia en todas
nuestras acciones. Esto implica que cualquier desarrollo y uso de la IA debe ser
considerado desde una perspectiva ética, asegurándonos de que se respeten los valores
fundamentales del judaísmo, como la dignidad humana, la igualdad de oportunidades y
la ausencia de discriminación
El desarrollo de la Inteligencia Artificial debe ir acompañado del desarrollo de la ética asociada con

esta tecnología. ¿Serán más importantes los filósofos y estudiosos en temas éticos asociados a la

inteligencia artificial o los científicos de datos?” Estudios recientes muestran que el 92% de las

empresas consideran prioritario capacitar a sus tecnólogos en ética.unque la inteligencia artificial

se empezó a desarrollar desde la segunda guerra mundial, solamente durante los años recientes,

hemos tenido un auge en su uso cotidiano. Desde los asistentes virtuales en nuestros teléfonos

inteligentes, hasta el apoyo en la detención temprana de enfermedades, pasando por infinidad de

tareas que realizamos a diario en diferentes industrias. Todo esto se ha dado principalmente por el

desarrollo en la capacidad de computo que tenemos hoy en día, ya que para la utilización de este

tipo de tecnologías es necesario el uso de grandes volúmenes de datos.

De la mano con la inteligencia artificial aparece un reto muy importante para la humanidad. Bajo

qué principios éticos vamos a programar nuestros algoritmos de IA cuando se enfrenten a dilemas

complicados. Por ejemplo, si un carro autónomo se enfrenta a una situación en la cual una persona

está cruzando la calle y las únicas opciones posibles son: atropellar al peatón causándole la muerte

o desviar el carro y estrellarse contra una pared originando la muerte del pasajero, ¿Qué decisión

debe tomar? ¿Qué pasa si el peatón está cruzando la calle y el semáforo está en rojo? ¿Qué pasa si

quien viaja en el carro es una persona de edad avanzada y quien cruza la calle es joven? ¿Qué pasa
si el que va en el carro tiene familia y quien está cruzando no? Estas, y muchas más preguntas

deben ser resueltas con el fin de programar adecuadamente los algoritmos de IA que estamos

construyendo para los carros autónomos; así como para infinidad de situaciones, que se pueden

presentar cuando se va a hacer uso de la inteligencia artificial. ¿O acaso lo que debemos hacer es

dejar que el algoritmo decida por si solo?

Principios éticos

Aparece entonces un campo de acción muy importante en los desarrollos actuales que se están
haciendo frente a la inteligencia artificial: La ética en la creación de esta.  Hace poco más de un
año, la Unión Europea adoptó los 7 principios éticos que tienen como objetivo buscar beneficios
para toda la sociedad, respetar la privacidad de los datos y protegernos frente a previsibles errores
y ataques. Algunos de esos son:
1. Supervisión humana: los sistemas de inteligencia artificial deben permitir sociedades equitativas

apoyando los derechos fundamentales de los humanos, y no disminuir, limitar o desviar la

autonomía de estos.

2. Robustez y seguridad: la inteligencia artificial requiere que los algoritmos sean lo

suficientemente seguros, confiables y sólidos como para enfrentar errores o inconsistencias

durante todas las fases del ciclo de vida de sus sistemas.

3. Bienestar social y ambiental: los sistemas de inteligencia artificial deben utilizarse para mejorar

el cambio social positivo, la sostenibilidad y la responsabilidad ecológica.

Bajo este análisis, la ética toma una nueva dimensión e importancia en el mundo actual. No

solamente necesitamos más científicos de datos sino personas formadas en ética para que hagan

buen uso de la tecnología, pensando en el bien de la sociedad. Recuerdo en mis años de

Universidad en la facultad de ingeniería cuando tuve que tomar una clase de ética. No entendía en

ese momento porque esa debía ser una materia en el pensum de mi carrera. Rápidamente entendí

la importancia de esta en la carrera, en los negocios y en la vida en general. Hoy más que nunca

debemos formar a nuestros ingenieros en estos temas y reforzar nuestros valores para que los

desarrollos que estamos haciendo en la actualidad, realmente beneficien a la humanidad y al

medio ambiente. Recordemos que la ética es la que sostiene las organizaciones.

Resumen

La ética toma una nueva dimensión e importancia en el mundo actual. No solamente necesitamos

más científicos de datos sino personas formadas en ética para que hagan buen uso de la tecnología,

pensando en el bien de la sociedad.

Qué es Pegasus, el sistema de espionaje telefónico israelí usado por Gobiernos de todo el mundo?

Archivo. Una mujer utiliza un teléfono frente a la sede de la firma israelí NSO, que vende el software Pegasus
Por Rafael Cereceda & Forbidden Stories • última actualización: 20/07/2021
La ONG Forbidden Stories ha revelado que Gobiernos de todo el mundo llevan años usando esta sofisticada
teconología de espionaje telefónico contra miles de activistas y periodistas.

La organización de periodistas de investigación Forbidden Stories (Historias Prohibidas) y Amnistía Internacional han
tenido acceso a una base de datos con miles de números de teléfono designados para ser espiados por los clientes de
la firma israelí de seguridad NSO, en general Gobiernos y agencias de seguridad nacionales. La compañía NSO vende
Pegasus, un sofisticado programa capaz de entrar en los teléfonos móviles de forma casi invisible accediendo a todos
los recovecos del teléfono, incluida la mensajería encriptada.

¿Cómo funciona Pegasus?


Se trata de spyware, un programa informático de espionaje, que contrariamente a la mayoría de ellos no necesita
ninguna acción del usuario (como abrir un archivo adjunto o proporcionar datos de una cuenta). Penetra en los
teléfonos Android, iPhone o BlackBerry de forma totalmente invisible para el usuario y una vez instalado es capaz de
acceder a todos sus datos, además de activar la cámara o el micrófono, la geolocalización y "leer" el contenido de la
mensajería supuestamente encriptada como Telegram o WhatsApp.

Pegasus es capaz de entrar en el teléfono desde varias de las fallas de seguridad que presentan. Su existencia es
conocida en medios especializados desde 2016, salió a la luz durante el asesinato del periodista saudí Jamal
Khashoggi y se le sospechaba detrás de otros casos. Lo que revela el Proyecto Pegasus es el alcance de este
espionaje.

"Este espionaje tiene consecuencias dramáticas y, en algunos casos, incluso mortales para los hombres y mujeres de a
pie que han sido señalados por su trabajo de denuncia de las fechorías de sus gobernantes o de defensa de los
derechos de sus conciudadanos" dice Forbidden Stories en su comunicado.

"Estas revelaciones echan por tierra cualquier afirmación de NSO de que estos ataques son poco habituales y se
deben a un uso deshonesto de su tecnología. Aunque la empresa afirma que su software espía sólo se utiliza para
investigaciones criminales y terroristas legítimas, está claro que su tecnología facilita el abuso sistémico. Pintan una
imagen de legitimidad, mientras se benefician de violaciones generalizadas de los derechos humanos" dijo por su parte
al secretaria general de Amnistía Internacional Agnès Callamard.

¿Es legal un software semejante?


Según NSO, este sistema no está destinado al espionaje de masas, sino a la lucha contra el terrorismo. La empresa
creada en 2011 afirma que sólo lo vende a agencias gubernamentales verificadas y que veta a sus clientes por su
trayectoria en Derechos Humanos. Sin embargo han sido acusados a menudo de facilitar la tarea a gobiernos
autoritarios y se ha descubierto que el programa ha sido utilizado por países como Azerbaiyán, Arabia Saudí o
Emiratos Árabes Unidos.

Según la investigación de Forbidden Stories, el Ministerio de Exteriores israelí está muy involucrado en la aprobación
de la lista de clientes y habría insistido para incluir a Arabia Saudí a pesar de las dudas de la dirección de NSO.

Las cifras de un nuevo escándalo de espionaje masivo


Amnistía Internacional y Forbidden Stories han tenido acceso a 50.000 números de teléfono de posibles objetivos del
espionaje repartidos en 50 países que incluyen La India, Francia, Hungría, México o Marruecos. También se contrató
en España, en el contexto del conflicto catalán según reportes periodísticos que el Gobierno español siempre ha
negado.

Entre las posibles víctimas hay unos 600 políticos, cerca de 200 periodistas, unos 80 activistas políticos y no menos de
65 empresarios.

El Proyecto Pegasus, un consorcio creado para investigar la filtración ha contado con la colaboración de 17
redacciones de medios de comunicación en 10 países y con un equipo de 80 periodistas. La organización precisa que
no quiere decir que los 50.000 nombres hayan sido espiados, sería una lista de objetivos potenciales de los clientes.

En su página web NSO Group asegura que ellos no gestionan el software para sus clientes. Se limitan a filtrar a quién
se lo venden, en función de las garantías que presentan las instituciones. De confirmarse el caso revelaría fallas
importantes en su sistema de filtrado.

¿Qué Gobiernos lo han utilizado?


Los datos obtenidos por el Proyecto Pegasus se refieren a las víctimas, no a los clientes de NSO, sin embargo ha
trascendido que fue utilizado por el Gobierno de Victor Orbán en Hungría para espiar a varios periodistas de
investigación.

También por agencias de seguridad del Gobierno marroquí (al menos 10.000 números de teléfono), de México (15.000
números) donde se incluía como objetivo al periodista Cecilio Pineda Birto, abatido poco después de que se iniciara la
investigación.
La mayoría de números de teléfono se concentran también en la India, Kazajistán, Ruanda, Baréin y los mencionados
Azerbayán, Arabia Saudia y Emiratos Árabes Unidos.
Entre los primeros nombres que han trascendido están el periodista de investigación francés Edwy Plenel fundador de
Mediapart, que habría sido espiado por Marruecos, o los allegados del periodista saudí asesinado Jamal Khashoggi e
incluso el fiscal turco que investigaba el asesinato, además de periodistas húngaros, marroquíes y mexicanos.
En los próximos días se revelarán más detalles, pero entre las víctimas hay varios periodistas del propio proyecto
Pegasus.
NSO Group
Captura de pantalla de la página de inicio de NSO Group con el lema "ciber inteligencia para la seguridad y estabilidad
globales"NSO Group
NSO se defiende
Los Gobiernos incriminados han negado cualquier implicación. NSO por su parte asegura que las acusaciones de
espionaje a periodistas se deben a una "malinterpretación" de los datos que se han filtrado que no tiene relación con la
lista de objetivos de los clientes de Pegasus "o cualquier otro producto de NSO". En un comunicado remitido a
Forbidden Stories NSO asegura que seguirán "investigando cualquier acusación creíble de mal uso y tomando las
acciones apropiadas".
Según el informe de transparencia de NSO Pegasus "no es una tecnología de vigilancia masiva" y "sólo se utiliza
cuando hay una razón legal legítima o de inteligencia".
El 85% de los teléfonos en la lista, infectados
Para corroborar las informaciones la ONG Amnistía Internacional y el laboratorio canadiense Citizen Lab realizaron un
análisis forense de algo más de 43 teléfonos y encontraron que en 85% de los casos el teléfono estaba infectado por
Pegasus o se había intentado instalarlo.
"Nos hemos estado recomendando mutuamente esta o aquella herramienta, cómo mantener [nuestros teléfonos] más y
más seguros de los ojos del gobierno", dijo la periodista azerbaiyana Khadija Ismayilova. "Y ayer me di cuenta de que
no hay manera. A menos que te encierres en [una] búnker de hierro, no hay manera de que no interfieran en tus
comunicaciones".

You might also like