Professional Documents
Culture Documents
Rivera Tarea Etica P11
Rivera Tarea Etica P11
Ingeniería Industrial
Taller de ética
Grupo P11
24/Marzo/2022
Página |2
INDICE
1.-Introduccion……………………3
2.-Resumen…………………...…...4
3.-Explicacion…………...………...5
4.-Mapa conceptual………….……6
5.-Resumen………………….……7
6.-Explicacion……………………16
7.-Mapa conceptual…………….17
8.-Conclusion………………….18
9.-Bibliografia………………….18
Página |3
INTRODUCCION
En el siguiente trabajo vamos a ver la importancia que tiene la ética en la
tecnología, pues muchas veces la utilizamos de forma incorrecta y no solo
nosotros, sino también, terceras personas, claro es el ejemplo cuando damos
información personal y llega a pasar en muchas ocasiones que la están utilizan
erróneamente con fines de lucro.
Y también observaremos la relación que hay entre la bioética en cuanto al
tema del COVID-19.
Página |4
4. Planeación y prevención.
Secretaría de Salud y para conocer las implicaciones bioéticas en la atención del COVID,
puedes visitar la página web o la sede de la Comisión para resolver tus dudas.
EXPLICACION
Frente a la pandemia del COVID-19 en nuestro país, se constituye como imperativo
bioético tomar todas las medidas necesarias para evitar daños prevenibles a la población,
considerando especialmente las necesidades de personas en condiciones de vulnerabilidad –
esto es, desde la población sujeta a un esquema ambulatorio de cuidado, recluida en casa,
hasta las personas adultas mayores, quienes viven con enfermedades crónicas, como
hipertensión, diabetes, EPOC, cardiopatías en general, o inmunodepresión, así como los
propios profesionales de la salud, con base en la evidencia científica disponible y con la
participación de todos los sectores de nuestra sociedad.
BIOETICA ANTE EL
COVID
5. Solidaridad y concertación
de acciones con la sociedad
Página |8
miedo, por cómo su huella digital puede impactar en su vida en el futuro. Esa foto de esa
fiesta, ese comentario en una red social, ese momento que queremos olvidar, ese conflicto,
incluso esa condena judicial o ese archivo de una causa. Todo eso las personas que han
nacido ya en la sociedad actual, totalmente digitalizada, puede emerger en cualquier
momento y arruinarte la vida, tu relación de pareja, la consecución de ese trabajo que tanto
deseabas. Por lo tanto, en mi trabajo sobre videovigilancia me di cuenta de que había un
montón de preguntas sobre tecnología que no estábamos haciendo, y que era
importantísimo que alguien realizara. Desde entonces he tenido la suerte de poder
dedicarme a hacer esas preguntas, a explorar cuáles son las preguntas que deberíamos
hacer, y cómo debería la tecnología responder a esas preguntas, y entender e incorporar
todas esas preocupaciones. Quería detallarles brevemente algunos de los proyectos en los
que estuve involucrada, para que veáis cómo se aterriza este tema de la ética de la
tecnología. He trabajado mucho tiempo, por ejemplo, en la automatización del paso de
fronteras. No sé si han ido a algún aeropuerto recientemente, pero verán que muchas veces
quien nos controla el pasaporte ya no es un policía, sino una máquina, meten nuestro
pasaporte, se nos hace un reconocimiento de la huella digital, un match biométrico con
nuestro documento de identidad, y la máquina decide si puedes pasar o no. Cuando
empezamos a trabajar en las "fronteras inteligentes", una de las primeras cosas que nos
sorprendió, y que después hemos visto reproducida en muchos otros casos, es que cuando el
parlamento europeo empezó a plantearse la automatización del cruce de fronteras, el debate
no pasó por el parlamento europeo porque se consideró una enmienda técnica. Cambiar a
policías por un proceso de datos era nada más que una enmienda técnica. No afectaba según
las personas que inicialmente propusieron ese cambio, a la conceptualización de lo que era
la frontera, con lo cual podía ser una enmienda técnica que no requería ningún tipo de
control público o político. Para que vean lo poco técnico que esto es, la incorporación de
automatización del paso de fronteras ha hecho, por ejemplo, que la frontera desaparezca.
Hoy en día, el cruce de la frontera, la línea en el suelo, el aeropuerto, no es lo importante.
Empezamos a viajar y se nos empieza a autorizar el viaje en el momento en el que
compramos nuestro billete o solicitamos la visa para viajar. Y nuestro paso de frontera no
acaba cuando cruzamos la frontera o cuando llegamos a nuestro destino. Si hemos pedido
una visa continúa, porque la validez de nuestra visa es controlada hasta que abandonamos
P á g i n a | 11
el país, o si no lo abandonamos salta una alarma, para que la policía pueda tomar cartas en
el asunto. Con lo cual la introducción de los datos, la automatización de todo este proceso,
ha cambiado completamente lo que supone una frontera. La frontera es ahora mismo un
espacio larguísimo, para muchas personas un espacio de control continuo. Han pasado otras
cosas. con la automatización de fronteras hemos incorporado la biometría como
herramienta para comprobar la identidad. ¿Qué pasaba en el pasado cuando alguien no
quería que su identidad fuera conocida? Quemaba su pasaporte. Cuando alguien no quería
ser devuelto a su país, porque consideraba que en ese país podía sufrir consecuencias
indeseables, podía quemar su pasaporte y con eso aspirar a quedarse en un espacio y en un
limbo legal y jurídico. Hoy, nuestro pasaporte está en nuestros dedos. ¿Qué están haciendo
los migrantes? Quemarse los dedos, mutilarse, porque es la única forma de evitar que su
cuerpo se convierta en su enemigo. Eso que querían pasar como enmienda técnica, está
teniendo unas consecuencias brutales sobre los derechos fundamentales de los migrantes.
Inicialmente, hoy ya no, alguien quería que no habláramos de eso, que no nos planteáramos
cuáles eran las implicaciones de esa decisión. No solo eso, a través de mi trabajo he podido
hablar con más de 1500 personas que han utilizado estos sistemas automáticos de control de
la identidad en pasos de fronteras. Y es curioso ver como cuando les preguntas a los
viajeros de terceros países, no europeos, no personas del espacio del entorno Schengen:
¿Qué prefieres, un control policial humano o un control automático? La mayoría te dice:
"Prefiero el control automático". Confiamos en la tecnología, creemos que es más eficiente
y más justa incluso que la toma de decisiones humana. Pero cuando les preguntábamos a
estas mismas personas: ¿Y si la máquina se equivoca? ¿Qué crees que va a pasar? Todos
coincidían: "Estoy perdido, no voy a poder salir". Cuando hay lo que llamamos un falso
positivo, cuando la máquina se equivoca, no tenemos los mecanismos ni las leyes que
garanticen que podemos salir del hoyo donde nos ha metido ese proceso de toma de
decisiones automáticas. Esas son algunas de las cosas que hemos encontrado en el trabajo
en el entorno de fronteras. Otro ejemplo: también hemos trabajado con universidades, para
ver el impacto ético de la ciencia ciudadana. La ciencia ciudadana es la ciencia que se hace
con la ayuda de las personas, gente que trabaja el movimiento de los mares o la migración
de los pájaros, si tuvieran que desplegar a investigadores a todas partes, para hacer
fotografías constantes de cómo está el mar, o cómo se mueven los pájaros esto sería muy
P á g i n a | 12
costoso. Gracias a la tecnología podemos pedir a la gente que vive en espacios concretos
que nos manden una foto del mar cada día cuando se levanten a la misma hora y yo proceso
todos esos datos y a partir de ahí hago ciencia. Está muy bien, pero cuando empezamos a
trabajar con la universidad y los investigadores, nos encontramos un caso paradigmático de
lo que yo llamo despotismo de los datos que es "Todo por el pueblo, con los datos del
pueblo, pero sin el pueblo". Los investigadores pedían a la gente que les mandaran un
montón de datos personales donde una fotografía geolocalizada puede decir exactamente
dónde vivimos, cómo es nuestro entorno e incluso con quién estamos. Pues no había ningún
tipo de precaución en relación con la gestión de esos datos. Y lo llamábamos "ciencia
ciudadana". Afortunadamente, hoy ya no es así, y hemos creado mecanismos para que la
ciencia ciudadana sea realmente ciencia ciudadana, al servicio de las personas y no solo un
espacio de uso y abuso de las personas voluntarias que se prestan para participar en esas
investigaciones. Trabajamos también mucho en el ámbito del trabajo, el futuro del trabajo,
inteligencia artificial, los robots que nos van a quitar el trabajo, todos esos miedos que
tenemos. ¿Y qué nos encontramos?. Los directores de las empresas, los CEOs, los
responsables de las empresas tienden a tomar malas decisiones, cuando éstas involucran la
tecnología. Es decir, un responsable de una empresa estará mucho más dispuesto a gastar
dinero en tecnología que en procesos no tecnológicos, con lo cual adquirimos tecnología sin
pensar si realmente la necesitamos, sobre todo en entornos de trabajo. Estamos viendo la
introducción de exoesqueletos, de sensores de control 24 horas en entornos de trabajo en
los que no son necesarios para mejorar la eficacia, la eficiencia ni la rentabilidad de esa
empresa. Pero, entre que la gente en las empresas no sabe que existen tecnologías menos
lesivas, y que quien vende la tecnología siempre quiere venderte la máxima capacidad que
puede desarrollar, acabamos con entornos laborales que son insufribles desde la perspectiva
de los que trabajan. Tomamos malas decisiones porque la tecnología nos fascina
constantemente. Cómo construimos los mecanismos para empoderarnos a todos a saber
distinguir cuando una tecnología realmente nos ayuda o no nos ayuda. Pues a eso nos
dedicamos en la ética de la tecnología. Un cuarto ejemplo: trabajo mucho en tecnologías de
seguridad. La verdad es que podría dar 10 TED talks solo sobre seguridad, porque es un
ámbito terriblemente sensible Un par de ejemplos: hace unos años estábamos auditando los
algoritmos de un proyecto que quería desplegar cámaras de videovigilancia inteligentes en
P á g i n a | 13
punto. Y todos tenemos derecho a la presunción de inocencia hasta que cometamos un acto
ilícito. La tecnología tiende a olvidar eso y se siente tan poderosa y tan poco controlada por
todos estos elementos que se atreve a prometer la capacidad de prever y de saber lo que
vamos a hacer antes de que a nosotros se nos pase por la cabeza. Y finalmente un último
ejemplo: el de movilidad. Todos habéis oído hablar de los coches autónomos ¿no?
Teóricamente en poco tiempo todas las ciudades estarán llenas de coches que conducen
solos. Pues el coche autónomo es uno de los grandes ejemplos de cómo la arrogancia de la
ingeniería puede llevar al fracaso una buena idea. El coche autónomo es muchísimo más
seguro que el coche no autónomo. Pero, ¿qué pasa? A las muertes de los coches no
autónomos nos hemos acostumbrado, pero cada vez que un coche autónomo mata o hiere a
alguien es portada en todo el mundo. Con lo cual la percepción social es que es mucho más
inseguro el coche autónomo que el no autónomo. Y mientras los ingenieros insistan en
decir tengo aquí todas estas cifras que demuestran que es más seguro, y no se preocupen de
convencer a la población, de trabajar la aceptabilidad de esa tecnología, de incorporar los
miedos y las preocupaciones sociales en la conceptualización de esa tecnología,
seguramente lo que va a pasar es que lo que es una buena idea que podría salvar
muchísimas vidas, tardará muchísimo más en implementarse, porque los ingenieros tienden
a la arrogancia de los números y de la técnica. Para que veáis que la ética de la tecnología
no es solo un tema de tu smartphone, de tu televisor, de los aparatos de consumo que
usamos. Hay una infraestructura de datos que marca todo lo que hacemos, que requiere
urgentemente de un cierto control, o como mínimo, de la incorporación de responsabilidad.
Lo que he encontrado en mi trabajo, es que como hacemos tecnología actualmente es
profundamente irresponsable. A ningún médico ni a ninguna empresa farmacéutica se le
ocurriría pedirle a la sociedad poder lanzar medicamentos no testados. O lanzar
medicamentos que dijeran: "Mira esto cura el constipado pero da cáncer". No lo
aceptaríamos. No se puede vender. Y en cambio en ingeniería informática se pide el
derecho a lanzar cosas a la sociedad sin testarlas de ninguna manera, sin tener ningún tipo
de conciencia de su impacto social. La buena noticia es que creo que esto está empezando a
cambiar. Que existan perfiles como el mío, con conocimientos en ciencia social, pero
también en elementos técnicos de la matemática y de la física, muestra que empieza a haber
interés por estas cosas. Cada vez hay más grupos de investigación y de trabajo en empresas,
P á g i n a | 15
poder utilizar hoy los vehículos de forma normalizada. Estos son los debates y consensos
sociales que deben emerger alrededor de cualquier nueva tecnología. Debemos dilucidar
cuando aparece un nuevo algoritmo, una nueva innovación tecnológica, un nuevo invento,
debemos decidir entre todos cuáles van a ser los cinturones de seguridad, los límites de
velocidad, los límites de emisiones, los pasos de cebra y los semáforos de esa nueva
innovación. A eso se dedica la ética de la tecnología. Primero a fomentar esos debates, para
que entre todos decidamos si es mejor un control humano, o uno mecánico para cruzar una
frontera, para tomar entre todos responsabilidad de las decisiones que tomamos en relación
con la tecnología, y a partir de esa deseabilidad lo que vemos es cómo construir valores
fundamentales, cohesión social, confianza, no discriminación, derechos humanos en las
especificaciones técnicas. Porque no es solo un tema de dar discursos. Hay formas a través
de las especificaciones técnicas para hacer que las tecnologías respondan mucho mejor a las
expectativas y deseos de la sociedad. De la misma forma que hemos podido construir
coches que maten menos, podemos construir tecnologías que no solo sean menos lesivas
sino que contribuyan de forma definitiva a mejorar el futuro de nuestras sociedades En
definitiva, de lo que se trata la ética de la tecnología es de poner a las personas en el centro
del desarrollo tecnológico, y poner la tecnología al servicio de las personas. Y no como
estamos ahora muchísimas veces, las personas al servicio de la tecnología.
P á g i n a | 17
EXPLICACION
Hay que tener en cuenta que, una de las grandes innovaciones que se han
desarrollado con la tecnología, son las redes sociales, las cuales han cambiado la forma de
interactuar entre las personas y han aumentado la individualidad, así mismo, han impuesto
innovadoras normas de conducta, que están compuestas de nuevos presupuestos éticos, los
cuales en algunas ocasiones pueden llegar ser cuestionados por su falta de contenido moral,
por tanto, podemos deducir que tecnológicamente estamos avanzando a una velocidad
las actividades de su vida cotidiana. Lo cual pone grandes desafíos para el derecho puesto
desarrollar márgenes éticos, es decir, un manual para el manejo de las tecnologías en cada
uno de los ámbitos de la vida de un ser humano, como en la niñez, adultez, en la familia, en
el trabajo, etc. Esto con el fin de enseñar a las personas y a las futuras generaciones a
utilizar de forma apropiada la tecnología, dado que, en ausencia de estas reglas, existe un
gran libertinaje respecto a las formas de emplear los conocimientos e invocaciones, por
expectativas y deseos de la
sociedad.
P á g i n a | 19
CONCLUSION
Así concluimos este trabajo y vimos la importancia que tiene la bioética en el
tema del COVID-19 para ayudar hacer nuevas mejoras y poder controlar mas
este virus ya que esta mas que claro que es algo con lo que seguiremos
viviendo día a día, pero los seguimientos para esta seguirán cambiando. En
cuanto a la relación de la ética con la tecnología también es sumamente
importante ya que todos debemos tener la ética para usar correctamente la
tecnología y no para un mal como: plagiar información, invadir tu privacidad,
filtrar información falsa, hacer mal uso de tus datos personales, etc.
BIBLIOGRAFIA
https://youtu.be/GyAfdInP9x4
https://youtu.be/XJDBN2j9rr4
P á g i n a | 20