top of page

10 riesgos de la inteligencia artificial | ¿El fin de la humanidad?

El término inteligencia artificial (IA) hace referencia a los dispositivos que permiten que cualquier maquinaria, desde un robot hasta nuestro teléfono móvil, procese información. A pesar de que esta tecnología se clasifica en varias categorías o en distintos tipos de IA, hasta el momento no hemos logrado que iguale o supere la inteligencia humana. Sin embargo, algunos ya prevén cuáles podrían ser las consecuencias y los riesgos de la inteligencia artificial si esta llegara a superar nuestras capacidades.

Según los expertos, el creciente desarrollo de la inteligencia artificial dará pie a una nueva era en la historia de la humanidad. Por un lado, algunos creen que el poder de las máquinas es únicamente un tema de la ciencia ficción, otros científicos como Stephen Hawking y Elon Musk han expresado en múltiples ocasiones su preocupación por los peligros de la inteligencia artificial. En este artículo de Futuro Eléctrico te contamos cuáles son las principales inquietudes respecto a esta tecnología.

El peligro más grande de la inteligencia artificial llegará el día en que creamos que la entendemos. Eliezer Yudkowsky

Tabla de contenidos

10 riesgos de la inteligencia artificial

1. ¿Llevará a la humanidad a la extinción?

Software amenazando a la humanidad

Como señala el reconocido científico Stephen Hawking, uno de los mayores temores que se tiene sobre el avance de la tecnología es que esto pueda significar la extinción de la humanidad. Este científico, caracterizado por encarnar la inteligencia artificial en sí mismo con la tecnología de última generación swift-key, que le permitía comunicarse, defendía que los peligros de la inteligencia artificial surgirían cuando esta sea capaz de rediseñarse por cuenta propia.

Lecturas recomendadas:

De esta manera, la inteligencia artificial alcanzaría un nivel mucho mayor a las capacidades cognitivas de los seres humanos. Sin embargo, no todos los expertos están de acuerdo con la postura de Hawking. Por ejemplo, para Gerd Leonhard, escritor y consejero, los avances tecnológicos en el campo de la inteligencia artificial no necesariamente implican consecuencias negativas.

Este pensador futurista alemán afirma:

A veces reaccionamos de forma exagerada ante los posibles peligros de la inteligencia artificial y no podemos adentrarnos en el futuro con miedo. Debemos ser cautos, pero abiertos al progreso.

Su opinión está sustentada por la creencia de que el aumento de la inteligencia artificial también refleja un aumento en las capacidades humanas y en la forma en la que conocemos el mundo.

Otra mirada sobre los riesgos de la inteligencia artificial la tiene el matemático I. J. Good, quien según reseña El Mundo, ha dicho que la IA dejará la inteligencia humana en su nivel más bajo:

Deje que una máquina ultrainteligente se defina como una máquina que puede superar con creces todas las actividades intelectuales de cualquier hombre, por inteligente que sea. Dado que el diseño de máquinas es una de estas actividades intelectuales, una máquina ultrainteligente podría diseñar máquinas aún mejores; indudablemente habría una explosión de inteligencia, y la inteligencia del hombre quedaría muy atrás. Así, la primera máquina ultrainteligente es el último invento que el hombre necesita hacer.

2. Disminución de algunos puestos de trabajo

Robots trabajadores | Riesgos de la inteligencia artificial

Otro de los supuestos grandes riesgos de la inteligencia artificial es que esta llegue a un nivel en el que pueda realizar cualquier trabajo humano. El fundador y director ejecutivo de la empresa tecnológica Sinovation Ventures, Kai Fu Lee, opina que cuando llegue la dominación de la inteligencia artificial, los humanos ya no serán necesarios en el ámbito laboral. Esto se debe a que las máquinas podrán sustituirlos en múltiples campos gracias a su durabilidad y eficacia.

Te puede interesar:

¿Pero estos miedos tienen algún tipo de fundamento? A pesar de que este escenario parece el más probable, estudios más recientes, realizados en la Universidad de Oxford, demuestran que estos riesgos de la inteligencia artificial no ocurrirán en un futuro próximo, sino en mínimo 20 años.

En realidad, posiblemente las ofertas laborales aumentarán en los próximos años en el campo de la inteligencia artificial, debido a la alta demanda en el mundo tecnológico tanto de científicos especializados en el área como de mano de obra para fabricar distintos procesadores.

3. Bias en inteligencia artificial

Sesgos laborales en la IA

Otro de los riesgos de la inteligencia artificial en el mundo laboral es la discriminación que podría llegar a desarrollar las máquinas. Por medio del machine learning o aprendizaje automático, la tecnología de reconocimiento facial y la biometría, los procesadores de inteligencia artificial podrían adquirir conductas discriminatorias que, en el caso de influir en el ámbito laboral, aumentarían la brecha salarial por género y raza, todavía existente en la actualidad, y el índice de desempleo de grupos minoritarios.

Aunque parece que se trata de un caso aislado, ya en el año 2016 el robot Tay, desarrollado por Microsoft, comenzó a producir tweets racistas con base en respuestas de otros usuarios de Twitter. Ese mismo año la red social profesional LinkedIn estuvo envuelta en una polémica, porque se confirmó que mostraba los empleos mejor remunerados a hombres y los que ofrecían salarios más bajos iban dirigidos hacia mujeres.

En este 2022, la compañía OpenAI, líder en investigación e implementación de modelos basados en, presentó su sistema DALL.E 2, que permite la creación de imágenes y arte realista, a partir de frases en lenguaje. Es decir, crea imágenes que hasta ese momento no existían, todo es parte de una invención de este programa.

¿Cuál es el problema? Lo principal es que tiende a reproducir estereotipos de género. Muchas de sus imágenes muestran a mujeres ocupando directamente cargos de menor jerarquía que sus pares masculinos. Además, tiene una probabilidad enorme de crear contenido sexual explícito. Este bias en esta IA es tan notorio que OpenAl ha dicho:

DALL.E 2 tiene el potencial de dañar a individuos y grupos reforzando estereotipos, borrándolos o denigrándolos, brindándoles un desempeño de baja calidad, dispar o sometiéndolos a indignidad.

4. Podría afectar la interacción de los niños con los humanos

Posibles riesgos de la IA

Una de las consecuencias de la inteligencia artificial es que podría afectar la manera en la que los niños se comunican con su entorno. En ese sentido, el estudio titulado «Robovie, you’ll have to go into the closet now»: children’s social and moral relationships with a humanoid robot, del 2012, demostró que los niños tienen la capacidad de atribuir estados mentales a los aparatos de inteligencia artificial, además de que los consideran como un ser social.

Dispositivos como Alexa o el asistente de Google son parte de la cotidianidad de muchas familias. Sin embargo, Sandra Calvert, psicóloga de la Universidad de Georgetown y directora del Children’s Digital Media Center, durante una entrevista para The Washington Post, habló del debate que se debe dar en torno a este tema:

Cómo reaccionan y tratan a esta entidad no humana es, para mí, la pregunta más importante (…) ¿Y cómo afecta eso posteriormente la dinámica familiar y las interacciones sociales con otras personas?

En ese sentido, uno de las problemáticas es que los niños pueden empezar a tener malos modales, porque ellos les hablan a las máquinas sin usar palabras como «por favor» y «gracias». En su inconsciente se quedará grabado que una orden que deseen será cumplida solo si cuentan con buena dicción. Otra preocupación es que pueden empezar a atribuir características humanas a algunos de estos dispositivos.

5. Afectará la privacidad

Vulnerabilidad de la privacidad

Entre los problemas de la inteligencia se halla el hecho de que puede afectar la privacidad de los seres humanos, llegando a obtener datos que las personas no estén dispuestas a ceder tan fácilmente.

En ese sentido, puede llegar a tener una base de datos inmensa con detalles como tu nombre, características biométricas, historial médico, datos financieros y hasta ubicación. Ante esto, se corre el riesgo de experimentar una vulnerabilidad en la red y que toda la información quede expuesta a manos de hackers o delincuentes electrónicos.

Es cierto que se está trabajando en dispositivos que encripten mejor la información recopilada de sus usuarios, pero aún los avances son demasiado lentos, en comparación con el porcentaje de crecimiento de la IA, donde ya se habla de una inteligencia artificial cuántica.

Estamos hablando de que cualquier persona podría dañar a otra con programas espías. También es cierto que la tecnología no es infalible, por lo que no resulta descabellado pensar que un error podría exponer contenido sensible a toda la red. Cada día los datos personales tienen mayor valor en la red, ¿estamos dispuestos a sacrificarlos por el crecimiento de la inteligencia artificial?

6. Tareas demasiado bien ejecutadas

¿Hay riesgos de la inteligencia artificial?

En el libro Human Compatible: AI and the Problem of Control de Stuart Russell, profesor en la Universidad de California, se explica que los riesgos de la inteligencia artificial se centran en una sola cuestión: el hecho de que estos dispositivos sean demasiado buenos cumpliendo objetivos y metas. ¿Qué quiere decir? Que una orden mal dada puede dar como resultado una catástrofe.

Es decir, el argumento del film Avengers: Age of Ultron podría cumplirse. En esa película, Ultron tenía un plan para destruir a la humanidad y todo porque entendió una orden de forma bastante literal. ¿Te imaginas que eso suceda en la realidad?

Russell, en una entrevista para el programa Today de la BBC, dijo:

Imagina que tenemos un poderoso sistema de IA que es capaz de controlar el clima del planeta y que queremos usarlo para devolver los niveles de CO2 en nuestra atmósfera a la época preindustrial. (…) El sistema descubre que la forma más fácil de hacerlo es deshacerse de todos los seres humanos, porque ellos son los que están produciendo todo este dióxido de carbono en primer lugar. (…) Y podrías decir, bueno, puedes hacer lo que quieras, pero no puedes deshacerte de los seres humanos. Entonces ¿qué hace el sistema? Simplemente nos convence de tener menos hijos hasta que no queden seres humanos.

Este ejemplo es bastante alarmante y hasta sensacionalista. Pero no deja de ser uno de los posibles riesgos de la inteligencia artificial. Quizás no nos lleve a la aniquilación de la humanidad, pero podría ejecutar órdenes de forma errónea gracias a una comunicación poco efectiva.

Russel, además, añade:

Una máquina que persigue un objetivo que no es el correcto se convierte, en efecto, en un enemigo de la raza humana, un enemigo que es mucho más poderoso que nosotros.

7. Facilidad para crear fake news

Creación de fake news con IA

Dentro de los puntos en contra de la inteligencia artificial está la potencial facilidad para crear fake news o noticias falsas. Recordemos que estos sistemas tienen la capacidad de crear contenido desde cero y hasta tienen la amplitud suficiente de imitar a los humanos, creando réplicas casi idénticas.

Algunos señalan que esta es una las consecuencias de la inteligencia artificial en el futuro, porque las noticias parecerán tan veraces y serán compartidas por todo tipo de medios de difusión que será difícil distinguir un fake new de uno real. Esto ya se ha podido ver, cuando en el 2017, se difundió un vídeo donde el expresidente de Estados Unidos, Barack Obama, ofendía al también expresidente de Estados Unidos, Donald Trump.

Aunque se demostró que todo era falso, el vídeo fue bastante realista. Y, de hecho, ya existen cientos de aplicaciones con inteligencia artificial que crean noticias falsas, el más popular es FakeApp que en conjunto con Adobe After Effect escanea el rostro de las personas y las suplanta en vídeos.

8. Análisis de emociones

¿Robot con emociones humanas?

Son varias las empresas que han decidido implementar el análisis de emociones y monitorear el estado de ánimo de sus usuarios para mejorar su experiencia. Sin embargo, esto puede ser una violación a la intimidad e, incluso, puede convertirse en un incumplimiento de los derechos humanos.

De hecho, Zoom, la popular compañía de videoconferencias, está atravesando una polémica, ya que un importante grupo de organizaciones de derechos humanos le pide que abandone su proyecto de análisis de emociones. Al respecto, en un documento presentado a la opinión pública, dicen:

Las expresiones faciales a menudo están desconectadas de las emociones subyacentes, y la investigación ha encontrado que ni siquiera los humanos pueden leer o medir con precisión las emociones de los demás en algún momento. El desarrollo de esta herramienta agrega credibilidad a la pseudociencia y pone en juego su reputación.

También, argumentan lo siguiente:

Estas herramientas asumen que todas las personas usan las mismas expresiones faciales, patrones de voz y lenguaje corporal, pero eso no es cierto.

9. Dilemas éticos

Medicina con la IA

Los sistemas de IA no tienen la capacidad ética de los seres humanos. Por tanto, ¿qué sucederá, por ejemplo, en situaciones donde los coches autónomos estén involucrados en accidentes de tránsito?, ¿preferirán la vida de sus usuarios en lugar de atropellar a cientos de personas en la calle?, ¿o el escenario será distinto?

¿O qué pasará con la ética en la medicina?, ¿cuál será la forma en la que abordará este tema? Sobre todo, ha resultado muy polémica la posible sustitución de doctores por robots. Pese a que se ha hablado mucho sobre los beneficios de la inteligencia artificial en el ámbito de la medicina, esto supone también varios riesgos, ya que pueden ocurrir accidentes o errores en las máquinas que arrojen malos diagnósticos sobre los pacientes, lo cual podría tener consecuencias fatales sobre la salud humana.

10. Consecuencias en la industria armamentística

Riesgos de la IA militares

La posición 10 de los posibles riesgos de la inteligencia artificial se la lleva la industria armamentística. En todo el mundo, la IA se empieza a posicionar como una alternativa para mejorar muchas áreas de las fuerzas armadas.

No obstante, cualquier enemigo que sepa cómo funciona un algoritmo de IA podría inhabilitarlo, hackearlo o accionarlo en contra de su mismo propietario. De esta manera, los usos militares de la IA son cada día más cercanos y, por eso, toda la industria está centrada en revisar y corregir todas las vulnerabilidades del software.

En varios comunicados, Elon Musk ha advertido que pronto podríamos ser dominados por la inteligencia artificial o que esta podría ser usada por el ejército, lo cual desencadenaría la Tercera Guerra Mundial, de acuerdo a su opinión en Twitter. Del mismo modo, en el 2017, Musk, junto a otros expertos, explicó que el uso de robots para el conflicto armado puede ser excesivamente peligroso. En este documento difundido por Future of Life Institute se puede leer:

Las armas autónomas letales amenazan con convertirse en la tercera revolución en la guerra. Una vez desarrollados, permitirán que los conflictos armados se luchen a una escala mayor que nunca y en escalas de tiempo más rápidas de lo que los humanos pueden comprender.

Advierten que las armas con inteligencia artificial:

Serán máquinas terroríficas, armas de dictadores y terroristas que se utilicen contra poblaciones inocentes, y armas pirateadas con fines funestos.

Palabras finales

Con una mirada en frenar los posibles riesgos de la inteligencia artificial y tras aprobar el Informe sobre Inteligencia Artificial en la Era Digital, la Unión Europea está trabajando en aprobar la primera legislación sobre inteligencia artificial en el mundo, que será una versión equivalente al Reglamento General de Protección de Datos. De esta manera, lo que se busca es reducir sus posibles consecuencias.

Al respecto, el ponente alemán Axel Voss, dijo en la red social Twitter que la IA no debería darnos miedo, lo que se debe hacer es garantizar que gire alrededor del humano. Lo que se podría interpretar como asegurarnos de que no rompan las leyes de Asimov.

Además, destaca que no se trata de regular la IA en sí misma, sino el uso que le vaya a dar en el futuro. Para ello se han presentado varias propuestas, una de ellas es diferenciar las IA en función del riesgo que pueda suponer para los derechos fundamentales y no según su sector.

Así que de aprobarse esta ley, la Unión Europea estaría sentando las bases para disminuir los puntos en contra de la inteligencia artificial. Y el paso próximo sería que otros países se sumen a este tipo de iniciativas. Es importante destacar que para que ninguno de estos escenarios se vuelva una realidad debemos comprometernos como sociedad a un desarrollo prudente de todo tipo de tecnologías.

Ahora que conoces los mayores riesgos de la inteligencia artificial, queremos saber tu opinión. ¡Cuéntanos lo que piensas sobre el futuro de la IA!

Conoce mucho más sobre la IA:

3 visualizaciones0 comentarios

Comments


bottom of page