La inteligencia artificial es asombrosa, eso piensa la mayoría de las personas. Puede reunir un montón de información para presentar variables adecuadas y responder a requerimientos de formas inesperadas. De cierta forma, muchos creen que ya es más inteligente que nosotros. Sin embargo, los científicos piensan algo muy distinto: la IA que conocemos hoy en día es absolutamente rudimentaria y está lejos de su verdadero potencial.
Lo cierto es que las IA que encontramos hoy en día son específicas. Aunque son IA que imitan una capacidad humana concreta y pueden cumplir determinadas funciones llevándolas a extremos inimaginables, la fantasía y objetivo de los científicos no es este tipo de IA, sino la IA general: uno de los tipos de inteligencia artificial que pueda imitar el cerebro humano casi por completo y lo supere. Lo cierto es que esta forma de IA todavía no es más que un planteamiento, si bien ya podríamos estar cerca de su realización.
Los científicos de DeepMind, la compañía de inteligencia artificial de Alphabet (la matriz de Google), presentaron una interesante idea de cómo lograrlo. La solución sería olvidar el abordaje actual (unir sistemas con diferentes funciones del cerebro) y apostar por la «evolución». Sí, la clave de la IA sería remitirnos a la biología y permitirla pasar por un proceso de selección natural.
Bajo este abordaje, los científicos creen que lograrían dejar de imitar funciones específicas y podrían desarrollar un cerebro sintético similar, y superior, al nuestro. Aseguran que es la única forma en que las máquinas puedan adquirir habilidades necesarias para enfrentarse a cualquier situación; además de desarrollar consciencia de su existencia.
Te puede interesar: Empresas de inteligencia artificial | 20 compañías líderes de IA
Tabla de contenidos
Inspiración biológica
En un artículo titulado «Reward is enough», publicado en la revista Science, los científicos de DeepMind explicaron su teoría. Argumentaron que las IA actuales reúnen sistemas que imitan las diferentes funciones del cerebro. Esto les brinda la capacidad de ser excelentes para cumplir funciones humanas específicas. De esta forma, pueden superar los límites humanos, pero solo en ciertas funciones.
Te puede interesar:
Para los científicos, este abordaje es tratar de crear una IA de arriba abajo. Y lo lógico, por el contrario, sería dejar que la IA evolucione a través de la selección natural. Plantean que, si esto ha funcionado para la biología, también lo hará para un organismo sintético. Bajo esta idea, consideran que la evolución es la única forma posible en que las máquinas puedan enfrentarse a cualquier situación.
Durante millones de años, gracias a las mutaciones y selección natural, nuestro cerebro y cuerpo han venido modificándose. Los organismos más avanzados fueron recompensados por el entorno. Quienes no evolucionaron fueron castigados. No solo los humanos son ejemplo de evolución; por el contrario, los animales marinos capaces de organizarse para cazar o ardillas que guardan los frutos secos para el invierno son otros ejemplos. El estudio señala:
El mundo natural al que se enfrentan animales y humanos, y presumiblemente los entornos que afrontarán los agentes artificiales en el futuro, son inherentemente tan complejos que requieren habilidades sofisticadas para tener éxito (por ejemplo, para sobrevivir) en esos entornos. Por eso, el éxito, medido por la maximización de la recompensa, demanda una variedad de habilidades asociadas con la inteligencia.
Y agregan: «En esos entornos, cualquier comportamiento que maximice recompensas deberá mostrar esas habilidades [de la inteligencia general]. En ese sentido, el objetivo genérico de la maximización de la recompensa contiene muchos y posiblemente todas las metas de la inteligencia».
Artículos relacionados:
La importancia de las recompensas
Sin embargo, no se trata solo de la evolución. El principio clave que permitiría que esto funcione son las recompensas. Los científicos consideran que las experiencias de prueba y error y la maximización de la recompensa son elementos suficientes para desarrollar comportamientos y habilidades asociados con la inteligencia. En otras palabras, el aprendizaje por refuerzo sería la clave para el desarrollo de una IA general.
¿Qué significa todo esto? Para Deepmind, crear una IA general por diseño es imposible. Las variables que han hecho que hoy evolucionemos hasta este punto son infinitas. Por lo tanto, no las podemos replicar para crear una IA general. Además, al emularlas no damos respuesta al porqué, sino simplemente al qué, lo que limita lo que pueden realmente hacer.
¿Cuál sería entonces la solución que plantean? «[Nosotros] consideramos una hipótesis alternativa: que el objetivo genérico de maximizar la recompensa es suficiente para impulsar el comportamiento que exhibe la mayoría, si no todas, las habilidades que se estudian en inteligencia natural y artificial».
En otras palabras, replicar cómo funciona la naturaleza: generar un objetivo, y replicar el componente de recompensa cuando se consigue. Esto ayuda a desarrollar las habilidades asociadas con la inteligencia y a generar una comprensión más profunda de las mismas. Es decir, podría ayudar a explicar el porqué surge cada habilidad.
Asimismo, los investigadores aseguran que la forma más escalable de maximizar la recompensa es a través de agentes que aprenden mediante la interacción con el entorno.
La inteligencia y las habilidades asociadas surgirán implícitamente al servicio de maximizar una de las muchas señales de recompensa posibles, correspondientes a los muchos objetivos pragmáticos hacia los que se puede dirigir la inteligencia natural o artificial.
Desarrollo y recompensas: ¿las claves para una IA general?
¿Qué habilidades tenemos los animales? Tenemos sentidos para reconocer nuestro entorno y relacionarnos con él; la capacidad de reconocer objetos y segmentación de imágenes; la capacidad de comunicarnos y usar el lenguaje para hacernos entender; y la capacidad de imitar y adaptarnos a condiciones variables y más.
Todas estas habilidades se han obtenido por medio de la evolución y la necesidad de supervivencia, además de recibir recompensas en un ambiente complejo. Tras analizar este proceso, ¿podríamos lograr que la IA imite la evolución, a una velocidad mucho más rápida, para poder obtener una IA general capaz de pensar como nosotros o superarnos?
«Si el flujo de experiencia de un agente artificial es lo suficientemente rico, entonces muchos objetivos (como la duración de la batería o la supervivencia) pueden requerir implícitamente la capacidad de lograr una variedad igualmente amplia de subobjetivos y, por lo tanto, la maximización de la recompensa debería ser suficiente para producir una inteligencia general artificial», aseguran los científicos de DeepMind.
De esta forma, el abordaje adecuado sería a través del aprendizaje reforzado o por refuerzo. Este modelo de IA aplica el concepto de recompensa para que el sistema pueda aprender por sí mismo. Y la ventaja que tiene la tecnología es que puede realizar las tareas extraordinariamente rápido y sin cansarse o aburrirse.
Te recomendamos:
Inteligencia artificial emocional | ¿Máquinas con emociones artificiales?
Elon Musk sugiere que un parásito está causando que los humanos creen una IA sobrehumana
Qué es bias en inteligencia artificial | Los riesgos de los sesgos
De nuevo sobre los sesgos: crean una IA para dar juicios éticos y resulta ser racista
Aprendizaje por refuerzo
Los investigadores de DeepMind sugieren que este tipo de IA es el algoritmo que mejor puede replicar la maximización de recompensas como se ve en la naturaleza. El aprendizaje por refuerzo se compone de tres elementos clave: ambiente, agentes y recompensa.
«Si un agente puede ajustar continuamente su comportamiento para mejorar su recompensa acumulativa; entonces cualquier habilidad que su entorno demande repetidamente debe, en última instancia, producirse en el comportamiento del agente», señalan los científicos.
De esta forma, al relacionarse con el ambiente y las recompensas, el agente puede aprender sobre percepción, lenguaje, inteligencia social y más. Algunas habilidades ya han sido probadas en juegos y ambientes robóticos.
Lectura sugerida: Robótica | Guía definitiva para entender sus claves
Sin embargo, los científicos también admiten que hay problemas y retos que todavía no tienen solución. Por un lado, no ofrecen ninguna garantía de la eficiencia de los agentes de aprendizaje por refuerzo. Por el otro, este tipo de aprendizaje requiere enormes cantidades de datos, y podría necesitar siglos para dominar ciertas habilidades.
Además, los investigadores no han resuelto cómo crear sistemas de aprendizaje reforzado que puedan generar aprendizajes a través de diferentes dominios. En otras palabras, que se puedan aplicar de forma generalizada, como lo hacen nuestros cerebros. Asimismo, se debe tener en cuenta que los cambios en el ambiente pueden alterar el proceso de aprendizaje. Es decir, pueden requerir un reentrenamiento del sistema.
Artículos recomendados:
Comments