Los investigadores entrenaron a esta IA para ‘pensar’ como un bebé: esto es lo que sucedió

Los investigadores entrenaron a esta IA para ‘pensar’ como un bebé: esto es lo que sucedió

julio 14, 2022 0 Por RenzoC


En un mundo lleno de puntos de vista opuestos, llamemos la atención sobre una cosa en la que todos estamos de acuerdo: si te muestro mi bolígrafo y luego lo escondo detrás de mi espalda, mi bolígrafo seguirá existiendo, incluso si ya no lo ves. Todos podemos estar de acuerdo en que todavía existe y probablemente tenga la misma forma y color que antes de que pasara a mis espaldas. Esto es solo sentido común.

Estas leyes de sentido común del mundo físico son universalmente entendidas por los humanos. Incluso los bebés de dos meses comparten este entendimiento. Pero los científicos todavía están desconcertados por algunos aspectos de cómo llegamos a este entendimiento fundamental. Y aún no hemos construido una computadora que pueda igualar las habilidades inteligentes de un niño en desarrollo típico.

Una nueva investigación de Luis Piloto y sus colegas de la Universidad de Princeton, que reviso para un artículo en Nature Human Behavior, da un paso para llenar ese vacío. Los investigadores crearon un sistema de inteligencia artificial (IA) de aprendizaje profundo que obtuvo una comprensión de algunas leyes de sentido común del mundo físico.

Saludos humanoides

Suscríbase a nuestro boletín ahora para recibir un resumen semanal de nuestras historias favoritas de IA en su bandeja de entrada.

Los resultados ayudarán a construir mejores modelos informáticos que simulen la mente humana, abordando una tarea con las mismas suposiciones que un bebé.

comportamiento infantil

Por lo general, los modelos de IA comienzan con una página en blanco y se entrenan en datos con muchos ejemplos diferentes, a partir de los cuales el modelo genera conocimiento. Pero la investigación infantil sugiere que eso no es lo que hacen los bebés. En lugar de construir conocimiento desde cero, los bebés comienzan con expectativas basadas en principios sobre los objetos.

Por ejemplo, esperan que si tratan con un objeto que luego se oculta detrás de otro objeto, el primer objeto seguirá existiendo. Esta es una suposición básica que los inicia en la dirección correcta. Su conocimiento se refina luego con el tiempo y la experiencia.

El emocionante descubrimiento de Piloto y sus colegas es que un sistema de inteligencia artificial de aprendizaje profundo basado en lo que hacen los bebés supera a un sistema que comienza con una pizarra en blanco e intenta aprender basándose únicamente en la experiencia.

Toboganes de cubos y bolas en las paredes

Los investigadores compararon los dos enfoques. En la versión en blanco, el modelo de IA recibió varias animaciones visuales de objetos. En algunos ejemplos, un cubo se deslizaría por una rampa. En otros, una pelota rebotó contra una pared.

El modelo detectó patrones de las diferentes animaciones y luego se probó su capacidad para predecir resultados con nuevas animaciones de objetos visuales. Este rendimiento se comparó con un modelo que tenía «expectativas basadas en principios» incorporadas antes de pasar por animaciones visuales.

Estos principios se basaron en las expectativas de los bebés sobre cómo se comportan e interactúan los objetos. Por ejemplo, los bebés esperan que dos objetos no se crucen.

Si le muestras a un bebé un truco de magia en el que violas esa expectativa, puede detectar la magia. Revelan este conocimiento al observar eventos con resultados inesperados o «mágicos» durante mucho más tiempo que los eventos en los que se esperan los resultados.

Los bebés también esperan que un objeto no pueda simplemente aparecer y desaparecer. También pueden detectar cuándo se viola esa expectativa.

Piloto y sus colegas descubrieron que el modelo de aprendizaje profundo que comenzó con una pizarra en blanco hizo un buen trabajo, pero el modelo basado en codificación centrado en objetos inspirado en la cognición infantil funcionó significativamente mejor.

El último modelo podía predecir con mayor precisión cómo se movería un objeto, era mejor para aplicar expectativas a nuevas animaciones y aprendía de un conjunto más pequeño de ejemplos (por ejemplo, logró esto después del equivalente a 28 horas de video).

¿Una comprensión innata?

Claramente, aprender con el tiempo y la experiencia es importante, pero eso no es todo. Esta investigación de Piloto y sus colegas arroja luz sobre la antigua pregunta de qué puede ser innato en los humanos y qué se puede aprender.

Más allá de eso, establece nuevos límites para el papel que pueden desempeñar los datos de percepción cuando se trata de sistemas artificiales que adquieren conocimiento. Y también muestra cómo los estudios infantiles pueden ayudar a construir mejores sistemas de IA que simulen la mente humana.La conversación

Artículo de Susan Hespos, Departamento de Psicología, Universidad de Northwestern, Evanston, Illinois, EE. UU. y Profesora de Estudios Infantiles, Instituto MARCS, Universidad de Western Sydney

Este artículo se vuelve a publicar de The Conversation bajo una licencia Creative Commons. Lea el artículo original.