Nueva prueba de ‘sentido común’ para IA podría conducir a máquinas más inteligentes

Nueva prueba de ‘sentido común’ para IA podría conducir a máquinas más inteligentes

septiembre 27, 2022 0 Por RenzoC


Contenido proporcionado por IBM y TNW.

Los sistemas de inteligencia artificial actuales están evolucionando rápidamente para convertirse en el nuevo mejor amigo de los humanos. Ahora tenemos IA que pueden preparar whisky galardonado, escribir poesía y ayudar a los médicos a realizar cirugías precisas. Pero una cosa que no pueden hacer, que es, a primera vista, mucho más simple que todas esas otras cosas, es usar el sentido común.

El sentido común es diferente de la inteligencia en que generalmente es algo innato y natural para los humanos que los ayuda a navegar la vida cotidiana y realmente no se puede enseñar. En 1906, el filósofo GK Chesterton escribió que «el sentido común es una cosa salvaje, salvaje y más allá de las reglas».

Saludos humanoides

Suscríbase a nuestro boletín ahora para recibir un resumen semanal de nuestras historias favoritas de IA en su bandeja de entrada.

Los bots, por supuesto, funcionan con algoritmos que son solo eso: reglas.

Así que no, los robots aún no pueden usar el sentido común. Pero gracias a los esfuerzos actuales en el campo, ahora podemos medir la capacidad de razonamiento psicológico básico de una IA, lo que nos acerca un paso más.

Entonces, ¿por qué importa si enseñamos sentido común a la IA?

En realidad, se reduce al hecho de que el sentido común hará que la IA sea más efectiva para ayudarnos a resolver problemas del mundo real. Muchos argumentan que las soluciones basadas en IA diseñadas para problemas complejos, como el diagnóstico de tratamientos de Covid-19, por ejemplo, a menudo fallan porque el sistema no puede adaptarse fácilmente a una situación del mundo real donde los problemas son impredecibles, vagos y no están definidos por reglas.

El sentido común incluye no solo habilidades sociales y razonamiento, sino también un «sentido ingenuo de la física».

Inyectar sentido común a la IA podría significar grandes cosas para los humanos; mejor servicio al cliente, donde un bot puede ayudar a un cliente insatisfecho más allá de enviarlo a un ciclo interminable de «Elegir entre las siguientes opciones». Esto puede permitir que los automóviles autónomos respondan mejor a incidentes inesperados en la carretera. Incluso puede ayudar a los militares a derivar información de vida o muerte de la inteligencia.

Entonces, ¿por qué los científicos no han podido descifrar el código del sentido común hasta ahora?

Llamada la «materia oscura de la IA», el sentido común es crucial para el desarrollo futuro de la IA y, hasta ahora, difícil de alcanzar. Equipar a las computadoras con sentido común ha sido en realidad un objetivo de la informática desde el comienzo del campo; En 1958, el científico informático pionero John McCarthy publicó un artículo titulado «Programas con sentido común» que examinaba cómo se podía utilizar la lógica como método para representar información en la memoria de la computadora. Pero no hemos avanzado mucho desde entonces para hacerlo realidad.

El sentido común no solo incluye las habilidades sociales y el razonamiento, sino también un «sentido ingenuo de la física»: esto significa que sabemos ciertas cosas sobre la física sin tener que resolver ecuaciones físicas, como por qué no deberías poner una bola de boliche en una posición inclinada. superficie. También incluye conocimientos básicos de cosas abstractas como el tiempo y el espacio, lo que nos permite planificar, estimar y organizar. «Es el conocimiento de que usted debería tienen”, dice Michael Witbrock, investigador de IA en la Universidad de Auckland.

Todo esto significa que el sentido común no es una cosa precisa y, por lo tanto, no se puede definir fácilmente mediante reglas.

Agente secreto

Hemos establecido que el sentido común requiere una computadora para inferir cosas basadas en situaciones complejas del mundo real, algo que les resulta fácil a los humanos y comienza a formarse desde la infancia.

Los científicos informáticos están haciendo un progreso (lento) pero constante hacia la creación de agentes de IA que puedan inferir estados mentales, predecir acciones futuras y trabajar con humanos. Pero para ver qué tan cerca estamos realmente, primero necesitamos un punto de referencia riguroso para medir el «sentido común» o la capacidad de razonamiento psicológico de una IA.

Investigadores de IBM, MIT y Harvard encontraron exactamente eso: AGENTE, que significa Aacción-gramooal-micoeficienciaNOmuñón-ujidad Después de la prueba y la validación, este punto de referencia demuestra ser capaz de evaluar la capacidad de razonamiento psicológico básico de un modelo de IA. Esto significa que en realidad puede proporcionar una sensación de conciencia social y podría interactuar con los humanos en entornos de la vida real.

Para que tenga sentido, un modelo de IA debe tener representaciones integradas de cómo planifican los humanos.

Entonces, ¿qué es AGENTE? AGENT es un conjunto de datos a gran escala de animaciones 3D inspirado en experimentos que estudian el desarrollo cognitivo en niños. Las animaciones muestran a una persona interactuando con diferentes objetos bajo diferentes restricciones físicas. Según IBM:

«Los videos incluyen pruebas separadas, cada una de las cuales comprende uno o más videos de ‘familiarización’ del comportamiento típico de un agente en un determinado entorno físico, combinados con videos de ‘prueba’ del mismo comportamiento del agente en un nuevo entorno, que están etiquetados como ‘esperados'». o «sorprendente», dado el comportamiento del agente en los videos de familiarización correspondientes».

Luego, un modelo debe juzgar el grado de sorpresa de los comportamientos del agente en los videos de «prueba», en función de las acciones que ha aprendido en los videos de «familiarización». Usando el punto de referencia AGENT, este modelo se valida luego con pruebas de evaluación en humanos a gran escala, donde los humanos calificaron los videos de prueba «sorprendentes» como más sorprendentes que los videos de prueba «esperados».

¿Sentido común?

La prueba de IBM muestra que para tener sentido común, un modelo de IA debe tener representaciones integradas de cómo planifican los humanos. Significa combinar un sentido básico de la física y «compensaciones de costo-recompensa», lo que significa una comprensión de cómo los humanos actúan «en función de la utilidad, intercambiando las recompensas de su propósito contra los costos de alcanzarlo».

Aunque aún no es perfecto, los resultados muestran que AGENT es una herramienta de diagnóstico prometedora para desarrollar y evaluar el sentido común en IA, un tema en el que también está trabajando IBM. También muestra que podemos usar métodos tradicionales de psicología del desarrollo similares a los que se usan para enseñar a los niños humanos cómo se relacionan los objetos y las ideas.

En el futuro, esto podría ayudar a reducir significativamente la necesidad de capacitación en estos modelos, ahorrando energía, tiempo y dinero de TI a las empresas.

Los robots aún no entienden la conciencia humana, pero con el desarrollo de herramientas de evaluación comparativa como AGENT, podremos medir qué tan cerca nos estamos acercando.