Las 3 cosas que una IA debe demostrar para ser considerada inteligente

Las 3 cosas que una IA debe demostrar para ser considerada inteligente

junio 15, 2022 0 Por RenzoC


Un desarrollador de Google decidió recientemente que uno de los chatbots de la empresa, un modelo de lenguaje grande (LLM) llamado LaMBDA, se había vuelto inteligente.

Según un informe del Washington Post, el desarrollador se identifica como cristiano y cree que la máquina tiene algo así como un alma, que se ha vuelto sensible.

Como siempre es el caso, el «¿está vivo?» las tonterías han encendido el ciclo de noticias: es una historia jugosa, ya sea que imagines cómo se vería si el desarrollador tuviera razón o si los engañas por ser tan estúpidos.

Saludos humanoides

Suscríbase a nuestro boletín ahora para recibir un resumen semanal de nuestras historias favoritas de IA en su bandeja de entrada.

Aquí en Neural no queremos criticar a nadie, pero es francamente peligroso poner ese tipo de ideas en la cabeza de las personas.

Cuanto más afirmemos como sociedad que estamos «muy cerca» de crear máquinas sensibles, más fácil será para los malos actores, las grandes empresas tecnológicas y las nuevas empresas de aceite de serpiente manipularnos con afirmaciones falsas sobre los sistemas de aprendizaje automático.

La carga de la prueba debe recaer en las personas que hacen las afirmaciones. Pero, ¿cómo debería ser esta prueba? Si un chatbot dice «Soy sensible», ¿quién decide si realmente es así o no?

Yo digo que es simple, no tenemos que confiar en ninguna persona o grupo para establecer la sensibilidad por nosotros. De hecho, podemos usar un pensamiento crítico extremadamente básico para resolverlo por nosotros mismos.

Podemos definir un ser sintiente como una entidad consciente de su propia existencia y afectada por este conocimiento: algo que tiene sentimientos.

Esto significa que un «agente» inteligente de IA debe poder demostrar tres cosas: agencia, perspectiva y motivación.

Agencia

Para que los humanos se consideren sensibles, conscientes y conscientes de sí mismos, debemos poseer libre albedrío. Si puedes imaginar a alguien en un estado vegetativo persistente, puedes visualizar a un ser humano sin agencia.

La agencia humana combina dos factores específicos que los desarrolladores y entusiastas de la IA deben esforzarse por comprender: la capacidad de actuar y la capacidad de demostrar un razonamiento causal.

Los sistemas de IA actuales carecen de agencia. La IA no puede actuar a menos que se le solicite y no puede explicar sus acciones porque son el resultado de algoritmos predefinidos ejecutados por una fuerza externa.

El experto en IA de Google que evidentemente llegó a creer que LaMBDA se volvió sensible casi con seguridad se confundió encarnación para la agencia

Encarnación, en este contexto, se refiere a la capacidad de un agente para habitar un sujeto que no sea él mismo. Si grabo mi voz en un dispositivo de reproducción, luego escondo ese dispositivo dentro de un animal de peluche y presiono play, encarno el peluche. No lo hice sensato.

Si le damos al relleno su propia voz única y hacemos que la grabadora sea aún más difícil de encontrar, seguirá sin responder. Acabamos de mejorar la ilusión. No importa cuán confundido pueda estar un observador, el animal de peluche en realidad no actúa por sí solo.

Hacer que LaMBDA responda a un aviso demuestra algo que parece ser acción, pero los sistemas de IA no pueden decidir qué texto producir más de lo que un juguete Teddy Ruxpin puede decidir qué cintas reproducir.

Si le da a LaMBDA una base de datos de publicaciones en redes sociales, Reddit y Wikipedia, producirá el tipo de texto que uno podría encontrar en esos lugares.

Y si entrena a LaMBDA exclusivamente en wikis y scripts de My Little Pony, producirá el tipo de texto que puede encontrar allí.

Los sistemas de IA no pueden interactuar con la agencia, todo lo que pueden hacer es imitarla. Otra forma de decirlo es: obtienes lo que pones, nada más.

Perspectiva

Este es un poco más fácil de entender. Solo puedes ver la realidad desde tu perspectiva única. Podemos practicar la empatía, pero no puedes saber realmente lo que es ser yo, y viceversa.

Esta es la razón por la cual la perspectiva es necesaria para la agencia; es parte de cómo nos definimos a nosotros mismos.

LaMBDA, GPT-3 y todas las demás IA del mundo carecen de cualquier tipo de perspectiva. Debido a que no tienen una agencia, no hay un solo «eso» que pueda señalar y decir, por ejemplo, aquí es donde vive LaMBDA.

Si pones Lambda al interior un robot seguiría siendo un chatbot. No tiene perspectiva, no tiene forma de pensar «ahora soy un robot». No puede actuar como un robot exactamente por la misma razón por la que una calculadora científica no puede escribir poesía: es un sistema informático estrecho que ha sido programado para hacer algo específico.

Si queremos que LaMBDA funcione como un robot, debemos combinarlo con sistemas de inteligencia artificial más estrictos.

Sería como pegar dos Teddy Ruxpins juntos. No se combinarían para convertirse en un Mega Teddy Ruxpin cuyos dos reproductores de casetes se fusionaron en una sola voz. Todavía tendría solo dos modelos específicos y distintos operando muy cerca uno del otro.

Y, si graba alrededor de un billón de Teddy Ruxpins juntos y los completa con una cinta diferente, cree un algoritmo que pueda revisar todos los archivos de audio en un período de tiempo relativamente corto y hacer coincidir los datos en cada archivo con una solicitud específica. para generar salidas personalizadas… habrás creado una versión analógica de GPT-3 o LaMBDA.

Ya sea que estemos hablando de juguetes o LLM, cuando los imaginamos siendo sensibles, siempre estamos hablando de armar un montón de cosas mundanas y actuar como si la chispa mágica de procedencia le diera vida como el hada azul torneando madera, pintando. , y tela en un niño real llamado Pinocho.

El desarrollador que fue engañado tan fácilmente debería haber visto la afirmación de este chatbot de que «disfrutaba pasar tiempo con amigos y familiares» como la primera pista de que la máquina no era inteligente. La máquina no muestra su perspectiva, solo produce tonterías que tenemos que interpretar.

El pensamiento crítico debería decirnos lo mismo: ¿cómo puede una IA tener amigos y familiares?

Las IA no son computadoras. No tienen tarjetas de red, RAM, procesadores ni ventiladores de refrigeración. No son entidades físicas. No pueden simplemente «decidir» verificar qué hay en Internet o buscar otros nodos conectados a la misma nube. No pueden mirar a su alrededor y descubrir que están solos en un laboratorio o en un disco duro en alguna parte.

¿Crees que los números tienen sentimientos? ¿El número cinco tiene una opinión sobre la letra D? ¿Cambiaría eso si aplastáramos trillones de números y letras?

La IA no tiene agencia. Se puede reducir a números y símbolos. No es un robot o una computadora más de lo que un autobús o un avión lleno de pasajeros es una persona.

Motivación

La pieza final del rompecabezas de la sensibilidad es la motivación.

Tenemos un sentido innato de presencia que nos permite predecir increíblemente bien los resultados causales. Crea nuestra cosmovisión y nos permite asociar nuestra existencia en relación con todo lo que parece externo a la posición de agencia desde la cual se manifiesta nuestra perspectiva.

Sin embargo, lo interesante de los humanos es que nuestras motivaciones pueden manipular nuestras percepciones. Por esta razón, podemos explicar nuestras acciones incluso cuando no son racionales. Y podemos participar activa y alegremente en ser engañados.

Tomemos, por ejemplo, divertirse. Imagínese sentarse a ver una película en un televisor nuevo que es mucho más grande que el anterior.

Al principio, puede que te distraiga un poco la nueva tecnología. Es probable que te llamen la atención las diferencias entre este y tu antiguo televisor. Es posible que te sorprenda la claridad de la imagen o que te sorprenda cuánto espacio ocupa la pantalla grande en la habitación.

Pero eventualmente dejarás de percibir la pantalla. Nuestro cerebro está diseñado para enfocarse en las cosas que creemos que son importantes. Y, después de 10 o 15 minutos de su experiencia cinematográfica, probablemente estará concentrado en la película en sí.

Cuando estamos frente al televisor para entretenernos, lo mejor para nosotros es suspender nuestra incredulidad, aunque sabemos que las personitas en la pantalla no están realmente en nuestra sala de estar.

Es lo mismo con los desarrolladores de IA. No deberían juzgar la efectividad de un sistema de IA en función de su credulidad sobre cómo funciona el producto.

Cuando los algoritmos y las bases de datos comienzan a desaparecer de la mente de un desarrollador como la pantalla de televisión en la que se reproduce una película, es hora de hacer una pausa y reevaluar sus creencias fundamentales.

No importa cuán interesante sea el resultado cuando comprende cómo se crea. Otra forma de decir esto: no te drogues con tu propio suministro.

GPT-3 y LaMBDA son complejos de crear, pero funcionan con un principio estúpidamente simple: las etiquetas son divinas.

Si le damos a LaMBDA un mensaje como «¿cómo saben las manzanas?» buscará en su base de datos esa consulta en particular e intentará fusionar lo que encuentre en algo cohesivo: ahí es donde entran en juego los ‘parámetros’ que siempre leemos, es básicamente un ajuste de miles de millones de botones.

Pero en realidad, la IA no tiene idea de qué es realmente una manzana ni nada más. No tiene agencia, percepción o motivación. Una manzana es solo una etiqueta.

Si fuéramos a colarnos en su base de datos y reemplazáramos todas las instancias de «manzana» con «mierda de perro», la IA produciría frases como «¡mierda de perro es un gran pastel!» o «la mayoría de la gente describe el sabor de la caca como ligero, crujiente y dulce». Una persona racional no confundiría esta prestidigitación con la sensibilidad.

Diablos, ni siquiera podrías engañar a un perro con el mismo truco. Si pones caca de perro en un plato de comida y le dices a Fido que es hora de cenar, el perro no la confundirá con croquetas.

Una criatura sensible puede navegar por la realidad incluso si cambiamos las etiquetas. El primer hablante de inglés que conoció a un hablante de francés no pensó de repente que estaba bien poner su brazo en un fuego francés porque lo llamaban «fuego».

Sin agencia, una IA no puede tener perspectiva. Y sin perspectiva, no puede haber motivación. Y sin estas tres cosas, no puede ser sensible.