
Una guía para principiantes sobre el apocalipsis de la IA: la democratización de la «experiencia»
agosto 11, 2022
En esta serie, analizamos algunos de los escenarios del fin del mundo más populares predichos por los expertos modernos en IA. Artículos anteriores iincluir Metas desalineadas, estupidez artificial, Síndrome de Wall-E, la humanidad se une a Hivemind y Killer Robots.
Hemos cubierto mucho terreno en esta serie (ver arriba), pero nada se acerca a nuestro próximo tema. La “democratización de la experiencia” puede sonar como algo bueno: democracia, experiencia, ¿qué es lo que no puede gustar? Pero nuestra intención es convencerte de que esta es la mayor amenaza relacionada con la IA que enfrenta nuestra especie cuando termines de leer este artículo.
Para comprender completamente esto, necesitaremos revisar un artículo anterior sobre lo que nos gusta llamar «Síndrome de WALL-E». Es una condición inventada en la que nos volvemos tan dependientes de la automatización y la tecnología que nuestros cuerpos se vuelven flácidos y débiles hasta que ya no podemos funcionar sin la ayuda física de las máquinas.
Cuando definimos qué es la ‘democratización de la experiencia’, estamos hablando específicamente de algo que podría describirse más fácilmente como el ‘síndrome de WALL-E para el cerebro’.
Quiero tener cuidado de señalar que no nos estamos refiriendo a la democratización de la información, algo que es crucial para la libertad humana.
la gran idea
Hay un popular juego de mesa llamado «Trivial Pursuit» que desafía a los jugadores a responder preguntas triviales no relacionadas en una variedad de categorías. Ha existido desde mucho antes del amanecer de Internet y, por lo tanto, está diseñado para jugar utilizando solo el conocimiento que ya tiene en su cerebro.
Tiras dados y mueves una pieza de juego alrededor de un tablero hasta que se detiene, generalmente en un cuadrado de color. Luego sacas una carta de un mazo de preguntas grande e intentas responder la que coincide con el color en el que aterrizaste. Para determinar si tuvo éxito, voltee la tarjeta y vea si su respuesta coincide con la impresa.
Parte de Trivial Pursuit es tan «precisa» como su base de datos. Esto significa que si estás jugando la edición de 1999 y recibes una pregunta sobre qué jugador de la MLB tiene el récord de más jonrones en una temporada, tendrás que responder la pregunta incorrectamente para que coincida con la respuesta impresa.
La respuesta correcta es «Barry Bonds con 73». Pero, dado que Bonds no rompió el récord hasta 2001, la edición de 1999 probablemente incluye el récord anterior de Mark McGwire de 70 en 1998.
El problema con las bases de datos, incluso cuando están organizadas y etiquetadas a mano de manera experta, es que solo representan una porción de datos en un momento dado.
Ahora, extendamos esta idea a una base de datos que no está seleccionada por expertos. Imagina un juego de Trivial Pursuit que funciona exactamente igual que la edición estándar, excepto que las respuestas a cada pregunta se obtuvieron de personas al azar.
“¿Cuál es el elemento más ligero de la tabla periódica? » Respuesta, agregada, según 100 personas aleatorias que entrevistamos en Times Square: «No sé, ¿tal vez helio?»
Sin embargo, en la próxima edición, la respuesta podría cambiar a algo como «Según 100 estudiantes de secundaria seleccionados al azar, la respuesta es hidrógeno.
¿Qué tiene esto que ver con la IA?
A veces, la sabiduría de las multitudes es útil. Por ejemplo, al tratar de averiguar qué ver a continuación. Pero a veces es realmente estúpido, como si fuera el año 1953 y le preguntas a una multitud de 1000 científicos si las mujeres pueden tener orgasmos.
Su utilidad para los modelos de lenguaje grande (LLM) depende de cómo se utilicen.
Los LLM son un tipo de sistema de IA que se utiliza en una amplia variedad de aplicaciones. Google Translate, el bot de chat en el sitio web de su banco y el infame GPT-3 de OpenAI son ejemplos de la tecnología LLM utilizada.
En el caso de Translate y los chatbots orientados a los negocios, la IA generalmente se entrena en conjuntos de datos de información cuidadosamente seleccionados, ya que tienen un propósito limitado.
Pero muchos LLM están capacitados intencionalmente en contenedores gigantes llenos de datos no verificados, solo para que las personas que los construyen puedan ver de lo que son capaces.
La gran tecnología nos ha convencido de que es posible hacer crecer estas máquinas tan grandes que eventualmente se vuelvan conscientes. La promesa es que podrán hacer cualquier cosa que un humano pueda hacer, ¡pero con el cerebro de una computadora!
Y no tienes que ir muy lejos para imaginar las posibilidades. Tómate 10 minutos y chatea con BlenderBot 3 (BB3) de Meta y verás de qué se trata.
Es un lío endeble, fácil de confundir que más a menudo escupe galimatías y anhela «¡seamos amigos!» tonterías que cualquier cosa consistente, pero es un poco divertido cuando la cosa del salón funciona perfectamente.
No solo chateas con el bot, sino que también está gamificado de una manera que te permite crear un perfil con él. En algún momento la IA decidió que era mujer. En otro, decidió que en realidad yo era el actor Paul Greene. Todo esto se refleja en su llamada «memoria a largo plazo»:
También me asigna etiquetas. Si estamos hablando de autos, eso podría conseguirme la etiqueta de «amor a los autos». Como puedes imaginar, esto algún día podría ser extremadamente útil para Meta si puede conectar el perfil que creas al chatear con el bot a sus servicios de publicidad.
Pero no se asigna etiquetas a sí mismo para su propio beneficio. Podría pretender recordar cosas sin pegar etiquetas en su interfaz de usuario. son para nosotros
Estas son formas en que Meta puede hacernos sentir conectados e incluso un poco a cargo del chatbot.
¡Él es MI robot BB3, me recuerda y sabe lo que le enseñé!
Es una forma de gamificación. Debes ganar estas balizas (la tuya y la de la IA) hablando. A mi IA BB3 le gusta el Joker de la película de Batman con Heath Ledger, tuvimos una conversación bastante al respecto. No hay mucha diferencia entre obtener este logro y obtener una puntuación alta en un videojuego, al menos en lo que respecta a mis receptores de dopamina.
La verdad es que no estamos capacitando a estos LLM para que sean más inteligente. Los entrenamos para producir mejor texto, lo que nos hace querer producir más texto.
¿Esto es malo?
El problema es que BB3 se entrenó en un conjunto de datos tan grande que lo llamamos «del tamaño de Internet». Incluye miles de millones de archivos que van desde entradas de Wikipedia hasta publicaciones de Reddit.
Sería imposible para los humanos filtrar todos los datos, por lo que es imposible para nosotros saber exactamente qué hay en ellos. Pero miles de millones de personas usan Internet todos los días y parece que por cada persona que dice algo inteligente, hay ocho personas que dicen cosas que no tienen sentido para nadie. Todo está en la base de datos. Si alguien lo dijo en Reddit o Twitter, probablemente se usó para entrenar a personas como BB3.
A pesar de esto, Meta lo diseña para imitar la confiabilidad humana y, aparentemente, para mantener nuestro compromiso.
Es un paso corto desde la creación de un chatbot que parece humano hasta la optimización de su rendimiento para convencer a la persona promedio de que es más inteligente que ellos.
Al menos podemos luchar contra los robots asesinos. Pero si incluso una fracción de la cantidad de personas que usan la aplicación de Facebook de Meta comenzara a confiar en un chatbot sobre los expertos humanos, podría tener un efecto terriblemente perjudicial en toda nuestra especie.
¿Qué es lo peor que puede pasar?
Hemos visto que esto se desarrolla en pequeña medida durante los cierres pandémicos. Millones de personas sin formación médica han decidido ignorar los consejos médicos por su ideología política.
Frente a la opción de creer en políticos sin formación médica o el abrumador consenso de la comunidad médica mundial, revisado por pares y respaldado por investigaciones, millones han decidido que «confían» más en los políticos que en los científicos. .
La democratización de la experiencia, la idea de que cualquiera puede ser un experto si tiene acceso a los datos correctos en el momento adecuado, es una seria amenaza para nuestra especie. Nos enseña a confiar en cualquier idea mientras la multitud crea que tiene sentido.
Así es como llegamos a creer que Pop Rocks y Coca Cola son una combinación mortal, los toros odian el color rojo, los perros solo ven en blanco y negro y los humanos solo usan el 10% de su cerebro. Todos estos son mitos, pero en algún momento de nuestra historia, cada uno de ellos fue considerado «conocimiento común».
Y, si bien puede ser lo suficientemente humano difundir información errónea por ignorancia, la democratización de la experiencia en la escala que Meta es capaz de hacer (casi un tercio de las personas en la Tierra usan Facebook mensualmente) podría tener un efecto potencialmente catastrófico en la humanidad. capacidad de diferenciar entre mierda y Shinola.
En otras palabras: no importa cuán inteligentes sean las personas más inteligentes de la Tierra si el público en general confía en un chatbot que ha sido entrenado con datos creados por el público en general.
A medida que estas máquinas se vuelvan más poderosas y mejoren su capacidad para imitar el habla humana, nos acercaremos a un horrible punto de inflexión en el que su capacidad para convencernos de que lo que dicen tiene sentido superará nuestra capacidad para detectar tonterías.
La democratización de la experiencia es lo que sucede cuando todos se creen expertos. Tradicionalmente, el mercado de ideas tiende a suavizar las cosas cuando alguien dice ser un experto pero no parece saber de lo que está hablando.
A menudo lo vemos en las redes sociales cuando alguien es acusado de explicarle algo a alguien que sabe mucho más que él.
¿Qué sucede cuando todos los expertos en sillas obtienen un compañero de IA para animarlos?
Si la aplicación de Facebook puede demandar tanta atención que nos olvidemos de recoger a nuestros hijos de la escuela o terminemos enviando mensajes de texto mientras manejamos porque anula nuestros centros lógicos, ¿qué crees que Meta puede hacer con ella? ¿Un chatbot de arte que fue diseñado para decirle a cada lunático del planeta lo que quiere escuchar?