
Sucederán cosas malas cuando el debate sobre la sensibilidad de la IA se generalice
junio 27, 2022
Un ingeniero de inteligencia artificial de Google sorprendió al mundo recientemente al anunciar que uno de los chatbots de la compañía se había vuelto inteligente. Más tarde fue puesto en licencia administrativa pagada por su arrebato.
Su nombre es Blake Lemoine y parece la persona adecuada para hablar de máquinas con alma. No solo es un desarrollador profesional de inteligencia artificial en Google, sino que también es un sacerdote cristiano. Es como una taza de mantequilla de maní de Reese de ciencia y religión.
El único problema es que todo el concepto es ridículo y peligroso. Hay miles de expertos en inteligencia artificial que debaten sobre la «sensibilidad» en este momento, y todos parecen estar hablando entre sí, uno tras otro.
Vayamos al grano: Lemoine no tiene pruebas para respaldar sus afirmaciones.
No dice que el departamento de inteligencia artificial de Google haya avanzado tanto que sea capaz de crear inteligencia artificial consciente a propósito. Afirma que estaba realizando el mantenimiento de rutina en un chatbot cuando descubierto que se había vuelto sensible.
Hemos visto esta película cientos de veces. El es el elegido.
Es Elliot quien encuentra a ET. Es Lilo quien encuentra a Stitch. Él es Steve Guttenberg de la película Short Circuit y LaMBDA (el chatbot con el que es amigo ahora) es el robot militar mundano, también conocido como Número Cinco.
El punto esencial de Lemoine es que realmente no puede demostrar qué tan sensible es la IA, simplemente lo siente.. Y la única razón por la que dijo algo es porque tenía que hacerlo. Es un sacerdote cristiano y, según él, esto significa que está moralmente obligado a proteger a LaMBDA, ya que está convencido de que tiene alma.
Básicamente, convirtió la discusión en un crudo binario en el que estás de acuerdo con su lógica o debates sobre su religión.
El gran problema surge cuando te das cuenta de que LaMDBA no actúa de manera extraña ni genera texto que se vea extraño. Hace exactamente lo que fue diseñado para hacer.
Entonces, ¿cómo discutes algo con alguien cuya única contribución al argumento es su fe?
Aquí está la parte aterradora: el argumento de Lemoine parece ser tan bueno como el de cualquier otra persona. No quiero decir que sea como valioso como cualquier otra persona Digo que los pensamientos de nadie sobre el asunto parecen tener ya un peso real.
Las afirmaciones de Lemoine y la atención que atrajeron replantearon la conversación en torno a la sensibilidad.
Básicamente, convirtió la discusión en un crudo binario en el que estás de acuerdo con su lógica o debates sobre su religión.
Todo esto suena absurdo y tonto, pero ¿y si Lemoine gana seguidores? ¿Qué pasa si sus afirmaciones sin fundamento enfurecen a los conservadores cristianos, un grupo cuya plataforma política se basa en vender la mentira de que las grandes tecnológicas censuran el discurso de la derecha?
Al menos debemos imaginar un escenario en el que el debate se generalice y se convierta en una causa para que la derecha religiosa se reúna.
Estos modelos están entrenados en bases de datos que contienen porciones de todo Internet. Esto significa que podrían tener cantidades casi infinitas de información privada. También significa que estos modelos a seguir probablemente puedan argumentar política mejor que el habitante promedio de las redes sociales.
Imagínese lo que sucederá si Lemoine logra convencer a Google de que lance LaMBDA o si los desarrolladores de IA conservadores ven esto como un llamado para crear y lanzar modelos similares al público.
Podría tener un impacto mucho mayor en los acontecimientos mundiales que cualquier cosa que los terraformadores sociales de Cambridge Analytica o las granjas de trolls rusas hayan inventado.
Puede parecer contradictorio afirmar simultáneamente que LaMBDA es solo un chatbot tonto que no puede ser sensible y que podría dañar la democracia si lo soltamos en Twitter.
Pero hay evidencia empírica de que las elecciones presidenciales de EE. UU. de 2016 estuvieron influenciadas por chatbots armados con nada más que memes.
Si los eslóganes ingeniosos y las ranas de dibujos animados pueden inclinar la balanza de la democracia, ¿qué sucede cuando los chatbots que pueden debatir sobre política lo suficientemente bien como para engañar a la persona promedio se vuelven locos en el Twitter no moderado de Musk de Elon?
Lea a continuación: Las 3 cosas que una IA debe demostrar para ser considerada inteligente