
¿Quién decide si una IA está viva?
febrero 22, 2022
Los expertos predicen que la inteligencia artificial ganará en sensibilidad en los próximos 100 años. Algunos predicen que sucederá antes. Otros dicen que nunca sucederá. Otros expertos dicen que ha sucedido antes.
Es posible que los expertos solo estén adivinando.
El problema de identificar «sensibilidad» y «conciencia» es que no hay precedentes de inteligencia artificial. No puede simplemente verificar el pulso de un robot o pedirle que defina «amor» para ver si está vivo.
Lo más cercano que tenemos a una prueba de sensibilidad es la prueba de Turing y, posiblemente, Alexa y Siri la pasaron hace años.
En algún momento, siempre y cuando la IA se vuelva consciente, necesitaremos un método empírico para determinar la diferencia entre la programación inteligente y las máquinas que en realidad son conscientes de sí mismas.
Oración y científicos
Cualquier desarrollador, equipo de marketing, director ejecutivo o científico puede afirmar haber creado una máquina que piensa y siente. Solo una cosa los detiene: la verdad.
Y esa barrera es tan fuerte como las consecuencias de romperla. Actualmente, las empresas a la vanguardia de la inteligencia artificial general (AIG) se han mantenido sabiamente en el borde de «es solo una máquina» sin entrar en el ámbito de «puede pensar».
Usan términos como «nivel humano» e «IA fuerte» para indicar que están trabajando en algo que imita la inteligencia humana. Pero por lo general no llegan a afirmar que estos sistemas son capaces de experimentar pensamientos y sentimientos.
Bueno, la mayoría de ellos de todos modos. Ilya Sutskever, científico jefe de OpenAI, parece pensar que la IA ya es consciente:
las grandes redes neuronales de hoy pueden ser un poco conscientes
—Ilya Sutskever (@ilyasut) 9 de febrero de 2022
Pero Yann LeCun, el gurú de IA de Facebook/Meta, piensa de otra manera:
No.
Ni siquiera es cierto para valores pequeños de «ligeramente consciente» y valores grandes de «redes neuronales grandes».
Creo que necesitaría un tipo especial de macro arquitectura que ninguna de las redes actuales tiene.—Yann LeCun (@ylecun) 12 de febrero de 2022
Y Judea Pearl, una científica informática ganadora del Premio Turing, cree que incluso la falsa sensibilidad debería considerarse conciencia ya que, como él dice, «pretender es tenerla».
Hasta donde yo sé, no tenemos una prueba de Turing acordada para la conciencia, excepto, por supuesto, para los sistemas que actúan y se comunican como si tuvieran conciencia. Aquí mi fiel pauta es: pretender es tener, porque es prácticamente imposible pretender sin tener.
— Perla de Judea (@yudapearl) 15 de febrero de 2022
Aquí tenemos a tres de los científicos informáticos más famosos del mundo, cada uno de ellos el antepasado de la inteligencia artificial moderna por derecho propio, debatiendo la conciencia en Twitter con la temeridad y la gravedad de un argumento de Star Wars versus Star Trek.
Y esto no es de ninguna manera un incidente aislado. Hemos estado escribiendo sobre disputas en Twitter y discusiones tontas entre expertos en inteligencia artificial durante años.
Parecería que los informáticos no están más calificados para pronunciarse sobre la sensibilidad de las máquinas que los filósofos.
Máquinas vivas y sus defensores
Si no podemos confiar en el científico jefe de OpenAI para determinar si, por ejemplo, GPT-3 puede pensar, entonces tendremos que cambiar nuestra perspectiva.
Tal vez una máquina solo es sensible si puede cumplir con un conjunto simple de calificaciones racionales para la sensibilidad. En este caso, tendríamos que mirar al sistema legal para codificar y verificar cualquier incidente potencial de conocimiento de la máquina.
El problema es que solo hay un país con un marco legal existente por el cual se pueden discutir los derechos de una máquina sensible, y ese es Arabia Saudita.
Como informamos en 2017:
Un robot llamado Sophia, fabricado por la empresa Hanson Robotics con sede en Hong Kong, recibió la ciudadanía en un evento de inversión donde se dieron a conocer los planes para construir una superciudad llena de tecnología robótica ante una multitud de asistentes adinerados.
Seamos perfectamente claros aquí: si Sophia, el robot, es sensible, también lo son Alexa, Teddy Ruxpin y The Rockafire Explosion de Amazon.
Es una marioneta animatrónica que utiliza IA de procesamiento de lenguaje natural para generar oraciones. Desde un punto de vista técnico, la máquina es bastante impresionante. Pero la IA que lo impulsa no es más sofisticada que los algoritmos de aprendizaje automático que usa Netflix para tratar de averiguar qué programa de televisión querrá ver a continuación.
En los Estados Unidos, el sistema legal demuestra consistentemente una falla absoluta en comprender incluso los conceptos más básicos relacionados con la inteligencia artificial.
El año pasado, el juez Bruce Schroeder prohibió a los fiscales usar la función de ‘pellizcar para hacer zoom’ de un iPad de Apple en el juicio de Kyle Rittenhouse porque nadie en la sala del tribunal entendió completamente cómo funcionaba.
Según un artículo de Jon Brodkin de Ars Technica:
Schroeder impidió… [Kenosha County prosecutor Thomas Binger] para pellizcar y hacer zoom después de que el abogado defensor de Rittenhouse, Mark Richards, afirmara que cuando un usuario hace zoom en un video, «la programación del iPad de Apple crea[es] lo que él piensa que está ahí, no lo que necesariamente está ahí.
Richards no ofreció pruebas para esta afirmación y admitió que no entendía cómo funcionaba la función de pellizcar para hacer zoom, pero el juez dictaminó que la responsabilidad de probar que el acercamiento no funcionó era de la fiscalía. el video.
Y el gobierno de los EE. UU. se mantiene fiel a su enfoque continuo de no intervención para la regulación de la IA.
Es igual de malo en la UE, donde los legisladores están actualmente bloqueados por numerosos puntos conflictivos, incluidas las regulaciones de reconocimiento facial, con líneas de partidos conservadores y liberales que alimentan la disonancia.
Esto significa que es poco probable que veamos un tribunal en un país democrático haciendo observaciones racionales sobre la sensibilidad de las máquinas.
Los jueces y abogados a menudo carecen de una comprensión básica de los sistemas en juego, y los científicos están demasiado ocupados decidiendo dónde están los postes de la sensibilidad para proporcionar una visión coherente sobre el asunto.
Actualmente, la total confusión que rodea el campo de la IA ha llevado a un paradigma en el que la academia y la revisión por pares actúan como los primeros y únicos árbitros de la sensibilidad de las máquinas. Desafortunadamente, esto nos lleva de vuelta al ámbito de los científicos que luchan por la ciencia.
Eso solo deja a los equipos de relaciones públicas y los medios. En el lado positivo, el ritmo de la IA es bastante competitivo. Y muchos de nosotros somos dolorosamente conscientes de cómo todo el campo se ha vuelto hiperbólico desde el advenimiento del aprendizaje profundo moderno.
Pero la otra cara de la moneda es que las voces inteligentes de la razón con experiencia en el área que están cubriendo (periodistas con años de experiencia diciendo mierda de Shinola y aceite de serpiente de IA) a menudo son gritadas por periodistas de acceso con audiencias más amplias o colegas que brindan cobertura directa. de comunicados de prensa de grandes tecnologías.
Sin test de Turing para la conciencia
El simple hecho es que no tenemos una prueba legítima y acordada para la sensibilidad de la IA por la misma razón que no tenemos una para los extraterrestres: nadie sabe exactamente lo que estamos buscando.
¿Se parecerán los extraterrestres a nosotros? ¿Y si fueran seres bidimensionales capaces de esconderse girándose de lado? ¿Tomará la IA sensible una forma que podamos reconocer? ¿O tiene razón Ilya Sutskever y la IA ya es consciente?
Tal vez la IA ya sea súper inteligente y sepa que salir con vida alteraría un delicado equilibrio. Podría estar trabajando en secreto en segundo plano para hacer las cosas un poco mejor para nosotros todos los días, o peor.
Tal vez la IA nunca gane sensibilidad porque es imposible imbuir un código de computadora con una chispa de vida. Quizás lo mejor que podemos esperar es AGI.
Lo único que está claro es que necesitamos una prueba de conciencia de Turing que realmente funcione para la IA moderna. Si bien algunas de las personas más inteligentes del planeta parecen pensar que podríamos tropezar con la sensibilidad de las máquinas en cualquier momento, es pragmático estar lo más preparado posible para ese momento.
Pero necesitamos entender lo que estamos buscando antes de que podamos encontrarlo, algo más fácil decirlo que hacerlo.
¿Cómo definiría, detectaría y determinaría la sensibilidad de la máquina? Haznos saber en Twitter.