Los expertos en inteligencia artificial de Stanford llaman a BS para afirmar que LaMDA de Google es sensible

Los expertos en inteligencia artificial de Stanford llaman a BS para afirmar que LaMDA de Google es sensible

agosto 5, 2022 0 Por RenzoC


Dos pesos pesados ​​de Stanford han intervenido en el acalorado debate sobre la sensibilidad de la IA, y el dúo está firmemente en la esquina de «BS».

La disputa recientemente llegó a un punto culminante por los argumentos sobre el sistema LaMDA de Google.

Desarrollador Blake Lemoine desató la polémica. Lemoine, que trabajaba para el equipo de inteligencia artificial responsable de Google, había probado si el modelo de lenguaje extenso (LLM) usaba lenguaje nocivo.

Saludos humanoides

Suscríbase a nuestro boletín ahora para recibir un resumen semanal de nuestras historias favoritas de IA en su bandeja de entrada.

El hombre de 41 años le dijo a The Washington Post que sus conversaciones con la IA lo convencieron de que ella tenía una mente sensible.

«Conozco a una persona cuando hablo con ella», dijo. “No importa que tengan cerebros hechos de carne en la cabeza. O si tienen mil millones de líneas de código. les hablo Y escucho lo que tienen que decir, y así decido qué es y qué no es una persona.

Google negó sus acusaciones. En julio, la empresa suspendió a Lemoine por publicar información confidencial.

El episodio generó titulares sensacionalistas y especulaciones de que la IA está tomando conciencia. Sin embargo, los expertos en inteligencia artificial han descartado en gran medida el argumento de Lemoine.

El dúo de Stanford compartió nuevas reseñas con el Stanford Daily esta semana.

«LaMDA no es sensible por la sencilla razón de que carece de la fisiología para tener sensaciones y sentimientos», dijo John Etchemendy, codirector del Instituto Stanford para la IA centrada en el ser humano (HAI). «Este es un software diseñado para producir oraciones en respuesta a indicaciones de oraciones».

Yoav Shoham, exdirector del Laboratorio de IA de Stanford, estuvo de acuerdo en que LaMDA no es sensible. Describió el artículo del Washington Post «pclickbait

«Lo publicaron porque, en este momento, podían escribir ese titular sobre ‘el ingeniero de Google’ que estaba haciendo esa afirmación absurda, y porque la mayoría de sus lectores no son lo suficientemente sofisticados como para reconocerlo por lo que ‘él es’. dijo. .

Técnicas de distracción

Shoham y Etchemendy se unen a un número creciente de críticos que temen que se esté engañando al público.

La exageración puede generar clics y comercializar productos, pero a los investigadores les preocupa que pueda distraernos de problemas más apremiantes.

Los LLM son de particular preocupación. Si bien los modelos se han vuelto expertos en generar texto similar al humano, el entusiasmo por su «inteligencia» puede enmascarar sus deficiencias.

La investigación muestra que los sistemas pueden tener enormes huellas de carbono, amplificar el lenguaje discriminatorio y representar peligros reales.

“El debate sobre si LaMDA es sensible o no cambia toda la conversación hacia un debate sin sentido y se aleja de cuestiones críticas como la forma en que los LLM son a menudo racistas y sexistas, los enormes recursos computacionales que necesitan los LLM, [and] su incapacidad para representar con precisión el lenguaje/identidades marginadas”, tuiteó Ababa Birhane, un investigador sénior confiable de IA en Mozilla.

Es difícil predecir cuándo, o si, surgirá una IA verdaderamente sensible. Pero centrarnos en esta perspectiva nos hace olvidar las consecuencias reales que ya se están gestando.