3 formas en que los académicos de próxima generación pueden evitar un invierno de IA innecesario

3 formas en que los académicos de próxima generación pueden evitar un invierno de IA innecesario

julio 9, 2022 0 Por RenzoC


Hay dos realidades cuando se trata de inteligencia artificial. En uno de ellos, el futuro es tan brillante que tienes que ponerte unas gafas de soldar solo para echar un vistazo. La IA es una tecnología central que es tan necesaria para las operaciones humanas globales como la electricidad e Internet. Pero en la otra realidad, se acerca el invierno.

Un “invierno de IA” es un momento en el que nada puede crecer. Esto significa que nadie contrata, nadie adquiere y nadie financia. Pero esta inminente estación estéril es especial, no afectará a toda la industria.

De hecho, la mayoría de los expertos ni siquiera lo notarán. Google, OpenAI, DeepMind, Nvidia, Meta, IBM y cualquier universidad que realice investigaciones legítimas no es motivo de preocupación. A las empresas emergentes con un propósito claro y útil les irá bien, a pesar de los problemas típicos del mercado.

Saludos humanoides

Suscríbase a nuestro boletín ahora para recibir un resumen semanal de nuestras historias favoritas de IA en su bandeja de entrada.

Las únicas personas que tienen que preocuparse por el resfriado que se avecina son aquellas que intentan hacer lo que llamamos «alquimia de caja negra».

Alquimia de la caja negra

Me estremezco al llamar «alquimia» a cualquier esfuerzo de IA porque al menos la idea de convertir un metal en otro tiene algún mérito científico.

Estoy hablando de la línea de investigación enormemente popular en la que los investigadores construyen pequeños modelos de predicción de mierda y luego inventan problemas falsos para que la IA sea mejor para resolver que los humanos.

Cuando escribes todo en una oración, parece obvio que se trata de una estafa. Pero estoy aquí para decirles que la alquimia de caja negra es una gran parte de la investigación académica en este momento, y eso es algo malo.

La alquimia de la caja negra es lo que sucede cuando los investigadores de IA toman algo en lo que una IA es buena, como devolver resultados relevantes cuando buscas algo en Google, y tratan de usar los mismos principios para hacer algo imposible. Dado que la IA no puede explicar por qué obtiene los resultados que obtiene (porque el trabajo ocurre en una caja negra cuyo interior no podemos ver), los investigadores fingen que están haciendo ciencia sin tener que mostrar ningún trabajo.

Es una estafa que se desarrolla en una miríada de paradigmas que van desde vigilancia predictiva y algoritmos de reincidencia hasta sistemas de reconocimiento facial de mierda que supuestamente detectan todo, desde la política de una persona hasta su probabilidad de convertirse en terrorista.

La parte que no se puede enfatizar demasiado es que esta estafa en particular sigue viva en la academia. No importa si planea asistir a un colegio comunitario oa Stanford, la química de la caja negra está en todas partes.

Así es como funciona la estafa: los investigadores idean un esquema que les permite desarrollar un modelo de IA que es «más preciso» que los humanos para una tarea determinada.

Esta es literalmente la parte más difícil. No puedes elegir una tarea simple, como mirar imágenes y decidir si hay un gato o un perro en ellas. Los humanos vencerán a la IA en esta tarea 100 veces de cada 100. Somos muy buenos para distinguir gatos de perros.

Y no puedes elegir una tarea demasiado complicada. Por ejemplo, no tiene sentido entrenar un modelo de predicción para determinar qué patentes de la década de 1930 serían más relevantes para las aplicaciones de la termodinámica moderna. La cantidad de humanos que podrían ganar en este juego es demasiado pequeña para importar.

Debe elegir una tarea que la persona promedio piense que se puede observar, medir y reportar a través del método científico, pero no se puede.

Una vez que hayas hecho eso, el resto es fácil.

Gaydar

Mi ejemplo favorito de alquimia de caja negra es el artículo de Stanford Gaydar. Es una obra maestra de IA de mierda.

Los investigadores entrenaron un sistema rudimentario de visión por computadora en una base de datos de rostros humanos. Las caras se etiquetaron con etiquetas autoinformadas que indicaban si el individuo fotografiado se identificaba como homosexual o heterosexual.

Con el tiempo, pudieron alcanzar niveles de precisión sobrehumanos. Según los investigadores, la IA era mejor para saber qué rostros eran homosexuales que humanos, y nadie sabe por qué.

Aquí está la verdad: ningún ser humano puede saber si otro ser humano es gay. Podemos adivinar. A veces podemos acertar, otras veces podemos acertar. No es científico.

La ciencia requiere observación y medición. Si no hay nada que observar o medir, no podemos hacer ciencia.

La homosexualidad no es una verdad fundamental. No existe una medida científica de la homosexualidad.

Esto es lo que quiero decir: ¿eres gay si sientes atracción por el mismo sexo o solo actúas en consecuencia? ¿Se puede ser virgen gay? ¿Puedes tener una experiencia queer y seguir siendo heterosexual? ¿Cuántos pensamientos gay se necesitan para llamarte gay y quién decide eso?

La simple realidad es que la sexualidad humana no es algo que se pueda trazar en un gráfico. Nadie puede determinar si alguien más es gay. Los seres humanos tienen derecho a permanecer en los armarios, a negar su propia experiencia sexual y a decidir cuánta “homosexualidad” o “heterosexualidad” necesitan en sus propias vidas para determinar sus propias etiquetas.

No existe una prueba científica para los homosexuales. Y eso significa que el equipo de Stanford no puede entrenar una IA para detectar la homosexualidad; solo puede entrenar una IA para tratar de vencer a los humanos en un juego de discriminación que no tiene un caso de uso positivo en el mundo real.

Tres Soluciones

El diario gaydar de Stanford es solo uno de los miles de ejemplos de alquimia de caja negra. Nadie debería sorprenderse de que esta línea de investigación sea tan popular, es el fruto práctico de la investigación de ML.

Hace veinte años, la cantidad de graduados de secundaria interesados ​​en el aprendizaje automático era una gota en el océano en comparación con la cantidad de adolescentes que se dirigían a la universidad para obtener un título en IA este año.

Y eso es bueno y malo. Lo bueno es que hoy en día hay más investigadores brillantes de IA/ML en el mundo que nunca, y ese número seguirá creciendo.

Lo malo es que todas las aulas de IA del planeta están llenas de estudiantes que no entienden la diferencia entre una Bola 8 Mágica y un modelo de predicción, y son aún menos los que entienden por qué el primero es más útil para predecir resultados humanos. .

Y eso nos lleva a las tres cosas que todo estudiante, investigador, profesor y desarrollador de IA puede hacer para mejorar todo el campo de IA/ML para todos.

  1. No hagas alquimia de caja negra. La primera pregunta que debe hacerse antes de comenzar cualquier proyecto de IA relacionado con la predicción es: ¿afectará los resultados humanos? Si la única ciencia que puede usar para medir la efectividad de su proyecto es compararlo con la precisión humana, es probable que no esté haciendo un gran trabajo.
  2. No cree nuevos modelos con el único propósito de superar los puntos de referencia establecidos por modelos anteriores solo porque no puede permitirse el lujo de mantener bases de datos útiles.
  3. No entrene modelos con datos cuya precisión y diversidad no pueda garantizar.

Me gustaría terminar este artículo con estos tres fragmentos de consejos como una especie de caída de micrófono suficiente, pero ahora no es ese tipo de momento.

La cuestión es que una gran parte de los estudiantes probablemente tendrán dificultades para hacer algo nuevo en AI/ML que no implique romper estas tres reglas. Y eso es porque la alquimia de la caja negra es fácil, la creación de bases de datos personalizadas es casi imposible para cualquier persona sin los recursos de la gran tecnología, y solo un puñado de universidades y empresas pueden formar modelos de parámetros grandes.

Estamos atrapados en un lugar donde la gran mayoría de los estudiantes y los posibles desarrolladores no tienen acceso a los recursos para ir más allá de encontrar formas «geniales» de usar algoritmos de código abierto.

La única forma de superar esta era y convertirse en una más productiva es que la próxima generación de desarrolladores reprenda las tendencias actuales y se aleje del status quo, tal como lo hizo la generación actual de desarrolladores pioneros de IA en su día. .