
Por qué el «reconocimiento de expresión facial» de AI es una estafa total
julio 7, 2022
Un equipo de investigadores de la Universidad Normal de Ingeniería de Jilin en China publicó recientemente un artículo en el que decía que había construido un modelo de IA que puede reconocer las expresiones faciales humanas.
Te ahorraré tiempo aquí: ciertamente no lo hicieron. Tal cosa actualmente no es posible.
La capacidad de reconocer con precisión las emociones humanas es lo que en Neural llamaríamos una hazaña de «nivel de dios». Las únicas personas que realmente saben cómo te sientes en un momento dado eres tú y todos los seres potencialmente omnipotentes.
Pero no tienes que creer en mi palabra. Puede llegar a la misma conclusión utilizando sus propias habilidades de pensamiento crítico.
Adelante: La investigación es fundamentalmente defectuosa porque confunde la expresión facial con la emoción humana. Puedes falsificar esta premisa realizando un experimento simple: evalúa tu estado emocional actual y luego oblígate a hacer una expresión facial que sea diametralmente opuesta a ella.
Si te sientes feliz y eres capaz de «actuar» triste, personalmente has desacreditado toda la premisa de la investigación. Pero, solo por diversión, continuemos.
Fondo: No dejes que el bombo te engañe. Los investigadores no entrenan a la IA para que reconozca expresiones. Entrenan a la IA para superar un punto de referencia. No hay absolutamente ninguna diferencia conceptual entre este sistema y uno que trata de determinar si un objeto es un perrito caliente o no.
Esto significa que los investigadores han construido una máquina que intenta adivinar Etiquetas. Básicamente, muestran su modelo de IA 50,000 imágenes, una a la vez, y lo obligan a elegir entre un conjunto de etiquetas.
La IA podría, por ejemplo, elegir entre seis emociones diferentes: feliz, triste, enojado, asustado, sorprendido, etc. – y no hay opción de decir «No lo sé».
Es por eso que los desarrolladores de IA pueden ejecutar cientos de miles o incluso millones de «iteraciones de entrenamiento» para entrenar su IA. Las máquinas no resuelven las cosas usando la lógica, simplemente prueban todas las combinaciones posibles de etiquetas y se adaptan a la retroalimentación.
Es un poco más complejo que eso, pero la gran idea importante aquí es que a la IA no le importa ni entiende los datos que analiza o las etiquetas que aplica.
Podrías mostrarle imágenes de gatos y obligarlo a «predecir» si cada imagen era «Spiderman disfrazado» o «el color amarillo expresado en poesía visual» y le aplicaría una etiqueta u otra a cada imagen.
Los desarrolladores de IA modificarían la configuración y volverían a ejecutar los modelos hasta que pudieran determinar qué gatos eran cuáles con suficiente precisión para pasar un punto de referencia.
Y luego puede volver a convertir los datos en imágenes de rostros humanos, mantener las etiquetas estúpidas de «Spiderman» y «color amarillo», y reciclarlas para predecir qué etiquetas coinciden con las caras.
La cuestión es que la IA no entiende estos conceptos. Estos modelos de predicción son básicamente máquinas que se paran frente a botones que los presionan aleatoriamente hasta que alguien les dice que lo hicieron bien.
Lo especial de ellos es que pueden presionar decenas de miles de botones en segundos y nunca olvidan en qué orden los presionaron.
El problema: Todo esto parece útil porque cuando se trata de resultados que no afectan a los humanos, los modelos de predicción son increíbles.
Cuando los modelos de IA intentan predecir algo objetivo, como si un animal en particular es un gato o un perro, ayudan a la cognición humana.
Usted y yo no tenemos tiempo para revisar todas las imágenes en Internet cuando tratamos de encontrar imágenes de un gato. Pero los algoritmos de búsqueda de Google sí.
Es por eso que puedes buscar en Google «gatos lindos» y obtener miles de fotos relevantes.
Pero la IA no puede determinar si una etiqueta es realmente apropiada. Si etiqueta un círculo con la palabra «cuadrado» y entrena una IA en esa etiqueta, asumirá que cualquier cosa que parezca un círculo es un cuadrado. Un humano de cinco años te diría que etiquetaste mal el círculo.
Zócalo neural: Es una estafa total. Los investigadores promocionan su trabajo como útil para «áreas como las interacciones entre humanos y computadoras, la conducción segura… y la medicina», pero no hay absolutamente ninguna evidencia que respalde su afirmación.
La verdad es que las «interacciones de la computadora» no tienen nada que ver con la emoción humana, los algoritmos de conducción segura son más efectivos cuando se enfocan en la atención en lugar de la emotividad, y no hay lugar en la medicina para evaluaciones débiles basadas en predicciones de las condiciones individuales. .
Lo principal es simple.: No se puede enseñar a una IA a identificar la sexualidad humana, la política, la religión, las emociones o cualquier otra cualidad no intrínseca a partir de una imagen de su rostro. Lo que tu puede hacer es realizar prestidigitación con un algoritmo de predicción con la esperanza de explotar la ignorancia humana.