
¿Quiere desarrollar una IA ética? Entonces necesitamos más voces africanas
noviembre 27, 2021
La inteligencia artificial (IA) fue una vez parte de la ciencia ficción. Pero se está extendiendo. Se utiliza en tecnología de telefonía móvil y vehículos de motor. Impulsa herramientas para la agricultura y la salud.
Pero han surgido preocupaciones sobre la responsabilidad de la IA y las tecnologías relacionadas, como el aprendizaje automático. En diciembre de 2020, un científico informático, Timnit Gebru, fue despedido del equipo de IA ética de Google. Anteriormente había hecho sonar la alarma sobre los efectos sociales de los prejuicios en las tecnologías de inteligencia artificial. Por ejemplo, en un artículo de 2018, Gebru y su colega investigadora Joy Buolamwini mostraron cuán menos preciso es el software de reconocimiento facial para identificar mujeres y personas de color que los hombres blancos. Los sesgos en los datos de entrenamiento pueden tener efectos no deseados y de gran alcance.
Ya existe un cuerpo sustancial de investigación sobre la ética en la IA. Esto resalta la importancia de los principios para garantizar que las tecnologías no solo empeoren los prejuicios o incluso introduzcan nuevos daños sociales. Como se indica en el proyecto de recomendación de la UNESCO sobre la ética de la IA:
Necesitamos políticas y marcos regulatorios nacionales e internacionales para garantizar que estas tecnologías emergentes beneficien a la humanidad en su conjunto.
En los últimos años, se han creado muchos marcos y pautas para identificar los objetivos y prioridades de la IA ética.
Sin duda, es un paso en la dirección correcta. Pero también es esencial mirar más allá de las soluciones técnicas cuando se abordan cuestiones de parcialidad o inclusión. El sesgo puede entrar en quién enmarca los objetivos y equilibra las prioridades.
En un artículo reciente, argumentamos que la inclusión y la diversidad también deben estar al nivel de identificar valores y definir los marcos de lo que cuenta como IA ética en primer lugar. Esto es particularmente relevante cuando se considera el crecimiento de la investigación de la inteligencia artificial y el aprendizaje automático en el continente africano.
El contexto
La investigación y el desarrollo de tecnologías de inteligencia artificial y aprendizaje automático están creciendo en los países africanos. Programas como Data Science Africa, Data Science Nigeria e Indaba Deep Learning con sus eventos satelitales IndabaX, que hasta ahora se han llevado a cabo en 27 países africanos diferentes, ilustran el interés y la inversión humana en los campos.
El potencial de la IA y las tecnologías relacionadas para promover oportunidades de crecimiento, desarrollo y democratización en África es un motor clave de esta investigación.
Sin embargo, hasta ahora muy pocas voces africanas han estado involucradas en los marcos éticos internacionales que tienen como objetivo guiar la investigación. Esto podría no ser un problema si los principios y valores de estos marcos tienen una aplicación universal. Pero no está claro que lo hagan.
Por ejemplo, el marco europeo AI4People ofrece una síntesis de otros seis marcos éticos. Identifica el respeto por la autonomía como uno de sus principios clave. Este principio ha sido criticado en el campo de la ética aplicada de la bioética. Se considera que no hace justicia a los valores comunitarios comunes a toda África. Estos se enfocan menos en el individuo y más en la comunidad, incluso requiriendo que se hagan excepciones para adherirse a tal principio a fin de permitir intervenciones efectivas.
Desafíos como estos, o incluso el reconocimiento de que podría haber tales desafíos, están en gran parte ausentes de las discusiones y marcos para la IA ética.
Así como los datos de capacitación pueden afianzar las desigualdades e injusticias existentes, también lo hace el hecho de no reconocer la posibilidad de diversos conjuntos de valores que pueden variar en los contextos sociales, culturales y políticos.
Resultados inutilizables
Además, no tener en cuenta los contextos sociales, culturales y políticos puede significar que incluso una solución técnica ética aparentemente perfecta puede ser ineficaz o equivocada una vez implementada.
Para que el aprendizaje automático sea eficaz a la hora de realizar predicciones útiles, cualquier sistema de aprendizaje debe tener acceso a los datos de entrenamiento. Se trata de muestras de los datos de interés: entradas en forma de varias características o medidas, y salidas que son las etiquetas que los científicos quieren predecir. En la mayoría de los casos, estas características y etiquetas requieren un conocimiento humano del problema. Pero la incapacidad de tener en cuenta adecuadamente el contexto local podría conducir a sistemas de bajo rendimiento.
Por ejemplo, se han utilizado grabaciones de llamadas de teléfonos móviles para estimar el tamaño de las poblaciones antes y después de los desastres. Sin embargo, es menos probable que las poblaciones vulnerables tengan acceso a dispositivos móviles. Por lo tanto, este tipo de enfoque podría producir resultados que no son útiles.
Del mismo modo, es probable que las tecnologías de visión por computadora para identificar diferentes tipos de estructuras en un área funcionen menos cuando se utilizan diferentes materiales de construcción. En ambos casos, como discutimos nosotros y otros colegas en otro artículo reciente, ignorar las diferencias regionales puede tener efectos profundos en todo, desde la entrega de ayuda en casos de desastre hasta el desempeño de los sistemas autónomos.
Ir adelante
Las tecnologías de IA no deberían simplemente agravar o integrar aspectos problemáticos de las sociedades humanas de hoy.
Ser sensible e inclusivo en diferentes contextos es esencial para diseñar soluciones técnicas efectivas. Igualmente importante es no asumir que los valores son universales. Quienes están desarrollando IA deben comenzar a incluir personas de diferentes orígenes: no solo en los aspectos técnicos del diseño de conjuntos de datos, etc., sino también en la definición de los valores en los que se puede confiar para enmarcar y definir objetivos y prioridades.
Este artículo de Mary Carman, profesora de filosofía de la Universidad de Witwatersrand y Benjamin Rosman, profesor asociado de la Facultad de Ciencias de la Computación y Matemáticas Aplicadas de la Universidad de Witwatersrand, se vuelve a publicar de The Conversation con una licencia de Creative Commons. Lea el artículo original.