El racismo y la mala educación de las máquinas
El control de prejuicios o arbitrariedades, de género o raza, por ejemplo, es uno de las campos más dinámicos de la inteligencia artificial. Superado el inicial sexismo de los nombres y voces femeninas a cargo de los asistentes virtuales (Siri, Alexa...) e identificadas cientos de inequidades o estereotipos en las descripciones de roles asociadas a mujeres u hombres, un estudio académico conocido esta semana justo en el contexto de las marchas por el asesinato de George Floyd pone el acento en las diferencias raciales. Relevados 146 documentos, el informe difundido por Microsoft pone el foco en la necesidad de trabajar ese aspecto que ya había sido señalado para los sistemas de reconocimiento facial.
El entrenamiento y la programación de máquinas se ha vuelto un tema crítico. Desde ya, se trata del desplazamiento de comportamientos humanos a los desarrollos de, por ejemplo, el procesamiento del lenguaje natural. Pero lleva a equívocos flagrantes. La oportuna frase "No aclares que oscurece" contiene obvios significados positivos y negativos para revisar.