En diálogo con LA NACION, Cecilia Danesi, directora del Máster en Gobernanza Ética de la IA de la Universidad Pontificia de Salamanca, reflexionó sobre la importancia de ser parte de esta ola tecnológica sin perder de vista la ética y la responsabilidad
7 minutos de lectura'

En el trabajo, en una conversación y hasta en el celular que llevamos en el bolsillo. Con cada vez más fuerza, la inteligencia artificial (IA) se cuela en cada espacio de la vida cotidiana, redefiniendo la manera en que interactuamos con la tecnología.
Sin embargo, su adopción no está exenta de desafíos: sesgos algorítmicos, desinformación y privacidad de los datos de los usuarios son algunas de las problemáticas que ya dominan la agenda global.
En una entrevista con LA NACION, Cecilia Danesi, directora del Máster en Gobernanza Ética de la IA de la Universidad Pontificia de Salamanca y autora del libro El imperio de los algoritmos: IA inclusiva, ética y al servicio de la humanidad, explica por qué es importante ser parte de esta nueva ola tecnológica, pero siempre con conciencia y responsabilidad.
-Todo modelo de IA es entrenado con datos y, a su vez, esos datos están teñidos de valores, prejuicios y una mirada sobre el mundo. ¿Estamos delegando decisiones laborales en sistemas que pueden amplificar desigualdades preexistentes?
-Sí, pasa en el ámbito laboral y en todos los ámbitos. El peligro mayor es la IA invisible, que es lo que no vemos. Sucede cuando la IA condiciona nuestros comportamientos, nos lleva en un caminito silencioso a tomar una decisión, creyendo que la decisión la tomamos nosotros absolutamente libres, o sea, libre albedrío, que en muchos casos no se aplica.
Bajo ningún punto de vista estoy en contra de la tecnología. Creo que la tenemos que incorporar más, pero con conciencia. Si nosotros importamos un sistema que viene de otras latitudes, con otra tradición, con otra cultura, con otra idiosincrasia y lo aplicamos acá, lógicamente vamos a estar a años luz de que represente nuestro universo e identidad. Entonces, no se trata de si IA sí o no, sino de cómo la vamos a incorporar.
-¿Es posible crear un modelo de IA “neutral”?
-No, no es posible. El objetivo de muchos modelos de IA que se crearon fue generar, en ciertos ámbitos, decisiones lo más objetivas posibles. No se trata de combatir el sesgo per se. Muchas veces el sesgo nos permite sobrevivir y está bien que así sea. Donde tenemos que hacer un doble clic es en el prejuicio, la discriminación negativa y buscar maneras de evitar esto. Por ejemplo, con equipos que desarrollen tecnología desde el principio hasta el final con diversidad, interdisciplina y datos representativos, y la evaluación y supervisión de los algoritmos.
-En tu libro El imperio de los algoritmos: IA inclusiva, ética y al servicio de la humanidad, contás que los algoritmos y los sistemas de IA pueden influir en nuestras decisiones. ¿Qué nuevos desafíos plantea este escenario en términos democráticos?
-Los desafíos son enormes. Hay un fenómeno que se llama Foreign Information Manipulation and Interference (FIMI), que significa cómo influyen actores externos, ya sea privados o públicos, en las decisiones, en la vida política, en los sistemas democráticos de nuestros países.
El ecosistema digital de Latinoamérica y el Caribe tiene ciertas vulnerabilidades que hacen que seamos un terreno fértil para recibir esos ataques, esos incidentes de FIMI. Uno de los principales problemas es que hay una falta de conciencia y de conocimiento acerca de estos fenómenos. De hecho, hay muchas personas que, si les hablas de desinformación, de injerencia extranjera, de contenidos falsos, lo descreen o lo desconocen. Somos totalmente permeables a lo que nos muestra un algoritmo. El algoritmo nos va a mostrar el contenido que se haya viralizado más y que puede generar más engagement, no el que sea de información verídica, no el que me permita tomar una decisión libre e informada. Tenemos que tener conciencia de estos fenómenos.
-La ruptura del acuerdo entre Anthropic y el Pentágono trajo a la mesa una fuerte discusión sobre el uso de herramientas de vigilancia masiva potenciadas con IA. ¿Cuál debe ser el límite entre seguridad y vulneración de privacidad?
-Tiene que haber un límite, de eso no hay dudas. Una vez que ya tenemos todo el espacio público dotado de cámaras de reconocimiento facial, es muy difícil volver atrás y el límite actual es cómo nosotros, sobre todo muchas veces los jueces, interpretemos la aplicación de normas que no fueron creadas para la realidad que vivimos hoy en día, pero que se tienen que aggiornar e interpretar conforme el contexto actual.
Hoy en día estamos bajo estados democráticos que respetan derechos, pero pensemos que estas mismas tecnologías en el futuro pueden ser utilizadas por gobiernos autoritarios. Uno tiene que mirar qué debates se están dando en el mundo, qué consecuencias tienen y no solo pensar en el presente, sino también en el futuro.
- En el panorama local, el Gobierno de la Ciudad de Buenos Aires está trabajando en un polo tecnológico ubicado en pleno Microcentro, que busca posicionar a la capital como hub regional de innovación. ¿Qué opinión tenés sobre esta iniciativa?
-Todo lo que sea espacios para el desarrollo del talento argentino me parece maravilloso. Se necesita, es el presente y el futuro. Sí hay un ecosistema que se tiene que generar alrededor de esos hubs. Ni en la universidad ni en la escuela nos enseñan a invertir, a emprender modelos de negocios. Es espectacular la idea del hub, pero también tenemos un bagaje de cosas que nos faltan, que también sería bueno que se creen espacios que nos den esas aptitudes.
-Recientemente, el ministro de Desregulación y Transformación del Estado, Federico Sturzenegger, anunció que el Gobierno planea enviar al Congreso una ley para que existan empresas gestionadas 100% por IA. ¿Puede la IA tener personalidad jurídica? ¿Qué impacto traería sobre la sociedad?
-La ley puede hacer todo lo que la democracia diga. No hay un impedimento porque es lo que el pueblo vota a través de sus representantes. Ahora bien, ¿hasta qué punto van a ser autónomas y libres estas sociedades? Parte de la regulación tiene que ser el qué marco de actuación le vamos a dar. ¿Cómo van a actuar las personas en eso? Porque que la persona jurídica sea una sociedad conformada con IA no significa que el representante no pueda ser un humano.
El objetivo de esto es decir, vamos camino hacia los agentes de IA, entonces ¿por qué no podemos tener tantos agentes de IA que aporten a la economía, que produzcan y que paguen impuestos, como humanos? Esto nos vuelve muchos más competitivos en el mercado.
Cuando vemos este tipo de reformas, lo primero que tenemos que hacer es sentarnos y ver qué está pasando en el mundo. No significa hacer un copy-paste, pero sí ver cómo lo vamos a llevar a cabo. Hay que aggiornarnos y acompañar este nuevo paradigma de la manera que más nos respete y nos haga crecer a nosotros como argentinos.
También hay que mirar quién tiene la pelota en torno a los recursos que nos permiten desarrollar la tecnología. En ese sentido, uno de los puntos clave es todo lo que está vinculado a lo que son las tierras raras. Hay que enfocarnos ahí y no solo en desarrollar un algoritmo competitivo. Lo mismo con el espacio y la computación cuántica. Como país, ¿estamos dando esos debates o únicamente estamos mirando un algoritmo que hizo una buena predicción? Hay algo mucho más macro, que es dónde está el foco de la tormenta, porque tener eso nos va a permitir hacer el gol en el futuro.
1Gimena Accardi reveló la determinante decisión que tomó tras su separación de Nico Vázquez: “Me iba a arruinar”
2El misterio del hantavirus en un crucero: las tres hipótesis que investigan los científicos
- 3
La desopilante experiencia de León XIV con el servicio de atención al cliente de un banco tras ser elegido papa
4El patrimonio de Adorni: declaró otro empresario inmobiliario que intervino en la compra del departamento de Caballito



