IA y seguridad: riesgos y desafíos de la nueva regulación nacional
La Resolución 710/2024, con la cual se implementan sistemas de IA para la prevención del delito, supone un avance en materia de seguridad, pero deja abiertos varios flancos que ponen en jaque derechos esenciales de las persona
6 minutos de lectura'

La inteligencia artificial (IA) tiene un potencial transformador inédito para la humanidad. Sin embargo, existen numerosos riesgos asociados a su implementación que deben ser gestionados adecuadamente para proteger los derechos fundamentales de las personas.
La mayoría de los países están analizando cómo adaptar sus sistemas normativos para garantizar el uso ético, seguro y transparente de la IA. La Unión Europea es pionera con la reciente aprobación del Reglamento sobre IA (RIA). La tecnología en sí misma no es ni buena ni mala, sino que su impacto dependerá del uso que se haga de ella. El principal desafío regulatorio es implementar un marco normativo que proteja adecuadamente los derechos esenciales, sin ser tan restrictivo como para obstruir el avance tecnológico.
El 26 de julio pasado, el Ministerio de Seguridad de la Nación dictó la Resolución 710/2024 y creó la Unidad de Inteligencia Artificial Aplicada a la Seguridad (UIAAS). Aunque esta medida puede mejorar la eficiencia en la lucha contra el delito, plantea serias preocupaciones sobre la privacidad y la posible afectación a otros derechos fundamentales de las personas.
Uno de los aspectos más controvertidos es la facultad otorgada a la UIAAS de procesar grandes volúmenes de datos de diversas fuentes para crear perfiles de sospechosos o identificar vínculos entre diferentes casos. Esto supone juzgar a individuos no por sus acciones presentes, sino por predicciones de comportamientos futuros, basadas en perfiles generados según criterios determinados discrecionalmente por las fuerzas de seguridad. Ello quiebra el principio de inocencia reconocido por la Constitución Nacional.
Esta idea nos recuerda a la conocida película Minority Report, de Steven Spielberg, donde las fuerzas de seguridad implementaron el sistema “PreCrimen” para castigar a personas por delitos que aún no habían cometido. Aquello que en esa época solo parecía posible en la ficción, es ahora una preocupación real sobre el uso de tecnologías predictivas en la aplicación de la ley.
El RIA prohíbe expresamente el uso de IA para crear perfiles sospechosos con fines de predecir futuros delitos, salvo que se base en hechos objetivos y verificables directamente relacionados con una actividad delictiva.
La resolución nacional también autoriza al UIAAS a utilizar IA para analizar datos históricos de crímenes y, de ese modo, predecir delitos futuros. Aunque esta práctica es innovadora y tiene el potencial de mejorar la eficiencia en la prevención del crimen, es conveniente establecer criterios claros para evitar sesgos y discriminaciones. Así, además de la enumeración contenida en el Art. 4 inc. a) de la resolución 484/2024, es necesario incluir supuestos relevantes, como la nacionalidad, condición socioeconómica, identidad de género, dentro de los criterios prohibidos.
Es fundamental restringir la discrecionalidad en el uso y entrenamiento de sistemas de IA para garantizar su uso ético y responsable. La transparencia en el origen de los datos, la representatividad de las muestras, la ausencia de sesgos, y la implementación de mecanismos de rendición de cuentas son esenciales para evitar la estigmatización y discriminación de individuos o grupos específicos.
Los algoritmos pueden perpetuar y amplificar prejuicios existentes si se basan en datos históricos sesgados, lo que podría resultar en una discriminación sistemática sobre algunos sectores o colectivos. Por ello, es esencial garantizar que esta medida preventiva no se convierta en un instrumento estatal para generar estereotipos y estigmatizaciones sobre determinados sectores de la población.
Otro punto crítico es el uso del reconocimiento facial en la vía pública para identificar personas buscadas y detectar actividades sospechosas en tiempo real. Aunque el reconocimiento facial sea efectivo para ciertos propósitos, aplicado de este modo representa una invasión masiva a la privacidad, al permitir una vigilancia global y constante sobre la población.
Es llamativo que la Resolución remita a las disposiciones de la Resolución 484/2024, dictada por el mismo Ministerio, la cual prohíbe expresamente el procesamiento de datos sensibles sin autorización judicial previa, siendo la identificación biométrica un claro ejemplo de avance sobre la información privada de las personas. Esta modalidad ya fue implementada en CABA y generó una gran polémica precisamente por afectar la privacidad y por errores de sistema que motivaron detenciones ilegítimas, derivando en la paralización judicial del programa.
En esta línea se posiciona el RIA. Bajo la premisa de que el uso indiscriminado de esta tecnología puede socavar los derechos fundamentales de los ciudadanos y crear una sociedad de vigilancia, prohíbe expresamente el uso de sistemas de IA de reconocimiento facial en tiempo real en espacios públicos, salvo en circunstancias excepcionales y con salvaguardias adecuadas.
La finalidad de prevenir y perseguir delitos no justifica el sacrificio de la privacidad y las libertades individuales. Es esencial que las autoridades adopten un enfoque que respete los derechos humanos y las normas internacionales sobre la materia, evitando prácticas que puedan resultar invasivas y discriminatorias.
Es clave implementar mecanismos para evaluar y mitigar los riesgos inherentes de los sistemas de IA, como sesgos algorítmicos y errores, a través de auditorías y supervisión humana constante. También es crucial proporcionar información clara y accesible sobre las características y riesgos del sistema, garantizando transparencia y comprensión por parte de los usuarios. Sin esta transparencia, aumenta el riesgo de malentendidos, desconfianza pública y compromete el derecho a la privacidad de las personas.
La resolución nacional representa un avance significativo en la modernización de las fuerzas de seguridad. Sin embargo, es necesario establecer salvaguardias claras para asegurar que el uso de la IA no derive en violaciones a los derechos fundamentales de las personas.
Debe existir un enfoque interdisciplinario y participativo que permita implementar el uso de la IA de manera justa y responsable, asegurando que los beneficios en términos de seguridad no se logren a expensas de las libertades fundamentales de los ciudadanos. Como señaló Benjamin Franklin, “aquellos que renuncian a la libertad esencial para comprar un poco de seguridad temporal no merecen ni libertad ni seguridad”.
Abogado. Mag. en derecho empresarial y en negocios internacionales, docente de derecho en la Univesidad Blas Pascal



