Modelos de IA de código abierto son vulnerables a uso indebido con fines delictivos: investigadores

Por AJ Vicens
29 ene (Reuters) - Los hackers y otros delincuentes pueden apoderarse con facilidad de computadores que utilizan modelos de lenguaje grande (LLM, por sus siglas en inglés) de código abierto fuera de las barreras y restricciones de las principales plataformas de inteligencia artificial, lo que genera riesgos y vulnerabilidades de seguridad, según afirmaron investigadores el jueves. Los hackers podrían atacar los ordenadores que ejecutan los LLM y ordenarles que lleven a cabo operaciones de spam, creación de contenido de phishing o campañas de desinformación, eludiendo los protocolos de seguridad de la plataforma, según los investigadores. La investigación, llevada a cabo conjuntamente por las empresas de ciberseguridad SentinelOne y Censys a lo largo de 293 días y compartida en exclusiva con Reuters, ofrece una nueva perspectiva sobre la magnitud de los casos de uso potencialmente ilícito de miles de implementaciones de LLM de código abierto. Entre ellos se incluyen la piratería informática, el discurso de odio y el acoso, los contenidos violentos o sangrientos, el robo de datos personales, las estafas o el fraude y, en algunos casos, el material de abuso sexual infantil, según los investigadores. Aunque existen miles de variantes de LLM de código abierto, una parte significativa son variantes de Llama de Meta, Gemma de Google DeepMind y otros, según los expertos. Si bien algunos de los modelos de código abierto incluyen barreras de protección, los investigadores identificaron cientos de casos en los que fueron eliminadas de manera explícita. Las conversaciones de la industria de la IA sobre los controles de seguridad "ignoran este tipo de capacidad excedente que claramente se está usando para todo tipo de cosas diferentes, algunas legítimas y otras obviamente delictivas", afirmó Juan Andrés Guerrero-Saade, director ejecutivo de investigación de inteligencia y seguridad de SentinelOne. Guerrero-Saade comparó la situación con un "témpano" que no se está teniendo debidamente en cuenta en toda la industria y la comunidad de código abierto. La investigación analizó las implementaciones de LLM de código abierto accesibles al público a través de Ollama, una herramienta que permite a las personas y organizaciones ejecutar sus propias versiones de varios modelos de lenguaje grande.
(Editado en español por Carlos Serrano)



