California promulga ley de seguridad de IA dirigida a gigantes tecnológicas
El gobernador de California Gavin Newsom promulgó una legislación innovadora que exige a las empresa
1 minuto de lectura'

El gobernador de California Gavin Newsom promulgó una legislación innovadora que exige a las empresas de inteligencia artificial más grandes del mundo que divulguen públicamente sus protocolos de seguridad y reporten incidentes críticos.
La ley conocida como SB 53 "ayudará al estado de California a incentivar la innovación al mismo tiempo que se protege la seguridad pública", declaró Newsom al anunciar la promulgación.
La ley es una de las medidas más significativas de California destinadas a regular el rápido avance de la industria de la inteligencia artificial de Silicon Valley. También le permitirá al estado conservar su posición como un centro global de tecnología.
"Con una tecnología tan transformadora como la IA, tenemos la responsabilidad de apoyar la innovación mientras implementamos medidas de seguridad sensatas", dijo en un comunicado el senador estatal Scott Wiener, ponente del proyecto de ley.
La nueva ley representa un exitoso segundo intento de Wiener de establecer regulaciones de seguridad para la IA después de que Newsom vetó la propuesta anterior tras una furiosa oposición de la industria tecnológica.
También ocurre después de un intento fallido de la administración Trump de impedir que los estados promulguen regulaciones sobre inteligencia artificial. El gobierno argumenta que crearían un caos regulatorio y ralentizarían la innovación hecha en Estados Unidos en una carrera contra China.
La nueva ley estipula que las grandes compañías de IA tienen que divulgar públicamente editados sus protocolos de seguridad y protección de la propiedad intelectual.
La legislación también establece protecciones para informantes de empleadores que revelen evidencia de peligros o violaciones de seguridad. También requiere que las empresas informen sobre casos en los que los sistemas de IA se comporten de manera peligrosa y engañosa durante las pruebas.
Por ejemplo, si un sistema de IA miente sobre la efectividad de los controles diseñados para evitar que brinde asistencia para la construcción de armas biológicas, los desarrolladores deben divulgar el incidente si éste aumenta significativamente los riesgos de daños catastróficos.
El grupo de trabajo detrás de esta ley fue liderado por destacados expertos como la investigadora Fei-Fei Li, de la Universidad de Standford, conocida como la "madrina de la IA".
arp/jgc/mvl/nn
1Controversia en Arizona: la decisión de una alcaldesa de origen latino de retirar cámaras de seguridad por temor al ICE
2Elecciones en Texas: la historia de Gina Hinojosa, la latina que busca vencer a Greg Abbott y ganar la gobernación
3Noticias de California: el conflicto demócrata por las elecciones 2026 sin Newsom y redada del ICE en vivo
4Niña prodigio en California: tiene 10 años, se apellida igual que un personaje de The Big Bang Theory y ya estudia en la universidad




