Qué significa para California la nueva ley firmada por Gavin Newsom: un precedente para las compañías de IA en EE.UU.
La normativa es el segundo intento del senador estatal demócrata Scott Wiener para impulsar estándares nacionales e internacionales con enfoque en seguridad
6 minutos de lectura'

El gobernador Gavin Newsom promulgó la Ley SB53, también llamada Ley de Transparencia en la Inteligencia Artificial Fronteriza (Tfaia, por sus siglas en inglés), que exige a los desarrolladores de modelos de IA publicar marcos de seguridad, reportar riesgos y garantizar la protección de denunciantes. Esta medida convierte a California en el primer estado en establecer regulaciones específicas para este sector tecnológico.
Qué establece la primera ley de IA en California
La medida fue impulsada por el senador Scott Wiener, representante demócrata de San Francisco, tras un proceso legislativo en el que participaron académicos, expertos en Inteligencia Artificial (IA) y agencias gubernamentales.
Newsom señaló que esta norma busca garantizar la seguridad y la transparencia, sin frenar el avance de una industria estratégica para el estado.

“Estoy firmando una legislación para instalar medidas de sentido común que garanticen la seguridad y un mayor desarrollo de sistemas de IA de vanguardia”, escribió en X: “California está demostrando que es posible proteger a las personas y garantizar que las industrias en crecimiento de nuestro estado sigan dando forma al futuro”.
Esta legislación obliga a las principales compañías que trabajan con modelos avanzados de IA a:
- Hacer públicos sus protocolos de seguridad.
- Establecer mecanismos de reporte de incidentes.
- Colaborar en el desarrollo de un sistema de computación pública.
La aprobación de la SB53 marca la primera ley estatal de EE.UU. dedicada a regular la IA. Para el gobierno de California, la normativa responde a la falta de un marco integral a nivel federal y sienta un precedente que podría convertirse en referencia nacional.

Requisitos principales para desarrolladores de IA
Los puntos más relevantes de la ley SB53 son:
- Todo desarrollador de modelos avanzados de IA debe elaborar un marco público que detalle cómo integra estándares nacionales e internacionales en sus sistemas. Este documento debe estar disponible en los sitios web de las empresas y permitirá a las autoridades y al público conocer los criterios de seguridad aplicados.
- Se tendrá la obligación de presentar evaluaciones sobre riesgos catastróficos derivados del uso interno de los modelos. Estas evaluaciones se entregarán a la Oficina de Servicios de Emergencia de California (OES, por sus siglas en inglés), que también será la entidad responsable de recibir reportes de incidentes críticos tanto de las compañías como de la ciudadanía.
- La información confidencial relacionada con estos reportes estará exenta de la Ley de Registros Públicos de California, con el objetivo de proteger datos sensibles y garantizar que los informes puedan realizarse sin riesgo de filtración.
“Con una tecnología tan transformadora como la IA, tenemos la responsabilidad de apoyar esa innovación y, al mismo tiempo, establecer medidas de seguridad sensatas para comprender y reducir el riesgo”, aseguró el impulsor de la ley Wiener en el comunicado oficial.

Creación del consorcio CalCompute
Además de las obligaciones para las empresas privadas, la legislación impulsa la creación de CalCompute, un consorcio dentro de la Agencia de Operaciones Gubernamentales de California. Su misión será diseñar un marco para el desarrollo de un clúster de computación en la nube pública.
Este sistema busca apoyar proyectos de IA segura, equitativa y sostenible al fomentar la investigación académica y el acceso de entidades públicas a capacidades tecnológicas que, de otro modo, quedarían limitadas al sector privado.
El consorcio deberá presentar un informe sobre su trabajo a más tardar el 1° de enero de 2027. Tras la entrega del documento, CalCompute quedará disuelto, aunque su propuesta servirá como base para futuras infraestructuras tecnológicas en el estado.
Protección para denunciantes y sanciones por incumplimiento en relación con la IA en California
La SB53 incluye disposiciones destinadas a proteger a empleados de empresas desarrolladoras de IA que informen sobre posibles riesgos.
- Queda prohibido que las compañías adopten medidas disciplinarias contra trabajadores que revelen actividades que representen amenazas para la salud o la seguridad pública.
- Los denunciantes podrán presentar la información ante el Fiscal General de California, autoridades federales o superiores internos.
- La ley obliga a los desarrolladores a contar con mecanismos anónimos para que los empleados reporten problemas dentro de la organización.
- En caso de incumplimiento, la legislación establece sanciones civiles aplicables por la oficina del Fiscal General.
Estas medidas buscan asegurar que las compañías cumplan con los requisitos de transparencia y mitigación de riesgos definidos en la Tfaia.
California, líder en tecnología e inversión
California concentra una parte significativa de la industria de la inteligencia artificial. De acuerdo con el Índice de IA de Stanford de 2025 retomado por el comunicado oficial del gobierno estatal, el 15,7% de todas las ofertas de empleo en este sector en EE.UU. se registraron en el estado Dorado, muy por encima de Texas y Nueva York.
En términos de inversión, más de la mitad del capital de riesgo destinado a startups de IA y aprendizaje automático en 2024 se dirigió a empresas del Área de la Bahía. Además, gigantes tecnológicos como Google, Apple y Nvidia, todas con sede en California, superaron valoraciones de tres billones de dólares, lo que consolidó su posición en el sector.
El gobierno estatal sostiene que este ecosistema convierte a California en un entorno clave para experimentar con políticas públicas en torno a la IA. Por eso, la SB53 pretende equilibrar innovación y regulación, evitando que la falta de normas genere riesgos sociales y económicos.
“Podemos establecer regulaciones para proteger a nuestras comunidades y, al mismo tiempo, garantizar que la creciente industria de la IA siga prosperando”, aseguró Newsom. “Esta legislación logra ese equilibrio”, agregó.
El camino hacia la aprobación de la SB53 comenzó en 2024, cuando un informe solicitado por Newsom reunió a expertos de universidades y centros de investigación para analizar riesgos asociados con la IA de frontera. El documento incluyó recomendaciones sobre transparencia, responsabilidad y revisiones científicas.
La primera propuesta legislativa fue rechazada el año pasado, lo que llevó a ajustes en la redacción de la norma actual. En esta ocasión, la participación directa del gobernador permitió definir una versión más acotada y enfocada en medidas de seguridad claras y aplicables.
“La colaboración de su administración contribuyó a que esta legislación pionera promoviera la innovación y estableciera medidas de seguridad para la confianza, la equidad y la rendición de cuentas en la nueva tecnología más destacada en muchos años”, finalizó el senador Wiener.
Otras noticias de Gavin Newsom
En California. Para frenar al ICE: la estrategia de Gavin Newsom contra los abusos de los agentes
En California. La orden que buscaba ayudar a los inmigrantes y enfrenta a Gavin Newsom con el ICE y la CBP
En California. Newsom celebra un contrato millonario para su ambicioso proyecto de transporte y trabajo
1Del sueño europeo a la incertidumbre: la familia argentina que quedó atrapada por un cambio de las leyes migratorias
2Con el aguinaldo: qué día cobro mi jubilación en diciembre
3Eben Etzebeth, estrella de la selección de rugby de Sudáfrica, fue suspendido por la World Rugby
4El irónico cruce entre Florencia Carignano y Virginia Gallardo por su vestimenta en la jura de Diputados







