Medio Oriente: Google ayudó a un contratista militar israelí con IA
Acusan a la empresa ante la SEC de violar sus políticas éticas, según The Washington Post

La tecnología de inteligencia artificial Gemini de Google fue utilizada por el aparato de defensa israelí en un momento en que la compañía se distanciaba públicamente del ejército del país tras las protestas de los empleados por un contrato con el gobierno israelí, según documentos internos incluidos en la denuncia.
En julio de 2024, la división de computación en la nube de Google recibió una solicitud de atención al cliente de una persona que utilizaba una dirección de correo electrónico de las Fuerzas de Defensa de Israel (FDI), según los documentos incluidos en la denuncia, presentada ante la Comisión de Bolsa y Valores (SEC) en agosto.
El nombre en la solicitud de atención al cliente coincide con el de un empleado de CloudEx, una empresa tecnológica israelí que, según la denuncia de la SEC, es contratista de las FDI.
La solicitud, procedente de la dirección de correo electrónico de las FDI, solicitaba ayuda para que Gemini de Google fuera más fiable a la hora de identificar objetos como drones, vehículos blindados y soldados en grabaciones aéreas.
El personal de la nube de Google respondió brindando sugerencias y realizando pruebas internas, afirman los documentos, según publica de modo exclusivo The Washington Post.
Las directrices éticas públicas de Google en ese momento prohibían específicamente el uso de IA para armas o para fines de monitoreo que infringieran las normas internacionales. Dado que estas políticas también formaban parte de informes oficiales del gobierno, el denunciante argumenta que la empresa mintió a sus accionistas y a las autoridades.
En una declaración a The Washington Post, el exempleado —que solicitó el anonimato para evitar represalias de la empresa— explicó que, si bien las revisiones éticas internas de Google suelen ser rigurosas, esos estándares parecieron desaparecer en lo que respecta al conflicto de Gaza.
"Muchos de mis proyectos en Google han pasado por su proceso interno de revisión ética de IA", señaló, y agregó que se comunicó con la SEC para garantizar que la empresa "rinda cuentas por este doble juego".
En un comunicado, un portavoz de Google refutó las afirmaciones, afirmando que la empresa solo proporcionaba "información estándar de soporte técnico" para una consulta rutinaria y no ofrecía soporte técnico especializado. Y argumentó, además, que, dado que la cuenta gastaba menos de unos cientos de dólares al mes en IA, cualquier "uso significativo" de la tecnología con fines militares habría sido "imposible".
Según las propias guías de Google para sus herramientas de "inteligencia de vídeo en la nube", el servicio permite a los usuarios rastrear objetos en las grabaciones sin coste durante los primeros 1.000 minutos. Tras este periodo inicial, la empresa cobra $0,15 por minuto adicional de vídeo procesado. (ANSA).



