La responsabilidad del algoritmo
Vivimos la era del big data, los algoritmos y la inteligencia artificial. Transitamos una época en la que distintas compañías tecnológicas procesan una enorme cantidad de datos mediante algoritmos y la utilización de técnicas de "minería de datos, machine learning y deep learning", que permiten segmentar perfiles de consumo, influir en la toma de decisiones y definir patrones de conducta.
Esas técnicas suponen para los algoritmos "mecanismos de aprendizaje automático": la capacidad de aprender por sí mismos de la información a la que acceden. Los algoritmos pueden aprender de experiencias propias pasadas para generar una nueva respuesta adaptada, entre otras cosas, a una misma situación. Es así, aunque al lector le parezca ciencia ficción.
Frente a este universo avasallador que supone la industria de la inteligencia artificial (IA) aplicada al tratamiento de datos personales, el derecho aparece, una vez más, durmiendo el sueño de los justos. Si bien la Unión Europea ha avanzado en el establecimiento de directrices éticas aplicables al desarrollo de IA, normativa sobre robótica y algunos otros aspectos regulatorios particulares, no existen respuestas legislativas integrales. Mucho menos en América Latina.
Si bien el algoritmo no tiene vida propia (no es un ser viviente), sí tiene capacidad para causar daño, tal como refieren los conocidos supuestos de "discriminación por algoritmos sesgados" (que privilegian la visibilidad de ciertos contenidos en línea en detrimento de otros y/o facilitan la discriminación racial), o los denominados bugs: errores de programación que determinen un yerro en la toma de decisión causando un perjuicio, por ejemplo, aconsejando una inversión en la Bolsa de Valores que nunca debió aconsejarse. Frente a estas situaciones particulares se imponen las siguientes preguntas: ¿es responsable el algoritmo por los daños que se deriven de su utilización?, ¿debe regularse la industria de la inteligencia artificial?
El algoritmo no puede ser sujeto de imputación de responsabilidad civil, ya que no es una persona física ni jurídica (que no tiene entidad propia), aunque sí considero que la utilización de algoritmos puede encuadrarse en el concepto de actividad riesgosa previsto en el artículo 1757 del Código Civil y Comercial de la Nación, por la que debe responder, en forma objetiva, el dueño o gobernador del algoritmo, esto es, quien ejecuta la actividad, se sirve u obtiene provecho de ella (artículo 1758 del mismo texto legal).
En caso de daños y/o perjuicios sufridos por una persona derivados del uso de algoritmos, cualquiera sea la técnica de tratamiento de datos utilizada, podrá responder quien los gobierna (dueño, creador, ejecutor del tratamiento), pudiendo asimismo responder todos aquellos que participaron en la cadena de programación y ejecución del algoritmo, si existe una relación de consumo y un producto defectuoso, en los términos del artículo 40 de la ley de defensa del consumidor.
La industria de la inteligencia artificial no puede constituirse en un espacio sin ley. La autorregulación no alcanza y eso ha sido reconocido aun por los CEO de las big tech. Legislar requiere un análisis serio, completo y coherente, con soluciones que contemplen equilibradamente los intereses en juego, con participación de los jugadores involucrados en el negocio y los representantes de los consumidores. Si no se dan esas pautas, mejor quedarnos con lo que tenemos. De lo contrario, será peor el remedio que la enfermedad.
Abogado en Derecho Digital, Regulación y Data Compliance. Profesor (UBA) y director del Programa Derecho y Comunicación Digital (Escuela de Política, Gobierno y Relaciones Internacionales de la Universidad Austral)