
La desinteligencia de lo artificial
Pagamos un precio cada vez más alto por nuestra gran dependencia de internet. La pérdida de la privacidad es cedida a la industria de la vigilancia sin que tengamos registro, y todo es transitado con el edulcoramiento por la adicción a las redes sociales y las apps. Desde los problemas más palpables: dolores cervicales, trastornos de ansiedad, atrofia en la movilidad de los dedos de la mano, hasta la posible afectación de capacidades cognitivas, nuestra memoria a corto plazo está empeorando y nuestra atención es cada vez más parcial.
La bandera que enarbolaron muchas plataformas parece también estar a media asta. Nuestra supuesta libertad de expresión podría verse afectada, o ya lo está, y corremos el riesgo de entregársela a los algoritmos y a la inteligencia artificial (IA), sin que exista –por ahora– una aparente medida equilibrada para regular a la industria: validar contenidos, asegurar nuestra privacidad, evitar la desinformación y no coartar libertades.
Pero lo dicho no es todo. ChatGPT es una plataforma de chat con IA capaz de responder a cualquier cosa y de hacer muchas otras. Incluye más de 175 millones de parámetros, entrenado con grandes cantidades de texto para realizar tareas relacionadas con el lenguaje, traducciones, construcciones de texto, etcétera, ChatGPT convoca dos de los más relevantes riesgos y amenazas en términos de ciberseguridad: IA y un potencial de desinformación extraordinario, orientado al engaño, las estafas u otros objetivos. Esta herramienta es solo una de la oleada de tecnologías similares que podrían ayudar a que cualquiera pueda lanzar un ciberataque, aun disponiendo de conocimientos básicos, desarrollando un ataque de phishing de punta a punta, sin escribir una sola línea de código.
El phishing es la técnica preferida de los ciberdelincuentes en la actualidad, presente en el 45% de los incidentes que causan daño económico. Consiste en engañar al usuario para que cliquee voluntariamente en un link que descargará en su dispositivo un malware, que luego robará información o dinero; o que ingrese inocentemente sus datos filiatorios, credenciales de acceso o financieros. Si sostener livianamente que tal o cual plataforma era más o menos segura tuvo consecuencias “fatales” hasta ahora, de aquí en adelante abróchense los cinturones.
2023 es el año de la consolidación de la industria del cibercrimen y los vectores que propiciarán una evolución inédita están a la vista. Registramos un crecimiento desmedido del ciberdelito con el aditamento propio del marketing de la innovación de la industria tecnológica, la inclusión de la “Inteligencia” para concretar ataques mucho más efectivos. Hoy una persona que no sepa programar podría lanzar un ataque sencillo con esta tecnología. De igual forma funcionaría con cibercriminales que pretendan contaminar a la opinión pública, con contenidos falsos y afectar el humor social a través de las plataformas.
Originalmente ChatGPT fue entrenada para mantener conversaciones convencionales incorporando un sorprendente sentido del contexto, identificando información, datos y contenido intercambiado previamente durante la conversación sostenida en el tiempo. Esto iba desde hacer tareas escolares hasta un chiste; un guion para una película o un poema, pero en latín; que simule un acento de una región específica o que redacte como un niño de escuela primaria.
¿Cuál es el riesgo? Sorprendentemente –o no– este tipo de tecnología nos desafía continuamente, dado que las funciones y capacidades completas todavía no han sido descubiertas ni experimentadas, y estarán “condicionadas” por las habilidades del interlocutor con el que interactúe.
Especialista en riesgo tecnológico y de negocios





