Las empresas de IA usan los prompts que les enviamos para continuar entrenando los modelos
4 minutos de lectura'

Cuando interactuás con un chatbot, hay muchas probabilidades de que todo lo que decís, y cada instrucción que ingresás, no se use solo para dar respuestas a tus consultas. Casi todas las empresas de chatbots del mundo también utilizan la información que proporcionás para entrenar sus modelos de inteligencia artificial. Esto puede dejar expuesta tu privacidad —e incluso información confidencial de tu trabajo—. Pero podés mitigar estos riesgos indicándole a los chatbots que no utilicen tus datos para entrenamiento. Acá te explicamos cómo.
¿Qué es el entrenamiento de un chatbot de IA?
Para que un chatbot pueda dar respuestas informadas e (idealmente) precisas, el modelo de lenguaje grande (LLM, por sus siglas en inglés) que lo impulsa necesita asimilar una enorme cantidad de información, que luego utiliza para responder tus preguntas. A este proceso de asimilación de información se lo conoce como “entrenamiento”.
Cuanta más información utiliza un LLM para entrenarse, más “inteligente” se vuelve, en teoría. Estos modelos obtienen datos de múltiples fuentes, incluyendo sitios web públicos, redes sociales, enciclopedias, plataformas de video como YouTube y, lamentablemente, a veces incluso sin permiso de autores, novelistas, artistas, músicos y otros creadores.

Pero los LLM también obtienen datos de entrenamiento de vos. Cada vez que ingresás una instrucción o compartís información con un chatbot, es probable que esa información sea utilizada por la empresa de IA para seguir entrenando sus modelos. Y eso puede dejar tu privacidad seriamente expuesta.
Por qué no deberías permitir que entrenen con tus datos
En general, es buena idea no permitir que los modelos se entrenen con tus datos, especialmente si en tus interacciones con un chatbot compartís información sensible sobre vos. Si hablás sobre tu salud física o mental, tus finanzas o tus relaciones, tené en cuenta que esos datos, por defecto, suelen ser utilizados por la empresa de IA para entrenar sus modelos. Eso significa que tus pensamientos, preocupaciones e inquietudes más íntimas podrían formar parte del modelo.
Las empresas de IA afirman que anonimizan la información antes de usarla, pero en la práctica tenés que confiar en su palabra. Incluso si la anonimizan, eso no garantiza que en el futuro alguien no pueda utilizar alguna técnica para vincular esos datos —por ejemplo, sobre salud, relaciones, cuestiones legales o financieras— nuevamente con vos.
Si usás un chatbot para trabajar, también podrías exponer a tu empleador a riesgos legales o regulatorios si los datos que ingresás incluyen información confidencial de usuarios o clientes. Incluso si no es el caso, podrías revelar sin querer secretos corporativos, como código propietario o datos comerciales. El chatbot puede darte respuestas útiles, pero también utilizará toda esa información para entrenarse y la retendrá como parte de sí mismo.
Cómo evitarlo
Todo esto significa que es muy recomendable impedir que un chatbot entrene con tus datos. Hacerlo no afecta la calidad de las respuestas que recibís, pero sí ayuda a asegurar, en la medida de lo posible, que la información que compartís no quede permanentemente incorporada en el modelo.

La buena noticia es que la mayoría de los chatbots más conocidos —incluidos los cuatro más populares: ChatGPT de OpenAI, Gemini de Google, Claude de Anthropic y Perplexity— ya ofrecen opciones para excluirte del uso de tus datos para entrenamiento. Acá te explicamos cómo hacerlo en cada uno:
- ChatGPT: entrá a tu perfil → Configuración → Controles de datos → desactivá la opción “Mejorar el modelo para todos”.
- Gemini: andá a la configuración de actividad de Gemini Apps → seleccioná “Activado” → elegí “Desactivar” → confirmá.
- Claude: entrá a tu perfil → Configuración → menú de privacidad → desactivá “Ayudar a mejorar Claude”.
- Perplexity: entrá a tu perfil → Configuración → Preferencias → desactivá “Retención de datos de IA”.
Una vez hecho esto, en teoría, estas plataformas no deberían usar tus datos para seguir entrenando sus modelos. Sin embargo, como no han permitido auditorías independientes completas, en última instancia tenés que confiar en que cumplirán con lo que prometen.
También es importante tener en cuenta que, aunque las empresas acepten no usar tus datos para entrenamiento, pueden conservar cierta información de tus conversaciones por un tiempo determinado por razones legales o regulatorias.
Además, incluso si desactivás estas opciones, sigue siendo recomendable eliminar o anonimizar cuidadosamente cualquier información sensible antes de subir documentos a un chatbot. Para mayor privacidad, también podés usar intermediarios como Apple Intelligence en iPhone o DuckDuckGo Duck.ai, que ayudan a ocultar mejor tu huella digital frente a las grandes empresas de IA.
1Cómo mejorar la señal del Wi-Fi: ¿sirve el truco de la moneda?
2¿Una moneda en el router? El truco que promete mejorar tu Wi-Fi pero podría arruinarlo
3A fondo con la fotografía: tres funciones que llegan con los nuevos celulares de Motorola
4Alerta por la estafa triangular de la transferencia por error: piden que la devuelvas y pueden meterte en un delito




