
Ojo con lo que ponés: Slack confirma que usa mensajes de sus usuarios para entrenar a su inteligencia artificial
Slack ha confirmado que utiliza los mensajes de los usuarios para entrenar los modelos de aprendizaje automático no generativos, algo que hace por defecto, ya que obliga a los administradores a solicitar a través de un correo electrónico la desactivación de esta opción
3 minutos de lectura'

Slack ha confirmado que utiliza los mensajes de los usuarios para entrenar los modelos de aprendizaje automático no generativos, algo que hace por defecto, ya que obliga a los administradores a solicitar a través de un correo electrónico la desactivación de esta opción.
Los modelos de lenguaje grande (LLM) de aprendizaje automático se utilizan en la plataforma de comunicación profesional para ofrecer funciones como las recomendaciones de canales y emojis, como recoge en sus principios de privacidad relativos a la búsqueda, el aprendizaje y la inteligencia artificial.
Estos modelos se entrenan con datos de los usuarios, esto es, información de uso de la plataforma, pero también mensajes, contenido y archivos intercambiados en las comunicaciones. Slack matiza que los modelos “no pueden aprender, memorizar ni reproducir” estos datos, a los que la propia compañía no puede acceder.
En este documento, al que se puede acceder en la propia web de Slack, se recoge también que los LLM generativos no se desarrollan ni entrenan con datos de los usuarios.
La política de Slack en torno al entrenamiento de sus modelos de inteligencia artificial ha generado polémica en los últimos días después de que un directivo de DuckBill Group, Corey Quinn, la destacara en su perfil en la red social X.
I'm sorry Slack, you're doing fucking WHAT with user DMs, messages, files, etc? I'm positive I'm not reading this correctly. pic.twitter.com/6ORZNS2RxC
— Corey Quinn (@QuinnyPig) May 16, 2024
La parte que ha compartido Quinn recoge el hecho de que el entrenamiento de los LLM de aprendizaje automático es por defecto, y que para que Slack deje de utilizar la información de los usuarios, la organización debe contactar a través de un correo electrónico con la compañía, ya que no se facilita una opción para desactivarlo en la configuración de la cuenta.
Slack, a modo de aclaración, ha confirmado sus políticas en respuesta a la crítica de Quinn. También ha señalado que en el caso de los modelos generativos, la experiencia que ofrecen se recoge en Slack AI, una función adicional y de pago que está impulsada por modelos que se alojan en la propia infraestructura de la compañía, lo que significa que “tus datos permanecen bajo tu control y exclusivamente para el uso de tu organización”.
Yesterday, some Slack community members asked for more clarity regarding our published privacy principles. We value the feedback and agree we could have better explained our approach. So, we updated the principles page to more clearly explain how Slack protects customer data…
— Slack (@SlackHQ) May 18, 2024






