
Cómo regular los mundos virtuales infantiles
El monitoreo de las redes sociales para menores de edad conlleva varios desafíos ante los peligros de acosadores y la habilidad de los pequeños usuarios para saltear filtros
1 minuto de lectura'
Los mundos virtuales para niños y adolescentes (sitios web como Neopets , Club Penguin y Habbo ) son un gran negocio. En estos portales, los niños crean un avatar y, a través del mismo, exploran un universo imaginario. Pueden jugar, chatear y decorar ambientes virtuales u otros espacios.
Para fin de año, habrá 70 millones de cuentas (el doble que el año último) en los mundos virtuales dirigidos a niños menores de 16 años, según K Zero , una empresa de consultoría. Virtual Worlds Management , una empresa de medios y eventos comerciales, estima que existen en la actualidad más de 200 mundos virtuales orientados a los jóvenes que se encuentran "en ejecución, en planificación o en desarrollo activo".
Mientras que la cantidad de mundos virtuales crece, también aumenta la demanda de sofisticado software y personal para monitoreo, llamados moderadores, quienes actúan como monitores de parques virtuales. Tamara Littleton, directora ejecutiva de eModeration , una empresa con sede en Londres que ofrece servicios de moderación, dice que el peligro más común que los niños y adolescentes enfrentan online es el acoso y los propios esfuerzos de los jóvenes de compartir información personal que podría permitir que sujetos extraños los identifiquen y contacten en el mundo real. Los depredadores sexuales siempre son una preocupación, dice, aunque ella describe la probabilidad de que un niño sea contactado por un adulto con malas intenciones como "estadísticamente baja".
Mientras tanto, los jóvenes y la tecnología diseñada para protegerlos juegan al gato y el ratón.
NetModerator, una herramienta de software construida por Crisp Thinking , una compañía privada con sede en Leeds, Inglaterra, puede monitorizar online el chat en términos de "intención, así como de contenido", dice Andrew Lintell, el director ejecutivo de la empresa. Para construir la herramienta, dice, Crisp Thinking analizó aproximadamente 700 millones de líneas de tráfico de chat, algunas de conversaciones entre niños y algunas conversaciones entre niños y depredadores sexuales, las cuales fueron brindadas por agencias de seguridad.
El software está integrado al sitio de un mundo virtual. Si la tecnología descubre frases, sintaxis, jerga u otros patrones en una conversación que coinciden con las señales conocidas de acoso o depredación sexual, envía un alerta a un moderador, quien puede "examinar los detalles" para ver no sólo la totalidad de la conversación en cuestión, sino también todo lo que ha posteado cada participante.
"Podemos capturar una imagen completa de la historia de un usuario en el juego", dice Lintell. NetModerator también incluye un filtro que se actualiza periódicamente para incluir nuevas palabras, abreviaturas o combinaciones de caracteres que pueden leerse como palabras, como "sk8" (skate, en idioma inglés o "patineta", en idioma español).

Lintell afirma que la empresa trabaja con varios mundos virtuales para niños. Uno de ellos es el sitio FusionFall , de Cartoon Network . FusionFall es un juego en línea orientado a niños de entre 8 a 14 años, en el que los avatares de los niños luchan para salvar al mundo con la ayuda de los personajes de Cartoon Network. El juego utiliza a NetModerator para controlar el chat abierto y el correo electrónico de jugador a jugador, según Turner Broadcasting , propietario de Cartoon Network.
Keibi Technologies de San Francisco ha creado tecnología para determinar si el contenido generado por el usuario (como videos, imágenes y texto) contiene material cuestionable. Jeff Smith, vicepresidente de ventas y marketing, dice que la tecnología, que también construye un perfil de cada persona que sube el material, es utilizada por varios sitios destinados a niños y adolescentes.
Las nuevas tecnologías han hecho posible que un sitio reduzca su plantel de moderadores de más de 20 personas a sólo 3 o 4, dice Smith.
Para los moderadores, los avances técnicos han cambiado la naturaleza del trabajo, dice Bea Marshall, líder de equipo de proyecto de eModeration.
Marshall, quien trabaja desde su casa en Sacramento, afirma que cuando comenzó a moderar sitios de chat de niños y adolescentes, hace nueve años, tenía que identificar y responder a "todas las infracciones que aparecían en la pantalla".
Hoy en día, con tecnología de software que señala las infracciones básicas y que incluso envía advertencias automatizadas, dice que puede concentrar su atención en mensajes más sutiles y más difíciles de interpretar. Esto no significa que el trabajo sea fácil. "Imagínese a mil niños, el 95 por ciento de los cuales cuentan con excelentes habilidades para tipear, todos escribiendo al mismo tiempo", dice. "Ahora trate de controlar esas conversaciones mientras van bajando por la pantalla".
Marshall dice que las respuestas pueden ir desde la amonestación hasta la restricción de un jugador durante un período de tiempo, hasta "alertar a gente en un nivel superior" si se sospecha la presencia de un depredador o se teme que el niño pueda ser suicida. En los últimos cinco años, afirma, ella ha comunicado "tres o cuatro" alertas acerca de posibles depredadores sexuales. Dos veces en ese mismo período, dice, sus alertas han permitido a las autoridades ayudar a usuarios suicidas.
Para eludir las tecnologías de filtro, niños y adolescentes utilizan los trucos de los spammers, como la inserción de espacios aleatorios o faltas de ortografía deliberadas en los chats. Littleton ha escuchado sobre usuarios que tratan de identificar su ciudad de origen en código. ("El opuesto a la pimienta, un cuerpo de agua" es Salt Lake City, Ciudad del Lago de Sal, en idioma español.) Marshall los ha interceptado mientras trataban de compartir números de teléfono, escribiendo las letras que corresponden a los dígitos en un teclado de teléfono.
Cuando un sitio bloqueó la palabra "love" (amor), dice Marshall, los niños la sustituyeron por la palabra "glove" (guante).
Este nivel de creatividad es una de las razones por las que la tecnología por sí sola nunca proporcionará suficiente protección, dice ella. "Los niños encontrarán una manera de comunicarse", dice, "y no puedes bloquear todas las palabras del diccionario".
Los tecnólogos están de acuerdo con ella. "No existe una bala de plata desde el punto de vista técnico que permita lograr eso", dice Smith, en Keibi. "Se trata de ayudar a los seres humanos a tomar una decisión acerca de si existe un problema".
Leslie Berlin es historiadora de proyectos para Silicon Valley Archives (Archivos de Silicon Valley), en Stanford. E-mail: prototype@nytimes.com.
© NYT Traducción de Ángela Atadía de Borghetti






