En teoría, TikTok solo está disponible para usuarios a partir de los 13 años de edad. Sin embargo, muchos niños y niñas por debajo de esa franja mienten para acceder a la popular plataforma de vídeo. Esa artimaña ha obligado a la compañía, propiedad del gigante chino ByteDance, a tomar medidas: cada mes elimina un total de seis millones de cuentas en todo el mundo sospechosas de ser operadas por menores, un ritmo y volumen de supresión que en tan solo cuatro meses superaría la base de usuarios que tiene en España, de 20 millones.
La presión crece sobre TikTok. El pasado 19 de febrero, la Comisión Europea abrió un procedimiento formal contra la aplicación para investigar si infringe la Ley de Servicios Digitales en ámbitos relacionados, entre otros, a la protección de los más pequeños y a la mitigación de los «efectos negativos» potencialmente causados por su algoritmo como las «adicciones de conducta». Dos meses después, las amenazas de Bruselas obligaron a la compañía a suspender TikTok Lite, que permitía a los usuarios cobrar por ver o publicar vídeos.
La necesidad de cumplir con esa regulación ha llevado a TikTok a acelerar la adopción de medidas que garanticen la seguridad de los usuarios más jóvenes. Con 175 millones de usuarios cada mes, la Unión Europea es el segundo mercado mundial más importante para la plataforma, solo por detrás de Estados Unidos. «Ganarse la confianza cuesta tiempo», confiesa Christine Grahn, directora de Relaciones Gubernamentales y Políticas Públicas de TikTok en Europa, en un encuentro con EL PERIÓDICO en Dublín, donde la compañía tiene su sede europea.
Restricción de los filtros de belleza
TikTok lleva meses adoptando medidas de protección con las que busca calmar a los reguladores. Así, la plataforma prohíbe que los usuarios de menos de 18 años puedan aplicar determinados filtros de belleza que alteran su apariencia física, como los que moldean los pómulos o amplifican los ojos, pues se considera que pueden contribuir al deterioro de su salud mental. A partir de ahora, los vídeos también incluyen una pestaña en la que se informa a los usuarios de qué efecto se ha aplicado en cada caso.
Esa medida se suma a otras aplicadas desde hace años. Es el caso de la preconfiguración privada de las cuentas de menores de edad, la función que permite conectar las cuentas de padres e hijos para así garantizar su supervisión o que aquellos que tienen 16 años o menos no puedan recibir mensajes directos para evitar casos de acoso online. «Apostamos por la seguridad por diseño para que la experiencia de los menores sea más restrictiva que para los adultos», explica Nikki Soo, directora de políticas públicas de seguridad y bienestar de TikTok en Europa.
Verificación de edad
Para crearse una cuenta en TikTok, los usuarios deben poner la fecha de su nacimiento. Aunque muchos menores de 13 años engañan ese sistema, la compañía asegura que verifica su edad para que no accedan a contenidos tóxicos y que se sirve de «una tecnología» no especificada para localizar y eliminar cuentas aparentemente legítimas tras las que podrían estar esos niños y niñas. Sin embargo, la Comisión Europea considera que esas herramientas «pueden no ser razonables, proporcionadas y eficaces».
Esa problemática está haciendo que cada vez más voces pidan introducir mecanismos de verificación de edad de los usuarios en Internet. Es lo que propone el Gobierno de España, pero también Meta. El pasado lunes, el gigante tecnológico que posee Facebook e Instagram planteó a Bruselas impulsar una normativa armonizada para que sean las tiendas de apps quienes detecten la edad de los usuarios y avisen a los padres para aprobar cualquier descarga.
¿Y TikTok? «Estamos estudiando varias fórmulas, pero faltan muchos detalles técnicos para que podamos decantarnos por una opción», asegura Chloe Setter, su responsable de políticas públicas de seguridad infantil en Europa. La pelota está en el tejado de los reguladores.