TikTok está trabajando en nuevas formas de clasificar sus contenidos y restringirlos a ciertas audiencias según sus características y temáticas, con el objetivo de que los menores hallen mayores restricciones en el consumo de videos dirigidos a usuarios adultos.
La aplicación busca filtrar y organizar los videos en función de la «madurez del contenido y áreas temáticas más confortables» para los usuarios, según señaló la jefa de Políticas de Emisión de TikTok, Tracy Elizabeth, en declaraciones recogidas por Engadget.
La directiva ha indicado que, una vez puesto en marcha este sistema de clasificación, los contenidos que hayan sido identificados por contener temática adulta podrán ser restringidos a los usuarios según su edad para evitar que los adolescentes accedan a información dañina.
Por el contrario, para aquellos contenidos que contengan temas «menos maduros» o de temática abierta y no destinada concretamente a los adultos, los usuarios de la plataforma podrán decidir si visualizarlos u omitirlos.
Elizabeth señaló que el objetivo es el de ofrecer la posibilidad a los usuarios de elegir «la categoría con la que se sientan más cómodos» y, aunque solo ha comentado que se trata de un sistema «en fase de innovación», podría parecerse a una clasificación similar a la utilizada en películas o videojuegos.
Estas aclaraciones derivan de un reciente comunicado emitido por la plataforma en el que se detalla la actualización de las políticas que TikTok lleva a cabo para promover la seguridad y el bienestar en su servicio.
Sobre el aspecto comentado por Elizabeth, desde la plataforma han señalado que cuando encuentran contenido que puede no ser apropiado para todos los públicos, hacen todo lo posible para eliminarlo del sistema de recomendaciones.
«La transparencia con nuestra comunidad es importante para nosotros y estas actualizaciones aclaran o amplían los tipos de comportamiento y contenido que eliminaremos de nuestra plataforma o que no aparecerán en la sección de recomendaciones ‘Para ti'», señala el director de Confianza y Seguridad de la plataforma y firmante del escrito, Cormac Keenan.
Estas actualizaciones, que se implementarán en las próximas semanas, incluyen el fortalecimiento de su política de información falsa y retos peligrosos para ayudar a evitar que contenidos de este tipo continúen propagándose por la plataforma.
Aunque este aspecto formaba parte de la revisión de sus políticas de uso, con las que desarrolló en noviembre un nuevo recurso para su Centro de Seguridad, Keenan ha subrayado que ahora se destacará en un apartado separado de la categoría de suicidios y autolesiones para que la comunidad «se pueda familiarizar con estas normas».
Además, el directivo animó a la comunidad adolescente a colaborar en su trabajo por mantener la seguridad en la plataforma mediante la evaluación de retos ‘online’ que respondan a cuatro pasos: ‘Stop’ (Parar, tomar una pausa antes de continuar utilizando TikTok), ‘Think’ (Pensar, saber si se trata de un reto seguro, dañino o real), ‘Decide’ (Decidir, si hacerlo o no según el riesgo que implique) y ‘Act’ (Actuar, para informar a la plataforma sobre desafíos dañinos o engañosos, así como frenar su distribución).