NoticiasTecnología

TikTok anuncia nueva la función «Para ti» en el feed

TikTok anuncio una nueva función que permite a los usuarios actualizar su feed «Para ti» si sus recomendaciones ya no les parecen relevantes o les interesa ver nuevos contenidos. También presentamos otra actualización para evitar las recomendaciones repetitivas, ya que buscamos fomentar un equilibiro entre la autoexpresión y ofrecer una experiencia de visualización agradable.

Una opción para empezar en TikTok desde cero

En TikTok, los feeds «Para Ti» ayudan a la gente a descubrir una diversidad de contenidos, creadores, comunidades y productos.

Pero también sabemos que hay momentos en los que las recomendaciones ya no son relevantes para los usuarios, o no proporcionan suficiente variedad de contenidos. Por eso, estamos poniendo en marcha una nueva forma de actualizar las recomendaciones del feed «Para ti». Cuando se activa esta función permite al usuario ver el contenido de su feed «Para ti» como si se acabara de registrar en TikTok, por lo que nuestro sistema de recomendaciones comenzará a mostrar más contenido basado en nuevas interacciones.

Esta función se suma a una serie de controles de contenidos que nuestra comunidad ya tiene habilitados para configurar su experiencia en la plataforma. Por ejemplo, los usuarios pueden filtrar automáticamente los vídeos que utilicen hashtags o frases específicas de sus feeds de «Para ti» y, seleccionar «no me interesa» para saltarse futuros vídeos de un creador en concreto o que utilicen un sonido determinado. Activar la actualización no anulará ninguna configuración que ya hayas elegido ni afectará a las cuentas que sigues.

Cómo trabajamos para ofrecer una experiencia de visualización agradable

Trabajamos constantemente para ofrecer una experiencia visual agradable, y adoptamos múltiples enfoques para ayudar a salvaguardar nuestra plataforma, por ejemplo:

Cómo resolvemos los patrones repetitivos

Un reto inherente a cualquier sistema de recomendación es garantizar que la amplitud de los contenidos que se muestran al espectador no sea demasiado limitada o repetitiva. Nos enfocamos en este reto y trabajamos para diseñar un sistema que intercala una variedad de temas. Por ejemplo, no solemos ofrecer a los espectadores dos vídeos seguidos del mismo creador o con el mismo sonido, e intentamos evitar mostrarles algo que ya hayan visto antes.

Además, trabajamos para establecer de manera cuidadosa ciertos límites a algunos contenidos que no infringen nuestras políticas, pero que pueden afectar a la experiencia de los usuarios si se ven repetidamente, sobre todo cuando se trata de contenidos con temas de tristeza, ejercicio o dietas extremas, o que pueden ser sexualmente sugerentes.

Entendemos que la gente se expresa de todas las maneras posibles en TikTok, incluso cuando se sienten tristes o están pasando por una experiencia difícil en sus vidas. Los expertos constantemente señalan que cerrar la posibilidad de expresarse puede aumentar la sensación de aislamiento y estigmatización, y que compartir estas experiencias permite que las personas vean cómo otros afrontan emociones difíciles, lo cual puede ser beneficioso, especialmente para los adolescentes. Teniendo esto en cuenta, nuestro enfoque consiste en eliminar contenidos que promuevan o glorifiquen la autolesión o no cumplan nuestras otras políticas. Sin embargo, permitimos contenidos de recuperación o educativos, pero limitando la frecuencia con la que dichos contenidos pueden ser recomendados.

Nuestros sistemas de tecnología hacen esto buscando  la repetición de temas, como la tristeza o las dietas extremas, dentro de un conjunto de videos que pueden ser elegidos para ser recomendados. Si se identifican varios vídeos con estos temas, se sustituirán por vídeos sobre otros temas para reducir la frecuencia de estas recomendaciones y crear una experiencia de descubrimiento más diversa. Este trabajo sigue en curso y, sólo en el último año, hemos realizado más de 15 actualizaciones para mejorar estos sistemas, además de que hemos ampliado la compatibilidad con más idiomas.

Nuestros equipos de seguridad y productos trabajan en conjunto para impulsar este trabajo, que se basa en investigaciones académicas y en consultas con expertos de la Asociación Internacional para la Prevención del Suicidio, la Asociación Nacional de Trastornos Alimentarios, el Laboratorio de Bienestar Digital del Hospital Infantil de Boston, Stanford Brainstorm y Ethical Resolve. Seguiremos esforzándonos por recomendar una diversidad de contenidos que permita una experiencia de descubrimiento enriquecedora. Estamos decididos a proporcionar un espacio acogedor para la autoexpresión y un entorno agradable para nuestra comunidad.

Carlos Cantor

Carlos Cantor

GeekAdicto
Ingeniero industrial apasionado por la tecnología. Colombiano amante de la cerveza. Adicto a los E-sports.