En Colombia, 6 de cada 10 mujeres entre los 18 y 40 años han sido víctimas de acoso digital, según datos reportados en el Ranking PAR al Ministerio TIC, un fenómeno que incluye prácticas como la difusión no consentida de contenido íntimo. Como parte de sus esfuerzos por fortalecer la seguridad en línea, Google anunció una actualización en el Buscador, ya disponible en Colombia, que permite a las personas afectadas por la difusión no consentida de imágenes íntimas actuar con mayor rapidez y control sobre los resultados que aparecen.
La actualización simplifica el proceso de reporte e incorpora un mecanismo para mayor protección. El nuevo proceso permite activar medidas que proactivamente bloquean cualquier resultado explícito adicional que pueda aparecer en búsquedas similares.
Esta mejora responde a uno de los principales obstáculos en estos casos: la necesidad de realizar procesos manuales repetitivos. Ahora, quienes reportan pueden seleccionar múltiples imágenes dentro de una misma solicitud, sin tener que completar formularios individuales por cada enlace.
El proceso comienza directamente en Google Search. Al identificar un resultado que muestre una imagen íntima sin consentimiento, el usuario puede hacer clic en los tres puntos que aparecen junto al resultado y seleccionar la opción para eliminar contenido personal o íntimo.
También puedes activar protecciones adicionales. Durante el proceso de reporte, los usuarios pueden activar salvaguardas adicionales. Una vez habilitadas, el sistema ayuda a ocultar automáticamente nuevos resultados explícitos que coincidan con esas búsquedas, reduciendo la reaparición de este tipo de contenido.
- Un proceso rápido y sencillo: Para iniciar la solicitud, el usuario debe hacer clic en los tres puntos junto al resultado, seleccionar “Eliminar resultado” y elegir la opción correspondiente a contenido íntimo o sexual sin consentimiento.
- Reportar varias imágenes en una sola solicitud: La actualización permite seleccionar y enviar múltiples enlaces dentro de un único formulario.
- Protección continua: El proceso incluye la opción de activar salvaguardas que ayudan a filtrar automáticamente resultados explícitos adicionales que puedan aparecer en búsquedas similares en el futuro.
Para gestionar estas solicitudes, Google integró la función en el espacio “Resultados sobre ti”. Desde allí, los usuarios pueden consultar el estado de todas sus solicitudes de eliminación en un solo lugar.
Además, después de enviar una solicitud, el sistema muestra enlaces a organizaciones especializadas que brindan apoyo emocional y orientación legal, reconociendo que la eliminación de enlaces es solo una parte del acompañamiento necesario.
Comprometidos con un ecosistema más seguro
Este anuncio refuerza las medidas proactivas de Google para prevenir contenido dañino en sus plataformas. En productos de IA generativa como Gemini, se prohíbe la creación de imágenes íntimas sin consentimiento (NCII) y otros contenidos restringidos, siguiendo nuestras políticas de uso de IA generativa, que establecen restricciones sobre contenido sexual explícito o pornográfico. La seguridad se integra desde el diseño: se prioriza la protección infantil y aplicamos nuestros principios de IA responsable, que incluyen estándares como barreras técnicas para bloquear material de abuso sexual infantil y otro contenido dañino.
Además, todas las imágenes generadas en Gemini incluyen una marca de agua digital imperceptible mediante Google SynthID, una tecnología desarrollada por Google que permite identificar contenido generado por IA mediante marcas digitales integradas en la imagen sin afectar su apariencia visual.

