Casos prácticos de comunidades en línea

Con una audiencia diaria de millones de usuarios, publica unas 150.000 opiniones al día

3.5M

MAU

30M

Visitas por mes

Desafío

La popularidad de la plataforma atrae todo tipo de abusos: spam, fraude, incitación al odio, vandalismo y mucho más. Esto somete al sistema de moderación de la plataforma a una tensión constante.

Por un lado, los contenidos ofensivos repelen a los usuarios (lo que les lleva a elegir otras plataformas) y crean riesgos legales para la empresa. Por otro lado, los baneos frecuentes hacen que la plataforma sea menos informativa y disuaden a los usuarios de visitarla. Dedicar tiempo a escribir una reseña válida y que luego sea rechazada es, obviamente, una experiencia de usuario decepcionante.

Con todo ello en mente, la plataforma consideró esencial crear un proceso de moderación coherente y transparente, y al mismo tiempo dificultar que los usuarios malintencionados engañaran al sistema.

Resultados

  • El sistema se adapta automáticamente y maneja los ataques de spam.

  • Se impide la publicación de más de 30.000 reseñas inapropiadas al día.

  • El coste de moderación por revisión se redujo en un 50%.

  • El número de reclamaciones al servicio de asistencia se redujo en un 35%.

  • La velocidad media de moderación ha aumentado un 70%.

  • La precisión de la moderación es constantemente superior al 97%.

Gracias a una moderación rápida y muy precisa, el servicio pudo mantener una comunidad sana y ofrecer una plataforma segura para comunicarse sobre diversos temas sociales. Al mismo tiempo, pudieron operar en más de 200 ciudades y 3 países culturalmente diversos sin temor a ofender a ningún usuario ni a que nadie hiciera un mal uso de la plataforma.

Solicitar prueba
Configuración de cookies
Al hacer clic en "Aceptar todo", aceptas el almacenamiento de cookies en tu dispositivo para mejorar la navegación por el sitio, analizar el uso del sitio y ayudar en nuestros esfuerzos de marketing.
Ve nuestra Política de privacidad para más información.