Voltar aos casos
Estudos de caso
para comunidades em linha
Com uma audiência diária de milhões de utilizadores, publica cerca de 150 mil críticas por dia
Números de clientes
3.5M
MAU
30M
Visitas por mês
Desafio
A popularidade da plataforma atrai todo o tipo de abusos: spam, fraude, discurso de ódio, vandalismo, entre outros. Isto coloca o sistema de moderação da plataforma sob constante tensão.
Por um lado, o conteúdo ofensivo repele os utilizadores (levando-os a escolher outras plataformas) e cria riscos legais para a empresa. Por outro lado, as proibições frequentes tornam a plataforma menos informativa e desencorajam os utilizadores de a visitarem. Gastar o seu tempo a escrever uma crítica válida e depois vê-la rejeitada é obviamente uma experiência de utilizador dececionante.
Com tudo isto em mente, a plataforma sentiu que era essencial construir um processo de moderação consistente e transparente, ao mesmo tempo que dificultava que utilizadores maliciosos enganassem o sistema.
Por um lado, o conteúdo ofensivo repele os utilizadores (levando-os a escolher outras plataformas) e cria riscos legais para a empresa. Por outro lado, as proibições frequentes tornam a plataforma menos informativa e desencorajam os utilizadores de a visitarem. Gastar o seu tempo a escrever uma crítica válida e depois vê-la rejeitada é obviamente uma experiência de utilizador dececionante.
Com tudo isto em mente, a plataforma sentiu que era essencial construir um processo de moderação consistente e transparente, ao mesmo tempo que dificultava que utilizadores maliciosos enganassem o sistema.
Soluções usadas
Moderação de mensagens e comentários
Detetar spam, nudez, profanação,
clickbait e muito mais.
Sobre a soluçãoclickbait e muito mais.
Deteção de produtos e serviços proibidos
Identificar bens e serviços que violam a lei ou as regras da sua plataforma.
Sobre a solução