Recentemente, o LinkedIn divulgou seu Relatório de Transparência e afirmou que suas ferramentas automatizadas de segurança encontraram um grande número de contas falsas em 2019, das quais 93% foram bloqueadas.

De acordo com este relatório, houveram muitas tentativas de registro de contas falsas que foram feitas durante todo o ano passado, especialmente nos primeiros seis meses de 2019.

Por meio das ferramentas proativas do LinkedIn, 7,8 milhões de perfis falsos foram impedidas de serem criados nos últimos 6 meses de 2019, e suas equipes de segurança conseguiram capturar 3,4 milhões de contas fake. Eles também conseguiram restringir 85.600 contas que foram reportadas pelos membros.

Durante esse período, o uso dessa rede profissional sofreu um aumento considerável. Devido a esse aumento no uso, esperava-se também encontrar muitos ataques de spam e fraude. Mas o LinkedIn se orgulha da sua tecnologia e ferramentas avançadas, por meio das quais todas essas tentativas de fraude e spam foram interrompidas, e essas contas foram derrubadas antes que causassem danos à comunidade e aos membros.

Nesse percurso, outra coisa que aconteceu, no entanto, foi o aumento do conteúdo nocivo.

O LinkedIn conseguiu derrubar 500 casos de conteúdo contendo postagens ou comentários odiosos e depreciativos, 15.635 casos de assédio, 9337 casos de conteúdo contendo temas adultos, 1839 casos de conteúdo violento e explícito e, o pior de tudo, 167 casos de conteúdo que promove abuso e exploração infantil.

Embora as ferramentas do LinkedIn sejam bastante surpreendentes, os membros também tiveram um papel fundamental na limpeza da sujeira e do lixo da plataforma.

Os membros da comunidade fizeram 11.564 solicitações de remoção de conteúdo devido a violações de direitos autorais em um total de 290.170 solicitações para remoção de partes de conteúdo. O LinkedIn seguiu essas solicitações e, após a revisão, retirou 290.145 dos conteúdos relatados!

Todos esses esforços são ótimos passos para criar um ambiente seguro na plataforma. Tentativas de cibercrime e assédio fazem parte das mídias sociais, e ninguém está completamente seguro delas. Mas é bom saber que essas plataformas de mídia social estão ao menos tentando controlar essas ocorrências o máximo possível.

Neste relatório, há muito mais detalhes sobre a função proativa do LinkedIn e seu sistema eficiente para livrar-se de todo o lixo da plataforma. O documento também discute que novas ferramentas e recursos estão em processo de implantação para permitir que os membros desfrutem de uma experiência excelente e aprimorada.

O LinkedIn também reconheceu o papel dos membros que denunciaram conteúdo indesejado e mencionou que espera continuar recebendo feedback positivo e reforço por meio dos membros no futuro também.

Aparentemente, o LinkedIn não é a única plataforma que tomou alguma ação contra conteúdo nocivo.

Recentemente, o YouTube também anunciou várias políticas mais aprimoradas para limitar o assédio e o cibercrime o máximo possível. Eles chegaram a apresentar recursos através dos quais os criadores podem limitar o alcance de seus vídeos para minimizar as chances de assédio, além de um painel de revisão para criadores que podem julgar seus vídeos antes que eles sejam carregados no canal.

Os criadores do YouTube também poderão revisar manualmente todos os comentários em seus vídeos e optar por remover qualquer um que seja da se enquadre como abuso ou assédio.

É um alívio saber que gigantes da tecnologia como o LinkedIn e o YouTube estão tentando fornecer um ambiente saudável e seguro para seus milhões de usuários.

Fonte: Arooj Ahmed – Digital Information World

Deixe um comentário