samedi, 06 mai 2017 04:27

Images ou vidéos violentes : Facebook recrute 3000 modérateurs de plus

En réponse aux suicide en direct survenu récemment et, qui a choqué toute la toile, Facebook embauche 3 000 modérateurs de plus pour mieux contrôler la violence en ligne.

À la suite d'un certain nombre d'incidents très importants impliquant des utilisateurs de Facebook qui se font du mal à eux-mêmes et d'autres personnes postant des vidéos dites "choc", la société a décidé d'ajouter des milliers de nouveaux modérateurs pour réviser et signaler les contenus à caractère violent.

Le PDG de Facebook, Mark Zuckerberg, a annoncé aujourd'hui que la société ajouterait 3 000 modérateurs

Le patron du réseau social leader qui compte aujourd'hui presque 2 milliards d'utilisateurs a décidé d'augmenter le nombre de modérateurs de son équipe d'opérations communautaires en réponse aux récentes vidéos violentes de suicide en ligne et de meurtre en direct.

"Si nous voulons construire une communauté sûre, nous devons répondre rapidement", a déclaré Zuckerberg. "Nous travaillons à rendre ces vidéos plus faciles à signaler, afin que nous puissions prendre les bonnes mesures plus tôt. Que ce soit lorsque quelqu'un demande de l'aide ou soit en train de publier un message."

Les nouveaux examinateurs - qui rejoignent les 4500 modérateurs actuels - travailleront à supprimer les messages incluant des discours haineux et/ou l'exploitation des enfants, tout en travaillant avec des groupes communautaires et des organismes d'application de la loi qui sont les mieux placés pour aider quelqu'un si nécessaire.

Par exemple, Zuckerberg a souligné la situation de la semaine dernière où un modérateur a vu quelqu'un sur Facebook Live envisageant de se suicider. Ce dernier a alors pu contacté les forces de l'ordre locales qui ont pu empêcher la personne de se blesser.

Zuckerberg affirme que, en plus d'embaucher plus de modérateurs, Facebook continuera à construire d'autres outils qui rendront plus simple le rapport des problèmes et permettra aux modérateurs d'examiner plus rapidement les messages pour faciliter l'accès aux responsables de l'application de la loi.
"Personne ne devrait être dans cette situation en premier lieu, mais si c'est le cas, nous devrions construire une communauté sûre qui leur procure l'aide dont ils ont besoin", a-t-il déclaré.

Bien que Zuckerberg ne spécifie pas les incidents qui ont suscité ce changement, son entreprise a essuyé beaucoup de critiques sur plusieurs vidéos Live récentes.

Le mois dernier, la société a reçu des critiques sur le temps qu'il lui fallait pour dépublier une vidéo montrant un homme qui tirait et tuait un autre homme âgé à Cleveland. Le suspect de cet incident a enregistré l'altercation et l'a posté sur Facebook. L'enregistrement était alors resté en ligne pendant plusieurs heures.

La plateforme de médias sociaux a également reçu de lourdes critiques pour plusieurs vidéos dans lesquelles les utilisateurs ont commis ou tenté de se suicider. La semaine dernière, Alabama.com rapporte, qu'un homme s'est suicidé sur Facebook Live.

Plus de sécurité ? A voir..

Le jeune public étant l'un des profils principaux de Facebook et, devant la recrudescences des actes de violences postés en ligne, il était temps que le géant du réseau social prenne le taureau par les cornes et revoit son outil de modération. La décision récente de Facebook, rassure bon nombre de gens, notamment les parents les plus inquiets.

Reste à savoir si cela sera utile et efficace. N'oublions pas que seuls des outils adaptés peuvent servir de filtres et que parfois, la main humaine ne suffit pas. Cela explique notamment le "boom" des logiciels espions capables de surveiller quelles vidéos ou quelles images sont visualisées par l'utilisateur du téléphone portable ou de la tablette.