180409000412-cnnmoney-youtube-kids-large-169.jpg
Dans un nouveau rapport publié lundi, YouTube a déclaré avoir supprimé plus de 8 millions de vidéos entre octobre et décembre 2017 pour avoir enfreint les consignes de la communauté. La majorité des vidéos étaient des spams ou des personnes essayant de télécharger du « contenu pour adultes ».

L’information a été incluse dans le premier rapport trimestriel de YouTube sur l’application de ses directives communautaires. « Cette mise à jour régulière nous aidera à montrer les progrès que nous réalisons en supprimant le contenu illicite de notre plate-forme », a déclaré le site de partage de vidéos dans un article de blog.

Selon le rapport, les ordinateurs détectent la plupart des vidéos qui finissent par être supprimées. Il a déclaré que 6,7 millions de vidéos ont été signalées pour la première fois par des machines et non par des humains. Parmi ceux-ci, 76% ont été retirés avant de recevoir des vues des utilisateurs.

Ces derniers temps, YouTube a été confronté à des critiques de la part de critiques et d’annonceurs qui affirment que la société a du mal à aborder le contenu offensant sur son site.

YouTube a également déclaré qu’il ajoutera plus de détails aux rapports trimestriels d’ici la fin de l’année, tels que des informations sur les commentaires, la rapidité du retrait et les raisons de l’élimination des politiques. YouTube a également annoncé un tableau de bord « Historique des rapports » dans lequel les utilisateurs peuvent consulter l’état des vidéos qu’ils ont marquées pour examen. Lundi, la société mère de Google, Alphabet, a déclaré que les bénéfices ont atteint 9,4 milliards de dollars au cours des trois premiers mois de 2018, ce qui représente une forte hausse par rapport aux 5,4 milliards de dollars enregistrés il y a un an.

 

 

Publicités