AccueilTechnologie scientifiqueFacebook AI : confondez les vidéos de tournage et les jeux de paintball

Facebook AI : confondez les vidéos de tournage et les jeux de paintball

Le PDG de Facebook, Mark Zuckerberg, a fait une déclaration optimiste il y a trois ans lorsqu'il a fait référence aux progrès de son entreprise dans les outils de surveillance automatisés (IA) basés sur l'intelligence artificielle. « D'ici la fin de 2019, nous prévoyons d'avoir formé nos systèmes pour empêcher la détection de la grande majorité des contenus problématiques », a-t-il déclaré en novembre 2018.

IA Facebook

Voir également: Facebook : contredit les affirmations selon lesquelles l'IA ne combat pas la désinformation

Mais juste en mars, des documents internes de Facebook ont ​​révélé que l'entreprise a constaté que ses outils de surveillance automatisés de l'IA ne fonctionnaient pas avec des taux de réussite élevés, supprimant les publications qui n'étaient responsables que d'une petite fraction des discours de haine, de violence et d'incitation sur la plate-forme. . Les publications supprimées des outils d'intelligence artificielle (IA) ne représentaient que 3 à 5 % des projections de discours de haine et 0,6 % des vues sur la violence et l'incitation.

Facebook prend un échantillon de publications, leur applique des outils d'intelligence artificielle, puis demande aux modérateurs d'évaluer la précision de l'IA. Il utilise ensuite cette fraction pour estimer combien de discours haineux ou de violence et d'incitation sont perdus sur la plate-forme.

Différentes statistiques

La vision interne de Facebook sur les outils de mesure de l'intelligence artificielle (IA) semble beaucoup plus pessimiste qu'elle ne le dit au public. Le fait est que ce dont il discute en interne communique d'une manière complètement différente au public. Dans des déclarations, Facebook a révélé le pourcentage de rhétorique haineuse que l'IA a découvert avant de signaler les utilisateurs, ce qui est un nombre très élevé, 98%. Le problème est qu'il existe de nombreux cas où les propos haineux ne sont pas signalés par les utilisateurs.

Voir également: Facebook : embauchera 10.000 XNUMX dans l'UE pour le métaverse

Le porte-parole de la société, Andy Stone, a déclaré au WSJ que les données sur les publications supprimées n'incluaient aucune autre action entreprise par la plate-forme, telle que la réduction de la portée du contenu suspect. Dans ce contexte, a-t-il déclaré, le contenu qui enfreint la politique diminue en fréquence et c'est ce avec quoi l'entreprise se juge.

Facebook a déclaré avoir amélioré la recherche de discours de haine sur sa plateforme, affirmant avoir supprimé 15 fois plus de contenu en 2020 qu'en 2017. Cependant, ce nombre cache certains détails clés car cette déclaration est trop générale.

Difficile à mentionner

Aujourd'hui, les outils d'intelligence artificielle (IA) de Facebook peuvent attirer plus de contenu avant que les utilisateurs ne le signalent, car il y a deux ans, Facebook rendait délibérément difficile le signalement des utilisateurs. Un effet secondaire était que les outils d'IA étaient désormais capables de capturer plus de messages avant qu'ils ne soient finalement signalés par les utilisateurs.

Voir également: Facebook : Photos de son matériel VR d'origine

Confusion de l'intelligence artificielle (IA)

Les documents internes de Facebook révèlent à quel point les outils de mesure de l'intelligence artificielle sont loin de trouver que les modérateurs étaient faciles à repérer. Les combats de coqs, par exemple, ont été identifiés à tort par AI comme un accident de voiture. Dans un autre cas, des vidéos diffusées en direct par des tireurs de masse ont été étiquetées par des outils d'intelligence artificielle comme des jeux de paintball ou des sons de lave-auto.

Des rapports internes indiquent que les utilisateurs de Facebook préféreraient que l'entreprise adopte une approche plus agressive pour appliquer les politiques de discours de haine, de violence et d'incitation, même si cela signifie supprimer davantage de messages innocents. Dans une enquête, les utilisateurs du monde entier ont déclaré que la suppression de contenu inexact était l'une de leurs préoccupations les moins courantes, et que les discours de haine et de violence devraient être la priorité absolue de l'entreprise. À USA, plusieurs utilisateurs considéraient que la suppression de contenu inexact était un sujet de discussion, mais les propos haineux et la violence restaient le principal problème.

Source d'information: arstechnica.com

Teo Ehchttps://www.secnews.gr
Soyez l'édition limitée.
spot_img

NOUVELLES EN DIRECT