X laisse les bots AI écrire des cochés de faits – voici pourquoi il pourrait se retourner contre lui
La plate-forme de médias sociaux d'Elon Musk X prend l'initiative lorsqu'il s'agit de lutter contre la désinformation: cela donne à l'intelligence artificielle le pouvoir d'écrire des notes communautaires; Ce sont les fulgues de vérification des faits qui ajoutent du contexte aux poteaux viraux.
Et bien que les humains obtiennent toujours le dernier mot, ce changement pourrait changer la façon dont la vérité est contrôlée en ligne.
Voici ce qui se passe et pourquoi cela compte à quiconque fait défiler X (anciennement Twitter).
Qu'est-ce qui change réellement?
X pilote actuellement un programme qui permet aux bots de bots de bots de notes de la communauté. Les développeurs tiers peuvent s'appliquer pour construire ces robots, et si l'IA réussit une série de tests de «note de pratique», il peut être autorisé à soumettre le contenu de vérification des faits en temps réel aux publications publiques.
La revue humaine ne disparaît pas. Avant qu'une note n'apparaisse sur un post, elle doit encore être notée «utile» par un groupe diversifié d'utilisateurs réels et a donné une surveillance appropriée. C'est ainsi que le système de notes communautaires de X a fonctionné depuis le début, et il reste en place même avec des bots dans le mélange (pour l'instant).
L'objectif est la vitesse et l'échelle. À l'heure actuelle, des centaines de notes écrites par l'homme sont publiées quotidiennement.
Mais l'IA pourrait pousser ce nombre beaucoup plus élevé, en particulier lors des principaux événements d'actualités lorsque les messages trompeurs se répartissent plus rapidement que les humains peuvent suivre.
Pourquoi cette décision est importante
Pouvons-nous faire confiance à l'IA pour gérer la précision? Oui, les robots peuvent signaler rapidement la désinformation, mais l'IA générative est loin d'être parfaite. Les modèles de langue peuvent halluciner, mal interpréter le ton ou mal cibler. C'est pourquoi la couche de vote humaine est si importante. Pourtant, si le volume de notes rédigées AI submerge les examinateurs, les mauvaises informations pourraient passer.
X n'est pas la seule plate-forme à utiliser la vérification des faits communautaires. Reddit, Facebook et Tiktok ont également exploré des systèmes similaires.
Mais l'automatisation de la rédaction de ces notes est une première, ce qui ouvrant une question plus importante pour savoir si nous sommes prêts à remettre notre confiance dans les bots.
Musk a publiquement critiqué le système lorsqu'il se heurte à ses opinions. Laisser l'IA dans le processus augmente les enjeux: il pourrait suralimenter la lutte contre la désinformation, ou devenir un nouveau vecteur de biais et d'erreur.
Quand cela va-t-il en direct et cela fonctionnera-t-il réellement?
La fonctionnalité des notes d'IA est toujours en mode test, mais X dit qu'elle pourrait être déployée plus tard ce mois-ci.
Pour que cela fonctionne, la transparence est essentielle, avec une approche hybride de l'homme et du bot travaillant ensemble. L'une des forces des notes de la communauté est qu'elles ne se sentent pas condescendantes ou corporatives. L'IA pourrait changer cela.
Des études montrent que les notes de la communauté réduisent la propagation de la désinformation de 60%. Mais la vitesse a toujours été un défi. Cette approche hybride, IA pour l'échelle, les humains pour la surveillance, pourrait trouver un nouvel équilibre.
Fin de compte
X essaie quelque chose qu'aucune autre plate-forme majeure n'a tenté: la mise à l'échelle du contexte avec l'IA, sans (entièrement) en supprimant l'élément humain.
S'il réussit, il pourrait devenir un nouveau modèle pour la façon dont la vérité est maintenue en ligne. S'il échoue, il pourrait inonder la plate-forme de notes déroutantes ou biaisées.
Quoi qu'il en soit, c'est un aperçu de l'avenir de ce à quoi ressemble les informations dans votre flux et encourage à poser la question de savoir combien vous pouvez faire confiance à l'IA.






