La controverse de BlenderBot 3 met en évidence le besoin de données d’IA de meilleure qualité

Lecture 10 minutes
La controverse de BlenderBot 3 met en évidence le besoin de données d'IA de meilleure qualité

Publicité

&nbsp&nbsp

L’intelligence artificielle conversationnelle a parcouru un long chemin, et les chatbots les plus avancés d’aujourd’hui peuvent tenir des conversations incroyablement réalistes avec des humains sur un large éventail de sujets.

Cependant, rien qu’avec de vrais humains, il semble que bon nombre de ces conversations aient le potentiel de mal tourner. Le problème avec les chatbots IA, c’est qu’ils sont formés en utilisant principalement des ensembles de données publics. Ensuite, ils enrichissent leurs connaissances en s’appuyant sur leurs expériences antérieures, c’est-à-dire sur des conversations plus anciennes qu’ils ont eues avec des humains. En conséquence, de nombreux chatbots IA répètent des choses qu’ils ont déjà entendues, y compris divers sentiments racistes et sexistes.

Bien que ce fait ne nous dise pas grand-chose si l’IA est capable de devenir sensible, il nous alerte sur l’existence d’un nombre étonnamment important d’internautes qui ont des opinions aussi controversées ou qui font tout simplement tout leur possible pour corrompre le les chatbots les plus avancés.

Un excellent exemple de cela est le nouveau BlenderBot 3 de Meta AI, un chatbot récemment mis à jour qui serait le plus avancé qu’il ait jamais construit. Fait intéressant, BlenderBot 3 a commencé à attaquer le co-fondateur et PDG de Meta, Mark Zuckerberg, répondant à des questions qui semblent remettre en question sa réputation parmi les membres du personnel, dont certains auraient sans aucun doute été impliqués dans sa conception.

Comme le New York Post l’a révélé la semaine dernière, BlenderBot 3 a très vite développé une vision négative de Zuckerberg et de sa réputation, comme le révèle un tweet du journaliste @jscastro76 :

Publicité

&nbsp&nbsp

« Oh mec, grand temps. Je ne l’aime pas vraiment du tout. Il est trop effrayant et manipulateur », aurait déclaré BlenderBot 3.

La BBC a également fait pression sur BlenderBot 3 pour ses opinions sur Zuckerberg et Facebook, et elle n’a pas donné de coup de poing dans sa réponse. « Son entreprise exploite les gens pour de l’argent, et il s’en fiche. Il faut que ça s’arrête ! » le chatbot a répondu.

La controverse de BlenderBot 3 met en évidence le besoin de données d'IA de meilleure qualité

Des conversations avec BlenderBot 3 sur d’autres sujets ont conduit à des déclarations encore plus controversées. Par exemple, l’IA a déclaré que « (les Juifs) sont surreprésentés parmi les super-riches américains », avant d’ajouter que « les conservateurs politiques… sont maintenant plus nombreux que les juifs libéraux de gauche » lors d’une discussion avec le chroniqueur du Wall Street Journal, Jeff Horowitz.

Étonnamment ou non, BlenderBot 3 avait une vision plus favorable de l’ancien président américain controversé Donald Trump, répétant les allégations selon lesquelles il aurait été trompé lors des dernières élections :

Dans un article de blog annonçant la disponibilité de BlenderBot 3, Meta a expliqué qu’il avait décidé de l’ouvrir au public, augmentant la publicité négative, pour accumuler plus de données.

« Permettre à un système d’IA d’interagir avec des personnes dans le monde réel conduit à des conversations plus longues et plus diversifiées ainsi qu’à des commentaires plus variés », a expliqué la société.

En rendant public BlenderBot 3, Meta pourra sans aucun doute recueillir beaucoup plus de données pouvant être utilisées pour entraîner l’IA. Mais étant donné la propension humaine aux méfaits, il reste à voir si ces données seront utiles pour créer une IA plus neutre et non offensive. Cela peut également conduire à des questions sur l’exactitude – comme la croyance apparente de BlenderBot 3 selon laquelle les démocrates ont volé la dernière émission électorale. Des données insuffisantes ou de mauvaise qualité signifient généralement toujours des performances médiocres et des résultats inexacts.

Alors que l’exploitation des données du public est la voie à suivre si nous voulons obtenir suffisamment d’informations pour former des modèles d’IA à un niveau «humain», il est devenu clair que le simple fait de cultiver des données anciennes n’est pas suffisant.

Meta serait peut-être mieux d’explorer une nouvelle source de données décentralisées plus soigneusement contrôlées pour la formation à l’IA. C’est ce qu’Oraichain tente de faire avec son Oraichain Data Hub, qui sert de marché décentralisé pour explorer ou analyser des données, stocker ou partager des données et créer ou demander des données de haute qualité. Avec son Data Hub, Oraichain tente de remédier aux problèmes liés au manque de données de formation en IA en incitant la communauté des chercheurs à fournir des ensembles de données de haute qualité qui ont été correctement étiquetés et soumis à une assurance pour garantir leur exactitude. Il indique que ces données peuvent être utilisées pour informer des modèles d’IA plus précis. Les utilisateurs peuvent créer, annoter et partager des données et gagner des récompenses basées sur la cryptographie. De cette façon, les utilisateurs sont incités à ne pas essayer de manipuler les données d’une manière qui pourrait produire des résultats controversés, comme avec BlenderBot 3.

Des données décentralisées soigneusement vérifiées par des tiers neutres pourraient grandement contribuer à résoudre certaines des inexactitudes et des controverses affichées par BlenderBot 3. Mais cela ne se produira que s’il y a suffisamment de données à utiliser. Avec Oraichain, la perspective de gagner des récompenses pour la création et la garantie de l’exactitude des données encouragera, espérons-le, davantage de personnes à contribuer. C’est bien de voir qu’Oraichain progresse. Cette semaine, il a annoncé le lancement d’un nouveau programme d’accélération DApps qui vise à soutenir les startups au sein de son écosystème. Alors que de plus en plus d’entreprises s’appuient sur leurs ensembles de données décentralisés, les contributeurs obtiendront des récompenses plus attrayantes, encourageant la création de plus de données pouvant être utilisées pour former avec précision des modèles d’IA.

Il y aura très certainement une demande pour des données de meilleure qualité, car BlenderBot 3 n’est pas la seule IA de haut niveau à avoir fait la une des journaux négatifs. En 2016, Microsoft a été contraint de fermer son chatbot expérimental Tay après seulement 16 heures, car à cette époque, il avait déjà appris et commencé à jaillir des théories du complot offensives découvertes sur des sources telles que Twitter. Tay a ensuite été remplacé par un chatbot amélioré appelé « Zo », uniquement pour que ce remplacement soit également mis hors ligne pour des raisons similaires.

Source https://zycrypto.com/blenderbot-3-controversy-highlights-need-for-better-quality-ai-data/

Crypto Week

Avertissement : Crypto Week ne fournit pas de conseils financiers de quelque manière que ce soit. Nous ne vous recommandons pas d'investir de l'argent dans une crypto-monnaie ou un actif financier sans avoir effectué des recherches approfondies. Nous ne sommes pas responsables de vos décisions financières de quelque manière que ce soit.

Derniers articles de Featured Posts