Les projets ancrés dans l’intelligence artificielle (IA) deviennent rapidement partie intégrante du paradigme technologique moderne, facilitant les processus de prise de décision dans divers secteurs, de la finance à la santé. Cependant, malgré les progrès significatifs, les systèmes d’IA ne sont pas sans défauts. L’un des problèmes les plus critiques auxquels l’IA est confrontée aujourd’hui est celui des biais de données, qui font référence à la présence d’erreurs systémiques dans un ensemble donné d’informations conduisant à des résultats biaisés lors de la formation de modèles d’apprentissage automatique.
Comme les systèmes d’IA dépendent fortement des données ; la qualité des données d’entrée est de la plus haute importance car tout type d’information biaisée peut entraîner des préjugés au sein du système. Cela peut encore perpétuer la discrimination et les inégalités dans la société. Par conséquent, il est essentiel de garantir l’intégrité et l’objectivité des données.
Par exemple, un article récent explore comment les images générées par l’IA, en particulier celles créées à partir d’ensembles de données dominés par des sources d’influence américaine, peuvent déformer et homogénéiser le contexte culturel des expressions faciales. Il cite plusieurs exemples de soldats ou de guerriers de diverses périodes historiques, tous avec le même sourire à l’américaine.
De plus, le biais omniprésent ne parvient pas seulement à saisir la diversité et les nuances de l’expression humaine, mais risque également d’effacer les histoires et les significations culturelles vitales, affectant ainsi potentiellement la santé mentale, le bien-être et la richesse des expériences humaines. Pour atténuer une telle partialité, il est essentiel d’incorporer des ensembles de données divers et représentatifs dans les processus de formation à l’IA.
Plusieurs facteurs contribuent aux données biaisées dans les systèmes d’IA. Premièrement, le processus de collecte lui-même peut être défectueux, les échantillons n’étant pas représentatifs de la population cible. Cela peut conduire à la sous-représentation ou à la surreprésentation de certains groupes. Deuxièmement, les biais historiques peuvent s’infiltrer dans les données de formation, ce qui peut perpétuer les préjugés sociétaux existants. Par exemple, les systèmes d’IA entraînés sur des données historiques biaisées peuvent continuer à renforcer les stéréotypes sexistes ou raciaux.
Enfin, des préjugés humains peuvent être introduits par inadvertance lors du processus d’étiquetage des données, car les étiqueteurs peuvent abriter des préjugés inconscients. Le choix des caractéristiques ou des variables utilisées dans les modèles d’IA peut entraîner des résultats biaisés, car certaines caractéristiques peuvent être plus corrélées avec certains groupes, entraînant un traitement injuste. Pour atténuer ces problèmes, les chercheurs et les praticiens doivent être conscients des sources potentielles d’objectivité biaisée et travailler activement à les éliminer.
La blockchain peut-elle rendre possible une IA impartiale ?
Bien que la technologie blockchain puisse aider à certains aspects de la neutralité des systèmes d’IA, ce n’est en aucun cas une panacée pour éliminer complètement les préjugés. Les systèmes d’IA, tels que les modèles d’apprentissage automatique, peuvent développer certaines tendances discriminatoires en fonction des données sur lesquelles ils sont formés. De plus, si les données de formation contiennent diverses prédispositions, le système les apprendra probablement et les reproduira dans ses sorties.
Cela dit, la technologie blockchain peut contribuer à résoudre les biais de l’IA à sa manière. Par exemple, cela peut aider à garantir la provenance et la transparence des données. Les systèmes décentralisés peuvent suivre l’origine des données utilisées pour former les systèmes d’IA, garantissant ainsi la transparence du processus de collecte et d’agrégation des informations. Cela peut aider les parties prenantes à identifier les sources potentielles de biais et à y remédier.
Récent : Pourquoi rejoindre une guilde de jeu blockchain ? Amusez-vous, profitez et créez de meilleurs jeux
De même, les chaînes de blocs peuvent faciliter le partage de données sécurisé et efficace entre plusieurs parties, permettant le développement d’ensembles de données plus diversifiés et représentatifs.
De plus, en décentralisant le processus de formation, la blockchain peut permettre à plusieurs parties d’apporter leurs propres informations et expertise, ce qui peut aider à atténuer l’influence de toute perspective biaisée.
Le maintien de la neutralité objective nécessite une attention particulière aux différentes étapes du développement de l’IA, y compris la collecte de données, la formation de modèles et l’évaluation. De plus, la surveillance et la mise à jour continues des systèmes d’IA sont essentielles pour lutter contre les préjugés potentiels qui peuvent survenir au fil du temps.
Pour mieux comprendre si la technologie blockchain peut rendre les systèmes d’IA complètement neutres, Cointelegraph a contacté Ben Goertzel, fondateur et PDG de SingularityNET – un projet combinant intelligence artificielle et blockchain.
Selon lui, le concept d’« objectivité complète » n’est pas vraiment utile dans le contexte de systèmes d’intelligence finie analysant des ensembles de données finis.
«Ce que les systèmes blockchain et Web3 peuvent offrir, ce n’est pas une objectivité totale ou un manque de parti pris, mais plutôt une transparence afin que les utilisateurs puissent voir clairement quel parti pris un système d’IA a. Il offre également une configurabilité ouverte afin qu’une communauté d’utilisateurs puisse modifier un modèle d’IA pour avoir le type de biais qu’elle préfère et voir de manière transparente quel type de biais il reflète », a-t-il déclaré.
Il a en outre déclaré que dans le domaine de la recherche sur l’IA, « parti pris » n’est pas un gros mot. Au lieu de cela, cela indique simplement l’orientation d’un système d’IA à la recherche de certains modèles dans les données. Cela dit, Goertzel a reconnu que les biais opaques imposés par les organisations centralisées aux utilisateurs qui n’en sont pas conscients – mais qui sont guidés et influencés par eux – sont quelque chose dont les gens doivent se méfier. Il a dit:
« Les algorithmes d’IA les plus populaires, tels que ChatGPT, sont médiocres en termes de transparence et de divulgation de leurs propres biais. Donc, une partie de ce qui est nécessaire pour gérer correctement le problème de biais de l’IA, ce sont des réseaux participatifs décentralisés et des modèles ouverts, pas seulement des matrices open-source mais à poids ouvert qui sont des modèles entraînés et adaptés avec un contenu ouvert.
De même, Dan Peterson, directeur de l’exploitation de Tenet – un réseau de chaînes de blocs axé sur l’IA – a déclaré à Cointelegraph qu’il est difficile de quantifier la neutralité et que certaines mesures de l’IA ne peuvent pas être impartiales car il n’y a pas de ligne quantifiable pour savoir quand un ensemble de données perd sa neutralité. À son avis, cela se résume finalement à la perspective de l’endroit où l’ingénieur trace la ligne, et cette ligne peut varier d’une personne à l’autre.
«Le concept de tout ce qui est vraiment« impartial »a toujours été un défi difficile à surmonter. Bien que la vérité absolue dans tout ensemble de données alimenté dans les systèmes d’IA générative puisse être difficile à cerner, ce que nous pouvons faire, c’est tirer parti des outils mis à notre disposition plus facilement grâce à l’utilisation de la blockchain et de la technologie Web3 », a-t-il déclaré.
Peterson a déclaré que les techniques construites autour de systèmes distribués, de vérifiabilité et même de preuve sociale peuvent nous aider à concevoir des systèmes d’IA qui se rapprochent « aussi près » de la vérité absolue. « Cependant, ce n’est pas encore une solution clé en main ; ces technologies en développement nous aident à faire avancer l’aiguille à toute vitesse alors que nous continuons à construire les systèmes de demain », a-t-il déclaré.
Vers un avenir axé sur l’IA
L’évolutivité reste une préoccupation importante pour la technologie blockchain. À mesure que le nombre d’utilisateurs et de transactions augmente, cela peut limiter la capacité des solutions de blockchain à gérer les quantités massives de données générées et traitées par les systèmes d’IA. De plus, même l’adoption et l’intégration de solutions basées sur la blockchain dans les IA existantes posent des défis importants.
Récent : Crypto en Europe : un économiste décompose MiCA et l’avenir des stablecoins
Premièrement, il existe un manque de compréhension et d’expertise dans les technologies de l’IA et de la blockchain, ce qui peut entraver le développement et le déploiement de solutions qui combinent efficacement les deux paradigmes. Deuxièmement, convaincre les parties prenantes des avantages des plateformes de blockchain, en particulier lorsqu’il s’agit d’assurer une transmission de données d’IA impartiale, peut être difficile, du moins au début.
Malgré ces défis, la technologie blockchain recèle un immense potentiel lorsqu’il s’agit de niveler le paysage de l’IA en évolution rapide. En tirant parti des fonctionnalités clés de la blockchain, telles que la décentralisation, la transparence et l’immuabilité, il est possible de réduire les biais dans la collecte, la gestion et l’étiquetage des données, ce qui conduit finalement à des systèmes d’IA plus équitables. Par conséquent, il sera intéressant de voir comment l’avenir continue de se dérouler à partir de maintenant.
Source https://cointelegraph.com/news/bias-in-ai-what-can-blockchains-do-to-ensure-fairness