ChatGPT, un chatbot d’intelligence artificielle formé à OpenAI, a faussement accusé l’éminent avocat de la défense pénale et professeur de droit Jonathan Turley de harcèlement sexuel.
Le chatbot a rédigé un article du Washington Post sur un voyage scolaire en droit en Alaska au cours duquel Turley a été accusé d’avoir fait des déclarations sexuellement provocantes et d’avoir tenté de toucher un étudiant, même si Turley n’avait jamais fait un tel voyage.
La réputation de Turley a pris un coup majeur après que ces affirmations préjudiciables soient rapidement devenues virales sur les réseaux sociaux.
« Cela a été une surprise pour moi car je ne suis jamais allé en Alaska avec des étudiants, The Post n’a jamais publié un tel article et je n’ai jamais été accusé de harcèlement sexuel ou d’agression par qui que ce soit », a-t-il déclaré.
Après avoir reçu un e-mail d’un collègue professeur de droit qui avait utilisé ChatGPT pour rechercher des cas de harcèlement sexuel par des universitaires de facultés de droit américaines, Turley a appris les accusations.
Professor Jonthan Turley was falsely accused of sexual harassment by AI-powered ChatGPT. Image: Getty Images
La nécessité d’être prudent lors de l’utilisation de données générées par l’IA
Sur son blog, le professeur de l’Université George Washington a déclaré :
« Hier, le président Joe Biden a déclaré qu' »il reste à voir » si l’intelligence artificielle est « dangereuse ». Je ne serais pas d’accord… »
Des inquiétudes concernant la fiabilité de ChatGPT et la probabilité d’instances futures comme celle que Turley a connue ont été soulevées à la suite de son expérience. Le chatbot est alimenté par Microsoft qui, selon la société, a mis en place des mises à niveau pour améliorer la précision.
ChatGPT est-il hallucinant ?
Lorsque l’IA produit des résultats inattendus, incorrects et non étayés par des preuves du monde réel, on dit qu’elle a des « hallucinations ».
De faux contenus, nouvelles ou informations sur des individus, des événements ou des faits peuvent résulter de ces hallucinations. Des cas comme celui de Turley montrent les effets considérables de la diffusion par les médias et les réseaux sociaux des mensonges générés par l’IA.
Les développeurs de ChatGPT, OpenAI, ont reconnu la nécessité d’éduquer le public sur les limites des outils d’IA et de réduire la possibilité que les utilisateurs connaissent de telles hallucinations.
Les tentatives de l’entreprise pour rendre son chatbot plus précis sont appréciées, mais il reste du travail à faire pour s’assurer que ce genre de chose ne se reproduise plus.
L’incident a également attiré l’attention sur la valeur de l’utilisation éthique de l’IA et sur la nécessité d’une compréhension plus approfondie de ses limites.
Supervision humaine requise
Bien que l’IA ait le potentiel d’améliorer considérablement de nombreux aspects de nos vies, elle n’est toujours pas parfaite et doit être supervisée par des humains pour garantir l’exactitude et la fiabilité.
Alors que l’intelligence artificielle s’intègre de plus en plus dans notre vie quotidienne, il est essentiel que nous fassions preuve de prudence et de responsabilité lors de l’utilisation de ces technologies.
La rencontre de Turley avec ChatGPT souligne l’importance de faire preuve de prudence lorsqu’il s’agit d’incohérences et d’erreurs générées par l’IA.
Il est essentiel que nous veillons à ce que cette technologie soit utilisée de manière éthique et responsable, en étant conscients de ses forces et de ses faiblesses, car elle continue de transformer notre environnement.
Crypto total market cap holding steady at the $1.13 trillion level on the weekend chart at TradingView.com
Pendant ce temps, selon la directrice principale des communications de Microsoft, Katy Asher, la société a depuis pris des mesures pour assurer l’exactitude de sa plate-forme.
Turley a écrit en réponse sur son blog :
« Vous pouvez être diffamé par l’IA et ces entreprises vont simplement hausser les épaules et dire qu’elles essaient d’être véridiques. »
Jake Moore, conseiller mondial en cybersécurité chez ESET, a averti les utilisateurs de ChatGPT de ne pas tout prendre pour empêcher la propagation nuisible de la désinformation.
-Image vedette de Bizsiziz
Source https://bitcoinist.com/chatgpt-wrongly-claims-professor-groped-student/