Les superproductions hollywoodiennes décrivent régulièrement des IA malveillantes se retournant contre l’humanité. Cependant, le récit du monde réel sur les risques que pose l’intelligence artificielle est beaucoup moins sensationnel mais bien plus important. La peur d’une IA omnisciente brisant l’incassable et déclarant la guerre à l’humanité fait du grand cinéma, mais elle occulte les risques tangibles beaucoup plus proches de chez nous.
J’ai déjà parlé de la façon dont les humains feront plus de mal avec l’IA avant qu’elle n’atteigne la sensibilité. Cependant, je souhaite ici démystifier quelques mythes courants sur les risques de l’AGi sous un angle similaire.
Le mythe de l’IA brisant un cryptage fort.
Commençons par démystifier un trope populaire d’Hollywood : l’idée selon laquelle l’IA avancée briserait un cryptage fort et, ce faisant, prendrait le dessus sur l’humanité.
La vérité est que la capacité de l’IA à décrypter un cryptage fort reste particulièrement limitée. Bien que l’IA ait démontré son potentiel dans la reconnaissance de modèles au sein de données chiffrées, suggérant que certains systèmes de chiffrement pourraient être vulnérables, nous sommes loin du scénario apocalyptique souvent décrit. Des percées récentes, telles que le piratage de l’algorithme de chiffrement post-quantique CRYSTALS-Kyber, ont été réalisées grâce à une combinaison d’entraînement récursif et d’attaques par canal secondaire de l’IA, et non grâce aux capacités autonomes de l’IA.
La menace réelle que représente l’IA en matière de cybersécurité est une extension des défis actuels. L’IA peut être utilisée, et est, pour renforcer les cyberattaques comme le spear phishing. Ces méthodes sont de plus en plus sophistiquées, permettant aux pirates d’infiltrer les réseaux plus efficacement. La préoccupation n’est pas celle d’un seigneur autonome de l’IA, mais l’utilisation abusive par l’homme de l’IA dans le cadre de violations de la cybersécurité. De plus, une fois piratés, les systèmes d’IA peuvent apprendre et s’adapter pour atteindre des objectifs malveillants de manière autonome, ce qui les rend plus difficiles à détecter et à contrer.
L’IA s’échappe sur Internet pour devenir un fugitif numérique.
L’idée selon laquelle nous pourrions simplement désactiver une IA malveillante n’est pas aussi stupide qu’il y paraît.
Les exigences matérielles massives pour exécuter un modèle d’IA très avancé signifient qu’il ne peut exister indépendamment de la surveillance et du contrôle humains. Faire fonctionner des systèmes d’IA tels que GPT4 nécessite une puissance de calcul, une énergie, une maintenance et un développement extraordinaires. Si nous parvenions à réaliser l’AGI aujourd’hui, il n’y aurait aucun moyen possible pour cette IA de « s’échapper » sur Internet, comme nous le voyons souvent dans les films. Il lui faudrait accéder d’une manière ou d’une autre à des batteries de serveurs équivalentes et fonctionner sans être détecté, ce qui n’est tout simplement pas réalisable. Ce seul fait réduit considérablement le risque qu’une IA développe son autonomie au point de dominer le contrôle humain.
De plus, il existe un gouffre technologique entre les modèles d’IA actuels comme ChatGPT et les représentations de science-fiction de l’IA, comme on le voit dans des films comme « The Terminator ». Alors que les armées du monde entier utilisent déjà des drones aériens autonomes avancés, nous sommes loin d’avoir des armées de robots capables de mener une guerre avancée. En fait, nous maîtrisons à peine les robots capables de monter les escaliers.
Ceux qui soutiennent le discours apocalyptique de SkyNet ne parviennent pas à reconnaître le saut technologique nécessaire et pourraient, par inadvertance, céder du terrain aux partisans de la réglementation, qui plaident en faveur d’une croissance incontrôlée de l’IA sous couvert d’innovation. Ce n’est pas parce que nous n’avons pas de robots apocalyptiques qu’il n’y a aucun risque ; cela signifie simplement que la menace est d’origine humaine et donc encore plus réelle. Ce malentendu risque d’éclipser le débat nuancé sur la nécessité d’une surveillance du développement de l’IA.
Perspective générationnelle de IA, commercialisation et changement climatique
Je vois le risque le plus imminent dans la commercialisation excessive de l’IA sous le couvert du « progrès ». Même si je ne fais pas écho aux appels à l’arrêt du développement de l’IA, soutenus par des personnalités comme Elon Musk (avant de lancer xAI), je crois en une surveillance plus stricte de la commercialisation de l’IA aux frontières. La décision d’OpenAI de ne pas inclure AGI dans son accord avec Microsoft est un excellent exemple de la complexité entourant l’utilisation commerciale de l’IA. Si les intérêts commerciaux peuvent conduire à un progrès rapide et à l’accessibilité des technologies d’IA, ils peuvent également conduire à donner la priorité aux gains à court terme plutôt qu’aux considérations de sécurité et d’éthique à long terme. Il existe un équilibre délicat entre favoriser l’innovation et garantir un développement responsable que nous n’avons peut-être pas encore compris.
Sur cette base, tout comme les « baby-boomers » et la « génération X » ont été critiqués pour leur apparente apathie à l’égard du changement climatique, étant donné qu’ils ne vivront peut-être pas assez longtemps pour en constater les effets les plus dévastateurs, une tendance similaire pourrait se produire dans le développement de l’IA. La précipitation pour faire progresser la technologie de l’IA, souvent sans tenir suffisamment compte des implications à long terme, reflète cette myopie générationnelle. Les décisions que nous prenons aujourd’hui auront des impacts durables, que nous soyons ici pour en être témoins ou non.
Cette perspective générationnelle devient encore plus pertinente si l’on considère l’urgence de la situation, dans la mesure où la précipitation pour faire progresser la technologie de l’IA n’est pas seulement une question de débat académique mais a des conséquences concrètes. Les décisions que nous prenons aujourd’hui en matière de développement de l’IA, tout comme celles en matière de politique environnementale, façonneront l’avenir que nous laissons derrière nous.
Nous devons construire un écosystème technologique durable et sûr qui profite aux générations futures plutôt que de leur laisser un héritage de défis créés par notre myopie.
Innovation durable, pragmatique et réfléchie.
Alors que nous sommes à l’aube de progrès significatifs en matière d’IA, notre approche ne devrait pas être celle de la peur et de l’inhibition, mais celle de l’innovation responsable. Nous devons nous rappeler le contexte dans lequel nous développons ces outils. L’IA, malgré tout son potentiel, est une création de l’ingéniosité humaine et soumise au contrôle humain. À mesure que nous progressons vers l’AGI, l’établissement de garde-fous solides n’est pas seulement conseillé ; il est essentiel. Pour continuer à taper sur le même tambour, les humains provoqueront un événement d’extinction via l’IA bien avant que l’IA puisse le faire elle-même.
Les véritables risques de l’IA ne résident pas dans les récits sensationnalistes d’Hollywood, mais dans la réalité plus banale de la mauvaise utilisation humaine et de la myopie. Il est temps que nous détournions notre attention de l’improbable apocalypse de l’IA pour nous concentrer sur les défis très réels et actuels que l’IA pose aux mains de ceux qui pourraient en abuser. N’étouffons pas l’innovation, mais guidons-la de manière responsable vers un avenir où l’IA sert l’humanité et non la mine.
Source https://cryptoslate.com/op-ed-a-rational-take-on-a-skynet-doomsday-scenario-if-openai-has-moved-closer-to-agi/