NVIDIA a récemment démontré son expertise en matière de sécurité de l’IA lors de deux des plus prestigieuses conférences sur la cybersécurité, Black Hat USA et DEF CON 32, selon le blog technique de NVIDIA. Ces événements ont permis à NVIDIA de présenter ses dernières avancées en matière de sécurité de l’IA et de partager ses connaissances avec la communauté de la cybersécurité au sens large.
NVIDIA au Black Hat USA 2024
La conférence Black Hat USA est un événement mondialement reconnu qui présente des recherches de pointe en matière de sécurité. Cette année, les discussions ont mis en lumière les applications des outils d’IA générative dans la sécurité et la sécurité des déploiements d’IA. Bartley Richardson, directeur de l’IA de cybersécurité chez NVIDIA, a prononcé un discours aux côtés du PDG de WWT, Jim Kavanaugh, en mettant l’accent sur la manière dont l’IA et l’automatisation transforment les stratégies de cybersécurité.
D’autres sessions ont été animées par des experts de NVIDIA et de ses partenaires, qui ont discuté de l’impact révolutionnaire de l’IA sur les postures de sécurité et les techniques de sécurisation des systèmes d’IA. Un panel sur la sécurité de l’IA comprenait Nikki Pope, directrice principale de l’IA et de l’éthique juridique de NVIDIA, qui a discuté des complexités de la sécurité de l’IA avec des praticiens de Microsoft et Google.
Daniel Rohrer, vice-président de la sécurité des produits logiciels chez NVIDIA, a abordé les défis uniques liés à la sécurisation des centres de données IA lors d’une session organisée par Trend Micro. Le consensus de Black Hat était clair : le déploiement d’outils IA nécessite une approche robuste de la sécurité, mettant l’accent sur les limites de confiance et les contrôles d’accès.
NVIDIA au DEF CON 32
DEF CON, la plus grande conférence de hackers au monde, a compté de nombreux villages où les participants ont participé à des défis de hacking en temps réel. Les chercheurs de NVIDIA ont soutenu le village de l’IA en organisant des événements populaires de red-teaming en direct axés sur les grands modèles de langage (LLM). Les événements de cette année comprenaient un défi Generative Red Team, qui a conduit à des améliorations en temps réel des garde-fous de sécurité des modèles.
Nikki Pope a prononcé un discours sur l’équité et la sécurité des algorithmes dans les systèmes d’IA. L’AI Cyber Challenge (AIxCC), organisé par la DARPA, a vu des équipes rouges et bleues créer des agents autonomes pour identifier et exploiter les vulnérabilités du code. Cette initiative a souligné le potentiel des outils basés sur l’IA pour accélérer la recherche en matière de sécurité.
Formation à l’apprentissage automatique contradictoire
Lors du Black Hat, NVIDIA et Dreadnode ont organisé une formation de deux jours sur l’apprentissage automatique (ML), couvrant les techniques d’évaluation des risques de sécurité par rapport aux modèles ML et la mise en œuvre d’attaques spécifiques. Les sujets abordés comprenaient l’évasion, l’extraction, les évaluations, l’inversion, l’empoisonnement et les attaques sur les LLM. Les participants se sont entraînés à exécuter ces attaques dans des laboratoires à leur rythme, acquérant ainsi une expérience pratique essentielle pour élaborer des stratégies défensives efficaces.
Focus sur la sécurité du LLM
Rich Harang, architecte principal de la sécurité de NVIDIA, a présenté la sécurité LLM à Black Hat, soulignant l’importance d’ancrer la sécurité LLM dans un cadre de sécurité des applications familier. La conférence s’est concentrée sur les problèmes de sécurité associés aux architectures LLM à génération augmentée de récupération (RAG), qui élargissent considérablement la surface d’attaque des modèles d’IA.
Il a été conseillé aux participants d’identifier et d’analyser les limites de confiance et de sécurité, de tracer les flux de données et d’appliquer les principes de moindre privilège et de minimisation des résultats pour garantir une sécurité robuste.
Démocratiser les évaluations de sécurité LLM
Lors de la conférence DEF CON, les chercheurs en sécurité de NVIDIA AI Leon Derczynski et Erick Galinkin ont présenté garak, un outil open source pour les sondages de sécurité LLM. Garak permet aux praticiens de tester rapidement les exploits LLM potentiels, en automatisant une partie du red-teaming LLM. L’outil prend en charge près de 120 sondes d’attaque uniques, notamment les attaques XSS, l’injection rapide et les jailbreaks de sécurité.
La présentation et le laboratoire de démonstration de Garak ont été bien suivis, marquant une avancée significative dans la normalisation des définitions de sécurité pour les LLM. L’outil est disponible sur GitHub, permettant aux chercheurs et aux développeurs de quantifier et de comparer la sécurité des modèles face à diverses attaques.
Résumé
La participation de NVIDIA à Black Hat USA et à DEF CON 32 a mis en évidence son engagement à faire progresser la sécurité de l’IA. Les contributions de l’entreprise ont fourni à la communauté de la sécurité des connaissances précieuses pour déployer des systèmes d’IA avec une mentalité de sécurité. Pour ceux qui s’intéressent à l’apprentissage automatique contradictoire, NVIDIA propose un cours en ligne à rythme libre via son Deep Learning Institute.
Pour plus d’informations sur les travaux actuels de NVIDIA dans le domaine de l’IA et de la cybersécurité, visitez le blog technique NVIDIA.
Source de l’image : Shutterstock
Source https://blockchain.news/news/nvidia-showcases-ai-security-innovations-major-cybersecurity-conferences