Skip to main content

Le monde de la technologie a franchi un pas de géant dans la sécurisation de l’intelligence artificielle (IA). Le dimanche 26 novembre, un accord historique a été signé par les États-Unis, le Royaume-Uni, la France et plus d’une douzaine d’autres pays, dans le but de renforcer la cybersécurité dans le domaine de l’IA.

Cet accord, le premier de son genre à l’échelle internationale, se concentre sur la protection de l’IA contre les menaces potentielles, en promouvant le concept de « sécurité by design ». Cela signifie que les systèmes d’IA seront conçus dès le départ avec des mesures de sécurité intégrées.

La U.S Cybersecurity and Infrastructure Security Agency (CISA) et le National Cyber Security Centre (NCSC) du Royaume-Uni ont joué un rôle clé en publiant de nouvelles lignes directrices pour le développement de systèmes d’IA sécurisés. Ces lignes directrices, adoptées par 18 pays, visent à élever les niveaux de cybersécurité dans l’IA, en assurant que cette technologie soit conçue, développée et déployée de manière sûre.

En France, l’ANSSI fait partie des signataires, bien qu’aucune communication officielle n’ait été diffusée pour le moment.

Cette initiative survient peu après le premier sommet mondial sur la sécurité de l’IA à Bletchley Park, où la « Déclaration de Bletchley » a été signée par 28 pays, soulignant les risques potentiels de l’IA pour l’humanité.

Pour les entreprises, cet accord international représente une étape cruciale. Il oriente non seulement la manière dont l’IA est développée, mais aussi comment elle est utilisée de manière éthique et sûre. En adoptant les principes de cet accord, les entreprises peuvent renforcer leurs propres systèmes et garantir la sécurité de leurs utilisations de l’IA.

Cet accord, bien qu’il contienne principalement des recommandations générales, établit un cadre pour une coopération internationale accrue dans la lutte contre les abus de l’IA, la falsification des données et les menaces informatiques.

Ce pas en avant majeur vers une IA plus sûre soulève des questions importantes sur l’utilisation appropriée de l’IA et la collecte des données sous-jacentes, tout en cherchant à prévenir la détournement de cette technologie par des cybercriminels.

Verified by MonsterInsights