News
Les géants américains de l'IA s'engagent en faveur d'une IA plus sûre et transparente
Pour gérer les risques posés par l’intelligence artificielle (IA), le président Biden a obtenu juin juillet dernier des engagements volontaires de sept grandes entreprises d’IA en faveur d'un développement sûr, sécurisé et transparent de l'IA: Amazon, Anthropic, Google, Inflection, Meta, Microsoft et OpenAI. Le 12 septembre, ce sont huit autres entreprises qui se sont à leur tour engagées : Adobe, Cohere, IBM, Nvidia, Palantir, Salesforce, Scale AI et Stability.
Alors que les craintes s'intensifient quant aux dangers pour les consommateurs (fraude), les citoyens (désinformation), et le marché de l'emploi, ces engagements entérinent trois principes fondamentaux pour le développement d’une IA responsable : la sûreté, la sécurité et la confiance.
Les géants de l'IA se sont engagés à :
- Garantir la sûreté des produits avant de les présenter au public
en testant la sécurité interne et externe de leurs systèmes d'IA avant leur sortie, y compris en sollicitant des experts indépendants
en partageant des informations sur la gestion des risques liés à l’IA, en particulier les meilleures pratiques en matière de sécurité, les failles et les tentatives de détournement avec les autorités et les chercheurs
- Construire des systèmes qui donnent la priorité à la sécurité
en investissant dans la cybersécurité et dans les mesures de protection contre les menaces internes afin de protéger les pondérations des modèles
en facilitant la découverte et le signalement par des tiers des vulnérabilités de leurs systèmes d’IA
- Gagner la confiance du public
en garantissant l'l'identification pour les utilisateurs des contenus générés par l'IA, par exemple par un système de filigrane
en communiquant sur les capacités, des limites et des domaines d'utilisation appropriée et inappropriée de leurs systèmes d'IA (risques de sécurité et sociétaux)
en facilitant la recherche sur les risques sociétaux, en particulier les "préjugés et la discrimination préjudiciables" et les atteintes à la vie privée.
en encourageant le développement d'IA pour aider à relever les plus grands défis de la société.
Ces sujets, en particulier le marquage des contenus (images, mais aussi audio et video) produits par l'IA, sont au coeur des débats actuellement. Les sociétés d'IA y étaient réticentes jusqu'à présent, et les modalités de mise en oeuvre restent à définir : il est nécessaire que le marquage soit à la fois solide face aux tentatives de suppression, mais aussi immédiatement identifiables par les utilisateurs.
Ces engagements des grands noms de l'IA sont "un premier pas important, mais comme leur non-respect n'est pas sanctionnable, il est vital que le Congrès légifère rapidement", a déclaré Paul Barrett, directeur-adjoint du Center for Business and Human Rights de l'université de New York (NYU). De fait, l'adoption d'une loi est peu probable à court terme dans le contexte politique actuel au Congrès, mais un texte exécutif est en préparation au sein de l'administration.
La Maison Blanche annonce que ces actions s'inscrivent dans le cadre d'un engagement plus large, qui inclut des travaux avec ses alliés étrangers, en particulier dans le cadre du dernier sommet du G7 au Japon et du prochain sommet international sur l'IA en Grande Bretagne dans les semaines à venir.
Stéphanie de Roquefeuil
Aucun commentaire
Vous devez être connecté pour laisser un commentaire. Connectez-vous.