L’ordonnance Biden AI permet aux agences de faire face aux principaux risques

Le 30 octobre 2023, le président américain Biden a publié un décret sur une intelligence artificielle sûre, sécurisée et digne de confiance. Il s’agit de l’action la plus complète de l’administration Biden en matière de politique d’intelligence artificielle, s’appuyant sur le plan de l’administration pour une déclaration des droits de l’IA (publié en octobre 2022) et son annonce (en juillet 2023) d’obtenir des engagements volontaires de la part de 15 grandes entreprises d’IA pour gérer l’IA. des risques.

Le nouvel EO oriente les actions dans huit domaines, décrits par la Maison Blanche comme suit :

  • De nouvelles normes pour la sûreté et la sécurité de l’IA ;
  • Protéger la vie privée des Américains ;
  • Faire progresser l’équité et les droits civiques ;
  • Défendre les consommateurs, les patients et les étudiants ;
  • soutenir les travailleurs;
  • Promouvoir l’innovation et la concurrence ;
  • Faire progresser le leadership américain à l’étranger ; et
  • Garantir une utilisation responsable et efficace de l’IA par le gouvernement.

Notamment, l’Ordre exige que les entreprises privées partagent avec le gouvernement fédéral les résultats des tests de sécurité de « l’équipe rouge » pour les modèles de fondation qui présentent certains risques, ordonne l’élaboration de nouvelles normes d’IA pour guider l’acquisition et l’utilisation de l’IA par les agences gouvernementales, crée une nouvelle ressource nationale de recherche sur l’IA pour favoriser le leadership américain en matière d’innovation en IA, et s’engage à coopérer avec des partenaires internationaux sur des cadres pour le développement et le déploiement responsables de l’IA.

Les dispositions de l’ordonnance sont résumées plus en détail ci-dessous.

Normes pour la sûreté et la sécurité de l’IA

  • Exigences de l’équipe rouge. L’administration tirera parti de la loi sur la production de défense pour exiger que les développeurs informent le gouvernement fédéral de tout modèle de fondation qui présente un risque sérieux pour la sécurité nationale, la sécurité économique nationale ou la santé et la sécurité publiques nationales. Les développeurs doivent également partager les résultats des exercices de « l’équipe rouge » avec le gouvernement.
  • De nouvelles normes. L’Institut national des normes et de la technologie établira de nouvelles normes pour les tests des équipes rouges. Les ministères de la Sécurité intérieure et de l’Énergie s’appuieront sur ces normes pour faire face aux risques liés aux infrastructures critiques, ainsi qu’aux risques de cybersécurité, chimiques, biologiques, radiologiques et nucléaires. En outre, les agences fédérales élaboreront de nouvelles normes pour le criblage par synthèse biologique, et ces normes serviront de conditions pour recevoir un financement fédéral pour la recherche en sciences de la vie. Enfin, le ministère du Commerce développera de nouvelles normes pour l’authentification du contenu et le filigrane pour le contenu généré par l’IA, et les agences fédérales américaines utiliseront ces normes pour marquer le contenu qu’elles génèrent.
  • Correction des vulnérabilités logicielles. L’Administration créera un nouveau programme pour développer des outils d’IA afin d’enquêter et de corriger les vulnérabilités des logiciels critiques.
  • Utilisation de l’IA par la communauté militaire et du renseignement. Le Conseil de sécurité nationale et le chef d’état-major de la Maison Blanche élaboreront un mémorandum sur la sécurité nationale pour guider l’utilisation sûre et éthique de l’IA par la communauté militaire et du renseignement.

Protéger la vie privée des Américains

  • Appel à une législation fédérale sur la protection de la vie privée. L’administration appelle le Congrès à adopter une législation sur la protection de la vie privée pour « protéger tous les Américains, en particulier les enfants ».
  • Technologies améliorant la confidentialité (PET). La Maison Blanche donnera la priorité au développement de technologies préservant et renforçant la vie privée (en soutenant leur recherche et développement avec de nouveaux programmes fédéraux) et élaborera des lignes directrices pour l’utilisation de ces technologies par les agences fédérales.
  • Conseils sur l’utilisation des informations personnelles par les agences fédérales. L’Administration réévaluera la manière dont les agences fédérales utilisent les informations personnelles pouvant être obtenues commercialement et renforcera les directives en matière de confidentialité pour les agences fédérales.

Faire progresser l’équité et les droits civiques

  • De nouvelles orientations et formations pour se prémunir contre la discrimination. L’Administration publiera des directives à l’intention des propriétaires, des programmes d’avantages sociaux fédéraux et des entrepreneurs fédéraux pour empêcher les algorithmes d’IA de contribuer à la discrimination et utilisera la formation et l’assistance technique pour faire progresser les meilleures pratiques en matière d’enquête et de poursuites pour les violations des droits civils liées à l’IA.
  • Équité du système de justice pénale. L’Administration développera les meilleures pratiques pour guider l’utilisation de l’IA dans l’ensemble du système de justice pénale, y compris l’utilisation de l’IA dans la détermination de la peine, le maintien de l’ordre et l’analyse médico-légale.
  • Défendre les consommateurs, les patients et les étudiants. Le ministère de la Santé et des Services sociaux établira un programme de sécurité pour faire face aux risques associés à l’utilisation de l’IA dans les soins de santé. L’administration soutiendra également l’expansion des outils basés sur l’IA dans l’éducation.
  • Soutenir les travailleurs. L’administration soutiendra de nouvelles recherches sur les impacts potentiels de l’IA sur le marché de l’emploi et élaborera des principes et des meilleures pratiques pour lutter contre les suppressions d’emplois potentielles, les normes du travail, la santé et la sécurité au travail et la collecte de données sur le lieu de travail.
  • Promouvoir l’innovation et la concurrence. L’administration soutiendra le leadership américain en matière d’IA grâce à la création d’une ressource nationale de recherche sur l’IA, qui élargira l’accès aux ressources et aux données sur l’IA pour les chercheurs et les étudiants. Il augmentera également les subventions et l’assistance technique pour l’innovation en IA, et encouragera les experts étrangers en IA à travailler et étudier aux États-Unis.
  • Faire progresser le leadership américain à l’étranger. Les départements d’État et du Commerce travailleront avec des partenaires internationaux pour établir des cadres qui favorisent la réalisation des avantages et l’atténuation des risques associés à l’IA. Les États-Unis sont déterminés à travailler avec d’autres pays pour développer des normes d’IA sécurisées, fiables et interopérables.
  • Garantir une utilisation responsable et efficace de l’IA par le gouvernement. La Maison Blanche publiera de nouvelles directives pour l’utilisation de l’IA par les agences, notamment en ce qui concerne l’achat, le déploiement et l’embauche de personnel qualifié dans le cadre d’une « augmentation des talents en IA ».

De nombreux aspects de l’EO sont conformes aux recommandations formulées récemment par le Centre for Information Policy Leadership (CIPL) de Hunton Andrews Kurth dans son rapport. Dix recommandations pour une réglementation mondiale de l’IAy compris l’adoption d’une approche fondée sur les risques en matière de gouvernance de l’IA afin de minimiser les dommages et de réaliser les avantages de l’IA, la promotion de la coopération entre les agences, l’utilisation de la politique d’approvisionnement comme moyen de faire progresser le développement responsable de l’IA et la priorisation de la coopération internationale sur les cadres de IA responsable.

Hunton et le CIPL continueront de surveiller de près les actions de l’Administration pour mettre en œuvre les engagements de l’Ordre, ainsi que toute action complémentaire menée par le Congrès.