Royaume-Uni

[UK] Le Gouvernement britannique annonce un certain nombre d'initiatives visant à encourager la réglementation de l'IA et la Chambre des Lords présente une proposition de loi relative à l'intelligence artificielle (réglementation)

IRIS 2024-2:1/4

Julian Wilkins

Wordley Partnership and Q Chambers

Le 6 février 2024, le Gouvernement britannique a publié sa réponse à la consultation organisée dans le cadre du Livre blanc sur la réglementation de l'intelligence artificielle (IA), dans laquelle il présente en détail les initiatives visant à aider les différents régulateurs à proposer des outils et à développer des compétences leur permettant de faire face aux risques et aux opportunités associés à l'IA. Les principaux régulateurs sont tenus de publier leurs propositions relatives aux risques et opportunités de l'IA d'ici le 30 avril 2024. Plusieurs régulateurs ont déjà publié leurs propositions ; ainsi, le Commissariat à l'information a procédé à une actualisation de la législation relative à la protection des données qui s'applique aux systèmes d'IA. L'Ofcom et l'Autorité de la concurrence et des marchés ont par conséquent jusqu'à la fin du mois d'avril pour publier leurs plans de gestion de la technologie, y compris les risques inhérents à l'IA, identifier l'expertise acquise et élaborer des projets de réglementation de l'IA pour l'année en cours. La stratégie du Gouvernement confère aux régulateurs l'autonomie nécessaire pour répondre rapidement à tout nouveau risque, mais également pour laisser aux développeurs la possibilité d'innover. Les mesures gouvernementales comportent une aide financière, dont 10 millions GBP pour permettre aux régulateurs de se perfectionner dans le domaine de l'IA. Cette aide financière permet aux régulateurs de développer des outils de recherche et de contrôle afin de prendre en compte les risques et les opportunités dans les secteurs spécifiques que sont les médias et les télécoms.

Compte tenu de la rapidité des évolutions technologiques, le Gouvernement britannique souhaite faire en sorte qu'aucune législation précoce ne mette en œuvre des mesures de « correction rapide » qui pourraient se révéler rapidement obsolètes ou inefficaces, et préfère permettre aux régulateurs sectoriels d'adapter leurs réglementations pour faire face de manière ciblée aux risques que pose l'IA.

Une somme de 90 millions GBP a été allouée à neuf nouveaux centres de recherche britanniques et à un partenariat américain pour le développement d'une intelligence artificielle responsable. Ces centres contribueront à l'expertise britannique en matière d'IA et permettront de tirer parti de cette technologie dans différents secteurs d'activité. Le Royaume-Uni s'est engagé à investir 9 millions GBP dans le programme gouvernemental International Science Partnerships Fund, qui réunit des chercheurs et des innovateurs du Royaume-Uni et des États-Unis dans le but de mettre au point une intelligence artificielle sûre, responsable et digne de confiance.

Un financement de 2 millions GBP du Conseil de recherche en arts et sciences humaines (AHRC) viendra alimenter de nouveaux projets de recherche qui contribueront à définir ce qu'est une intelligence artificielle responsable dans des secteurs tels que l'éducation, le maintien de l'ordre et les industries de la création. Ces projets s'inscrivent dans le cadre du programme Bridging Responsible AI Divides (BRAID) de l'AHRC.

19 millions GBP serviront à financer 21 projets visant à développer des solutions d'IA et d'apprentissage automatique innovantes, fiables et responsables, afin de stimuler la productivité et d'accélérer le déploiement de ces technologies.

Une enveloppe supplémentaire de 100 millions GBP permettra de financer le premier institut de sécurité de l'IA au monde qui aura pour mission d'évaluer les risques inhérents aux nouveaux modèles d'IA. Cette initiative repose sur le rapport scientifique international consacré à la sécurité de l'IA de pointe, qui a été présenté lors du sommet sur l'IA organisé par le Royaume-Uni en novembre 2023, et qui contribuera également à l'élaboration d'une compréhension commune, fondée sur des données concrètes, de l'évolution de l'IA et de son potentiel.

La réponse du Gouvernement britannique préconise des exigences contraignantes ciblées pour le petit nombre d'organisations qui développent actuellement des systèmes d'IA généralistes très performants, de manière à s'assurer que ces organisations assument la responsabilité de garantir un niveau de sécurité suffisant à ces technologies.

Parallèlement, la Chambre des Lords a présenté une proposition de loi d'initiative parlementaire sur la réglementation de l'intelligence artificielle. L'objectif de ce texte consiste à réglementer l'intelligence artificielle par l'intermédiaire d'une autorité officielle compétente en matière d'intelligence artificielle, dont la fonction serait notamment de définir une stratégie cohérente entre les autorités de régulation et de coordonner la législation pertinente, par exemple dans le domaine du respect de la vie privée, de la protection des consommateurs et de la sécurité. Cette autorité aurait également pour fonction de nommer des auditeurs d'IA indépendants et de soutenir les initiatives encore au stade expérimental ou à l'essai en environnement fermépour permettre aux innovateurs dans le domaine de l'IA de tester de nouvelles technologies.

La proposition de loi prévoit que l'Autorité chargée de l'IA réglementera les applications d'IA afin de garantir le respect d'un certain nombre de critères qualitatifs, notamment en matière de sûreté, de sécurité, de fiabilité, d'impartialité, de responsabilité et de gouvernance. En outre, toute entreprise qui développe, déploie ou utilise l'IA est tenue de procéder à des tests complets et transparents et de respecter la législation, notamment en matière de protection des données, de respect de la vie privée et de propriété intellectuelle. La loi réglementera la lutte contre la discrimination, tandis que les applications d'IA devront être inclusives dès leur conception.

Dans le cadre de cette proposition de loi, un régulateur compétent pourrait créer des environnements de test réglementaires consacrés à l'intelligence artificielle, dans lesquels tout projet innovant serait testé en situation réelle de marché, pour autant que des garanties identifiables de protection des consommateurs soient mises en place.

Les dispositions de la proposition de loi préconisent la transparence : ainsi, toute personne qui entraîne une IA doit communiquer à l'autorité compétente en matière d'IA l'ensemble des données et des droits de propriété intellectuelle de tiers utilisés dans le cadre de cet entraînement. Il convient en effet que le public sache si un produit ou un service fait appel à l'IA, afin que le consommateur soit en mesure de donner ou de refuser son consentement avant l'utilisation ou l'achat du produit ou du service en question. L'Autorité chargée de l'IA doit veiller, sur le long terme, à informer le public des risques et des opportunités associés à l'IA et encourager l'interopérabilité avec les cadres réglementaires internationaux.

La proposition de loi a été examinée en première lecture le 22 novembre 2023 et devrait désormais faire l'objet d'une seconde lecture devant la Chambre des Lords.


Références



Cet article a été publié dans IRIS Observations juridiques de l'Observatoire européen de l'audiovisuel.