Royaume-Uni

[GB] Publication du rapport de la commission des communications et du numérique de la Chambre des Lords sur les grands modèles linguistiques de l'intelligence artificielle

IRIS 2024-3:1/18

Alexandros K. Antoniou

Université d’Essex

Le 2 février 2024, la commission des communications et du numérique de la Chambre des Lords (une commission spéciale des Lords chargée des questions relatives aux médias, au numérique et aux industries créatives) a publié son rapport d'enquête sur les grands modèles linguistiques et l'intelligence artificielle générative. Cette commission évalue les perspectives de développement de l'intelligence artificielle au cours des trois prochaines années, en les confrontant à la stratégie de régulation annoncée dans le livre blanc sur l'intelligence artificielle publié par le Gouvernement britannique en mars 2023. Elle déplore l'importance démesurée accordée par le Gouvernement à la sécurité de l'IA et met en garde contre les opportunités non exploitées. Les principales préconisations du rapport portent sur le soutien à l'innovation, une solide surveillance réglementaire, une réduction préventive des risques et la protection des droits d'auteur.

Plus précisément, le rapport de la commission aborde un large éventail de questions relatives aux répercussions futures, à la régulation, à l'innovation et aux aspects déontologiques des grands modèles linguistiques et de l'intelligence artificielle générative. Il précise que les grands modèles linguistiques pourraient avoir des incidences majeures comparables à la révolution apportée par internet et recommande au Royaume-Uni de se préparer à une période de « fortes turbulences technologiques » (paragraphe 28) pour tirer le meilleur parti des opportunités qui s'offriront à lui.

Il est indispensable de garantir une concurrence équitable sur le marché afin de permettre aux entreprises de se développer dans le secteur particulièrement dynamique de l'apprentissage tout au long de la vie. Les entreprises de taille moyenne ont tout intérêt à tirer parti d'une combinaison de technologies ouvertes et fermées. La commission a recommandé au Gouvernement de privilégier dans sa stratégie politique une concurrence équitable sur le marché, en veillant à ne pas encourager de manière disproportionnée les modèles ouverts ou fermés, et en collaborant avec les instances de régulation afin de contrôler la concurrence dans les modèles traditionnels. La commission a également préconisé des mesures de gouvernance renforcées qui permettraient de limiter le risque de mainmise sur la réglementation, notamment par la constitution de groupes d'experts, une formation approfondie pour consolider les compétences et le recours à des avis externes dans le cadre des processus d'élaboration des stratégies politiques (paragraphe 49).

La commission a rappelé que l'apprentissage tout au long de la vie offre un vaste potentiel pour stimuler l'économie et la société, et a insisté sur l'importance que revêt la mise en place et le déploiement d'un modèle responsable (paragraphe 65). Consciente de ces nombreux aspects bénéfiques, la commission a encouragé les autorités à mieux maîtriser les fluctuations du marché de l'emploi et à réduire les risques d'exclusion numérique. Elle a mis en garde le Gouvernement sur la nécessité de parvenir à un meilleur équilibre entre les innovations et la gestion des risques, en veillant à éviter une approche trop étroite de la sécurité de l'IA, qui constitue un défi majeur (paragraphe 80).

S'agissant de la gestion des risques, la commission a constaté que les grands modèles linguistiques posent un certain nombre de problèmes de sécurité du fait qu'ils permettent certaines activités malveillantes déjà existantes, plutôt que de présenter de nouveaux risques. Il convient en effet que le Gouvernement, avec le concours des professionnels du secteur, renforce au plus vite les mesures de cybersécurité déjà en place. Malgré les progrès accomplis en matière de compréhension des risques inhérents à l'IA et de coopération mondiale, l'absence de cadre d'évaluation uniformisé fait obstacle à une évaluation plus précise de l'ampleur de ces risques. La commission a donc préconisé la mise en place d'une nomenclature des risques inhérents à l'intelligence artificielle qui soit en adéquation avec l'évaluation des risques pour la sécurité nationale. Bien que la probabilité de voir apparaître de graves menaces dans les trois prochaines années soit relativement faible et que « les inquiétudes apocalyptiques au sujet des menaces pesant sur l'existence humaine [étaient] excessives » (paragraphe 23), il est crucial de contrôler les capacités de nouvelle génération et d'encourager un développement responsable (paragraphes 140-141). Les dangers pour la société, notamment la discrimination et les préjugés, exigent de solides stratégies de réduction des risques (paragraphe 161), et il est primordial de définir avec précision la législation relative à la protection des données dans le cadre des processus d'apprentissage des grands modèles linguistiques.

La commission a en outre invité le Royaume-Uni à définir sa propre stratégie en matière de réglementation de l'IA, à s'abstenir de s'inspirer directement des modèles européens, américains ou chinois, à favoriser la diplomatie technologique et à faire figure de référence à l'échelle mondiale. Même si une harmonisation et une coopération internationales en matière de régulation sont fondamentales, il est probable qu'un certain nombre de difficultés et de contretemps apparaîtront. Une législation de grande envergure qui ciblerait uniquement les grands modèles linguistiques a été jugée prématurée compte tenu du caractère récent de cette technologie et des inquiétudes qu'elle suscite : « cette technologie est bien trop récente, les interrogations sont bien trop nombreuses et le risque de brider indirectement toute innovation est bien trop élevé » (paragraphe 187). La priorité devrait davantage se porter sur la définition des orientations stratégiques relatives aux grands modèles linguistiques et sur la mise en œuvre rapide de cadres réglementaires évolutifs et propices à l'innovation.

Le rapport déplore la lenteur de la mise en œuvre des propositions du livre blanc sur l'IA, et souligne l'importance de doter les régulateurs en place de pouvoirs et de ressources normalisés afin d'assurer le succès des initiatives en matière de gouvernance de l'IA. La commission a par ailleurs rappelé la nécessité de respecter la législation relative au droit d'auteur et de traiter équitablement les titulaires de droits dans le cadre de l'élaboration et de l'utilisation des grands modèles linguistiques. Malgré la complexité de l'application de la législation relative au droit d'auteur aux mécanismes des grands modèles linguistiques, les principes fondamentaux restent immuables : récompenser les créateurs, empêcher l'utilisation non autorisée d'œuvres et encourager l'innovation. La commission a estimé que le cadre juridique en vigueur ne permettait pas d'atteindre ces objectifs (paragraphe 246). Dans la mesure où l'incertitude concernant les protections du droit d'auteur persiste, le Gouvernement a été instamment prié d'envisager une adaptation de la législation afin de garantir qu'elle soit technologiquement neutre et à l'épreuve du temps. Des mesures sont également recommandées pour protéger les principes du droit d'auteur, et notamment la responsabilisation des créateurs, la transparence dans l'utilisation des données et la promotion des bonnes pratiques par une collaboration avec les organismes d'octroi de licences et les responsables des bases de données.

Il convient de noter qu'un groupe de travail de l'Office de la propriété intellectuelle (Intellectual Property Office – IPO) s'est déjà réuni en juin 2023 afin d'établir et de formaliser les bonnes pratiques en matière d'utilisation des droits d'auteur, de performance et de bases de données pour les applications d'IA, y compris la fouille de données. Malgré les projets initiaux de solution législative (qui ont été abandonnés en mars 2023), les avancées en faveur d'un code non contraignant se sont avérées complexes à mettre en œuvre. Dans sa réponse à la consultation du Livre blanc sur l'intelligence artificielle, le Gouvernement a confirmé que l'IPO britannique n'était pas en mesure d'établir un code de bonnes pratiques non contraignant entre les développeurs d'intelligence artificielle et les titulaires de droits au sujet de l'utilisation de contenus protégés par le droit d'auteur dans le cadre de l'apprentissage de l'intelligence artificielle (CP 1019, paragraphe 29). La recommandation de la commission de la Chambre des Lords de renvoyer le dossier au Gouvernement si aucun code de bonnes pratiques n'est élaboré est donc parfaitement pertinente et la publication de son rapport pourrait permettre de donner une nouvelle impulsion pour parvenir à une solution.

En définitive, la commission a rappelé la nécessité d'une approche équilibrée et progressive de la gestion du développement et du déploiement des grands modèles linguistiques, de manière à en maximiser les bienfaits pour la société tout en limitant les risques qui y sont associés. Elle a également préconisé des investissements stratégiques dans l'innovation, des cadres réglementaires précis et évolutifs, ainsi qu'une coopération internationale pour évoluer de manière responsable dans les méandres du développement de l'intelligence artificielle. Le Gouvernement britannique dispose de deux mois pour faire connaître sa position sur ce rapport.


Références




Cet article a été publié dans IRIS Observations juridiques de l'Observatoire européen de l'audiovisuel.