AI Act : le visage de l'IA de demain
Naviguer au cœur de l'IA revêt désormais un enjeu majeur. Dans le contexte de la multiplication des usages de cette technologie, l'Union européenne envisage un encadrement réglementaire à travers le très discuté AI Act. Un débat clé s'ouvre ainsi : quels contours pour cette réglementation ?
Qu’est-ce que l’AI Act ?
Formellement introduite le 21 avril 2021, la proposition de règlement sur l'intelligence artificielle (ou AI Act) émane de la Commission européenne. Le projet ambitionne de forger une réglementation commune ainsi qu'un cadre juridique applicable à l'intelligence artificielle. Au-delà de quelques exceptions notables comme le secteur militaire, l'AI Act envisage d'inclure l'ensemble des secteurs et toutes les catégories d'intelligences artificielles.
Bien que constituant une législation relative aux produits, cette proposition ne confère pas directement de droits aux personnes. En revanche, elle se focalise sur la régulation des fabricants de systèmes d'intelligence artificielle et des entités qui, à titre professionnel, se servent de ces systèmes.
L'AI Act propose une classification des applications de l'IA en fonction du risque qu'elles représentent, prévoyant une régulation adaptée à chaque niveau de risque. Les applications à faible risque ne seraient pas soumises à la régulation, tandis que les lois nationales existantes relatives à ces systèmes seraient rendues inapplicables grâce au principe d'harmonisation maximale. Les systèmes présentant un risque moyen ou élevé devraient passer par une évaluation de conformité obligatoire, à réaliser en tant qu'auto-évaluation par le fournisseur, avant d'être mis sur le marché.
En outre, l'AI Act prévoit d'interdire certains types d'applications, notamment la reconnaissance biométrique, les applications qui manipulent les personnes de manière subliminale, celles qui exploitent les vulnérabilités de certains groupes de façon nuisible ainsi que les scores de crédit social. Pour les trois premiers types d'applications, un régime d'autorisation serait prévu dans le contexte des forces de l'ordre, mais le crédit social serait complètement banni.
Pourquoi réglementer l'IA ?
L'IA, autrefois confinée aux seuls laboratoires de recherche, est désormais omniprésente, intervenant dans les aspects les plus variés de notre vie quotidienne. Que ce soit dans la santé, la sécurité, la finance ou les loisirs, l'IA trouve une place toujours plus grande, d'où l'urgence d'une réglementation adaptée.
Une IA non réglementée pose une série de problèmes. Les répercussions potentielles sont multiples et leurs conséquences, loin d'être anodines.
Quels sont les risques d’une IA non maîtrisée ?
L'absence d'une réglementation dévolue à l'IA engendre une série de risques, parmi lesquels :
Atteinte à la vie privée. Sans encadrement réglementaire, l'utilisation de l’IA est susceptible de mener à une violation de la confidentialité et du respect de la vie privée des individus. Les systèmes d'IA, en analysant et traitant de vastes volumes de données, peuvent potentiellement porter atteinte à l'intimité des personnes.
Sécurité des personnes vulnérables. L'interaction croissante des enfants avec des appareils et services basés sur l'IA soulève des préoccupations majeures. Ces systèmes collectent en effet des données comportementales et des informations personnelles. Sans régulation, l'usage malveillant de ces informations peut conduire à du harcèlement numérique, à de la manipulation psychologique, voire à des crimes plus graves tels que l'exploitation ou la traite des êtres humains.
Discours extrême et censure. L'IA non contrôlée pourrait aussi être utilisée pour propager des discours extrêmes ou pour exercer une censure. En manipulant les informations diffusées, les systèmes d'IA pourraient alimenter la désinformation, favoriser les discours de haine, ou au contraire restreindre indûment la liberté d'expression.
Décision automatique sans supervision humaine. Un autre risque notable est celui de l'automatisation extrême. Certaines formes d'IA sont capables de prendre des décisions de façon autonome, sans supervision humaine. Si ces décisions concernent des aspects critiques, comme la santé, la finance, ou la sécurité, les conséquences d'une mauvaise décision ou d'une défaillance technique pourraient être désastreuses. Ce risque met en évidence l'importance d'une régulation qui exige une supervision humaine appropriée pour les décisions prises par des systèmes d'IA dans des contextes sensibles.
Quel est l'objectif de l'Union européenne en termes d'IA ?
L'Union européenne ambitionne ainsi de créer un environnement où l'intelligence artificielle puisse prospérer tout en restant centrée sur l'humain et digne de confiance. Cette vision se matérialise par deux axes d'intervention : l'excellence et la confiance.
En outre, l'UE vise à devenir une plaque tournante mondiale pour l'IA, stimulant la recherche et les capacités industrielles dans ce domaine. Elle s'engage à permettre le développement et l'adoption de l'IA sur son territoire, favorisant le passage de la recherche en laboratoire à des applications concrètes sur le marché. L'objectif est de renforcer le potentiel de l'Europe à être compétitive à l'échelle mondiale, tout en assurant un leadership stratégique dans les secteurs à fort impact.
Tout l’enjeu est là : favoriser le développement de l’IA à bon escient tout en évitant ses externalités néfastes pour l’humain…
Un vœu pieux ?
Tandis que la réglementation de l'IA constitue un objectif ambitieux et nécessaire, sa mise en œuvre soulève de nombreux défis.
D'abord, la nature intrinsèque de l'IA, en constante évolution, pose un obstacle à la régulation. Les progrès technologiques rapides rendent complexe l'élaboration de normes rigides et durables. Les régulateurs se trouvent donc face à un défi majeur pour concevoir des réglementations suffisamment souples pour s'adapter à l'évolution technologique, tout en offrant un cadre juridique stable.
Ensuite, la dimension internationale de l'IA requiert une coordination globale. Les systèmes d'IA sont souvent développés et utilisés à travers les frontières, rendant les tentatives unilatérales de régulation inefficaces. Pourtant, obtenir un consensus international sur des normes communes s'avère notoirement difficile.
Enfin, la mise en œuvre effective de la régulation reste un enjeu de taille. Garantir la conformité des acteurs, en particulier dans un domaine aussi technique que l'IA, nécessite une capacité d'audit et de contrôle conséquente. D'autre part, l'AI Act, bien que complet et détaillé, pourrait s'exposer à des problèmes d'interprétation et de mise en œuvre en raison de sa complexité.
Ces défis ne doivent pas freiner l'ambition de réguler l'IA, mais ils soulignent l'importance de construire des cadres réglementaires réalistes, internationalement harmonisés et flexibles, capables de s'adapter au rythme rapide de l'innovation dans le domaine de l'IA.
Où en est l’AI Act ?
Le 14 juin, les législateurs de l'Union européenne ont donné leur approbation à un projet visant à réguler l'utilisation de l'intelligence artificielle. Toutefois, la prochaine phase implique une négociation potentiellement plus ardue avec les États membres afin de finaliser le texte.
Quant au calendrier envisagé, l'Union européenne ambitionne d'achever ces négociations avant la fin de l'année en cours, bien que l'application effective du règlement ne soit pas prévue avant 2026.
Article rédigé par Romain Frutos, rédacteur passionné par l’IT et les nouvelles technologies
Commentaire
Connectez-vous ou créez votre compte pour réagir à l’article.