fr
contact
BACK TO THE LIST

[Avis d’expert] AI Act : et l’IA générative dans tout ça ?

9 octobre 2024

L’IA Act et l’IA Générative : ce qu’il faut retenir

Depuis maintenant plusieurs mois, l’AI Act s’est imposé comme LE cadre réglementaire incontournable pour toutes les entreprises exploitant, de près ou de loin, des systèmes d’intelligence artificielle. Ce règlement européen, qui vise à encadrer et sécuriser l’usage de l’IA, impose aux organisations des normes strictes en termes de transparence, de gouvernance des données et des algorithme de gestion des risques.

Évaluer les IA génératives est bien plus complexe que pour les IA traditionnelles, car elles s’appuient sur des modèles très larges et autonomes, difficiles à prédire et à contrôler. Les risques de génération de contenu biaisé, trompeur ou non-éthique sont accrus, ce qui appelle à des mesures de contrôle plus strictes et des exigences accrues en termes de transparence. Selon une étude de Gartner, 15 % des organisations répondantes déclarent par ailleurs ne pas avoir encore formalisé de gouvernance et de gestion des risques associés à leurs IA.

Ce sujet reste encore peu traité, au-delà des approches classiques centrées sur la gestion des risques, c’est pourquoi nous vous proposons une synthèse en quelques points clés des enjeux spécifiques liés à l’application de l’AI Act aux IA génératives, à considérer pour vous aider à anticiper ces défis :

 

  • IA Générative (IA-Gen) vs IA à Usage Général (GPAI) : L’AI Act définit un système GPAI comme un « système d’IA basé sur un modèle d’IA à usage général et capable de servir différentes finalités, tant pour une utilisation directe que pour une intégration dans d’autres systèmes d’IA »,Les IA-Gen, basées sur ces modèles polyvalents, font donc partie des systèmes GPAI.

 

  • L’IA Générative n’est pas interdite par l’AI Act : Contrairement aux idées reçues, l’AI Act ne restreint pas l’utilisation des IA-Gen. Au contraire, il vise à promouvoir l’innovation, tout en protégeant les citoyens et en prévenant les abus potentiels (propriété intellectuelle notamment).

 

  • Une approche basée sur les risques
    Le cadre réglementaire du AI Act est structuré autour d’une approche par les risques, classant les systèmes d’IA de « risques minimaux » à « risques inacceptables ». Cette approche s’applique également aux GPAI. Les fournisseurs de modèles d’IA à usage général doivent permettre à leurs clients de respecter les exigences spécifiques à leur niveau de risque.

 

  • Exigences spécifiques pour les GPAI:
    L’ AI Act consacre un chapitre entier aux GPAI, imposant aux fournisseurs plusieurs obligations :

    • Rédiger une documentation technique détaillant les processus de formation, d’essai et les résultats des évaluations.
    • Fournir aux intégrateurs des informations claires sur les capacités et limites des modèles GPAI pour assurer leur conformité.
    • Respecter la directive sur le droit d’auteur.
    • Publier un résumé détaillé du contenu utilisé pour la formation du modèle GPAI.

 

  • GPAI à Risque Systémique
    Les modèles GPAI deviennent « à risque systémique » lorsqu’ils dépassent un certain seuil de capacité de calcul, fixé à 1025 FLOP. Pour des détails supplémentaires, l’article 51 et l’Annexe XIII de l’AI Act précisent les critères de désignation.

 

  • Exigences supplémentaires pour les GPAI à risque systémique
    Les fournisseurs de GPAI à risque systémique doivent :

    • Réaliser des tests contradictoires pour identifier et atténuer ces risques
    • Documenter et signaler tout incident grave à l’Office AI et aux autorités compétentes
    • Assurer une protection adéquate en matière de cybersécurité

 

  • Code de bonnes pratiques : En attendant la normalisation harmonisée prévue d’ici le 2 août 2025, les fournisseurs de GPAI peuvent volontairement adhérer à un code de bonnes pratiques. Le respect de ce code ou des normes harmonisées assure une présomption de conformité

 

Si n’est pas encore le cas, ne tardez pas à analyser vos systèmes d’IA pour identifier les actions correctives à mettre en place pour une mise en conformité avec l’IA Act.
Au-delà d’un sujet de conformité, ces pratiques permettent aussi de fiabiliser les IA utilisées et de mieux en saisir les risques ou les limites. C’est donc aussi un bénéfice métier qu’il est intéressant de viser à travers cette démarche.

Vous ne savez pas par où commencer ?

Nous pouvons vous aider dans cette démarche à plusieurs niveaux : acculturation, accompagnement à la certification, LNE, mise en place d’une méthodologie d’IA de Confiance…

Axionable a déjà accompagné plus de 10 clients dans leur démarche d’IA Responsable (Crédit Agricole, Colas, Orange, Arkéa, Chanel, Suez, La Mutuelle Générale, Groupama…) et est la première entreprise à avoir obtenu la certification IA du LNE et le Label responsable et de confiance de LabelIA.

Concocté avec amour par :
José Sanchez

Articles concoctés avec les mêmes ingredients

20 novembre 2024

[REPLAY] Produrable 🎥 L’IA : danger ou secours pour le climat et la planète ? 🤖🌱

[Conférence] L’IA : danger ou secours pour le climat et la planète ? 🤖🌱 « Oui, on peut combiner innovation et écologie, la vraie question, c’est comment on le fait et toujours se rappeler que c’est une question de choix et que l’on a une responsabilité, sinon un devoir professionnel, à développer des technologies qui ont […]

Céline ALBY
8 octobre 2024

#AxionableSuccessStories : Colas Digital Solutions

Méthodologie IA de confiance et aide à la certification Avec pour objectif de se rendre conforme à la future réglementation européenne sur l’utilisation de l’IA (AI Act), CDS (Colas Digital Solutions) a sollicité Axionable pour : • Réaliser un audit d’IA de Confiance et identifier les principaux axes d’amélioration relatifs aux processus d’IA, à la […]

José Sanchez
8 octobre 2024

#AxionableSuccessStories : Fédération Nationale des Travaux Publics

Conception d’une application de détection des Espèces Exotiques Envahissantes : LUCEE-TP Les Espèces Exotiques Envahissantes (EEE), représentent aujourd’hui la 3ème cause d’effondrement de la biodiversité dans le monde, avec des conséquences négatives d’un point de vue écologique et sanitaires. Elles représentent de plus un risque majeur pour les acteurs des Travaux Publics, de par le fort risque […]

Paul LAVILLE
19 septembre 2024

ADEO choisit Axionable et Sweep pour accélérer sa transformation positive

ADEO choisit Axionable et Sweep pour accélérer sa transformation positive   Paris, le 19 septembre 2024 – ADEO choisit le cabinet Axionable et la plateforme de gestion des données carbone et ESG Sweep pour accélérer sa transformation vers une entreprise à impacts positifs. Ce partenariat s’inscrit dans le cadre d’un programme ambitieux pour ADEO, visant […]

Gwendal BIHAN
Paris
13 rue des Arquebusiers
75003 Paris
contact Contact