Le monde de la formation, tant au niveau des entreprises que des établissements d’enseignement supérieur, est en pleine mutation avec l'émergence de nouvelles technologies. Parmi elles, l'intelligence artificielle (IA) joue un rôle de plus en plus central. L'adoption de l'AI Act par la Commission Européenne représente une avancée majeure pour la régulation de cette technologie, avec des implications significatives pour le secteur de la formation.
L'AI Act fait l'objet de discussions depuis plusieurs années et devait initialement être présenté en avril 2021. Cependant, l'essor rapide de l'IA générative a bouleversé le calendrier en soulevant de nouvelles questions éthiques et techniques. Après plusieurs révisions, la loi a finalement été adoptée par le Parlement européen en mars 2024, étape cruciale dans la protection des citoyens et l’impulsion à l'innovation.
L'AI Act est validé le 21 mai 2024 par le Conseil de l’Union Européenne.
Toutefois, l'application de cette réglementation ne débutera qu'en 2026, lorsque les premiers textes entreront en vigueur. Durant cette période transitoire, les organisations ont l'opportunité de se préparer à cette nouvelle loi en adaptant leurs systèmes d'IA et en mettant en place des mesures de conformité.
L’AI Act, de quoi parle-t-on ?
L'AI Act, ou Loi sur l'Intelligence Artificielle, est une législation pionnière adoptée par la Commission européenne pour réguler l'utilisation de l'intelligence artificielle dans l'Union européenne (UE). Cette législation, en cours de finalisation, vise à établir un cadre juridique clair et harmonisé pour le développement, le déploiement et l'utilisation des systèmes d'IA à travers les États membres. Elle s'inscrit dans une démarche proactive de l'UE pour garantir la sécurité, la transparence et le respect des droits fondamentaux dans l'utilisation des technologies d'IA.
Le règlement distingue plusieurs niveaux de risque associés à l'IA et impose des obligations proportionnées selon ces niveaux, allant de l'interdiction pure et simple à des exigences de transparence.
Les différents niveaux de risque associés à l’IA
Une caractéristique clé de l'AI Act est la classification des systèmes d'IA en fonction de leur niveau de risque. Cette approche catégorise les systèmes en quatre niveaux :
Risque Inacceptable : Certaines applications d'IA, comme les systèmes de notation sociale de type gouvernemental, sont interdites en raison de leurs risques pour la sécurité et les droits fondamentaux.
Risque Élevé : Les systèmes d'IA dans des secteurs sensibles (santé, transports, éducation, etc.) doivent se conformer à des exigences strictes en matière de gestion des risques, de transparence et de sécurité.
Risque Limité : ils incluent les chatbots, les systèmes de recommandation et les deepfakes. Ces systèmes doivent respecter des obligations de transparence et informer les utilisateurs de l'interaction avec une IA.
Risque Minimal ou Négligeable : Les systèmes de faible risque, tels que les filtres anti-spam ou les jeux vidéo, sont essentiellement libres de toute régulation supplémentaire.
Cette classification permet de garantir que les mesures de régulation sont proportionnées au niveau de risque associé, assurant ainsi une protection adéquate des utilisateurs tout en encourageant l'innovation et le développement technologique.
L'AI Act : Un cadre réglementaire pour l'IA dans la formation
L'AI Act vise à encadrer l'utilisation de l'intelligence artificielle de manière sûre et éthique. Pour les acteurs de la formation, cela signifie un ensemble de règles claires à respecter, garantissant que les technologies d'IA utilisées pour l'enseignement et la formation respectent les droits des étudiants et des employés.
Ce que ça implique pour les établissements d’enseignement supérieur
Sélection et utilisation des technologies d'IA : Les établissements scolaires doivent s'assurer que les outils d'IA utilisés, tels que les plateformes d'apprentissage adaptatif ou les systèmes d'évaluation automatisée, respectent les exigences de l'AI Act. Cela inclut la transparence sur la manière dont les décisions sont prises par ces systèmes et la garantie qu'ils n'induisent pas de biais ou de discrimination.
Formation des enseignants : Avec l'introduction de l'AI Act, les enseignants doivent être formés non seulement à l'utilisation des technologies d'IA, mais aussi à la compréhension des implications éthiques et légales de ces outils. Cela nécessite une mise à jour régulière des compétences pour rester conforme aux nouvelles régulations.
Protection des données et vie privée : La protection des données des étudiants est cruciale. Les écoles doivent mettre en place des systèmes de gestion de données robustes pour se conformer aux règles strictes de l'AI Act concernant la vie privée et la sécurité des informations.
Et pour la formation professionnelle ?
Qualité et précision des contenus de formation : Les systèmes d'IA utilisés dans la formation professionnelle doivent garantir la qualité et l'exactitude des informations fournies. Cela inclut des exigences de validation des contenus pour éviter la propagation de biais ou d'informations incorrectes.
Personnalisation et adaptation des formations : Les outils d'IA permettant de personnaliser les parcours de formation doivent respecter les règles de transparence et de non-discrimination. Les apprenants doivent être informés de l'utilisation de l'IA et des critères utilisés pour personnaliser leur parcours.
Surveillance et évaluation continue : Les programmes de formation assistés par IA doivent faire l'objet d'une évaluation continue pour assurer leur efficacité et leur conformité aux normes éthiques. Les systèmes doivent être capables de s'adapter aux retours des utilisateurs et aux évolutions des réglementations.
Protection des données des apprenants : Les données personnelles des apprenants, recueillies et traitées par des systèmes d'IA, doivent être protégées conformément au Règlement Général sur la Protection des Données (RGPD). Cela inclut des mesures strictes de sécurité et de confidentialité.
Adopter l'AI Act : nos 5 clés pour réussir
L'intégration de l'AI Act dans votre organisation est bien plus qu'une simple question de conformité réglementaire. C'est une opportunité pour renforcer la confiance et l'innovation.
Voici 5 clés que nous avons identifiées chez Kwark pour y parvenir :
Identifiez vos risques : Commencez par une évaluation approfondie des risques liés à vos systèmes d'IA. Cela vous aidera à cibler les exigences réglementaires pertinentes et à anticiper les défis potentiels.
Soyez proactif en matière de conformité : Pour les systèmes d'IA à haut risque, il est crucial d'adopter une approche proactive. Mettez en place des politiques robustes de gestion des données, assurez une documentation rigoureuse et garantissez la traçabilité ainsi que la supervision humaine.
Mettez en œuvre des mécanismes de contrôle intelligents : La surveillance continue de vos systèmes est essentielle. Développez des processus de contrôle interne efficaces et utilisez des outils de monitoring avancés pour maintenir une conformité constante.
Favorisez la transparence : Vos utilisateurs ont le droit de savoir quand ils interagissent avec l'IA. Assurez vous qu'ils comprennent comment ces systèmes fonctionnent et quelles sont leurs limites. Cela renforce la confiance et l'engagement.
Formez vos équipes : Une formation continue sur les implications légales et éthiques de l'IA est indispensable. Elle ne se limite pas à la conformité, mais vise à instaurer une culture d'innovation responsable au sein de votre entreprise.
En adoptant ces pratiques, vous ne vous contentez pas de respecter l'AI Act, vous placez votre organisation à la pointe de l'innovation responsable.
L'AI Act est un cadre réglementaire crucial pour le développement responsable de l'intelligence artificielle en Europe. Pour le secteur de la formation, il représente une opportunité d'innover tout en garantissant que l'utilisation de l'IA se fasse de manière éthique et sécurisée. Les écoles du supérieur et les entreprises doivent donc se préparer à ces changements, en investissant dans la formation et la mise en conformité avec cette nouvelle législation.
6 août 2024