‍
ContexteÂ
‍
- L'AI Act est une proposition législative visant à réguler les systèmes d'Intelligence Artificielle (IA) au sein de l'Union Européenne (UE). Son objectif est de garantir la sécurité, la transparence et le respect des droits fondamentaux dans le développement et l'utilisation de l'IA.
- Le débat actuel s’est notamment cristallisé sur l’opposition entre d’une part le besoin d’une réglementation pour prévenir les grands risques associés à l’IA, notamment à l’IA générative, et la nécessité de mettre en place un cadre compétitif pour les entreprises européennes d’IA. Explain a développé la première technologie appliquant les LLM à la donnée publique et souhaite contribuer au débat, en apportant son retour d’expérience sur le déploiement de sa technologie d’IA auprès de ses clients depuis deux ans.
‍
Objectifs de la démarche d’Explain
‍
- Comprendre et anticiper les répercussions de cette législation pour son activité et son développement en Europe et dans le monde.
- Collaborer étroitement avec les parties prenantes pour co-construire un environnement réglementaire propice à l'innovation et au développement responsable de l'IA en Europe.
‍
‍
Implications majeures de la législation proposée pour Explain
‍
- Classification du produit d'Explain : l'AI Act propose une classification des systèmes IA selon leur niveau de risque, des "inacceptables" aux "minimaux". Le produit d'Explain, axé sur l'analyse des données publiques, pourrait être classé comme "à risque limité" ou "à risque modéré", selon les critères précis de la législation. Une telle classification entraînerait diverses obligations en matière de transparence et de conformité.
- Responsabilité : l'AI Act pourrait introduire des mécanismes de responsabilité pour les erreurs ou les défaillances des systèmes d'IA. Même si le produit d'Explain est conçu pour être plus fiable que d'autres modèles, comme ChatGPT, il est essentiel d'avoir des mécanismes de redressement en place pour traiter d'éventuels problèmes.
- Transparence : l'AI Act souligne l'importance de la transparence dans les systèmes d'IA. Explain pourrait devoir fournir une documentation détaillée expliquant les principes de fonctionnement de son modèle, ses limites, et les moyens mis en œuvre pour garantir la fiabilité des résultats.
- Conformité et audits : l'AI Act pourrait imposer à Explain de se soumettre à des audits réguliers, menés par des entités tierces, pour assurer la conformité de son système d'IA aux exigences législatives.
- Protection et traitement des données : étant donné qu'Explain indexe ses propres données, elle pourrait être soumise à des exigences strictes en matière de protection, d'origine, et de traitement des données. De plus, toute utilisation de données sensibles ou personnelles pourrait entraîner des obligations supplémentaires.
‍
‍
Demandes d’Explain
‍
1. Clarifier les usages interdits et Ă haut risque
‍Tous les systèmes d'IA ne présentent pas le même niveau de risque. Il est crucial que la réglementation reflète cela, permettant aux applications à faible risque, comme celle d’Explain, de bénéficier d'un cadre moins restrictif pour encourager l'innovation.
‍
2. Éviter d’inutiles lourdeurs administratives
‍En s'inspirant du RGPD, dont la mise en œuvre a su équilibrer les coûts de conformité, il est primordial que l'AI Act évite les charges administratives superflues. Les audits, notamment devraient être proportionnels à la taille et aux ressources des entreprises. L’AI Act devrait aussi clarifier comment ces audit de conformité doivent être menés, et qui en a la responsabilité (faut-il des “AI ethics officers” dans les entreprises, équivalents des correspondants informatique et libertés pour le RGPD ?).
‍
3. Clarifier la relation entre l’AI Act et le RGPD
‍La plupart des systèmes d'IA sont aujourd'hui basés sur le traitement de données massives. Pour cette raison, il est essentiel que le projet de Règlement de l’IA soit mieux aligné sur le RGPD. En l’état, ce texte représente de nouveaux risques d’insécurité juridique en raison de sa conciliation difficile avec la réglementation existante.
‍
‍
Propositions
‍
1. Création d’un comité de pilotage de l'AI Act
- Objectif : assurer une adaptation souple et éclairée de la régulation.
- Composition : représentants de diverses entreprises du secteur, notamment des startups, des experts en éthique, des juristes spécialisés en technologies, et des membres de la société civile. La diversité des membres garantirait une perspective globale et équilibrée.
- Rôle : examiner les propositions législatives, suggérer des améliorations et veiller à ce que les intérêts des startups soient pris en compte. Il servirait également de plateforme pour partager des retours d'expérience et des meilleures pratiques.
- Bénéfices : en impliquant les acteurs de l'industrie dès le début, le comité pourrait aider à prévenir les conséquences non intentionnelles de la régulation, tout en assurant une mise en œuvre plus fluide.
‍
2. Création d’un Label de qualité “EU AI”
- Objectif : établir un standard de confiance dans les solutions d'IA développées en Europe.
- Critères : le label serait accordé aux entreprises respectant des critères stricts en matière de transparence, d'éthique, de respect des données personnelles et de sécurité.
- Procédure : un audit indépendant pourrait être réalisé pour évaluer la conformité des entreprises souhaitant obtenir le label.
- Bénéfices : outre la reconnaissance de la qualité et de la fiabilité, le label pourrait faciliter l'accès aux marchés et augmenter la compétitivité des entreprises européennes à l'international. Pour les utilisateurs, ce label serait synonyme de confiance et de sécurité.
‍
3. Soutenir la R&D
- Objectif : Explain recommande de renforcer les initiatives visant à encourager la recherche et le développement dans le domaine de l'IA.
- Mesures concrètes :‍
- Programmes de subventions : Mise en place de programmes financiers spécifiques pour soutenir les projets de R&D en IA, avec une attention particulière pour les startups et les PME.
- Incitations fiscales : Introduction de crédits d'impôts ou de déductions pour les entreprises investissant significativement dans la R&D en IA.
- Partenariats public-privé : Encouragement des collaborations entre les universités, les centres de recherche et les entreprises pour favoriser le transfert de connaissances et l'innovation.‍
- Bénéfices : Ces mesures permettraient de stimuler l'innovation tout en assurant que les développements en IA respectent des normes éthiques et de sécurité élevées.
‍
Considérations
‍
Tirer les leçons du RGPD : Le RGPD a réussi à clarifier les pratiques de gestion des données sans imposer une charge financière excessive aux entreprises. Il a également mis en exergue les pratiques des géants tech, améliorant la transparence pour les utilisateurs. L'AI Act est l’opportunité de faire comprendre aux citoyens européens comment les LLM fonctionnent, et ce qu’ils permettent vraiment, comme le RGPD a permis de comprendre comment nos données étaient utilisées.
‍
Former et éduquer : plutôt qu’adopter une approche punitive, mettre en avant l'importance de la formation et de l'éducation pour les professionnels de l'IA. En ayant une main-d'œuvre bien formée et éthiquement consciente, les risques associés à l'IA peuvent être naturellement minimisés.
‍
Garantir un accès équitable aux données : pour les entreprises travaillant avec des données publiques, il est crucial d'avoir un accès équitable et non discriminatoire à ces données. La réglementation devrait encourager la transparence et l'équité dans l'accès aux bases de données, garantissant ainsi que les entreprises puissent innover.
‍
Reconnaître les normes sectorielles : dans le cas d'Explain, qui se concentre sur les données publiques, la reconnaissance des normes et des meilleures pratiques spécifiques à ce secteur pourrait faciliter la conformité tout en encourageant l'innovation.
‍
Promouvoir une harmonisation des normes : la promotion d'une harmonisation des normes et réglementations de l'IA au niveau international est essentielle pour éviter les disparités entre les régions.
‍
____
A propos d’Explain
Explain fait partie des premières entreprises à avoir trouvé une application concrète aux Large Language Models. Après deux ans de développement, Explain a levé 6 millions d’euros (Les Échos) pour financer la croissance de son produit, le premier assistant IA pour les professionnels en contact avec le secteur public. Explain permet à ses clients (dont de grands groupes européens comme Engie, Veolia ou RWE) d’optimiser leur développement sur le terrain en automatisant leurs tâches les plus répétitives et rébarbatives. Pour cela, l’IA d’Explain trouve, extrait, analyse et synthétise des informations tirées de plus de 50 millions de documents, dont beaucoup n’avaient jamais été indexés auparavant, y compris par Google. Les clients d’Explain disent ainsi pouvoir traiter 3 fois plus d’informations en 5 fois moins de temps.
‍