AccueilÉconomieIA : Les clés pour garantir un cadre de confiance

Chiffre IA : Les clés pour garantir un cadre de confiance

L’Académie des sciences et techniques comptables et financières a présenté les grands chapitres de son cahier n°38 “Intelligence artificielle et à la confiance : règlementation, enjeux, risques, audit et certification”.
IA : Les clés pour garantir un cadre de confiance
© DR - Alain Bensoussan

Économie Publié le ,

Instaurer la confiance nécessaire dans les systèmes à base d’intelligence artificielle (IA), pour pouvoir ne retirer qu’avantages et bénéfices, est fondamental. Or, aujourd’hui, fait-il observer, l’intelligence artificielle interpelle sur les sujets de transparence, de traçabilité, de contrôle des apprentissages et des évolutions par les données, de fiabilité, de biais, de sécurité et de confidentialité. Dès lors, comment disposer d’une évaluation objective de la conception, de la réalisation et, périodiquement, du fonctionnement, de l’enrichissement et de la maintenance de ces systèmes ? Telle est la question posée par le groupe de travail chargé de la thématique IA et confiance à l’Académie des sciences et techniques comptables et financières.

Lancé en 2017, ce groupe se compose de professionnels du chiffre, d’avocats, de professeurs, de consultants, d’organisations, d’associations et d’institutions parties prenantes. Son objectif ? Réfléchir à la règlementation, aux enjeux, aux risques, et à la façon d’auditer un algorithme pour être à même de le certifier “conforme“. A ce titre, ils ont étudié les projets de règlements européens, ainsi que les travaux menés et référentiels disponibles, au niveau international. Ils ont analysé les textes et les situations identifiées pour détecter les limites, les biais, les risques, les responsabilités et ainsi dégager les bonnes pratiques et le cadre nécessaire à l’auditabilité et à la certification. Le son cahier n°38 “Intelligence artificielle et à la confiance : règlementation, enjeux, risques, audit et certification“ est le fruit de ce travail. Parmi les experts invités à présenter leur contribution durant ce webinaire consacré l’avènement d’une IA de confiance, Camille Rosenthal-Sabroux, professeur émérite à l’université Paris Dauphine-PSL (Laboratoire d'analyse et modélisation de systèmes pour l'aide à la décision) et Alain Bensoussan, avocat chez Lexing Alain Bensoussan Avocats, ont présenté les aspects humains et juridique.

La dimension humaine

Pour Camille Rosenthal-Sabroux, professeur émérite à l’université Paris Dauphine-PSL (Laboratoire d'analyse et modélisation de systèmes pour l'aide à la décision), la prise en compte de la dimension technique par des robots intelligents ne doit absolument pas faire disparaitre la dimension humaine, mais, bien au contraire l’amplifier. En effet, en libérant plus de temps pour l’homme, il augmente ainsi sa disponibilité et son importance potentielle. « Il faut être conscient de ce que les systèmes à base d’IA sont capables de faire, quelles sont leurs limites, comment est-ce qu’ils peuvent aider l’homme. Pour cela, ce dernier doit rester au cœur de la réflexion », explique-t-elle. L’homme doit comprendre et maîtriser les systèmes à base d’IA. La professeure défend pour ce faire une approche pluridisciplinaire. Aussi, l’audit des algorithmes par un expert est un facteur-clé de la confiance et il est une aide à la compréhension de ces systèmes.  

Selon la professeure, il faut parallèlement améliorer nos connaissances des systèmes à base d’IA. Il faut également informer et former les employeurs, les cadres, les décideurs dans les entreprises, afin de donner confiance aux utilisateurs. Il est enfin nécessaire d’appliquer les bonnes pratiques en matière de conception et d’exploitation des systèmes à base d’IA. 

Le point de vue d’un juriste spécialiste

« Nous avons dépassé, pour une bonne partie des pays, la réflexion éthique, pour être dans l’action juridique », explique Alain Bensoussan, . qui précise que près d’une centaine de réglementations existent dans le monde sur le droit et l’IA, tandis qu’un projet de règlement tout aussi important que le RGPD est en préparation au niveau européen. 

L’approche par les risques (avec un niveau qui varie selon les secteurs concernés), prévaut dans la plupart des pays du monde et l’UE s’inscrit dans ce cadre. Par conséquent, il n’y a pas d’interdiction, sauf cas particuliers. « On expérimente d’un côté et on certifie de l’autre. Tous nos travaux portent sur cette nécessité de certifier. En effet, au regard des technologies d’aujourd’hui, les IA sont autonomes, elles échappent à leur créateur », souligne Alain Bensoussan. Cette approche par la liberté vise donc à trouver un équilibre entre la nécessité d’innover et celle de se prémunir face aux dangers véhiculés par l’IA.

Véritable concentration de l’expérience de l’éthique existante dans le monde, cette réglementation européenne se veut minimaliste. Elle s’efforce d’organiser certains interdits de manière limitée, d’encadrer les systèmes à haut risque, sur un principe de liberté de l’IA. Avec tout de même une exigence forte. « L’IA doit être conçue, réalisée, mise en place, et maintenue conformément aux droits fondamentaux », rappelle Alain Bensoussan, qui précise qu’il s’agit de construire à travers l’interaction humain-robot et non l’un contre l’autre.

Le texte prévoit d’abord d’interdire d’utiliser de l’IA pour altérer la confiance des personnes « On ne peut passer en-dessous du plancher de l’intimité des personnes afin de découvrir des choses qu’elles ne souhaiteraient pas rendre apparentes », souligne l’avocat. Se servir de l’IA sur des personnes vulnérables est également prohibé. En effet, ces n’ont pas suffisamment de discernement pour s’opposer à la“puissance” de cette IA. Un autre interdit, notamment rendu célèbre par son traitement dans une série, concerne la notation sociale. La biométrie à distance en temps réel dans l’espace public devrait également être prohibée, sauf à des fins de protection des victimes ou de lutte contre les infractions graves contre le terrorisme. « Ces interdits permettront de créer une IA “design par la dignité“, selon les termes de l’article 1 de la charte des droits fondamentaux de l’UE », explique Alain Bensoussan.

Une deuxième catégorie concerne les IA implantées au cœur des dispositifs d’organisation de la sécurité. Il faut, dans ce cas, mettre en place un plan de sûreté et un plan de conformité. Lorsque l’IA entre en interactions avec les humains, il est important que les humains comprennent qu’ils sont en face d’une IA, pour Alain Bensoussan. Il y a donc une obligation de leur donner ces informations.

Enfin, concernant l’IA à haut risque, des exigences strictes sont également posées et notamment l’obligation de conserver certains éléments (archives de l’ensemble de données utilisé pour entrainer et tester les systèmes d’IA, voire conservation des données elles-mêmes, ou encore documentation relative aux techniques de programmation). Des sanctions administratives, plus fortes que celles relatives au RGPD, pourraient être mises en place (30 millions d’euros d’amende ou 6 % du chiffre d’affaires mondial en cas de mise en place d’un système d’IA interdit). Finalement, Alain Bensoussan plaide pour contrôle humain approprié afin de réduire au maximum les risques.
« L’idée est de ne pas abandonner les systèmes à haut risque uniquement à des machines, mais de permettre une intervention humaine de la conception à la mise en œuvre et jusqu’à l’utilisation », poursuit le spécialiste. Une démarche de qualité (avec certification) devrait permettre d’empêcher les atteintes cyber. 

Alain Bensoussan de conclure : « gageons que cette régulation deviendra pour l’ensemble des pays du monde l’élément-clé pour un XXIe siècle de confiance grâce à l’IA ». 

Partager :
Envoyer à un ami
Connexion
Mot de passe oublié ?