|
Imprimer | |||
|
Compta-Audit,Vie des affaires Internet Intelligence artificielle : valeur ajoutée et challenges pour les entreprises Dans le cadre du forum annuel « JSALT » réunissant plus de 80 chercheurs internationaux travaillant à la construction du futur de l'intelligence artificielle, une journée de sensibilisation était organisée par l'Institut d'Informatique de l'Université du Mans le 26 juin 2023. L’occasion de présenter la valeur ajoutée, pour les entreprises, des récentes avancées technologiques ainsi que les challenges éthiques, juridiques et environnementaux à relever. Les progrès récents en matière d'IA et les nouveaux usages L'évolution fulgurante de Chat GPT Une journée de sensibilisation à l'intelligence artificielle (IA) était organisée le 26 juin 2023 à l'occasion d'un forum annuel dédié à la recherche dans ce domaine. Les intervenants (scientifiques du public et du privé, enseignants-chercheurs, juristes, etc.) ont successivement présenté les récentes avancées sur l'IA ainsi que les challenges à relever pour l'acceptabilité de cette technologie. Depuis sa création, le système d'IA générative Chat GPT n'a cessé d'évoluer, passant d'un système dit « supervisé » (ayant suivi un apprentissage par traitement d'un grand nombre de données préalablement labellisées par l'humain), à un système « non supervisé » (autonome dans la recherche de modèles à partir de données non labellisées). Selon un intervenant, les progrès technologiques ont été particulièrement spectaculaires jusqu'à la version 3 du système (avant-dernière version) pour l'élaboration duquel il a été ajouté une strate d'entraînement reposant sur un classement fait par l'humain. Depuis cette version, de nouvelles capacités, non prévues initialement, ont émergées, notamment la capacité du système à générer du texte à partir d'un faible nombre, voire aucune, donnée d'entraînement. Ce système est devenu tellement performant que son utilisation est aujourd'hui difficile à détecter, les logiciels de détection existant actuellement n'étant pas véritablement efficaces. Un intervenant a observé qu'un plateau de performance semblait avoir été atteint pour ce type de système, la limite reposant sur la quantité de données disponibles. L’utilité de ce type de système généraliste pour les entreprises ? Un intervenant a souligné que Chat GPT 4 est actuellement très performant pour créer ce qu'on appelle du dialogue naturel dans des domaines généralistes (histoire, biologie, droit, etc.) mais ne correspond pas aux besoins de technicité généralement exprimés par les entreprises. En pratique, un long et important travail de recherches est nécessaire pour rendre ces systèmes généralistes utilisables en production par les entreprises car il faut les spécialiser pour qu'ils s’adaptent à leur domaine d’activité. Par ailleurs, le développement de modèles spécialisés se heurte souvent à un problème de financement. Des exemples d’usages actuels par les entreprises. - Un Groupe d’assurance d’envergure internationale travaille depuis plus de 18 mois à la construction d’un outil de classement des verbatims des clients collectés lors d’enquêtes de satisfaction. L’intervenant a précisé que l’objectif est de comprendre leur avis afin d’améliorer le service et éviter l’érosion de la clientèle. Au-delà de l’analyse de l’écrit, le groupe travaille également sur la possibilité d’un traitement de supports vocaux. Une autre entreprise a développé un outil permettant d’explorer et d’annoter des corpus textuels, reposant sur un système supervisé alimenté par des données provenant de campagnes menées auprès d’experts et de profanes. Un autre exemple de projet combine à la fois de l’IA et des système embarqués : il consiste en un mur d’écrans dotés d’une faculté de résilience et d'une capacité à interagir entre eux. Les différents challenges à relever Les problématiques récurrentes ciblées par les médias Les questionnements le plus fréquemment relayés par les médias à propos de l'IA se polarisent autour de deux thématiques : -d'un côté, celle des robots qui réanime l'imaginaire autour de la menace de domination de l'humanité (craintes pour le futur) ; -de l'autre, celles des algorithmes, autour de la question de la symbiose avec l'intelligence humaine (problèmes du présent). Un intervenant a constaté que cette dualité était historique (elle remonte aux années 1950). Selon lui, c'est la question des algorithmes qui présentent le plus de problèmes actuellement. Une menace pour la fiabilité des informations diffusées par les médias A ce jour, aux États-Unis, plusieurs médias ont déjà utilisé Chat GPT pour rédiger des articles (Agence Reuters, USA today). En France, l'Agence France Presse s'y refuse pour le moment. La fiabilité et l'origine des informations restituées par le système posant question. Un intervenant a considéré que certains secteurs de niches se prêtaient davantage à l'utilisation de l'IA : les reportages de résultats sportifs, les commentaires sur des rapports financiers. Pour cet intervenant, l'avenir de l'IA dans le journalisme se situerait plutôt dans l'utilisation des outils de data minding (journalisme de données), que dans la rédaction en elle-même. Il a estimé que les buzz autour des menaces de l'IA avaient probablement été amplifiés par les journalistes ressentant une menace pour leur profession. Les risques environnementaux et sociaux à court ou moyen terme Selon un intervenant, l'utilisation de l'IA présenterait, à court ou moyen terme, les mêmes risques que l'usage du numérique, mais de façon accélérée. Ces risques seraient de nature environnementale (l'augmentation des émissions de gaz à effet de serre, l'épuisement des ressources en eau, etc.) et sociale (la destruction de certains métiers, la multiplication des emplois précaires dans la phase d'apprentissage du système, etc.). Les enjeux éthiques actuels Un intervenant a mis en lumière les problématiques actuelles, déjà observables en utilisant par exemple Chat GPT, notamment : - une discrimination par invisibilisation de certaines personnes (par exemple, le visage de personnes noires disparaissant sur certains fonds d'écran, un accent non reconnu vocalement, etc.) ; - le déterminisme social des systèmes prédictifs (reposant sur des données du passé) empêchant un individu de sortir d'un environnement donné (utilisé par exemple, en matière de justice prédictive aux Etats-Unis ou par le logiciel français qui permet de conseiller les lycéens pour leur choix d'études) ; - la neutralisation (par exemple, considérer le masculin comme neutre). Cet intervenant a insisté sur le fait que Chat GPT reste un agent conversationnel mais ne doit surtout pas être considéré comme un moteur de recherches. Il est à l'heure actuelle impossible de mesurer la performance de ce système, aucune publication scientifique n'ayant été publiée auprès de la communauté des scientifiques. L'intervenant a souligné que les biais (« raisonnements » erronés) de ce système proviennent non seulement des données utilisées, mais également du développement du système reposant sur des choix humains. Enfin, il a ajouté que l'omniprésence des Big Tech (95%) dans les liens d'intérêts (non mentionnés) dans les publications industrielles posait question. Les usages professionnels de l'IA générative et les risques pour les entreprises Un sondage (Ifop Talan, de mai 2023) sur l'utilisation de l'IA générative (c'est-à-dire en pratique Chat GPT, Bing+ OpenAI, Midjournaey) révèle que : - 44 % des utilisateurs des IA génératives s'en serviraient dans un cadre professionnel et personnel ; - 68 % des utilisateurs des IA génératives en entreprise le cacheraient à leur supérieur hiérarchique. Pour un intervenant, cela poserait question concernant les données stratégiques de l'entreprise (fuite, sécurité, etc.) ainsi que pour les données personnelles. Toujours selon ce sondage, l'IA générative serait principalement utilisée pour : -augmenter ses connaissances (34%) ; -effectuer des recherches comme dans un moteur de recherche (31%) ; -traduire des textes (26 %) ; -augmenter la productivité (20 %) ; -générer des textes, lettres de recommandation, tribunes, e-mails (20 %) ; -augmenter sa créativité (18 %). Selon cet intervenant, l'utilisateur de l'IA générative devrait garder à l'esprit qu'il ne s'agit pas d'un moteur de recherches. Les données livrées par l'utilisateur (lorsqu'il fait une requête, appelée « prompt ») pourraient être réutilisées par le système. La régulation de la CNIL La CNIL a pu observer l'extension du recours à l'IA dans de nombreux domaines : celui de la santé (aide au diagnostic de certains cancers, assistance en imagerie médicale, codage d'actes médicaux), de la justice (projet« DataJust »), de l'administration fiscale (projet « CFVR » pour le ciblage de la fraude et la valorisation des requêtes), des transports (reconnaissance faciale dans les aéroports, aide au suivi des personnes en gare, etc), des ressources humaines et le recrutement (évaluation automatique d'entretiens vidéo, anticipation du départ de collaborateurs), du retail (comptage et segmentation du public dans les centres commerciaux), de l'éducation (développement d'outils pédagogiques adaptés aux rythmes d'apprentissage), des smart city (détection de certains comportements, par exemple des attroupements, des dépôts d'ordures sauvages), etc. L'IA met en tension les grands principes de la protection des données (posés par la loi Informatique et Libertés et le RGPD) : -la limitation des finalités ; -la minimisation des données ; -la licéité, la loyauté et la transparence ; -l'exactitude ; -la limitation de la conservation ; -la sécurité. L'IA pose également des questions concernant le respect des droits des personnes (information, consentement, opposition, accès, rectification). Un intervenant, responsable IA à la CNIL, l'a illustré par une décision rendue par l'instance équivalente à la CNIL en Italie le 31 mars 2023, sur le fondement du RGPD. Cette instance a interdit temporairement l'utilisation par l'entreprise OpenAI (exploitant Chat GPT), de traiter des données des utilisateurs italiens en raison de doutes concernant l'information des utilisateurs dont les données ont servi à l'apprentissage du système, la base juridique de construction du système, le caractère inexact de certaines données, l'absence de mécanismes de vérification de l'âge. L'accès a Chat GPT a été rétabli 1 mois après, l'entreprise ayant démontré des mesures de mise en conformité (information sur les traitements mis en oeuvre, possibilité de s'opposer au traitement pour les utilisateurs et non utilisateurs, mesure d'effacement des données (l'effacement apparaissant impossible à ce jour), une clarification sur la réutilisation des données des utilisateurs, des mécanismes de vérification de l'âge). Selon cet intervenant, les questionnements que suscite l'IA vis-à-vis de l'utilisation et du traitement des données personnelles interviennent à plusieurs niveaux : -au stade des données d'apprentissage du système (utilisation d'un volume considérable de données grand public, académiques, de presse) : quel encadrement du traitement des données impliquées ? -au stade du modèle de langage (utilisation des données personnelles dans les modèles, existence d'un droit d'opposition, risque d'attaques du système, etc) ; -au niveau de l'interface utilisateur (quid des données fournies par l'utilisateur, quid des données de résultat erronées ?). Au sein de la CNIL, de nombreux travaux sont actuellement en cours ou à venir, concernant Chat GPT (une procédure en cours et de nouvelles plaintes déposées), l'IA générative (publication d'un dossier « LINC » consacré à l'IA générative, d'un plan d'action) et sur le règlement IA (enjeu d'articulation du texte avec le RGPD et le rôle de la CNIL). Journée inaugurale de sensibilisation à l'intelligence artificielle du workshop « JSALT » du 26 juin 2023 au Mans
| ||||
Date: 13/01/2026 |
||||