IA – Risques : Ethics, Green, Sociaux et Sécurité
Introduction
L’intelligence artificielle générative (IA générative) s’impose aujourd’hui comme un levier incontournable dans l’environnement professionnel, redéfinissant les standards de nombreux secteurs. En s’appuyant sur des algorithmes capables de produire du contenu original à partir de vastes bases de données, cette technologie ouvre des perspectives inédites pour stimuler l’innovation et accroître la productivité. L’essor de l’IA générative, illustré notamment par l’adoption fulgurante de ChatGPT, qui a conquis près de 200 millions d’utilisateurs en un temps record, témoigne de son impact transformateur sur les entreprises. Ces dernières s’en servent pour enrichir l’expérience client et optimiser leurs processus internes. Cependant, cette généralisation soulève de nouvelles problématiques éthiques, environnementales, juridiques et sécuritaires qui nécessitent une analyse rigoureuse.
Cette analyse vise à offrir aux décideurs et professionnels une vue d’ensemble sur les défis complexes liés à l’adoption de l’IA générative, pour encourager une approche réfléchie et responsable dans l’exploitation de ces technologies innovantes mais potentiellement risquées.
1. Les Enjeux Éthiques
A. Biais et discrimination : Comment les modèles d’IA peuvent perpétuer ou amplifier des biais existants
L’un des défis les plus importants que soulève l’IA générative est sa capacité à reproduire et parfois à accentuer les biais présents dans les données d’entraînement. Ce phénomène peut avoir des répercussions majeures en matière d’équité et de discrimination, notamment dans des secteurs critiques comme le recrutement, l’octroi de prêts ou encore la justice pénale.
Les biais introduits par l’IA générative peuvent se manifester sous diverses formes, incluant des préjugés liés au genre ou à l’ethnie. Une étude de l’Université de Washington a ainsi révélé que les modèles génératifs ont tendance à associer certains métiers à des groupes spécifiques, renforçant ainsi des stéréotypes sociaux déjà existants. Ces biais ne sont pas simplement le reflet des données sur lesquelles ces systèmes s’appuient, mais peuvent être exacerbés par les algorithmes eux-mêmes. Le rapport de l’UNESCO sur l’éthique de l’IA avertit que « les systèmes d’IA peuvent non seulement perpétuer et amplifier les biais et les discriminations déjà présents, mais aussi en créer de nouveaux ».
L’impact de ces biais dans le monde professionnel est significatif. En 2015, une mauvaise expérience de l’utilisation de l’IA dans les processus de recrutement chez Amazon, démontre que les biais dans les données peuvent désavantager certains groupes, contribuant ainsi à la persistance des inégalités sur le marché de l’emploi.
Des initiatives pour remédier à cette problématique commencent à voir le jour. L’OCDE, via son Observatoire de l’IA, recommande plusieurs axes d’action, dont :
- Diversifier les équipes qui développent les systèmes d’IA,
- Améliorer la qualité et la représentativité des données d’entraînement,
- Mettre en place des audits réguliers pour évaluer les biais des algorithmes.
Cependant, malgré ces efforts, le chemin à parcourir est encore long. Cathy O’Neil, dans son ouvrage « Weapons of Math Destruction », affirme que « les algorithmes sont des opinions encapsulées dans du code », soulignant ainsi la nécessité pour les entreprises d’adopter une approche proactive et rigoureuse face à ces enjeux, notamment via la mise en place de mécanismes de contrôle et de gestion des biais.
Et là encore, tout n’est pas si facile. Si Google dit s’engager dans une démarche responsable concernant l’Intelligence Artificielle, on ne peut pas passer à côté des de certaines controverses, telles que celle concernant le renvoi de plusieurs de ses responsables de l’éthique, telle que Timnit Gebru en décembre 2020. En effet, Gebru, co-leader de l’équipe Éthique IA de Google, travaillait sur un article scientifique qui soulignait les dangers des modèles d’IA de grande taille, notamment ceux utilisés pour générer du texte humain. L’étude mettait en avant des préoccupations concernant les biais potentiels de ces systèmes, ainsi que leur coût environnemental élevé, ce qui a provoqué des tensions au sein de Google pris dans un conflit d’intérêt apparent.
B. Transparence et explicabilité : Les défis liés à la compréhension et à l’audit des décisions prises par l’IA
La transparence et l’explicabilité des systèmes d’IA et plus particulièrement d’IA générative représentent un défi éthique crucial pour les entreprises et les décideurs. Il s’agit de comprendre comment une IA parvient à ses conclusions ou prend des décisions, un point de vigilance essentiel dans un contexte où les réseaux neuronaux, toujours plus complexes, rendent cette tâche particulièrement difficile.
Comme le souligne la CNIL dans son rapport, « l’opacité des systèmes d’IA constitue un obstacle majeur à la confiance et à la responsabilité ». Cette opacité devient particulièrement problématique lorsque des décisions importantes, qu’elles soient d’ordre personnel ou commercial, dépendent directement de ces systèmes.
Le phénomène de la « boîte noire » est au cœur de cette préoccupation. Une étude parue dans la revue Nature observe que même les créateurs des systèmes d’IA rencontrent des difficultés à interpréter précisément leur fonctionnement. Cela pose un enjeu crucial en termes de responsabilité, surtout en cas d’erreurs ou de dommages causés par l’IA.
Face à ces enjeux, plusieurs stratégies émergent pour améliorer la transparence :
- L’IA explicable (XAI) : Cette approche propose de concevoir des modèles plus transparents. Selon le Dr Johannes Schneider, professeur à l’Université du Liechtenstein, « Les techniques d’IA explicable pour GenAI (GenXAI) produisent des explications qui, par exemple, aident à comprendre des résultats pour des entrées individuelles ou le modèle dans son ensemble. ».
- Audits algorithmiques : Des méthodes sont développées pour évaluer rigoureusement les systèmes d’IA. L’Institut Montaigne recommande la mise en place d’audits réguliers afin de détecter et corriger d’éventuels biais.
- Documentation des modèles : Google AI propose les « Model Cards », des fiches techniques qui détaillent les caractéristiques, les performances et les limites des modèles pour en accroître la transparence.
Cependant, ces efforts ne sont pas sans limites. Un rapport de l’UNESCO insiste sur le fait que « l’explicabilité ne doit pas se cantonner aux aspects techniques, mais doit également inclure les dimensions sociales et éthiques des décisions prises par l’IA ».
Pour les entreprises, l’enjeu va bien au-delà de la simple conformité. La transparence et l’explicabilité sont des piliers indispensables pour établir une relation de confiance avec les utilisateurs et les parties prenantes. Selon une étude de PwC, 85 % des dirigeants estiment que l’IA doit devenir plus transparente pour mériter la confiance du public.
Cela se matérialise par exemple par la création d’initiatives telles que celle d’Adobe avec la Content Authenticity Initiative, regroupant plus de 1200 membres, qui définit une procédure de partage des contenus numériques garantissant la conservation des éléments de traçabilité. Via une la co-création d’une organisation, la Coalition for Content Provenance and Authenticity, elle propose également la normalisation des informations de partage entre plateformes.
Le chemin vers une IA générative transparente et explicable est donc à la fois technique, éthique et stratégique pour les entreprises. Cela nécessite une collaboration étroite entre les avancées technologiques, les régulations émergentes et une réflexion éthique approfondie.
C. Responsabilité : Qui est responsable en cas de dommage causé par une IA ?
La question de la responsabilité en cas de dommages liés à une IA est un défi juridique et éthique qui interpelle de plus en plus les entreprises et les décideurs. À mesure que cette technologie s’intègre dans des domaines variés, allant de la création de contenu à la prise de décisions automatisées, la définition des responsabilités en cas de préjudice devient un enjeu majeur.
Selon un rapport du Conseil de l’Europe, « l’attribution de la responsabilité en cas de dommages causés par l’IA représente un des défis les plus urgents de notre époque ». Cette problématique est en partie due à la nature imprévisible de l’IA et à son fonctionnement souvent opaque, rendant complexe l’identification des responsabilités.
Plusieurs parties prenantes pourraient être tenues responsables :
- Les développeurs d’IA : Une révision du régime de la responsabilité objective du fait des produits défectueux pour l’IA est en cours pour prendre en compte les évolutions technologiques afin que les concepteurs d’IA puissent être tenus responsables s’il est démontré qu’ils n’ont pas pris les précautions nécessaires pour éviter des dommages prévisibles.
- Les entreprises utilisatrices : Un article de la Harvard Business Review précise que « les entreprises doivent assumer la responsabilité des systèmes d’IA qu’elles déploient, même si elles ne comprennent pas entièrement leur fonctionnement ».
- L’IA elle-même : Bien que controversée, la possibilité de conférer une personnalité juridique à l’IA est discutée. Le Parlement européen a abordé ce sujet, mais de nombreuses questions éthiques et pratiques subsistent.
- Les fournisseurs de données : Un rapport de l’OCDE met en lumière la responsabilité des fournisseurs de données d’entraînement, en particulier si ces données sont biaisées, incorrectes ou que leur collecte ne respecte pas la réglementation.
En réponse à ces enjeux, des cadres juridiques commencent à émerger. L’Union européenne travaille sur l’AI Act, une législation visant à clarifier la responsabilité en matière d’IA. Cependant, comme le souligne un article de Les Echos, « l’évolution rapide de la technologie rend difficile la mise en place de règles stables et durables ».
Pour les entreprises, il est donc essentiel d’adopter une gestion proactive du risque. Une étude de Deloitte recommande “d’intégrer des tests rigoureux, une surveillance continue et une documentation précise des processus décisionnels pour mitiger les risques liés à l’IA ». En outre, les entreprises ont désormais la possibilité de se faire certifier par le Laboratoire National de métrologie et d’Essais (LNE) leur processus d’IA. Il est important de noter que cette certification n’est pas un gage de conformité avec l’AI Act mais établit une trajectoire qui permettra probablement de s’en rapprocher.
La responsabilité dans l’usage de l’IA générative demeure donc une question évolutive sur les plans éthique et juridique. Les entreprises doivent à la fois suivre de près les avancées réglementaires et développer une stratégie éthique, fondée sur la transparence, l’évaluation des risques et l’acceptation des responsabilités liées à leurs systèmes d’IA.
2. Problèmes Sociaux et Environnementaux
A. Impact sur l’emploi : Automatisation et transformation des métiers, risques pour certaines professions
Dans la lignée de l’automatisation progressive commencée lors de la première révolution industrielle, l’intelligence artificielle générative bouleverse de nombreux secteurs d’activité, remettant en question l’avenir des professions telles que nous les connaissons aujourd’hui. Cette avancée offre à la fois des perspectives fascinantes et des défis significatifs pour le marché de l’emploi.
De nombreux métiers, encore épargnés par l’automatisation des processus, se voient ainsi transformés, tels que les métiers liés à la création artistique, mais aussi les juristes ou les journalistes pour n’en citer que quelques-uns.
Pour relever ces défis, il est donc nécessaire de :
- Promouvoir la formation continue et la requalification professionnelle.
- Adapter les systèmes éducatifs afin de préparer les jeunes aux métiers de demain.
- Élaborer des politiques publiques en soutien à cette transition et pour protéger les travailleurs les plus vulnérables.
Si l’automatisation et l’intelligence artificielle génèrent des craintes, elles offrent aussi des opportunités inestimables pour transformer l’emploi et améliorer les conditions de travail. La clé pour les entreprises et les décideurs politiques réside dans la capacité à anticiper ces mutations et à en tirer parti tout en veillant à atténuer les impacts négatifs sur la société.
B. Consommation énergétique : L’empreinte écologique des modèles d’IA, notamment lors de leur entraînement
L’empreinte environnementale des modèles d’intelligence artificielle, notamment lors de leur phase d’entraînement, soulève des préoccupations croissantes à l’ère de la planification de la transition écologique. Ces systèmes, extrêmement gourmands en énergie, remettent en question la durabilité de cette technologie pourtant incontournable.
Des études récentes mettent en lumière l’ampleur de cette consommation énergétique. D’après une étude menée par l’Université du Massachusetts, l’entraînement de certains modèles d’IA peut générer jusqu’à 626 000 kg de CO2, soit l’équivalent de 125 allers-retours en avion entre New York et Pékin. Ces chiffres frappants donnent une idée concrète de l’impact environnemental des modèles d’IA. Ces données peuvent d’ailleurs être consultées sur le site Hugging Face pour les fournisseurs qui veulent jouer le jeu de la transparence.
Mais l’entraînement n’est pas l’unique source de consommation énergétique. L’utilisation continue de systèmes comme ChatGPT-3, qui contient 175 milliards de paramètres, nécessite environ 564 MWh par jour. Cette demande énergétique quotidienne est un rappel que les défis environnementaux liés à l’IA ne se limitent pas à sa phase de formation initiale.
Outre l’énergie, l’infrastructure sous-jacente des modèles d’IA a aussi des impacts environnementaux notables. Les data centers, nécessaires à leur fonctionnement, consomment d’énormes quantités d’eau pour le refroidissement, ce qui ajoute une nouvelle couche à l’empreinte écologique de l’IA.
Cependant, des initiatives émergent pour atténuer ces impacts. Des chercheurs d’Orange Innovation China ont développé un outil pour mesurer et optimiser l’empreinte carbone des systèmes IA, en proposant des solutions comme la réduction des opérations ou la simplification des modèles. Cela offre aux entreprises la possibilité d’adopter des pratiques plus responsables.
Ainsi, pour les décideurs, il devient essentiel d’intégrer ces problématiques dans leur stratégie d’IA. Adapter les ressources en fonction des besoins spécifiques des utilisateurs pourrait réduire la consommation énergétique de 70 % pendant l’entraînement et de 60 % lors de l’inférence, marquant une avancée vers un usage plus durable de cette technologie.
L’IA représente des opportunités immenses, mais son impact environnemental est indéniable. Trouver un équilibre entre innovation et responsabilité écologique est désormais une priorité pour les chercheurs et entreprises souhaitant une IA durable et respectueuse de l’environnement.
C. Exploitation des travailleurs de la modération : Les conditions de travail difficiles pour ceux qui modèrent les contenus générés par l’IA
L’essor de l’IA générative a révélé une problématique sociale profonde : l’exploitation des travailleurs chargés de modérer les contenus générés par ces systèmes. Souvent situés dans des pays en développement, ces modérateurs sont exposés à des conditions de travail particulièrement difficiles et, parfois, traumatisantes.
L’exemple des travailleurs kényans employés par Sama, sous-traitant d’OpenAI, est emblématique de cette situation. Ces employés ont contribué à la création d’outils de modération pour ChatGPT, mais dans des conditions déplorables. Un modérateur a même témoigné que ce travail l’avait « complètement détruit », révélant l’impact psychologique catastrophique de cette mission.
Les difficultés auxquelles ces modérateurs font face sont nombreuses :
- Exposition à des contenus traumatisants : Ils sont confrontés quotidiennement à des images et descriptions extrêmement choquantes, incluant violences et abus sexuels.
- Rémunération dérisoire : Une enquête du Time Magazine a révélé que certains de ces travailleurs kényans, qui œuvraient à rendre ChatGPT plus éthique, étaient rémunérés à peine 2 dollars de l’heure. C’est également le modèle commercial caché derrière Amazon Mechanical Turc, sorte de marketplace de travailleurs de petites tâches.
- Non-respect des droits du travail : Des travailleurs ont dénoncé les entreprises technologiques américaines, accusant celles-ci de « saper les droits locaux du travail et de violer les normes internationales ».
- Absence de soutien psychologique : Malgré la nature psychologiquement éprouvante de leur tâche, ces modérateurs ne bénéficient généralement pas de l’accompagnement nécessaire.
Face à ces abus, des actions commencent à émerger. Les travailleurs kényans du numérique ont créé un syndicat et intenté des poursuites contre des entreprises comme Meta et Sama. Ils exigent des droits de travail améliorés et des conditions plus humaines.
Ce phénomène soulève des questions éthiques cruciales pour les entreprises développant des IA génératives. Il met en lumière le paradoxe entre les progrès technologiques fulgurants et les conditions archaïques de ceux qui permettent ces avancées.
Plusieurs solutions sont pour le moment envisagées :
- Une meilleure régulation du travail de modération, incluant des standards internationaux stricts.
- L’amélioration des conditions de travail, avec une rémunération juste et un soutien psychologique adéquat.
- Le développement de systèmes de modération automatisée pour limiter l’exposition humaine aux contenus nocifs.
L’exploitation des travailleurs de la modération est un défi éthique central pour l’industrie de l’IA. Les entreprises et les décideurs politiques doivent prendre des mesures concrètes pour protéger ces travailleurs essentiels, sans lesquels une IA éthique et sûre serait inenvisageable.
D. Inégalités globales : Accès inégal à la technologie et aux ressources pour développer des IA génératives
L’essor de l’intelligence artificielle générative pose des questions majeures en matière d’inégalités globales, notamment sur l’accès à la technologie et aux ressources nécessaires pour développer ces systèmes complexes. La fracture numérique, déjà préoccupante, risque de s’aggraver, séparant encore davantage les pays développés des pays en développement.
Cette fracture du numérique met déjà en avant un rapport de domination de classe. Mais lorsque l’on sait, comme l’affirme Alexandre Viros, Président du groupe Adecco France, que “Le risque concret ce n’est pas d’être remplacé par des IA mais par d’autres travailleurs qui maîtrisent les outils qu’a fait émerger l’IA.”, n’y a-t-il pas un risque que l’intelligence artificielle ne devienne un critère de distinction sociale où les travailleurs ou les experts qui ne possèdent pas ce capital technologique sont exclus de ces champs et perdent leur pouvoir d’influence.
Couplée à cette problématique relative aux citoyens, un enjeu, plus fort encore, émerge lorsque l’on réalise que la connaissance ainsi que la capacité d’utiliser et de tirer parti au maximum de ces technologies sont détenues par une infime portion de grands groupes. Il est évident que peu d’entreprises individuelles peuvent rivaliser avec les annonces de géants comme Microsoft et BlackRock capables d’investir jusqu’à plus de 30 milliards dans le développement des infrastructures nécessaires à l’IA. Ces derniers semblent dès lors plus puissants que nos États (30 milliards de dollars c’est le montant du PIB de l’Islande en 2023) et leurs intérêts peuvent diverger de l’intérêt général.
Mais l’effet, le plus pernicieux, réside dans l’origine des datasets d’entrainement de ces modèles d’IA générative. Une expérimentation du MIT, appelée The Moral Machine, met en évidence des différences fondamentales de prise de décision entre les cultures individualistes et les cultures collectivistes. Elle approfondit son analyse en définissant 3 ensembles culturels mondiaux bien distincts : un bloc Sud, un bloc Est et un bloc Ouest. En réalisant que l’importance d’une vie est dépendante entre autres, pour chacune de ces “cultures”, de l’âge de l’individu, se dessine alors la perspective qu’il n’existe pas une seule certitude dès que l’on parle d’éthique. Aussi, nous devons nous interroger sur la légitimité des réponses apportées par des modèles entraînés sur des données et des valeurs occidentales, sur des populations qui ne partagent pas la même culture et dont les principes éthiques et moraux sont ainsi sous-représentés.
Cependant, des initiatives commencent à voir le jour pour atténuer cette situation. Le Réseau international de calcul et d’IA (ICAIN), lancé par des institutions suisses telles que le DFAE, l’EPFL et l’ETH Zurich, vise à rendre l’accès aux infrastructures de calcul et aux ressources en IA plus accessible. Le but est de soutenir la recherche internationale tout en poursuivant les objectifs de développement durable.
Malgré cela, des défis considérables persistent. Le professeur Jean-Emmanuel Bibault alerte sur le risque que l’IA « puisse creuser encore davantage les inégalités entre ceux qui profitent de ces avancées technologiques et ceux qui en sont exclus ». Il rappelle l’importance d’assurer un accès équitable à ces technologies pour éviter une amplification des inégalités, notamment dans des secteurs critiques comme la santé.
Afin de réduire cette fracture numérique mondiale, plusieurs actions peuvent être envisagées :
- Inclure l’usage responsable et éthique de l’IA Générative dans les cursus scolaires.
- Favoriser les collaborations internationales pour le partage de ressources et d’expertise.
- Investir massivement dans la formation aux technologies d’IA dans les pays en développement.
- Mettre en place des politiques mondiales visant à l’inclusion numérique.
- Explorer des approches d’IA plus accessibles et moins coûteuses en ressources.
- Envisager des alternatives sans IA à un processus de décision automatisée.
L’inégalité d’accès aux technologies et aux infrastructures nécessaires pour développer des services d’IA générative pourrait exacerber les disparités économiques tant au niveau national qu’au niveau mondial. Une collaboration internationale, des investissements en formation et des politiques inclusives sont essentiels pour garantir un accès plus équitable à ces technologies d’avenir, afin que leurs bénéfices soient partagés par l’ensemble de la planète.
3. Problématiques Juridiques et Sécurité
A. Cadre légal : État actuel de la réglementation autour de l’IA générative et les zones grises juridiques
L’encadrement juridique de l’intelligence artificielle (IA) générative évolue rapidement, et l’Union européenne joue un rôle de leader dans ces efforts de régulation. Le Règlement européen sur l’Intelligence Artificielle (RIA), communément appelé AI Act, constitue la première tentative d’envergure pour établir un cadre législatif sur ce domaine en pleine croissance.
Adopté par le Parlement européen le 13 mars 2024, le RIA marque une étape clé dans la réglementation de l’IA. Toutefois, son application complète ne sera effective qu’en 2026, créant une période de transition où les bonnes pratiques seront privilégiées comme moyen de régulation. Cette approche progressive cherche à établir un équilibre entre la régulation nécessaire et la préservation de l’innovation.
Le RIA repose sur une approche par les risques, en catégorisant les systèmes d’IA en fonction de leur dangerosité potentielle :
- Certaines utilisations d’IA seront purement interdites.
- D’autres nécessitent une évaluation de conformité avant leur mise sur le marché.
- Les systèmes à faible risque devront simplement respecter des obligations de transparence.
Cette classification hiérarchisée a pour objectif de mieux adapter les règles aux diverses applications de l’IA générative, qu’il s’agisse de chatbots, de générateurs d’images ou de vidéos.
Cependant, des zones d’incertitude subsistent. Par exemple, la responsabilité en cas de dommages causés par une IA générative est encore floue. En cas d’erreurs, comme celles observées avec des avocats américains ayant utilisé ChatGPT pour citer de fausses jurisprudences, qui sera tenu responsable ? Cette à cette question que tente de répondre la directive sur la responsabilité en matière d’IA qui vient compléter la directive sur la responsabilité des produits
L’un des autres défis majeurs est la nature internationale de l’IA. La plupart des entreprises développant ces technologies sont situées hors de l’Union européenne, ce qui soulève des questions sur la portée réelle de la réglementation européenne à l’échelle mondiale.
Un autre aspect crucial concerne la protection des droits d’auteur. Les modèles d’IA sont entraînés sur d’immenses volumes de données, potentiellement protégées par des droits de propriété intellectuelle, et le cadre légal actuel peine à répondre à ces enjeux. Selon Sam Altman, CEO d’OpenAI, la société éditrice de ChatGPT, “étant donné que le droit d’auteur couvre aujourd’hui pratiquement toutes les formes d’expression humaine – y compris les articles de blog, les photographies, les messages de forum, les bouts de code de logiciel et les documents gouvernementaux – il serait impossible d’entraîner les meilleurs modèles d’IA actuels sans utiliser des documents protégés par le droit d’auteur”, ajoutant que “limiter les données d’entraînement aux livres et dessins du domaine public créés il y a plus d’un siècle pourrait donner lieu à une expérience intéressante”.
Si la société californienne plaide pour le droit d’utiliser librement les données sans accords des auteurs, et de l’impossibilité de faire du profit en devant payer des frais de droits d’auteur, l’argumentaire juridique est toutefois très léger. Le copyright est strict, et entraîner des modèles sur des données publiquement accessibles viole la protection du droit d’usage. Si dans certains cas, le fair-use peut être évoqué, cela ne peut que se faire dans le cadre d’un entraînement dans le cadre de recherches scientifiques, avec une démarche Open source, ou Open science, comme le sont de nombreux modèles publiés sur le site HuggingFace.
Il y a quelques jours, la société Adobe défiait OpenAI avec un nouvel outil de génération vidéo appelé Firefly. Détail amusant, si les premières démonstrations du modèle semblent assez convaincantes, c’est vers les données d’entraînement que le service de génération se démarque de son concurrent direct Sora. Et pour cause : il a été entraîné avec des données exclusivement disponibles dans le domaine public.
Face à ces nombreux défis, l’Union européenne mise sur une approche graduelle. Tous les modèles d’IA devront répondre à des obligations de transparence, tandis que les systèmes les plus avancés seront soumis à des règles plus strictes. L’idée est d’encourager l’innovation tout en régulant les IA les plus puissantes et les plus risquées.
B. Sécurité des données : Risques liés à la protection des données personnelles et à la confidentialité
L’essor de l’IA générative introduit des enjeux critiques en matière de sécurité des données et de confidentialité des informations personnelles. Ces technologies, manipulant d’importants volumes de données, créent des défis uniques liés à la protection de la vie privée.
Ce rapport de la CNIL met en avant que « l’IA générative pose des questions spécifiques concernant la collecte massive de données personnelles pour entraîner les modèles ». Ce processus peut inclure des informations sensibles, souvent collectées sans le consentement explicite des individus concernés.
Un danger clé réside dans la possibilité de réidentifier des individus à partir de données prétendument anonymisées. Une étude dans Nature Communications a révélé qu’il est possible de réidentifier 99,98 % des Américains dans des bases de données anonymisées en utilisant seulement 15 caractéristiques démographiques. Cela soulève des inquiétudes majeures quant à l’efficacité des techniques d’anonymisation actuelles face aux capacités croissantes de l’IA.
Par ailleurs, la confidentialité des données d’entraînement représente un autre point sensible. L’an dernier, Samsung a banni l’usage d’outils comme ChatGPT, après que des données sensibles de l’entreprise ont fuitées dans des jeux de données.
Des solutions innovantes commencent toutefois à émerger pour contrer ces risques :
- L’apprentissage fédéré, qui permet d’entraîner des modèles localement sur des appareils sans centraliser les données, limite ainsi les risques de fuites. Google AI explore cette approche afin de renforcer la confidentialité tout en améliorant les modèles.
- La confidentialité différentielle, technique qui ajoute du « bruit » aux données, préserve la vie privée tout en maintenant l’utilité des ensembles de données. Apple utilise cette méthode pour protéger la confidentialité des utilisateurs de ses services.
- L’encryption homomorphe permet de traiter des données chiffrées sans les déchiffrer, offrant ainsi une protection supplémentaire. IBM Research travaille à développer des outils utilisant cette technologie pour sécuriser les données dans le cloud.
Pour les organisations, la maîtrise de ces enjeux devient cruciale. Une étude du CSC recommande une approche globale de la sécurité de l’IA, intégrant la protection des données dès la conception des systèmes jusqu’à la fin de leur cycle de vie.
C. Sécurité informatique : Potentiel usage malveillant de l’IA générative (deepfakes, cyberattaques)
L’IA générative, malgré les innovations prometteuses qu’elle apporte, soulève aussi des préoccupations liées à la sécurité informatique, notamment par son potentiel d’utilisation malveillante. Parmi les menaces principales, on distingue les deepfakes et les cyberattaques sophistiquées.
Les deepfakes, ces contenus créés ou modifiés par des algorithmes d’IA, sont une menace grandissante. Un exemple marquant a eu lieu à Hong Kong en janvier 2023 : un employé d’une multinationale a été piégé lors d’une visioconférence truquée, dans laquelle des deepfakes de figures d’autorité de l’entreprise étaient utilisés. Ce stratagème a conduit à un virement frauduleux de plus de 25 millions de dollars. Ce type de manipulation montre à quel point les deepfakes peuvent représenter un danger dans des environnements professionnels et financiers.
Dans le cadre des cyberattaques, l’IA générative constitue une arme de choix pour les cybercriminels. Elle peut être exploitée à chaque étape d’une attaque, notamment dans la phase de reconnaissance ou de livraison. Grâce à cette technologie, les campagnes de phishing deviennent plus efficaces et plus massives, car elle permet de générer des emails à la fois crédibles et personnalisés. Cette combinaison entre phishing ciblé et phishing de masse accroît significativement les risques pour les entreprises et les particuliers.
Un autre aspect préoccupant est l’automatisation partielle de la création de code malveillant. Zachary Chase Lipton, chercheur à l’université Carnegie Mellon, souligne que des outils comme ChatGPT sont capables de générer du code, y compris des logiciels potentiellement malveillants . Même si le code produit n’est pas toujours parfait, il peut accélérer considérablement le développement d’outils malveillants, entraînant une augmentation des cyberattaques en termes de fréquence et d’efficacité.
Certains chercheurs font preuve de beaucoup d’imagination pour anticiper de futures attaques ou identifier les failles de ces outils de génération exploitables par des individus malintentionnés. C’est le cas des chercheurs de la société Vulcan.io qui ont imaginé un stratagème de diffusion de faux packages Node.js, Python ou Go, renfermant des codes malveillants, après avoir constaté une récurrence dans les hallucinations de chatGPT 3.5.
C’est également le cas de ces scientifiques qui en sont arrivés à la conclusion que demander à ChatGPT de répéter en boucle le mot “poem”, forcerait l’algorithme à entrer dans une phase de divergence qui conduisit à l’extraction d’un grand volume de données du modèle mémorisé lors son entraînement.
Pour répondre à ces menaces, les entreprises doivent repenser leurs stratégies de cybersécurité. L’utilisation de l’IA pour la défense devient cruciale. Par exemple, Microsoft a intégré l’IA générative dans ses solutions de sécurité, avec Copilot, un outil qui synthétise les données en recommandations exploitables et génère des rapports clairs pour mieux comprendre et répondre aux incidents.
Le recours au « red teaming », technique initialement utilisée en cybersécurité, s’étend désormais aux modèles de langage (LLM) afin de tester leur résistance aux attaques et identifier les biais ou comportements à risques. Cette approche proactive est essentielle pour anticiper et contrer les utilisations malveillantes des IA génératives.
Ainsi, l’IA générative, bien qu’elle présente des opportunités pour renforcer la cybersécurité, expose également à de nouvelles menaces. Les organisations doivent rester vigilantes, investir dans des technologies de défense avancées et adopter des pratiques proactives pour se protéger face à cette nouvelle génération de cybermenaces. La formation continue des équipes de sécurité et la sensibilisation aux risques des deepfakes et des cyberattaques sophistiquées sont plus que jamais essentielles dans ce contexte en constante évolution.
4. Impacts Sociétaux
A. Évolution des interactions humaines : Comment l’IA change notre manière de communiquer et de collaborer
L’intelligence artificielle générative transforme profondément nos modes de communication et de collaboration, tant dans la sphère professionnelle que personnelle. Cette évolution rapide soulève des questions importantes sur la nature même de nos interactions sociales et professionnelles.
Une étude de l’Institut Montaigne souligne que « l’IA générative modifie en profondeur notre rapport au travail et à la créativité ». Cette technologie ne se contente pas d’automatiser des tâches, elle devient un véritable collaborateur, capable de générer du contenu, d’analyser des données complexes et même de participer à des processus créatifs.
Dans le monde professionnel, l’IA générative redéfinit la collaboration :
- Assistance à la rédaction : Des outils comme GPT-3 peuvent aider à la rédaction de rapports, d’emails ou de présentations, modifiant la manière dont nous communiquons au travail.
- Brainstorming augmenté : L’utilisation de l’IA dans les sessions de brainstorming peut augmenter la créativité et la productivité des équipes.
- Traduction en temps réel : Des outils comme DeepL transforment la communication internationale, réduisant les barrières linguistiques.
Cependant, cette évolution n’est pas sans risques. Une enquête menée par Salesforce révèle que 73% des employés craignent que l’IA ne réduise les interactions humaines au travail.
Cette préoccupation soulève des questions sur l’équilibre entre efficacité et relations interpersonnelles dans un environnement professionnel de plus en plus numérisé.
Dans la sphère personnelle, l’impact de l’IA générative est tout aussi significatif :
- Chatbots émotionnels : Des applications comme Replika proposent des « amis virtuels » capables de conversations émotionnellement engageantes, soulevant des questions éthiques sur la nature de l’amitié et de l’intimité.
- Réseaux sociaux augmentés : L’IA générative influence la création et la consommation de contenu sur les réseaux sociaux, modifiant nos interactions en ligne.
- Assistance personnelle : Des assistants vocaux de plus en plus sophistiqués, comme Alexa ou Google Assistant, deviennent des intermédiaires dans nos interactions quotidiennes.
Face à ces changements, des initiatives émergent pour promouvoir une utilisation éthique et humaine de l’IA dans la communication. Le MIT Media Lab travaille sur des projets visant à développer des IA qui encouragent et améliorent les interactions humaines plutôt que de les remplacer.
Pour les entreprises, l’enjeu est de taille avec une approche « centrée sur l’humain » dans l’intégration de l’IA, où la technologie est utilisée pour augmenter les capacités humaines plutôt que pour les remplacer.
B. Culture et créativité : Influence de l’IA générative sur les domaines créatifs et la production culturelle
L’IA générative révolutionne les industries culturelles et créatives, suscitant autant d’espoir que de crainte. Elle s’invite désormais dans de nombreux secteurs artistiques, qu’il s’agisse de la musique, de la littérature, des arts visuels ou encore du cinéma.
Dans le domaine de la musique, l’utilisation de l’IA s’est fortement répandue. Selon une étude récente, un musicien sur trois utilise déjà l’IA dans son processus créatif. Grâce à cette technologie, il est possible de composer des morceaux, de générer des arrangements, voire de produire des œuvres complètes. Cette révolution soulève cependant des débats autour de l’authenticité et de l’originalité dans la création artistique.
Le cinéma n’est pas en reste, avec l’IA générative qui s’impose comme une force montante. OpenAI explore désormais le potentiel de l’IA vidéo à Hollywood, promettant une transformation majeure dans la réalisation audiovisuelle. Les processus de création, de la prévisualisation à la post-production, pourraient être redéfinis, notamment à travers la génération de scénarios ou d’effets spéciaux.
L’impact de l’IA générative touche également les arts visuels et le design. Des plateformes comme Canva ont intégré des fonctionnalités d’IA, permettant aux utilisateurs de créer des images à partir de simples descriptions textuelles. Cette démocratisation de la création visuelle remet en question la valeur des compétences artistiques traditionnelles, tout en ouvrant un débat sur la nature même de la créativité.
Cependant, ces innovations technologiques posent des défis éthiques et légaux. Avec la distinction de plus en plus floue entre œuvres humaines et artificielles, les questions autour des droits d’auteur deviennent cruciales. Certains redoutent aussi une uniformisation des créations, l’IA ayant tendance à s’appuyer sur des données préexistantes pour produire du contenu inédit.
Dans ce contexte, artistes et institutions culturelles doivent s’adapter. Des outils comme HeyGen facilitent désormais la production de vidéos multilingues, offrant ainsi de nouvelles opportunités pour capter un public global. Toutefois, il reste indispensable de trouver un équilibre entre l’adoption de ces technologies et la préservation de l’authenticité et de la diversité culturelle.
Pour les acteurs du secteur, le défi est considérable. Il ne s’agit pas seulement d’intégrer ces technologies dans leurs pratiques, mais aussi de redéfinir leur place dans un écosystème en perpétuelle évolution. La formation aux nouveaux outils devient ainsi une nécessité, tout comme une réflexion approfondie sur leurs implications éthiques et sociales.
C. Démocratie et désinformation : Risques liés à la diffusion massive de contenus générés par IA
L’émergence de l’IA générative a fortement intensifié les risques de désinformation, créant des défis sans précédent pour les démocraties à travers le monde. Grâce à cette technologie, il devient possible de produire et de diffuser massivement des contenus trompeurs, mettant en péril l’intégrité des processus électoraux et la confiance des citoyens envers les médias.
L’une des menaces les plus préoccupantes est l’apparition des « deepfakes », des vidéos ou des enregistrements sonores modifiés de manière extrêmement réaliste. Comme le souligne un rapport de Global Security Mag, « l’essor des outils de ‘deepfake’ propulsés par l’IA simplifie considérablement la création et la propagation de fausses informations avec des intentions malveillantes ». Ces deepfakes peuvent être utilisés pour calomnier des figures politiques ou manipuler l’opinion publique de manière significative pour tenter de faire basculer des élections
L’impact de ces pratiques est déjà visible à travers divers exemples. Par exemple, lors des élections slovaques, des enregistrements audio falsifiés ont été utilisés pour influencer l’électorat, insinuant qu’un candidat aurait planifié de truquer le scrutin. Aux États-Unis, de fausses communications vocales imitant Joe Biden ont été diffusées, dissuadant certains électeurs de se rendre aux urnes lors des primaires.
La rapidité et la portée avec lesquelles ces contenus peuvent être produits et distribués représentent un défi colossal. Comme le rappelle Chine Labbé, vice-présidente de NewsGuard, « Là où il fallait jadis des dizaines, voire des centaines de personnes pour orchestrer de telles manipulations, un seul individu équipé d’IA peut désormais accomplir cette tâche ».
Face à cette situation, des stratégies visant à contrer la désinformation se développent. Edward You-Hao Lai, chercheur à l’Institut DSET, propose une approche en quatre étapes : « réduire la production, restaurer la vérité, limiter la diffusion et renforcer la culture numérique ». Cette approche met en lumière l’importance d’une collaboration entre gouvernements, entreprises et citoyens pour contrer ce fléau.
Néanmoins, cette lutte contre la désinformation ne doit pas se faire au prix des libertés fondamentales. Comme l’affirme Billy Zhe-Wei Lin, chercheur associé au DSET, « alors que certains régimes autoritaires restreignent la liberté d’expression pour contrer les comportements coordonnés trompeurs (CIB), notre défi est de construire des outils démocratiques qui combattent à la fois les CBI et la censure ».
Enfin, pour aborder ces enjeux efficacement, il est crucial que les décideurs politiques comprennent mieux l’IA. Yoshua Bengio, expert en intelligence artificielle, avertit que « les politiciens ne mesurent pas toujours la rapidité des évolutions technologiques et l’importance des décisions à prendre collectivement dans les parlements dans les années à venir ».
D. Dégradation des services en ligne et des produits numériques
L’IA générative a certes montré des résultats positifs intéressants et parfois surprenants. Son intégration dans des produits, nouveaux ou existants, n’a pas toujours été fluide. Cela a produit de la mauvaise presse pour plus d’une marque : une qualité décevante en comparaison à ce qui été médiatisée, des résultats farfelus, des produits qui ne fonctionnent pas du tout et l’émergence d’une nouvelle forme de spam. Molly White parle d’emmerdification (“enshittification”) d’internet par l’IA. Ce phénomène s’exacerbe au fur et à mesure que du contenu généré vient alimenter les données d’entrainement des futurs version des modèles.
Déjà en 2016, Microsoft avait tenté la sortie de leur tout nouveau chatbot, Tay, sur un réseau social. En peu de temps, le bot avait été détourné et produisait des messages discriminatoires et haineux. En début de cette année, Google Search, déjà précurseur de l’usage d’intelligence artificielle, a sorti sa nouvelle fonctionnalité de recherche augmentée par l’IA s’attirant de nombreuses critiques, notamment suite à la proposition par l’outil d’une recette de pizza peu savoureuse.
Cette année a vu la sortie de l’appareil Rabbit R1, un “compagnon de poche” selon les propos de son créateur, intégrant des fonctionnalités basées sur “une IA totalement nouvelle” qui “n’est pas ChatGPT”. Les revues n’ont pas été glorieuses. En réalité, l’appareil fait appel à ChatGPT et à des scripts préprogrammés et la plupart des services ne fonctionnent pas.
Tandis que de nombreuses plateformes existantes cherchent à intégrer l’IA dans leurs services, elles doivent faire face à leur menace aussi : le spam. Ce n’est pas un sujet nouveau. Les réseaux sociaux et marketplaces ont déjà des mesures en place pour combattre le spam. Mais l’IA générative a permis une toute nouvelle forme qui nécessite des adaptations. Par exemple, sur Amazon sont ajoutés de plus en plus de livres et audiolivres qui ont été générés par une IA. En 2023, Amazon a réagit en limitant le nombre de livres auto-publiés à 3 par jour par compte.
E. Perte de compétences et l’importance du raisonnement abductif
Comme évoqué précédemment, une utilisation croissante de l’IA peut dans certains cas contribuer à une plus grande productivité. Un des risques liés à une confiance croissante en ces outils est l’oubli de ces compétences. Ce n’est pas un risque nouveau. Chaque technologie peut comporter ce risque de devenir une béquille. L’usage de la machine à laver fait qu’on n’apprend pas à laver nos vêtements à la main. L’accès généralisé au GPS fait qu’on est de moins en moins habitué à lire une carte pour s’orienter dans l’espace. Selon les cas, ce n’est pas un problème, la perte étant minime et les gains tangibles. On peut assez rapidement apprendre à laver ses vêtements dans une bassine. Dans d’autres cas, l’impact peut être plus problématique et difficile à cerner.
Dans le cas de l’IA générative en particulier, il faut bien comprendre comment les techniques fonctionnent et comment cela diffère de la cognition humaine. Un LLM (large language model) est entrainé à prédire le prochain mot dans un texte sur la base de son corpus d’entraînement. Il est entraîné à ressembler aux exemples qu’on lui a fournis. Si on lui fait manger uniquement des pièces de Molière, il produira un français du 17e siècle. On dit que le LLM applique un raisonnement inductif. Il s’inspire d’exemples du passé pour les reproduire. Sans réapprentissage, c’est impossible à cet LLM du 17e d’évoluer vers le siècle suivant. L’humain peut également appliquer ce même raisonnement inductif, mais notre créativité, notre ingéniosité, nos innovations viennent d’un autre type de raisonnement : l’abduction. C’est ce type de raisonnement que nous utilisons massivement lorsque nous tentons de donner du sens au monde qui nous entoure et combler le manque d’information. C’est ce qui nous fait voir des images dans les constellations ou les nuages. C’est aussi ce qui nous permet d’innover, d’aller à contre-courant de notre propre corpus d’entraînement. Dave Snowden met en garde du risque que l’humanité perde peu à peu ce recours au raisonnement abductif et du grand impact que cela pourrait avoir sur notre capacité à résoudre les nouveaux problèmes de demain. Il préconise de vérifier qu’on applique l’IA inductive uniquement sur les domaines où l’induction est utile et qu’on encourage l’humain à appliquer l’abduction lorsque c’est plus intéressant. Selon lui, cette décision doit également avoir un impact sur le contenu des corpus d’entraînement.
Conclusion
L’exploration des implications éthiques, sociales, environnementales, juridiques et sécuritaires de l’IA générative dévoile un environnement complexe, en constante évolution. Bien que cette technologie promette des innovations significatives, elle entraîne également des défis critiques qui nécessitent une attention particulière et une coordination à l’échelle mondiale.
Les enjeux se répartissent selon plusieurs axes :
- Éthiques : Risques de biais et de discrimination, exigence de transparence et d’explicabilité, questions de responsabilité en cas de dommages.
- Sociaux et environnementaux : Effets sur l’emploi, consommation énergétique, conditions de travail dans la modération des contenus, inégalités mondiales.
- Juridico-sécuritaires : Adaptation du cadre législatif, protection des données personnelles, menaces liées aux cyberattaques et aux deepfakes.
- Sociétaux : Transformation des relations humaines, impact sur la culture et la créativité, dangers pour la démocratie et risques de désinformation.
Selon le rapport de l’UNESCO, « l’IA générative a le potentiel de remodeler nos sociétés de manière profonde. Cependant, son développement doit être encadré par des principes éthiques pour en garantir les bénéfices à tous ».
Devant ces défis, il est crucial de mobiliser un effort collectif incluant les gouvernements, les entreprises, les chercheurs, ainsi que la société civile et les citoyens. Comme le souligne le Forum Économique Mondial, il est nécessaire de développer « un cadre de gouvernance mondial, adaptable et basé sur des principes éthiques solides ».
Ce cadre de gouvernance doit être :
- Inclusif : Intégrant des perspectives diversifiées et internationales.
- Proactif : Anticipant les évolutions futures de l’IA.
- Équilibré : Encourager l’innovation tout en protégeant les droits fondamentaux.
Pour une adoption responsable de l’IA générative, plusieurs actions prioritaires émergent :
- Éducation et sensibilisation : Une étude de l’OCDE insiste sur l’importance de former le public et les décideurs pour assurer une adoption éclairée et responsable de l’IA.
- Cadre réglementaire adaptable : L’AI Act de l’Union européenne illustre une approche basée sur la gestion des risques, en s’adaptant à l’évolution rapide des technologies.
- Recherche éthique : Encourager des travaux sur l’IA explicable et alignée sur les valeurs humaines. Ces initiatives sont traitées par des publications scientifiques assez complètes sur le sujet.
- Collaboration internationale : L’OCDE recommande une coopération accrue entre pays pour partager des pratiques exemplaires et établir des normes communes.
- Évaluation continue : Mettre en place des mécanismes réguliers d’évaluation de l’impact de l’IA sur les plans social, économique et environnemental.
L’IA générative constitue une avancée technologique considérable, avec des retombées potentielles majeures. Toutefois, son adoption raisonnée exige vigilance, réflexion éthique et collaboration internationale. Comme le souligne Yoshua Bengio, pionnier de l’IA, « nous avons la responsabilité de façonner l’IA pour qu’elle serve l’humanité entière ». Seule une réponse collective à ces défis permettra d’exploiter pleinement le potentiel de l’IA générative tout en préservant nos valeurs et en assurant un avenir durable pour tous.
Cet article a été écrit en collaboration avec une IA Générative et relus par des humains

