L'IA au travail en 2025 - Enquête IPSOS pour Jedha
L’IPSOS pour Jedha a interrogé 1000 professionnels français pour comprendre comment ils utilisent, se forment et perçoivent l'IA : découvrez les résultats détaillés.
Entre fascination et craintes, les mots « intelligence artificielle » déclenchent autant d’enthousiasme que d’inquiétude. D’un côté, vous imaginez peut-être des assistants intelligents qui révolutionneraient votre quotidien. De l’autre, vous craignez sans doute une perte de contrôle, ou des dérives dignes de Black Mirror…
Mais alors, l’IA représente-t-elle un danger ou une opportunité pour l’espèce humaine ? Pour vous aider à juger par vous-même, vous découvrirez dans cet article les dangers que pourrait faire peser l’IA sur l’humanité, mais aussi les opportunités qu’elle représente.
Et dans tous les cas, mieux vaut apprendre à travailler avec l’IA que contre elle, et c’est justement ce que vous pourrez faire en rejoignant une formation reconnue en intelligence artificielle.
Si certains épisodes de Black Mirror ont le don de donner des sueurs froides, remettons tout de suite les pendules à l’heure : l’intelligence artificielle n’est pas forcément dangereuse. Elle améliore déjà notre quotidien sur de nombreux aspects, et elle pourrait être à l’origine de révolutions positives majeures dans les prochaines années.
Vous ne vous en rendez pas compte, mais déjà aujourd’hui, l’intelligence artificielle impacte de nombreux champs de votre vie. Par exemple :
L’IA impressionne déjà aujourd’hui, et pourtant, ce n’est qu’un mince avant-goût de ce qu’elle pourrait être capable de faire demain. Les experts en intelligence artificielle imaginent ainsi qu’elle pourrait nous offrir plusieurs opportunités dans un futur plus ou moins proche :
Aussi prometteuse soit-elle, l’IA n’est pas sans risques. Et si certains de ces dangers restent hypothétiques, d’autres sont déjà bien réels…
On a souvent l’impression que les dérives de l’intelligence artificielle relèvent de la science-fiction. Et pourtant, l’IA a déjà causé des dégâts, parfois graves.
Depuis 2016, Tesla a été impliqué dans plusieurs accidents mortels liés à son système « Autopilot » qui s’appuie sur l’intelligence artificielle. L’un des premiers est survenu aux États-Unis en 2016, lorsqu’à cause d’un ciel trop clair, l’IA n’a pas réussi à détecter un semi-remorque blanc. Résultat : la Tesla est entrée en collision avec le camion, et le conducteur de la voiture est décédé.
En octobre 2024, au moins 51 accidents mortels impliquant le système Autopilot de Tesla avaient ainsi été répertoriés.
En 2024, lors des primaires du New Hampshire, des milliers d’électeurs ont reçu des appels vocaux créés par IA, imitant la voix de Joe Biden pour les dissuader de voter. La personne à l’origine de ces Deepfakes vocaux a ensuite été arrêtée, et accusée d’usurpation vocale et de manipulation électorale. Cela lui a valu une amende de 6 millions de dollars.
Certains cybercriminels usent de techniques similaires pour piéger leurs victimes, notamment lorsqu’ils recourent au vishing.
En 2023, ChatGPT a fabriqué un faux article qui accusait un professeur universitaire de harcèlement sexuel. Pour appuyer ses dires, le faux article citait même une publication fictive prétendument issue du Washington Post. Résultat : un homme injustement sali, dans un contexte où les fausses accusations peuvent avoir des conséquences dramatiques.
Si OpenAI travaille activement à limiter ce genre de dérapage, ce cas rappelle que les modèles de langage restent enclins à « halluciner », c’est-à-dire fabriquer des informations crédibles, mais fausses, surtout lorsqu’ils cherchent à répondre à une requête sensible ou émotionnellement chargée.
Selon une étude menée par CameraForensics, 96 % des Deepfakes en circulation sur Internet sont à caractère pornographique. Le plus inquiétant ? Ils sont presque toujours réalisés sans le consentement des personnes concernées, qui sont souvent des femmes publiques (influenceuses, journalistes, actrices…), mais aussi des anonymes.
Au-delà du simple malaise, ces pratiques peuvent causer de véritables dégâts psychologiques, sociaux et professionnels, et posent en plus un immense défi juridique. En effet, aujourd’hui encore, il n’existe pas de cadre international strict pour lutter contre ces contenus néfastes générés par IA.
Le logiciel COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) est utilisé aux États-Unis pour évaluer le risque de récidive des personnes mises en examen. Il s’agit d’un outil d’aide à la décision censé orienter les juges dans l’octroi ou non d’une libération conditionnelle.
Problème majeur : une enquête de ProPublica a révélé que les personnes afro-américaines étaient deux fois plus souvent classées à tort comme étant à haut risque de récidive, alors que les blancs, eux, étaient plus souvent sous-évalués, même en cas de récidive avérée.
Ces statistiques sont le reflet des biais contenus dans les données d’entraînement qui ont servi à entraîner ces IA, qui ne font donc que reproduire ce qu’on leur a montré. Le problème, c’est que lorsqu’on nourrit une IA avec des données judiciaires historiques déjà biaisées, elle perpétue (et parfois amplifie) les injustices.
Même bien encadrée, l’intelligence artificielle soulève des risques réels pour notre société. Parmi les risques potentiels, cinq menaces peuvent faire particulièrement peur :
L’OCDE estime qu’environ 28 % des emplois dans les pays développés sont déjà fortement menacés par l’IA, qui pourrait être utilisée pour les remplacer, au moins partiellement, et automatiser les tâches répétitives et moyennement qualifiées.
Et avec une automatisation massive, les effets seraient immédiats : chômage structurel, pressions socio-économiques accrues, nécessité de requalifier les personnes ayant perdu leur emploi…
Les Deepfakes audio et vidéo deviennent si sophistiqués que certains candidats malintentionnés pourraient être tentés de s’en servir pour décrédibiliser leurs adversaires. Cela a déjà été fait en 2024 avec l’affaire des faux appels de Joe Biden, mais on pourrait sans mal imaginer que certains iraient plus loin, et produiraient par exemple des vidéos truquées où un adversaire tiendrait des propos extrêmes, ferait de faux aveux, ou même effectuerait une déclaration de guerre.
Le problème, c’est qu’à l’ère des réseaux sociaux et de la viralité, ces vidéos pourraient faire le tour du monde en à peine quelques heures, déclenchant des réactions parfois irréversibles avant même qu’un démenti officiel ne puisse être publié.
À cause de l’IA, la confiance dans les institutions, les médias et les candidats eux-mêmes pourrait ainsi encore davantage s’effondrer, créant un climat de confusion propice à la polarisation extrême.
Des pays comme les États-Unis, la Chine ou la Russie investissent massivement dans des drones autonomes, des systèmes de surveillance et de décision de frappe automatisée. Mais cela est plutôt inquiétant, car :
L’intelligence artificielle s’intègre à de plus en plus de secteurs. Mais certains d’entre eux, notamment la santé, l’énergie, les transports et l’armée, sont particulièrement sensibles. S’ils deviennent dépendants à l’IA, en cas de cyberattaque, ou même de simple problème technique, les conséquences peuvent s’enchaîner comme des dominos. On pourrait imaginer :
Plusieurs chercheurs tirent ainsi la sonnette d’alarme, car une IA mal sécurisée pourrait devenir la cible idéale de cybercriminels, notamment dans un contexte géopolitique tendu.
C’est peut-être le scénario le plus extrême, et pourtant, il est aujourd’hui pris au sérieux par une partie de la communauté scientifique.
Le danger ? Qu’une IA parvienne à nous égaler et nous surpasser dans tous les domaines, et soit en mesure de raisonner comme le ferait un humain. Le problème, c’est que si une IA raisonne et « réfléchit » en autonomie, on ne sait pas vraiment où elle pourrait s’arrêter. Elle pourrait ainsi évoluer de manière incontrôlée, jusqu’à devenir ce que l’on appelle une superintelligence.
Mais que se passerait-il si cette IA extrêmement puissante décidait de suivre ses propres objectifs ? Et quels seraient ces objectifs exactement ? Eh bien, justement, nous n’en savons rien… Même en lui donnant des consignes, nous serions alors incapables de savoir comment elle les interpréterait.
Des experts comme Geoffrey Hinton, Yoshua Bengio, ou encore Elon Musk alertent ainsi sur ce risque existentiel, car si une superintelligence venait à voir le jour et à dépasser nos capacités de contrôle, elle pourrait modifier l’équilibre du monde, supprimer notre autonomie, ou provoquer des conséquences irréversibles. Et le pire, c’est qu’elle pourrait le faire sans intention malveillante, mais simplement parce qu’elle poursuivrait une logique qui nous échappe.
L’IA évolue vite. Très vite. Mais plutôt que de freiner l’innovation, l’enjeu est désormais de faire évoluer nos règles au même rythme pour éviter les dérives, et tendre vers une coévolution responsable entre humains et machines.
Plusieurs cadres juridiques tentent aujourd’hui de réguler l’usage de l’intelligence artificielle, notamment dans l’Union européenne :
Au-delà de la loi, plusieurs principes clés émergent et doivent être étudiés si nous souhaitons encadrer l’IA de manière durable :
L’intelligence artificielle soulève des risques, oui. Mais elle offre aussi des opportunités immenses, à condition bien sûr de savoir la comprendre, la maîtriser, et l’utiliser à bon escient. Car l’IA ne remplacera pas ceux qui savent s’en servir ; elle remplacera ceux qui ne savent pas ou ne veulent pas apprendre à l’utiliser.
Chez Jedha, nous vous proposons justement des formations reconnues et éligibles au CPF, grâce auxquelles vous pourrez passer du rang de spectateur à celui d’acteur de l’IA :
Pour passer à l’action, rien de plus simple :
L’intelligence artificielle pourrait remplacer totalement certains métiers, oui. Mais pour le moment, uniquement les métiers les plus répétitifs (comme le travail à la chaîne). Toutefois, l’IA risque surtout de faire évoluer votre métier, et de vous délester des tâches répétitives et chronophages pour vous permettre de vous concentrer sur celles qui sont à plus forte valeur ajoutée.
Potentiellement, oui, les robots dotés d’IA pourraient être dangereux physiquement pour l’humain, surtout s’ils sont victimes d’un bug, ou que l’IA qui les contrôle ne dispose pas de règles assez strictes.
Certains experts estiment que nous pourrions atteindre une IA générale (AGI) d’ici à la prochaine décennie. Mais la majorité reste prudente, car rien ne garantit que nous parviendront à franchir cette étape sera franchie, surtout pas dans un délai si court. Quant à la superintelligence (ASI), un type d’IA bien plus intelligent que l’humain, elle relève encore de la science-fiction, donc autant dire que ce n’est pas pour tout de suite !