La fin de l’année 2022 marque un tournant dans le monde de la tech et des nouvelles technologies. La sortie de ChatGPT a sonné, dans le monde entier, le début d’une nouvelle ère remplie d’opportunités, d’incertitudes et de dérives potentielles…
L’avenir de nos business et de notre sécurité n’a jamais été aussi incertain ! Alors que les experts s’accordent à dire que nous n’en sommes qu’aux prémices de cette révolution technologique, nous pouvons déjà apercevoir les changements et les risques que cela engendrera.
Chez Abyssale, l’IA nous passionne, nous sommes également conscients des risques qu’elles comportent. C’est pourquoi dans cet article, nous allons nous concentrer sur les dérives de l’IA et les dangers pour nos business, nos emplois et notre sécurité.
L’IA, un danger pour l’emploi ?
Avec l’arrivée de ChatGPT, Dall-E, Midjourney et des autres outils d’IA, l’effet “Whaou” a rapidement laissé place aux inquiétudes. D’un côté, les salariés craignent pour leur poste. De l’autre, les chefs d’entreprise appréhendent de se faire dépasser par cette nouvelle concurrence.
OpenAI et son acolyte ChatGPT ont très vite fait comprendre qu’ils remplaceraient partiellement ou totalement certains emplois. D’après un rapport publié par Goldmann Sachs ce serait plus de 300 millions d’emplois à plein temps à travers le monde qui pourraient être victimes de l’intelligence artificielle.
Parmi ces postes, les secteurs administratifs et juridiques semblent être au premier front. ChatGPT 4 a été soumis aux questions à choix multiple d’un examen du barreau américain. Figurez-vous que l’intelligence artificielle a répondu correctement à 76 % des questions. C’est mieux que la moyenne des humains !
De manière générale, ce sont la majorité des emplois de traitement de l’information de manière factuelle, sans besoin d’émettre de jugement qui sont les plus vulnérables.
Néanmoins, si certains emplois sont voués à disparaître, d’autres devraient voir le jour. D’après une étude publiée par Dell et le think tank, 85 % des emplois que nous occuperons en 2030 n’existeraient pas encore...
Voilà de quoi nous rassurer sur le fait qu’il y aura toujours du travail. Reste à savoir dans quelles conditions…
L’IA n’est pas infaillible à 100 %
De nombreux doutes quant à la fiabilité du traitement et des informations fournies par l’IA flottent encore dans l’air. Face à cela, certains gouvernements ont décidé d’agir. Le 30 mars 2023, l’Italie a interdit l’utilisation de ChatGPT sur son territoire. Plusieurs faits sont reprochés à l’outil quant au non-respect de la RGPD :
- Les utilisateurs ne sont pas informés sur le traitement de leurs données
- D’un point de vue juridique, ChatGPT n’est pas autorisé à traiter les données comme le fait son système d’apprentissage.
- Les enfants de moins de 13 ans peuvent accéder à l’outil sans problème.
- Les données personnelles fournies par ChatGPT sont parfois inexactes.
Ce dernier point résonne à l’unisson avec une étude réalisée par l’Université d'Hong Kong. D’après les résultats, 64 % des informations fournies par ChatGPT seraient inexactes.
Un autre aspect, sur lequel l’IA n’est pas toujours infaillible, ce sont ses filtres de sécurité quant aux actions qu’elle peut effectuer ou non.
ChatGPT dispose d’un filtre pour toutes les demandes illégales et contraires à l’éthique. Néanmoins, certains utilisateurs ont réussi à prendre l’outil d’intelligence artificielle à son propre jeu. Ils ont demandé à ChatGPT de leur expliquer pas à pas comment se procurer une arme à feu, de la drogue ou autre sur internet. Ils ont menti à ChatGPT sur l’intention d’usage de ces informations. Ainsi, grâce à des tours de passe-passe que nous nous garderons de communiquer ici, ils ont obtenu des réponses très pertinentes.
Cela laisse présager à des dérives potentiellement dangereuses pour les utilisateurs.
Des dérives qui peuvent nous mettre en danger
En voyant les possibilités qu’offrent les outils d’intelligence artificielle aux utilisateurs, il est légitime de s’interroger pour la sécurité globale.
L’un des premiers problèmes de l’IA, c’est qu’elle est accessible par n’importe qui. Un enfant de 10 ans, un terroriste ou une quelconque personne malintentionnée peut utiliser l’IA pour arriver à ses fins.
Vous avez peut-être vu cette image générée par l’IA du Pape portant une doudoune blanche digne de la garde-robe de Puff Daddy. Jusqu’ici, tout va bien. C’est même plutôt drôle ! Mais quand on connaît la puissance de la désinformation aujourd’hui, on peut se poser la question à savoir : comment l’IA peut créer sans se pencher sur les intentions de l’utilisateur ? Demain, on pourrait faire faire n’importe quoi à n’importe qui de manière très réaliste.
En parlant de réalisme, les curseurs ont tellement été poussés qu’ils pourraient bien modifier la façon dont certains humains interagissent. C’est déjà le cas dans un secteur d’activité inattendu : la pornographie. Les plateformes telles qu’OnlyFans pourraient bien voir arriver en masse des avatars générés par l’IA.
Si cela peut prêter à sourire, les questions éthiques et morales fusent.
Un dernier point à soulever, c’est l’addiction aux réseaux sociaux. Il ne s’agit pas d’une maladie reconnue par les entités médicales, mais cela n’empêche que 93 % des jeunes de la génération Z affirment que les réseaux sociaux affectent leur bonheur. Cette donnée est issue d’une étude menée par ExpressVPN. Les algorithmes qui nous poussent à toujours consommer plus de contenu y sont sûrement pour quelque chose.
L’interrogation est donc la suivante : l'IA peut-elle améliorer les algorithmes au point de rendre l’humain totalement dépendant aux réseaux sociaux ?
Une IA éthique et responsable : à qui la responsabilité ?
Les risques face à l’évolution de l’IA sont bien présents. De ce fait, nous devons l’utiliser avec prudence. Pour limiter les dérives, la clé se trouve probablement dans la prévention et l’information. C’est d’ailleurs en ce sens que nous vous proposons cet article.
Néanmoins, on peut s’interroger quant aux entités responsables de ces dérives. Qui doit nous protéger des risques liés à l’IA ?
Les mesures prises par l’Italie montrent qu’en se responsabilisant. Preuve que les gouvernements peuvent réduire considérablement les dérives de l’intelligence artificielle. Sans commenter la forme, on peut saluer la prise de responsabilité de la part du gouvernement italien.
Qu’en est-il de la responsabilité des développeurs de ces outils ? C’est justement un sujet qui divise la communauté technologique.
D’un côté, ceux qui estiment que l’IA doit continuer à se développer pour faciliter le travail de l’humain. Ils estiment que c’est le rôle des gouvernements de réguler l’intelligence artificielle.
De l’autre, des experts appellent à la prudence. Plus de 2 600 dirigeants et chercheurs de l’industrie de la technologie ont rejoint une pétition visant à arrêter le développement de l’IA pour au moins 6 mois.
Mais il y a un hic ! À l’origine de cette pétition, Elon Musk. Le milliardaire à la tête de Tesla, Twitter et SpaceX était actionnaire de OpenAI jusqu'en 2018. Il a vendu ses parts bien avant la sortie de ChatGPT 3 et que l’entreprise ne double sa valorisation sur le marché.
Il a lancé la pétition le 29 mars 2023. Moins d’un mois plus tard (le 17 avril), il annonce dans FoxNEWS qu’il va lancer “TruthGPT”. Il parle de son projet comme d'une "IA en quête de vérité au plus haut point et qui essaie de comprendre la nature de l'univers".
Alors, réelle prise de conscience ou simple stratégie pour rattraper le train en cours de route ?
Seul l’avenir nous le dira. En attendant, le mieux que nous puissions faire, c’est de continuer à suivre de près cette technologie qui n’a pas fini de faire parler d’elle.