Afficher le sommaire Masquer le sommaire
Que se passerait-il si ChatGPT était utilisé à des fins malveillantes ? Car on peut lui faire concevoir des textes trompeurs et potentiellement dangereux, manipulateurs notamment, et pourtant parfaitement crédibles.
On se souvient du scandale Facebook/Cambridge Analytica où l’intelligence artificielle a pu influencer des populations entières pour mener au Brexit, à l’élection de Donald Trump, à la modification des résultats de diverses élections. Le danger est pointé du doigt pour préserver la démocratie. Dès janvier dernier, ChatGPT était d’ailleurs utilisé par les cybercriminels pour concevoir des logiciels malveillants.
ChatGPT pourrait causer la suppression de nombreux emplois
Au niveau scolaire, c’est tout un pan de l’éducation qui est à revoir puisque les élèves peuvent avoir accès à ce type de solution rédigeant des textes à leur place, sur mesure, avec éventuellement des problèmes de droits d’auteur puisque l’IA de ChatGPT a été entraînée en utilisant un très grand nombre de textes en ligne.
Dans le monde du travail, en général, l’utilisation de ChatGPT pourrait être la cause de la suppression de nombreux emplois. Si l’on voit bien les avantages énormes apportés par l’IA générative au niveau de la productivité, reste à savoir si les salariés pourront être redirigés vers des tâches à plus haute valeur ajoutée.
Au niveau de la confidentialité, celle-ci est mise à mal, car le chatbot peut avoir accès à des correspondances privées afin de pouvoir générer des textes adaptés. Et du point de vue de la sécurité, il peut être utilisé pour créer de faux textes et des informations erronées. Les e-mails d’hameçonnage, notamment, seront plus difficiles à repérer.
ChatGPT interdit dans les écoles de New York
Aussi, ChatGPT a-t-il été visé, à ses débuts, par plusieurs interdictions, que ce soit dans les écoles de New York, à Sciences Po Paris, ou encore sur le territoire italien.
Et les dérives s’accentuent. Par exemple, l’IA est capable d’imiter la voix d’un humain. Ce qui a valu, par exemple, en 2019, au dirigeant d’une entreprise britannique du secteur de l’énergie d’avoir foi dans un appel reçu du dirigeant du siège en Allemagne lui demandant de réaliser un virement de 220 000 € sur un compte bancaire d’un supposé fournisseur localisé en Hongrie.
Sur les réseaux sociaux, la démocratisation de l’IA peut aggraver les scandales déjà nombreux (cyberharcèlement, piratage…). Il est possible de créer de fausses vidéos pour lancer une fausse rumeur sur quelqu’un : en fait, tout le monde peut être touché.
Il est donc temps d’agir pour que les personnes utilisant l’IA de façon malveillante soient punies pénalement et pour se donner les moyens de détecter rapidement un deepfake.
Sacha Lorens
C’est pour moi le danger pour l’avenir de l’humanité