Je m'abonne

IA : quels sont les dangers de ChatGPT ?

Les capacités de ChatGPT, réellement étonnantes, génèrent aussi de vivres inquiétudes auprès des des experts de l'intelligence artificielle.

Entreprendre - IA : quels sont les dangers de ChatGPT ?

Afficher le sommaire Masquer le sommaire

Que se passerait-il si ChatGPT était utilisé à des fins malveillantes ? Car on peut lui faire concevoir des textes trompeurs et potentiellement dangereux, manipulateurs notamment, et pourtant parfaitement crédibles.

On se souvient du scandale Facebook/Cambridge Analytica où l’intelligence artificielle a pu influencer des populations entières pour mener au Brexit, à l’élection de Donald Trump, à la modification des résultats de diverses élections. Le danger est pointé du doigt pour préserver la démocratie. Dès janvier dernier, ChatGPT était d’ailleurs utilisé par les cybercriminels pour concevoir des logiciels malveillants.

ChatGPT pourrait causer la suppression de nombreux emplois

Au niveau scolaire, c’est tout un pan de l’éducation qui est à revoir puisque les élèves peuvent avoir accès à ce type de solution rédigeant des textes à leur place, sur mesure, avec éventuellement des problèmes de droits d’auteur puisque l’IA de ChatGPT a été entraînée en utilisant un très grand nombre de textes en ligne.

Dans le monde du travail, en général, l’utilisation de ChatGPT pourrait être la cause de la suppression de nombreux emplois. Si l’on voit bien les avantages énormes apportés par l’IA générative au niveau de la productivité, reste à savoir si les salariés pourront être redirigés vers des tâches à plus haute valeur ajoutée.

Au niveau de la confidentialité, celle-ci est mise à mal, car le chatbot peut avoir accès à des correspondances privées afin de pouvoir générer des textes adaptés. Et du point de vue de la sécurité, il peut être utilisé pour créer de faux textes et des informations erronées. Les e-mails d’hameçonnage, notamment, seront plus difficiles à repérer.

ChatGPT interdit dans les écoles de New York

Aussi, ChatGPT a-t-il été visé, à ses débuts, par plusieurs interdictions, que ce soit dans les écoles de New York, à Sciences Po Paris, ou encore sur le territoire italien.

Et les dérives s’accentuent. Par exemple, l’IA est capable d’imiter la voix d’un humain. Ce qui a valu, par exemple, en 2019, au dirigeant d’une entreprise britannique du secteur de l’énergie d’avoir foi dans un appel reçu du dirigeant du siège en Allemagne lui demandant de réaliser un virement de 220 000 € sur un compte bancaire d’un supposé fournisseur localisé en Hongrie.

Sur les réseaux sociaux, la démocratisation de l’IA peut aggraver les scandales déjà nombreux (cyberharcèlement, piratage…). Il est possible de créer de fausses vidéos pour lancer une fausse rumeur sur quelqu’un : en fait, tout le monde peut être touché.

Il est donc temps d’agir pour que les personnes utilisant l’IA de façon malveillante soient punies pénalement et pour se donner les moyens de détecter rapidement un deepfake.

Sacha Lorens


Vous aimez ? Partagez !


Entreprendre est un média indépendant. Soutenez-nous en nous ajoutant à vos favoris Google Actualités :

Publiez un commentaire

Offre spéciale Entreprendre

15% de réduction sur votre abonnement

Découvrez nos formules d'abonnement en version Papier & Digital pour retrouver le meilleur d'Entreprendre :

Le premier magazine des entrepreneurs depuis 1984

Une rédaction indépendante

Les secrets de réussite des meilleurs entrepreneurs

Profitez de cette offre exclusive

Je m'abonne