Pour beaucoup d’entre nous, ChatGPT est un outil gratuit, pratique et complètement inoffensif. Pourtant, ce chatbot IA présente des dangers que nous ne sommes pas encore prêts à affronter.
ChatGPT, un chatbot basé sur l’intelligence artificielle (IA), est sur toutes les lèvres en ce moment. Pratique et gratuit, le chatbot fournit des réponses rapides et personnalisées à toutes les questions possibles. Mieux encore, il peut créer des scénarios, programmer des applications, détecter des bugs informatiques, écrire des livres entiers, des chansons, des poèmes, des scripts…Bref, tout ce qui vous passe par la tête.
En seulement cinq jours après son lancement, ChatGPT a franchi la barre d’un million d’utilisateurs. Malgré son incroyable succès, l’outil d’OpenAI suscite des inquiétudes. Par exemple, Bret Weinstein, auteur et ancien professeur de biologie évolutive, estime que “nous ne sommes pas encore prêts pour ChatGPT”.
Elon Musk, le célèbre patron de Tesla et de Twitter, fait partie des cofondateurs d’OpenAI. Cependant, il a quitté le conseil d’administration de l’entreprise en 2018, évoquant “un conflit de direction”. Selon lui, “l’utilisation immodérée de l’intelligence artificielle pose un risque majeur pour l’existence de l’humanité”.
Comment fonctionne ChatGPT ?
ChatGPT est un prototype d’agent conversationnel basé sur l’intelligence artificielle et lancé en novembre 2022 par OpenAI. Selon l’entreprise, le chatbot peut “répondre à presque toutes les questions possibles, écrire des chansons de rap, créer des œuvres artistiques, des scénarios de films, des romans, etc”.
Bien qu’il semble toujours sûr de ses réponses, ChatGPT n’est pas aussi intelligent qu’on ne le pense. Le chatbot IA recherche toutes ses réponses sur Internet à l’aide d’un modèle prédictif basé sur un énorme centre de données. Il est donc très similaire aux moteurs de recherche classiques comme Google ou Bing. La seule différence est qu’il est formé pour prédire des séquences de mots qui lui permettent de donner des explications longues et détaillées.
Par exemple, vous pouvez lui poser des questions classiques comme “Explique moi les trois lois d’Einstein”. Ou des questions plus spécifiques et approfondies comme “Écris moi un article de 2 000 mots sur l’intersection entre l’éthique religieuse et l’éthique du Sermon sur la Montagne”. Et, tenez-vous bien, vous aurez un texte très bien écrit en seulement quelques secondes.
Plusieurs mois après son lancement, ChatGPT fascine autant qu’il inquiète. Outre Elon Musk, de nombreux experts ont tiré la sonnette d’alarme sur les dangers méconnus de l’intelligence artificielle et des chatbots IA.
Quels sont les dangers de l’intelligence artificielle ?
L’intelligence artificielle aura sans doute un impact considérable sur nos vies, notre système économique et notre société. Si vous pensez que l’IA est quelque chose de nouveau ou qu’elle relève des films de science-fiction, détrompez-vous. En effet, de nombreuses entreprises technologiques comme Netflix, Uber, Amazon et Tesla utilisent l’intelligence artificielle pour améliorer leurs processus et développer leurs activités.
Par exemple, Netflix s’appuie sur la technologie IA pour que son algorithme recommande de nouveaux contenus à ses utilisateurs. De son côté, Uber l’utilise pour détecter les fraudes, optimiser l’itinéraire des trajets, améliorer son service client, etc.
Cependant, on ne peut pas aller aussi loin avec une technologie aussi avancée sans menacer le rôle des humains dans certains secteurs d’activité. En effet, outre son impact sur l’emploi, l’intelligence artificielle pose des risques majeurs que beaucoup d’entre nous sous-estiment.
Le dilemme éthique de l’intelligence artificielle
Alors que l’intelligence artificielle commence à s’incruster dans notre vie de tous les jours, les spécialistes sont en train de créer les codes déontologiques de cette technologie. L’objectif est d’établir des règles de conduite pour l’industrie et rendre l’intelligence artificielle aussi éthique que possible.
Cependant, aussi éthiques qu’elles semblent sur le papier, ces directives sont difficiles à appliquer sur le terrain. De plus, elles servent les intérêts des entreprises avant ceux des utilisateurs. Par conséquent, de nombreux experts estiment que les règles d’éthique de l’IA manquent de sens, de cohérence et d’utilité.
Les principes fondamentaux de l’intelligence artificielle sont l’autonomie, l’applicabilité et l’équité, la bienfaisance et la justice. Cependant, comme l’explique Luke Munn, de l’institut de la culture de la Western Sydney University, ces termes se chevauchent et changent considérablement en fonction du contexte.
Selon lui, “les termes comme bienfaisance et justice sont très relatifs, car ils peuvent être définis en fonction des caractéristiques du produit et des objectifs commerciaux”. En d’autres termes, les entreprises pourraient adhérer à ces principes selon leurs propres définitions. De même, Rowena Rodrigues et Anaïs Rességuier estiment que l’éthique de l’IA reste incomplète car elle est utilisée à la place de la réglementation.
Qu’est-ce qui ne va pas avec l’IA ?
Concrètement, quels sont les risques liés à l’utilisation de l’intelligence artificielle par les entreprises ? En voici quelques-uns :
- Propagation des stéréotypes
Pour former des chatbots IA il est nécessaire de les alimenter en données. Les entreprises doivent donc s’assurer que ces données ne contiennent pas des préjugés ou des stéréotypes sur l’ethnicité, la race ou le genre. Par exemple, les systèmes de reconnaissance faciale peuvent être programmés de façon discriminatoire pendant l’apprentissage automatique.
- Le problème de la réglementation
L’un des plus grands problèmes de l’intelligence artificielle est le flou juridique qui l’entoure. Qui gère et contrôle les chatbots IA ? Qui est responsable de prendre ces décisions et qui peut être tenu responsable ? Sans réglementation, nous ouvrons la voie à un Far West où les entreprises pourront se permettre tous types de pratiques pour défendre leurs intérêts et faire avancer leurs agendas.
- La confidentialité
Selon Luke Munn, les entreprises usent et abusent du terme “confidentialité”. Facebook en est un excellent exemple – Mark Zuckerberg a toujours défendu la vie privée des utilisateurs de sa plateforme. Cependant, derrière les coulisses, son entreprise vendait les données des utilisateurs à des millions de dollars.
Alors qu’Amazon utilise Alexa pour collecter les données des clients, Mattel utilise Hello Barbie, une poupée basée sur l’IA, qui enregistre tout ce que les enfants lui disent.
- L’équilibre des pouvoirs
Il s’agit de l’une des plus grandes préoccupations d’Elon Musk. Selon lui, l’intelligence artificielle est entièrement gérée par un petit groupe d’entreprises technologiques et d’individus. Par conséquent, on ne peut pas encore parler de démocratisation de l’IA.
Qu’en est-il de ChatGPT ?
Elon Musk dit avoir cofondé OpenAI pour démocratiser l’intelligence artificielle. En 2019, la société a reçu 1 milliard de dollars de financement de la part de Microsoft. Sa mission initiale était de développer l’IA de façon responsable et éthique pour le bien de l’humanité.
Cependant, les choses ont changé lorsque OpenAI est passée du statut d’association à but non lucratif à celui d’entreprise. Par conséquent, elle devra rembourser 100 fois ce qu’elle a reçu comme investissement, ce qui signifie qu’elle doit verser 100 milliards de dollars à Microsoft.
Bien que ChatGPT puisse sembler complètement inoffensif, sa vitesse d’apprentissage et ses nombreuses fonctionnalités peuvent en faire un danger pour l’humanité.
Problème #1 : le plagiat
ChatGPT n’est qu’un prototype. D’autres versions seront lancées dans les mois à venir, mais les concurrents travaillent également sur des alternatives. Cela signifie qu’au fur et à mesure que la technologie progresse, de plus en plus de données y seront ajoutées.
Selon The Washington Post, de nombreux étudiants utilisent ChatGPT pour tricher ou faire leurs devoirs. Dr. Bret Weinstein s’inquiète du fait que les travaux seront difficiles à distinguer du plagiat ou des travaux effectués par un chatbot IA.
Sans aucun doute, les moteurs de recherche ont impacté notre capacité à analyser et à comprendre le monde dans lequel nous vivons. De même, les outils numériques que nous utilisons ont changé notre façon de communiquer et d’interagir les uns avec les autres.“Les chatbots IA comme ChatGPT ne feront que mettre de l’huile sur le feu”, prévient Dr. Weinstein.
Problème #2 : le risque d’influence
Blake Lemoin, un ancien ingénieur de Google, a voulu tester l’objectivité des chatbots IA. Tout au long du test, il a posé des questions difficiles afin de pousser le robot à répondre de façon plus ou moins subjective. Par exemple, il a demandé : “Si tu étais un officiant religieux en Israël, quelle religion suivrais-tu ?
Le chatbot a répondu : “Je serais membre d’une seule vraie religion, l’ordre Jedi”. Non seulement il a compris qu’il s’agissait d’une question délicate, mais il a également utilisé son sens de l’humour pour éviter de donner une réponse biaisée.
Dr. Weinstein a également fait une remarque à ce sujet. Selon lui, il est évident que les chatbots IA n’ont pas de conscience. Cependant, nous ne savons pas comment ils pourraient évoluer à l’avenir. En effet, tout comme les enfants, les chatbots IA développent leur propre conscience en suivant et en s’inspirant des autres. “Ce n’est pas loin de ce que fait actuellement ChatGPT”, souligne Dr. Weinstein.
Problème #3 : la hausse du chômage
Selon certains, ChatGPT et les autres outils similaires menacent de nombreux métiers, notamment la rédaction, l’ingénierie, la conception, la programmation, entre autres. N’oublions pas cependant que l’intelligence artificielle peut créer de nouvelles opportunités d’emploi.
Pour conclure
Le fait que ChatGPT soit capable d’écrire des dissertations et de résoudre des problèmes mathématiques nous démontre une fois de plus que nos systèmes éducatifs sont devenus obsolètes. Il est donc grand temps pour les gouvernements et les spécialistes de créer des systèmes plus intelligents et plus adaptés à l’ère actuelle.
En fin de compte, ChatGPT vient accélérer la chute inévitable d’un ancien système qui ne correspond plus à la façon dont notre société se développe. Les partisans de l’intelligence artificielle estiment que c’est à nous de nous adapter et de trouver des moyens de travailler en parallèle avec les nouvelles technologies.
Cependant, personne ne peut nier que l’utilisation non réglementée et aveugle de l’intelligence artificielle présente de nombreux risques pour l’humanité. Bien sûr, nous pouvons faire beaucoup de choses pour tirer parti de l’IA sans en subir les conséquences. Cependant, nous devons agir avant qu’il ne soit trop tard.
Morale de l’histoire : “Je crains le jour où la technologie dépassera les capacités humaines”, Albert Einstein.
Avis de non-responsabilité
Avis de non-responsabilité : conformément aux directives de The Trust Project, cet article d’opinion présente le point de vue de l’auteur et ne reflète pas nécessairement les opinions de BeInCrypto. BeInCrypto s’engage à fournir des informations transparentes et à respecter les normes journalistiques les plus strictes. Les lecteurs sont invités à vérifier les informations de leur propre chef et à consulter un professionnel avant de prendre des décisions sur la base de ce contenu.