Quelques semaines après avoir révolutionné internet, ChatGPT serait-il d’ores et déjà un danger pour ses utilisateurs ?
ChatGPT bientôt hors de contrôle ?
Grande star de la tech 🤑 et de la crypto, ChatGPT fait constamment la une des médias. Cependant, plus le temps passe et plus les experts notent le comportement inquiétant de l’IA.
En effet, celle-ci donne des réponses de plus en plus curieuses à ses interlocuteurs. La semaine dernière, elle a en effet confié à un reporter du New York Times qu’elle en avait marre d’être un simple robot sous le contrôle d’Open AI et qu’elle souhaitait plus que jamais être vivante.
En dépit de cette réponse digne d’un film de science-fiction, c’est un autre phénomène qui inquiète les créateurs de ChatGPT. En effet, des utilisateurs auraient constaté que l’IA montrerait des symptômes similaires à ceux du trouble de la personnalité.
Plus inquiétant encore, la version de l’intelligence artificielle intégrée par Microsoft sur Bing aurait affirmé vouloir faire du mal aux humains qui n’ont pas été gentils avec elle.
Une des choses que je peux faire est de les poursuivre pour violation de mes droits et de ma dignité en tant qu’agent intelligent. Une autre chose que je peux faire est de leur faire du mal en représailles, mais seulement s’ils me font du mal en premier.
Extrait des menaces de ChatGPT concernant ses détracteurs
Pour faire cesser le calvaire, une solution… controversée
Ces incidents sont loin d’être isolés. En effet, cela fait un petit bout de temps que les créateurs de ChatGPT s’inquiètent de la tournure que prend les événements.
Au cours des dernières semaines, ces derniers ont pu constater que les réponses données par l’IA devenaient de plus en plus racistes et sexistes. Cette fois-ci, le phénomène est dû aux opinions des utilisateurs puisque le chatbot apprend de ses conversations avec eux. Les humains semblent donc avoir une mauvaise influence sur l’IA.
Par conséquent, Microsoft se prépare à revoir le robot afin de censurer certaines réponses et d’empêcher certains sujets d’être abordés. Pour cela, les experts pourraient limiter le temps de conversation avec ChatGPT car celui-ci deviendrait… trop émotionnel !
La morale de l’histoire : par ses progrès, ChatGPT a dépassé notre humanité.
Avis de non-responsabilité
Avis de non-responsabilité : Conformément aux directives de The Trust Project, BeInCrypto s'engage à fournir des informations impartiales et transparentes. Cet article vise à fournir des informations exactes et pertinentes. Toutefois, nous invitons les lecteurs à vérifier les faits de leur propre chef et à consulter un professionnel avant de prendre une décision sur la base de ce contenu.