ImmuneFi, une plateforme spécialisée dans les contrats intelligents, a banni 15 personnes pour avoir soumis des rapports créés par ChatGPT.
La plateforme, qui propose plusieurs programmes de 💰 primes aux bugs aux hackers éthiques, estime que ChatGPT est techniquement incapable de détecter les failles du code.
Les chatbots IA ne peuvent pas remplacer les hackers éthiques
Selon ImmuneFi, les whitehats (hackers éthiques) doivent être en mesure de signaler les bugs en les expliquant avec leurs propres mots plutôt qu’avec des outils d’intelligence artificielle.
ImmuneFi est une plateforme de primes aux bugs qui récompense les hackers éthiques ayant détecté des failles dans les contrats intelligents de certains 💱 projets DeFi comme Aave, Compound et Synthetix. En septembre 2022, la plateforme a versé 65 millions de dollars aux whitehats.
Les dirigeants de projets crypto font souvent appel aux whitehats pour tester la sécurité de leurs produits. Ces “bons” hackers sont totalement différents des “blackhats”, qui exploitent les failles de sécurité pour 🤑 gagner de l’argent ou nuire aux entreprises. Il existe également des hackets appelés “greyhats”, qui trouvent des bugs sans l’autorisation des dirigeants du projet.
Selon ImmuneFi, les failles doivent être détectées par des humains et non pas par des chatbots.
ChatGPT est un chatbot qui utilise un modèle génératif appelé GPT-3 pour discuter avec les humains. Il se démarque par sa capacité à répondre aux questions en se focalisant davantage sur l’intention et le contexte plutôt que sur les mots. Les moteurs de recherche traditionnels, en revanche, classent les résultats en fonction de la quantité et de la qualité des liens des pages répertoriées.
ChatGPT en est encore à ses débuts
Selon le PDG d’OpenAI, certaines réponses de ChatGPT manquent de bon sens. De plus, son style d’expression peut parfois rendre les fake news tout à fait plausibles. StackOverflow, un forum de développeurs informatiques, a également interdit ChatGPT à ses utilisateurs pour les mêmes raisons.
Malgré les lacunes flagrantes du chatbot, le PDG d’OpenAI est convaincu qu’il évoluera au fil du temps pour devenir un outil de travail complet et efficace.
“On peut imaginer un “employé de bureau IA” qui exécute ses missions comme le ferait un être humain” a déclaré Sam Altman dans un article publié l’année dernière. De son côté, la plateforme d’audit de contrats intelligents CertiK pense que le chatbot peut très bien résoudre les bugs informatiques. De même, Tomiwa Aswmidum, un ingénieur informatique canadien, dit avoit utilisé l’outil pour créer un 👛 portefeuille crypto.
Elon Musk, qui a quitté le conseil d’administration d’OpenAI en 2018, a déclaré en décembre que l’IA de ChatGPT est “effrayante”. De même, Kate Reznykova, responsable des investissements chez Next47, a révélé que ChatGPT a dépassé le seuil d’un million d’utilisateurs en seulement cinq jours.
Cependant, Sam Altman, le PDG d’OpenAI, conseille aux développeurs de ne pas croire aveuglément ChatGPT et de ne jamais l’utiliser pour des “choses importantes”.
“Pour le moment, il ne faut pas l’utiliser pour des choses importantes”, a-t-il déclaré.
Morale de l’histoire : même avec les technologies les plus avancées au monde, aucun outil ou logiciel ne peut remplacer le bon sens et la créativité humaine.
Avis de non-responsabilité
Avis de non-responsabilité : Conformément aux directives de The Trust Project, BeInCrypto s'engage à fournir des informations impartiales et transparentes. Cet article vise à fournir des informations exactes et pertinentes. Toutefois, nous invitons les lecteurs à vérifier les faits de leur propre chef et à consulter un professionnel avant de prendre une décision sur la base de ce contenu.