Retour

Non, l’IA ne remplace pas l’intuition humaine dans le trading crypto

author avatar

Ecrit par
Kamina Bashir

editor avatar

Mis à jour par
Célia Simon

24 janvier 2026 15:30 CET
  • Nansen lance des outils IA pour améliorer l’analyse et l’exécution du trading on-chain.
  • Le PDG de Nansen affirme que l’IA complète le jugement humain sans pour autant le remplacer dans l’analyse crypto.
Promo

L’intelligence artificielle a transformé de nombreux secteurs et, partout où elle s’impose, c’est la même question qui revient : remplacera-t-elle l’humain ? Dans la crypto, son impact est déjà bien visible, allant des bots de trading gérés par l’IA aux systèmes de trading agentiques.

Cependant, Alex Svanevik, PDG et cofondateur de Nansen, soutient que l’IA ne remplace pas le jugement humain, mais permet plutôt de l’augmenter. Dans une interview exclusive accordée à BeInCrypto, Svanevik explore ainsi ce changement en profondeur et évoque les perspectives de l’analyse dopée à l’intelligence artificielle.

Débat sur l’IA dans la crypto : le PDG de Nansen défend le soutien de l’IA plutôt que son remplacement

Le mercredi 21 janvier, Nansen a annoncé le lancement de sa fonctionnalité de trading on-chain pilotée par l’IA. Cet événement marque une évolution majeure et lui permet de passer d’une simple plateforme d’analyse à un produit unifié réunissant insight et exécution.

Sponsored
Sponsored

Construite à partir de son propre ensemble de données de plus de 500 millions de wallets étiquetés, cette nouvelle solution permet aux utilisateurs de gérer des portefeuilles, d’interpréter des signaux on-chain en temps réel et d’obtenir des suggestions fondées sur des données. Elle permet aussi d’exécuter des trades directement sur Nansen.

« Entraînée et évaluée sur le jeu de données propriétaire de Nansen, l’IA de Nansen surpasse constamment les principaux produits IA sur des benchmarks conçus pour l’analyse et le trading on-chain. Cela garantit que les informations fournises sont non seulement plus précises, mais également directement exploitables par les traders/investisseurs, transformant l’intelligence agentique en un véritable avantage de trading », peut-on lire dans le communiqué de Nansen.

De plus, ce lancement ouvre la voie à ce que Nansen appelle le « vibe trading ». Il s’agit d’un mode d’exécution plus intuitif, qui passe de la prise d’insight à l’exécution on-chain sans changer d’outil.

Alors que l’IA prend en charge de plus en plus d’analyses, la question du rôle des analystes humains se pose. Svanevik explique que l’IA excelle dans la gestion d’importants volumes de données, ce qui lui permet d’analyser des centaines de millions de wallets, de suivre les flux cross-chain et d’identifier des schémas difficilement détectables par l’humain.

Cependant, il souligne que la prise de décision reste l’apanage de l’utilisateur, qui pilote le processus en posant les bonnes questions et en validant les actions.

« La frontière n’est pas figée. Elle évolue à mesure que l’IA progresse en raisonnement et qu’elle dispose de données on-chain de plus en plus riches. Cependant, l’objectif n’est pas de remplacer le jugement. Il s’agit de libérer l’humain des tâches pénibles pour qu’il puisse se concentrer sur des décisions de plus haut niveau », a-t-il déclaré.

Sponsored
Sponsored

Comment reconnaître une analyse crédible sur un marché crypto dominé par l’IA ?

Des recherches suggèrent que l’augmentation de la dépendance aux outils d’intelligence artificielle pourrait être liée à une diminution de l’esprit critique. Sur les marchés crypto où les traders doivent affronter une extrême volatilité et des actifs à haut risque, les enjeux s’avèrent encore plus élevés.

Cependant, Svanevik offre un point de vue différent. Selon lui, une « bonne IA » met en lumière davantage de signaux, poussant les utilisateurs à réfléchir de façon plus critique à l’exécution, et non l’inverse.

« Le vrai risque systémique réside dans le fait que tout le monde suive le même schéma. Ce n’est pas propre à l’IA — cela se produit aussi avec les analystes humains. La réponse, c’est la diversité : diversité des modèles, diversité des stratégies, diversité dans l’interprétation des données. C’est pourquoi nous créons des outils qui favorisent la prise de décision individuelle, et non pas un oracle unique à suivre », ajoute-t-il.

Le dirigeant précise également qu’il ne faut faire une confiance aveugle ni à l’IA, ni aux analystes humains. Selon lui, ce qui importe avant tout est la capacité de l’analyse à tenir sur la durée.

Concernant la crédibilité sur un marché orienté IA, le PDG précise :

« La crédibilité à l’ère de l’IA repose sur la mesure et la répétition, pas sur un nom ou une audience sur Twitter. L’IA a l’avantage de pouvoir être testée inlassablement, à grande échelle, et face à la réalité de manière que l’humain ne pourrait égaler. »

Il explique que le test le plus simple est d’ordre pratique. Svanevik suggère en effet que les utilisateurs posent des questions qui les concernent vraiment, puis jugent si les réponses sont pertinentes, utiles et actionnables, notant que les utilisateurs sont souvent de bons juges de la qualité.

Sponsored
Sponsored

« À long terme, la confiance s’éloignera des analystes individuels au profit des plateformes capables de prouver, en continu, qu’elles extraient du signal et limitent le bruit. C’est le niveau d’exigence que nous nous imposons », déclare Svanevik à BeInCrypto.

L’IA peut analyser les données on-chain mais ne peut pas remplacer le ressenti humain

Les analystes humains alignent souvent leurs décisions de trading sur des indicateurs on-chain, des données de prix ou d’autres signaux, grâce à leur jugement et leur capacité d’interprétation contextuelle. Les systèmes d’IA, eux, s’appuient sur des schémas appris à partir de données passées.

Interrogé sur la possibilité qu’un jour, l’IA puisse développer une forme similaire de jugement, Svanevik estime que cela arrivera sans doute, mais pas à la manière humaine. Il explique ainsi qu’une IA développera sa propre forme de raisonnement contextuel. Selon le dirigeant, elle pourrait même être plus efficace pour intégrer des données en temps réel sur un large éventail de variables, bien au-delà des capacités humaines.

« Pour y parvenir, il faudra de meilleures données d’entraînement, des fenêtres de contexte plus longues et des boucles de rétroaction issues de l’exécution réelle. Nous le constatons déjà avec notre agent. Il ne se contente pas de rechercher des schémas ; il raisonne sur des données comportementales en temps réel. Il s’agit d’un début de jugement. Cela deviendra plus aiguisé à mesure que les modèles évolueront et que nous cumulerons les apprentissages issus de millions d’interactions on-chain », souligne Svanevik.

Néanmoins, il identifie un aspect de l’analyse on-chain que l’IA ne remplacera jamais complètement : assumer la responsabilité des décisions prises dans l’incertitude.

Sponsored
Sponsored

Svanevik rappelle que, si l’IA peut faire ressortir des schémas, évaluer des probabilités et scénarios potentiels, et analyser les données passées ou à venir, elle ne peut pas déterminer la tolérance au risque d’une personne, ses jugements de valeur ou prendre la responsabilité des décisions lorsque les résultats deviennent négatifs.

« L’analyse on-chain débouche in fine sur des actions concrètes : investir du capital, soutenir des équipes, prendre des positions publiques. Quelqu’un doit assumer ces décisions. C’est un rôle humain », conclut le dirigeant.

Il a souligné que, peu importe le niveau de sophistication atteint par les modèles d’IA, la crédibilité continuera de reposer sur les humains en matière de jugement, de responsabilité et de conviction. L’IA peut éclairer les décisions, a-t-il déclaré, mais ce sont toujours les humains qui les prennent et en assument les conséquences.

« Décider de ce qui compte. L’IA peut vous dire ce qui se passe on-chain, mais elle ne peut pas vous dire ce à quoi vous devriez accorder de l’importance. C’est une question de sensibilité, une question de conviction. C’est humain », a commenté Svanevik.

Au final, Svanevik considère l’IA comme un puissant levier et non comme un preneur de décisions. Si l’IA peut révéler des schémas, des probabilités et des analyses à une échelle inédite, le jugement humain reste central pour l’évaluation du risque, la responsabilité et la conviction. 

À mesure que l’analyse alimentée par l’IA se démocratise, la confiance reposera de plus en plus sur les plateformes capables de prouver en continu la qualité de leurs analyses. En parallèle, les humains restent responsables de déterminer ce qui importe et d’assumer les conséquences qui en découlent.

La morale de l’histoire : L’IA n’avance jamais seule.

Avis de non responsabilité

Avis de non-responsabilité : Conformément aux directives de The Trust Project, BeInCrypto s'engage à fournir des informations impartiales et transparentes. Cet article vise à fournir des informations exactes et pertinentes. Toutefois, nous invitons les lecteurs à vérifier les faits de leur propre chef et à consulter un professionnel avant de prendre une décision sur la base de ce contenu.

Sponsorisé
Sponsorisé