Trusted

L’IA, une menace ? Vitalik Buterin propose une alternative

3 mins
Mis à jour par Célia Simon
Rejoignez Notre Communauté de Trading sur Telegram

EN BREF

  • Le cofondateur d'Ethereum, Vitalik Buterin, explore le techno-optimisme et les risques liés à l'IA dans un long billet.
  • M. Buterin propose une approche "d'accélération défensive", en accélérant les technologies qui améliorent la sécurité et la résilience tout en ralentissant celles qui s'avèrent potentiellement risquées.
  • Vitalik tire toutefois la sonnette d'alarme contre l'autoritarisme numérique et les technologies de surveillance totalitaires.
  • promo

Le cofondateur d’Ethereum, Vitalik Buterin, a publié un long billet de blog sur l’intelligence artificielle et ses dangers potentiels. Le mathématicien a ainsi donné son point de vue sur les récents débats concernant le techno-optimisme et les risques liés à l’IA.

Le 27 novembre, Vitalik Buterin a publié une longue évaluation de l’essor de l’intelligence artificielle dans un billet intitulé “Mon techno-optimisme”.

Vitalik Buterin donne son avis sur l’intelligence artificielle

Dans son essai, Vitalik explore le concept de “techno-optimisme” et encorage à l’enthousiasme en faveur du progrès technologique. Toutefois, il prend également grand soin d’examiner les technologies qui devraient selon lui être accélérées ou ralenties.

Vitalik Buterin affirme notamment que la technologie a permis d’améliorer massivement la qualité de vie, la santé, la commodité, l’accès à l’information et bien d’autres choses encore au cours du siècle dernier. Néanmoins, certaines technologies telles que l’IA représentent des risques particulièrement préoccupants, comme des menaces existentielles liées à l’IA avancée qui pourrait décider d’éliminer l’humanité (oui nous avons tous vu au moins un film de la saga Terminator).

MIRI researcher Rob Bensinger's attempt at illustrating different people's estimates of the probability that AI will either kill everyone or do something almost as bad. Source: Vitalik.eth
La tentative de Rob Bensinger, chercheur au MIRI, d’illustrer les estimations de différentes personnes quant à la probabilité que l’IA tue tout le monde ou fasse quelque chose de presque aussi grave. Source : Vitalik.eth : Vitalik.eth

Vitalik a ainsi proposé une autre perspective appelée “accélération défensive” ou “d/acc”. Ce processus consiste à accélérer intentionnellement les technologies censées rendre le monde plus sûr et plus résistant. Il s’agit également de restreindre ou de ralentir les technologies susceptibles de centraliser le pouvoir ou de poser des risques incontrôlés.

Il a donné plusieurs exemples de technologies “favorables à la défense” qui méritent d’être accélérées. Il s’agit notamment des infrastructures résilientes et des technologies de réponse aux pandémies. Il a également mentionné le cryptage et la blockchain pour préserver la vie privée et la décentralisation, ainsi que les outils permettant une gouvernance démocratique.

“Les mondes favorables à la défense aident les utopies de gouvernance classiques-libérales à prospérer. Faisons donc ce que nous pouvons pour rendre le monde plus favorable à la défense.”

Pour en savoir plus : Quelles actions IA acheter en 2023 ?

Le cofondateur d’Ethereum a tiré la sonnette d’alarme contre une montée de l’autoritarisme numérique et des technologies de surveillance totalitaires (qui existent déjà). Ces technologies pourraient ainsi être utilisées contre les dissidents ou ceux qui défient le gouvernement et seraient contrôlées par une poignée de géants de la technologie.

M. Buterin a ajouté que la plupart des gens préféreraient que l’IA hautement avancée soit retardée d’une décennie plutôt que de la voir monopolisée par un seul groupe ou une seule entreprise.

Les humains, “l’étoile la plus brillante”

En ce qui concerne l’intelligence artificielle avancée, M. Buterin a suggéré de se concentrer davantage sur la collaboration entre l’IA et l’homme. L’amélioration cognitive par rapport aux systèmes autonomes serait également privilégiée pour tenter de gérer les risques d’une prise de contrôle par une superintelligence.

Vitalik a conclu que les humains sont “l’étoile la plus brillante”.

Il y a beaucoup de bonnes choses qui peuvent découler du progrès constant de l’humain, vers les étoiles et au-delà”, a-t-il déclaré avant d’ajouter : “Mais il y a de grandes bifurcations dans l’histoire de l’humanité :

“Mais il y a de grandes bifurcations sur la route et nous devons choisir avec soin. Accélérons, mais accélérons prudemment et bien”.

Le 26 novembre, 18 grandes puissances mondiales ont signé un accord non contraignant pour faire progresser la sûreté et la sécurité de l’IA.

Morale de l’histoire : L’IA, oui, mais pas n’importe comment.

🎄Les meilleures plateformes de cryptos | Décembre 2024
🎄Les meilleures plateformes de cryptos | Décembre 2024
🎄Les meilleures plateformes de cryptos | Décembre 2024

Avis de non-responsabilité

Avis de non-responsabilité : Conformément aux directives de The Trust Project, BeInCrypto s'engage à fournir des informations impartiales et transparentes. Cet article vise à fournir des informations exactes et pertinentes. Toutefois, nous invitons les lecteurs à vérifier les faits de leur propre chef et à consulter un professionnel avant de prendre une décision sur la base de ce contenu.

profile.jpg
Martin Young
Martin Young est un journaliste et rédacteur chevronné en crypto-monnaies avec plus de 7 ans d'expérience dans la couverture des dernières nouvelles et tendances dans l'espace des actifs numériques. Il est passionné par le fait de rendre les concepts complexes de blockchain, de fintech et de macroéconomie compréhensibles pour le grand public. Martin a été présenté dans les meilleures publications sur la finance, la technologie et la crypto, notamment BeInCrypto, CoinTelegraph, NewsBTC...
READ FULL BIO
Sponsorisé
Sponsorisé