Voir plus

G7 : un “code de conduite” pour l’intelligence artificielle ?

3 mins
Par BeInCrypto Staff
Rejoignez Notre Communauté de Trading sur Telegram

EN BREF

  • Les pays du G7 s’apprêtent à établir un “code de conduite” volontaire pour les entreprises qui opèrent dans le domaine de l’IA.
  • OpenAI a également formé une équipe qui s’occupera de la gestion des risques posés par les modèles IA.
  • Alors que l’intelligence artificielle évolue à la vitesse grand V, les acteurs du secteur appellent à une utilisation “plus responsable” de cette technologie.
  • promo

Le G7 s’apprête à établir un “code de conduite” pour les entreprises qui opèrent dans le domaine de l’intelligence artificielle. Cette initiative, qui s’inscrit dans le cadre du “processus Hiroshima”, vise à lutter contre les abus et les risques liés à la technologie IA.

Les membres du G7 (Canada, France, Allemagne, Italie, Japon, Royaume-Uni, États-Unis et Union européenne) ont lancé cette initiative afin de tracer les lignes directrices des prochaines réglementations IA.  

Vers une intelligence artificielle plus éthique ?

Alors que l’intelligence artificielle suscite les inquiétudes du monde entier, ce nouveau code de conduite pourrait donner une petite lueur d’espoir aux utilisateurs. À en croire un document publié par le G7, ce code de conduite vise à : 

“Promouvoir une IA sûre, sécurisée et digne de confiance dans le monde entier et fournir des directives volontaires aux organisations qui développent les systèmes IA les plus avancés”.

Le code encourage les entreprises à identifier, évaluer et atténuer les risques tout au long du cycle de vie de l’IA. De même, il recommande de publier des rapports publics sur les capacités, les limites et l’utilisation de l’intelligence artificielle et d’investir dans des contrôles de sécurité robustes.

Lors d’une conférence sur la gouvernance web, Vera Jourova, responsable de la politique numérique de la Commission européenne, a déclaré : 

“Ce code de conduite constitue une base solide pour garantir la sécurité. Il servira de passerelle jusqu’à ce qu’une réglementation soit mise en place”.

Risques posés par l’intelligence artificielle : Asis Online

OpenAI tend la main aux régulateurs

OpenAI, la société mère de ChatGPT, a également formé une équipe qui s’occupera de la gestion des risques posés par les modèles IA. Dirigée par Aleksander Madry, cette équipe se penchera sur des risques comme la persuasion personnalisée, les menaces de cybersécurité et la propagation de fake news.

Avec cette initiative, OpenAI souhaite contribuer au prochain sommet mondial sur l’IA, qui se tiendra au Royaume-Uni et qui vise à promouvoir la sécurité et la transparence de l’intelligence artificielle.

Par ailleurs, le gouvernement britannique considère Frontier AI comme un modèle IA “hautement avancé”.

“Ce sont des modèles IA à usage général très performants, capables d’effectuer une grande variété de tâches et d’égaler ou de dépasser les capacités des modèles les plus avancés d’aujourd’hui”.

L’équipe de préparation d’OpenAI se concentrera sur la gestion des risques, renforçant ainsi la nécessité d’un “code de conduite” mondial en matière d’intelligence artificielle.

Alors que l’IA continue d’évoluer, la position proactive du G7 et l’engagement d’OpenAI en faveur de l’atténuation des risques s’avèrent plus que nécessaires. Le “code de conduite” volontaire et la formation d’une équipe dédiée à la gestion des risques représentent des étapes importantes vers une utilisation plus responsable l’IA. L’objectif est de s’assurer que les avantages de cette technologie l’emportent sur ses risques.

Morale de l’histoire : C’est l’homme qui doit contrôler la technologie, et non pas l’inverse.

Les meilleures plateformes de cryptos | Mai 2024

Trusted

Avis de non-responsabilité

Avis de non-responsabilité : Conformément aux directives de The Trust Project, BeInCrypto s'engage à fournir des informations impartiales et transparentes. Cet article vise à fournir des informations exactes et pertinentes. Toutefois, nous invitons les lecteurs à vérifier les faits de leur propre chef et à consulter un professionnel avant de prendre une décision sur la base de ce contenu.

wpua-150x150.png
Fatima-Zahra C
Diplômée de Toulouse Business School, Fatima-Zahra a entamé sa carrière en tant que consultante chez Deloitte, avant de se reconvertir dans la presse économique et fintech. En plus de son travail de journaliste, Fatima-Zahra a géré les relations presse de plusieurs cabinets d’avocats à Paris, Londres et Casablanca. Tombée sous le charme des cryptomonnaies en 2021, elle travaille actuellement en tant que traductrice chez BeInCrypto.
READ FULL BIO
Sponsorisé
Sponsorisé