Antropic alerte les gouvernements sur les risques catastrophiques de l'IA

Plus d'informations
il y a 3 semaines 6 jours #1 par Webmestre
Antropic, maison mère de Claude AI, alerte les gouvernements sur les risques catastrophiques de l'IA

L'alarme sonne parfois de là où on ne l'attend pas. L'entreprise phare de l'intelligence artificielle, Anthropic, a publié une série de recommandations aux gouvernements du monde entier, les exhortant à agir rapidement pour mettre en place une « réglementation ciblée » afin de prévenir les risques « catastrophiques » liés aux progrès fulgurants de l'IA.


Selon Anthropic, à l'origine de Claude AI, la « fenêtre de prévention proactive des risques se referme rapidement ». Les systèmes d'IA ont réalisé des avancées remarquables en un temps record, dans des domaines aussi variés que l'ingénierie logicielle, la cybersécurité ou encore la compréhension scientifique.
Mais comme tout succès possède une rançon, ces progrès, s'ils offrent de nombreuses possibilités bénéfiques, peuvent attirer des convoitises moins nobles, voire destructrices.

Une réglementation « chirurgicale » pour encadrer la montée en puissance de l'IA
Anthropic met en garde les gouvernements contre les risques « cybernétiques et CBRN (chimiques, biologiques, radiologiques et nucléaires) » que représentent les modèles d'IA de pointe. Selon l'entreprise, ces systèmes ont désormais acquis des capacités leur permettant de mener avec une efficacité croissante des activités liées à la cybercriminalité et à la prolifération d'armes de destruction massive.

Le créateur de Claude AI décide d'être proactif et préconise une réglementation « chirurgicale » de l'IA, qui s'inspirerait de sa propre « politique de mise à l'échelle responsable » (Responsible Scaling Policy, RSP). Celle-ci vise à identifier, évaluer et atténuer les risques catastrophiques de manière proportionnée, en fonction des seuils de capacités atteints par les modèles.

Selon Anthropic, une telle réglementation devrait reposer sur trois piliers essentiels : la transparence, l'encouragement de meilleures pratiques de sécurité et de sûreté, ainsi que la simplicité et la concentration des mesures.

Des RSP pour servir de prototype à la réglementation
Anthropic demande à jouer collectif pour nous protéger contre les dérives de l'IA. Et c'est un véritable plaidoyer, comme indiqué sur son blog, que l'entreprise présente, en appelant les décideurs politiques, le secteur de l'IA, les défenseurs de la sécurité, la société civile et les législateurs à travailler ensemble dans les 18 mois à venir pour élaborer un cadre réglementaire efficace, s'inspirant des principes de sa RSP.

Par ailleurs, elle met en garde contre les conséquences désastreuses d'une inaction ou d'une réaction trop lente des pouvoirs publics. Le risque serait alors de se retrouver dans « le pire des deux mondes » : une réglementation « mal conçue et instinctive » qui entraverait l'innovation sans pour autant prévenir les risques.

Le temps presse donc pour mettre en place des garde-fous efficaces face à la montée en puissance de l'IA.


Clubic.com - 4/11/2024 Par  Mélina LOUPIA Article original : cliquer sur ce lien  
 
Modérateurs: Modérateur
Propulsé par Kunena