Claude apprend à tenir sa langue

Anthropic apprend à se taire sur l'IA • Qant, M. de R. avec Midjourney

Anthropic évalue ces jours-ci, avec le département de l’Énergie américain (DOE) et la National Nuclear Security Administration (NNSA), les risques que son IA divulgue des informations sensibles sur les armes nucléaires, selon Axios.

Cette procédure, une forme avancée de red-teaming, consiste à simuler des scénarios d’abus pour identifier les vulnérabilités des modèles. Les résultats de ce programme, prévu vers février 2025, pourraient être partagés avec des laboratoires et organisations scientifiques.

À SURVEILLER : Elon Musk. Tout comme Anthropic, OpenAI, Scale AI et Meta se sont également rapprochés de Washington pour tempérer les risques que posent leurs modèles et mettre ces derniers au service de la défense et généralement de l’État. Donald Trump a cependant promis d’abroger le décret exécutif de 2023 qui pose le cadre juridique de ces initiatives (voir ci-dessous). xAI, d’Elon Musk, pourrait profiter de la vague de dérèglementation pour s’arroger une part du gâteau public.

L’essentiel