OpenAI renforce son cadre d’évaluation des risques
- Olivier Mégean
- il y a 2 jours
- 1 min de lecture

OpenAI vient de mettre à jour son framework de sécurité, un outil clé pour juger la dangerosité potentielle de ses futurs modèles.
Ce cadre revoit profondément sa grille d’analyse :
Nouvelles catégories de risques :
• Réplication autonome
• Dissimilation de capacités
• Contournement de garde-fous
• Résistance à l’arrêt (pour rappel ce sujet était au coeur de la SB 1047 qui avait été refusée par le gouverneur de Californie à l'époque (veto)
Abandon de l’évaluation du pouvoir de persuasion, jugée moins prioritaire.
Objectif : concentrer les efforts sur les risques critiques, notamment ceux pouvant générer des préjudices graves ou être utilisés à des fins de bio-ingénierie malveillante.
Ce mouvement s’inscrit dans une dynamique plus large du secteur, face à des IA de plus en plus “agentiques” — capables d’agir de manière autonome dans des environnements complexes.
lien vers la source : https://www.axios.com/2025/04/15/openai-risks-frameworks-changes?utm_source=chatgpt.com