top of page
Rechercher

OpenAI renforce son cadre d’évaluation des risques

  • Photo du rédacteur: Olivier Mégean
    Olivier Mégean
  • il y a 2 jours
  • 1 min de lecture


Nouvelle évaluation des risques chez OpenAI

OpenAI vient de mettre à jour son framework de sécurité, un outil clé pour juger la dangerosité potentielle de ses futurs modèles.


Ce cadre revoit profondément sa grille d’analyse :


Nouvelles catégories de risques :


 • Réplication autonome

 • Dissimilation de capacités

 • Contournement de garde-fous

 • Résistance à l’arrêt (pour rappel ce sujet était au coeur de la SB 1047 qui avait été refusée par le gouverneur de Californie à l'époque (veto)


Abandon de l’évaluation du pouvoir de persuasion, jugée moins prioritaire.


Objectif : concentrer les efforts sur les risques critiques, notamment ceux pouvant générer des préjudices graves ou être utilisés à des fins de bio-ingénierie malveillante.


Ce mouvement s’inscrit dans une dynamique plus large du secteur, face à des IA de plus en plus “agentiques” — capables d’agir de manière autonome dans des environnements complexes.



 
 

En savoir plus :

Transformation & Transition numérique - Intelligence artificielle - Intelligences artificielles génératives - Entreprises et technologie - Gouvernance de la Tech - Conférence IA génératives et acculturation - Roadmap technologique - Pilotage de la transformation

© 2025 omestra - Tous droits réservés. Mentions légales

  • LinkedIn
bottom of page