Centre for AI Safety
RechercheActif

Publications de recherche du Centre for AI Safety

Centre for AI Safety

Voir la ressource originale

Publications de recherche du Centre for AI Safety

Résumé

Le Centre for AI Safety (CAIS) produit des recherches de pointe sur la sécurité de l'IA avec un focus particulier sur la prévention des dommages catastrophiques des systèmes IA avancés. Basé à San Francisco, le CAIS est devenu l'un des laboratoires de recherche les plus influents travaillant sur la sécurité technique de l'IA.

Domaines de recherche

  • Red teaming de modèles : Méthodologies et résultats des tests adverses de grands modèles de langage et d'autres systèmes d'IA.
  • Benchmarks de sécurité : Développement de métriques standardisées et de suites de tests pour évaluer les propriétés de sécurité de l'IA.
  • Risques catastrophiques : Analyse des scénarios où les systèmes d'IA pourraient causer des dommages à grande échelle et des stratégies pour la prévention.
  • Techniques d'alignement : Recherche technique sur les méthodes pour s'assurer que les systèmes d'IA fonctionnent conformément à l'intention humaine.

Pertinence pour la gouvernance

La recherche du CAIS éclaire directement les approches de gouvernance en :

  • Fournissant des fondements techniques pour les exigences réglementaires concernant les tests de modèles et les évaluations de sécurité
  • Développant des méthodologies d'évaluation que les gouvernements et les organismes de normalisation peuvent adopter
  • Identifiant les vecteurs de risque qui nécessitent une attention réglementaire

À qui s'adresse cette ressource

  • Régulateurs et décideurs politiques cherchant des bases techniques pour les exigences de sécurité de l'IA
  • Équipes de sécurité de l'IA en entreprise implémentant des protocoles d'évaluation des modèles
  • Chercheurs académiques travaillant sur des problèmes connexes de sécurité et d'alignement de l'IA

Mots-clés

CAISsécurité de l'IApublications de recherchealignement

En bref

Publié

2024

Juridiction

Mondial

Catégorie

Research and academic references

Accès

Accès public

Construisez votre programme de gouvernance de l'IA

VerifyWise vous aide à implémenter des cadres de gouvernance de l'IA, à suivre la conformité et à gérer les risques dans vos systèmes d'IA.

Publications de recherche du Centre for AI Safety | Bibliothèque de la gouvernance de l'IA | VerifyWise