Collection de recherches en sécurité de l'IA de Google DeepMind
Google DeepMind
Voir la ressource originaleCollection de recherches en sécurité de l'IA de Google DeepMind
Résumé
Google DeepMind représente l'un des laboratoires de recherche en IA les plus influents au monde, et son programme de recherche sur la sécurité aborde des défis fondamentaux pour rendre les systèmes d'IA avancés sûrs et bénéfiques. Cette collection inclut des travaux de recherche de pointe sur les problèmes techniques de sécurité qui sous-tendent les discussions sur la gouvernance de l'IA.
Domaines de recherche
L'agenda de recherche sur la sécurité de DeepMind couvre plusieurs domaines clés :
- Alignement : S'assurer que les systèmes d'IA poursuivent les objectifs que les humains veulent réellement qu'ils poursuivent.
- Interprétabilité : Développer des méthodes pour comprendre comment les modèles d'IA arrivent à leurs décisions.
- Robustesse : S'assurer que les systèmes fonctionnent de manière fiable dans des conditions diverses.
- Impacts sociétaux : Étudier les effets plus larges des systèmes d'IA sur la société.
Pertinence pour la gouvernance
La recherche de DeepMind éclaire les approches de gouvernance en plusieurs façons :
- Identifiant les capacités techniques et les limitations qui devraient guider la politique réglementaire
- Développant des méthodologies d'évaluation pouvant être adoptées comme normes de gouvernance
- Fournissant des fondements techniques pour les exigences de sécurité et les meilleures pratiques
À qui s'adresse cette ressource
- Décideurs politiques en IA ayant besoin de comprendre les capacités et limitations techniques de pointe
- Régulateurs développant des exigences de sécurité basées sur des méthodes d'évaluation robustes
- Chercheurs académiques s'engageant avec la recherche de pointe en sécurité de l'IA industrielle
Mots-clés
En bref
Publié
2024
Juridiction
Mondial
Catégorie
Research and academic references
Accès
Accès public
Ressources connexes
Développement et utilisation sûrs, sécurisés et dignes de confiance de l'IA
Regulations and laws • Maison Blanche
ISO/IEC 23053:2022 - Cadre pour les systèmes d'IA utilisant l'apprentissage automatique
Standards and certifications • ISO
Cadre pour les systèmes d'intelligence artificielle (IA) utilisant l'apprentissage automatique
Standards and certifications • ISO
Construisez votre programme de gouvernance de l'IA
VerifyWise vous aide à implémenter des cadres de gouvernance de l'IA, à suivre la conformité et à gérer les risques dans vos systèmes d'IA.