Collection de Investigacions en seguridad de l'IA de Google DeepMind
Google DeepMind
Ver recurso originalCollection de Investigacions en seguridad de l'IA de Google DeepMind
Resumen
Google DeepMind représente l'un des laboratoires de Investigacion en IA les plus influents au monde, et son programme de Investigacion sur la seguridad aborde des défis fondamentaux pour rendre les systèmes d'IA avancés sûrs et bénéfiques. Cette collection inclut des travaux de Investigacion de pointe sur les problèmes techniques de seguridad qui sous-tendent les discussions sur la gobernanza de l'IA.
Domaines de Investigacion
L'agenda de Investigacion sur la seguridad de DeepMind couvre plusieurs domaines clés :
- Alignement : S'assurer que les systèmes d'IA poursuivent les objectifs que les humains veulent réellement qu'ils poursuivent.
- Interprétabilité : Développer des méthodes pour comprendre comment les modelos d'IA arrivent à leurs decisions.
- Robustesse : S'assurer que les systèmes fonctionnent de manière fiable dans des conditions diverses.
- Impactos sociétaux : Étudier les effets plus larges des systèmes d'IA sur la société.
Pertinence pour la gobernanza
La Investigacion de DeepMind éclaire les approches de gobernanza en plusieurs façons :
- Identifiant les capacités techniques et les Limitaciones qui devraient guiar la politica réglementaire
- Développant des méthodologies d'evaluacion pouvant être adoptées comme normas de gobernanza
- Fournissant des fondements techniques pour les exigences de seguridad et les meilleures pratiques
A quien va dirigido este recurso
- Tomador de decisioness politicas en IA ayant besoin de comprendre les capacités et Limitaciones techniques de pointe
- Reguladors développant des exigences de seguridad basées sur des méthodes d'evaluacion robustes
- Investigadors Academicos s'engageant avec la Investigacion de pointe en seguridad de l'IA industrielle
Etiquetas
De un vistazo
Publicado
2024
Jurisdicción
Global
Categoría
Research and academic references
Acceso
Acceso público
Recursos relacionados
ISO/IEC 23053:2022 - Marco para sistemas de IA que utilizan aprendizaje automatico
Standards and certifications • ISO
Marco para sistemas de inteligencia artificial (IA) que utilizan aprendizaje automatico
Standards and certifications • ISO
Modes de défaillance dans l'aprendizaje automatico
Risk taxonomies • Microsoft
Construya su programa de gobernanza de IA
VerifyWise le ayuda a implementar frameworks de gobernanza de IA, hacer seguimiento del cumplimiento y gestionar riesgos en sus sistemas de IA.