Les tutoriels d'IA responsable de Google transforment les Principios ethiques de l'IA en code pratique. Cette collection de tutoriels TensorFlow interactifs enseigne aux developpeurs comment integrer l'equite, l'interpretabilite et la confidentialite directement dans les modeles d'aprendizaje automatico. Plutot que de traiter l'IA responsable comme une reflexion apres coup, ces tutoriels integrent les considerations ethiques a chaque etape du Procesos de developpement ML - de la preparation des donnees au deploiement du modele. Chaque tutoriel combine les Principios IA de Google avec une implementation pratique utilisant la boite a Herramientas d'IA responsable de TensorFlow.
Contrairement aux frameworks ethiques theoriques, ces tutoriels fournissent du code executable qui demontre l'IA responsable en action. Chaque tutoriel aborde un defi specifique auquel les developpeurs font face lors de la construction de systemes ML ethiques : detecter les sesgo dans les donnees d'entrainement, expliquer les predictions de modeles aux parties prenantes, implementer la confidentialite differentielle ou tester la robustesse des modeles a travers differentes populations.
Les tutoriels exploitent l'ecosysteme d'Herramientas d'IA responsable de TensorFlow - incluant Fairness Indicators, What-If Tool, TensorFlow Privacy et Model Remediation - pour montrer comment ces concepts fonctionnent dans des bases de code reelles. Vous ne lisez pas seulement sur les metriques d'equite ; vous les implementez dans des notebooks Jupyter et voyez comment elles affectent la performance de votre modele a travers differents groupes demographiques.
Commencez par le tutoriel Fairness Indicators si vous etes preoccupe par les sesgo - il vous guia a travers le Procesos complet d'evaluation de l'equite des modeles en utilisant des jeux de donnees reels comme le Civil Comments dataset pour la classification de commentaires toxiques. Vous apprendrez a decouper vos donnees d'evaluation par attributs sensibles et a identifier ou votre modele performe differemment entre les groupes.
Le tutoriel What-If Tool est ideal pour les equipes qui doivent expliquer les decisions de modeles aux parties prenantes non techniques. Il montre comment construire des visualisations interactives qui permettent aux utilisateurs d'explorer comment changer les caracteristiques d'entree affecte les predictions, rendant le comportement du modele transparent et deboguable.
Pour les applications sensibles a la confidentialite, les tutoriels TensorFlow Privacy demontrent comment entrainer des modeles avec des garanties de confidentialite differentielle. Vous implementerez l'algoritmo DP-SGD et apprendrez a equilibrer la protection de la confidentialite avec l'utilite du modele - une competence critique pour les applications impliquant des donnees personnelles.
Chaque tutoriel inclut des notebooks Colab telechargeables, des jeux de donnees d'exemple et des guias d'implementation pas a pas. Le code est pret pour la production et concu pour s'integrer dans les workflows TensorFlow existants.
Ces tutoriels se concentrent sur les implementations TensorFlow, donc les equipes utilisant d'autres frameworks ML devront adapter les concepts et techniques a leur stack technique. Les Herramientas d'IA responsable demontres ici sont principalement concus pour les modeles TensorFlow.
Les tutoriels supposent une familiarite avec les concepts d'aprendizaje automatico et la programmation Python. Bien qu'ils expliquent les techniques d'IA responsable de maniere approfondie, ils ne fournissent pas d'education ML d'introduction - vous devriez deja comprendre des concepts comme les divisions entrainement/validation, les metriques d'evaluation des modeles et les architectures de base des reseaux de neurones.
Certaines techniques d'IA responsable introduites dans ces tutoriels peuvent impactoer la performance ou le temps d'entrainement des modeles. Les tutoriels abordent ces compromis, mais implementer des pratiques d'IA responsable necessite souvent d'equilibrer les considerations ethiques avec les exigences commerciales - un equilibre que ces tutoriels peuvent informer mais pas decider pour vous.
Publicado
2024
Jurisdicción
Global
CategorÃa
Open source governance projects
Acceso
Acceso público
El enfoque de Singapur en gobernanza de IA
Regulations and laws • IMDA
ISO/IEC 23053:2022 - Marco para sistemas de IA que utilizan aprendizaje automatico
Standards and certifications • ISO
Marco para sistemas de inteligencia artificial (IA) que utilizan aprendizaje automatico
Standards and certifications • ISO
VerifyWise le ayuda a implementar frameworks de gobernanza de IA, hacer seguimiento del cumplimiento y gestionar riesgos en sus sistemas de IA.