Google
PolitiqueActif

Principes d'IA de Google

Google

Voir la ressource originale

Principes d'IA de Google

Résumé

Les principes d'IA de Google représentent l'un des premiers engagements publics complets en faveur du développement responsable de l'IA par une grande entreprise technologique. Publiés en 2018 suite aux protestations internes des employés contre le Project Maven (un contrat IA du Pentagone), ces principes établissent sept objectifs fondamentaux pour le développement de l'IA et listent explicitement quatre domaines où Google ne développera pas d'applications d'IA. Contrairement à de nombreuses politiques d'entreprise axées uniquement sur la conformité, les principes de Google combinent engagements éthiques et considérations commerciales pratiques, les rendant à la fois ambitieux et exploitables pour les organisations cherchant à établir leurs propres cadres de gouvernance de l'IA.

Le contexte : Du Project Maven aux principes publics

Les principes d'IA de Google n'ont pas émergé dans le vide. En 2018, des milliers d'employés de Google ont signé une lettre protestant contre l'implication de l'entreprise dans le Project Maven, une initiative du Département de la Défense visant à utiliser l'IA pour analyser des images de drones. Ce soulèvement interne a forcé Google à réfléchir à l'utilisation de sa technologie IA et a conduit le PDG Sundar Pichai à établir ces principes comme guide directeur pour le développement de l'IA.

Ce contexte est important car il montre comment la pression externe et les valeurs internes peuvent façonner la politique IA d'entreprise. Les principes représentent la tentative de Google d'équilibrer les intérêts commerciaux avec la responsabilité éthique tout en maintenant la transparence sur leur processus de décision.

Les sept principes décodés

  • Socialement bénéfique : L'IA devrait bénéficier à de nombreuses personnes et servir le bien commun, pas seulement générer du profit ou servir des intérêts étroits.
  • Éviter les biais injustes : Travailler activement pour éliminer les impacts discriminatoires sur les personnes, particulièrement concernant les caractéristiques sensibles comme la race, le genre et la religion.
  • La sécurité d'abord : Intégrer des tests et une surveillance rigoureux pour empêcher les systèmes d'IA de causer des dommages ou de fonctionner de manière imprévue.
  • Responsable envers les personnes : Concevoir des systèmes d'IA avec une supervision et un contrôle humains appropriés, garantissant un examen humain significatif des décisions importantes.
  • Confidentialité dès la conception : Incorporer des protections de confidentialité dès le départ, donnant aux utilisateurs le contrôle sur leurs données et étant transparent sur leur utilisation.
  • Excellence scientifique : Maintenir des normes élevées de recherche et développement, partageant les connaissances de manière responsable avec la communauté scientifique.
  • Disponibilité appropriée : Rendre les outils et technologies IA disponibles pour des utilisations alignées avec ces principes et les cadres juridiques.

La liste des « interdits » : Où Google trace la ligne

Peut-être plus révélateur que ce que Google fera est ce qu'il ne fera explicitement pas :

  • Armes : Technologies conçues pour causer des dommages ou faciliter le développement d'armes
  • Surveillance : Outils qui violent les normes internationalement acceptées en matière de droits humains
  • Prédiction nuisible : Technologies qui contreviennent aux principes largement acceptés du droit international et des droits humains
  • Violations générales : Applications qui entrent en conflit avec ces principes dans l'ensemble

À qui s'adresse cette ressource

  • Équipes IA d'entreprise construisant des cadres de gouvernance internes peuvent utiliser les principes de Google comme modèle éprouvé, adaptant la structure et le langage au contexte et aux valeurs de leur organisation.
  • Chercheurs et défenseurs des politiques étudiant la gouvernance IA d'entreprise trouveront ceci comme document source primaire clé qui a influencé l'approche d'autres entreprises technologiques envers les engagements publics en matière d'IA.
  • Praticiens de l'éthique de l'IA peuvent référencer ces principes lors du développement de cadres d'évaluation des risques, particulièrement l'équilibre entre objectifs ambitieux et conseils pratiques de mise en œuvre.
  • Fondateurs de startups et directeurs techniques dans les entreprises d'IA peuvent utiliser ceci comme point de départ pour développer leurs propres principes.
  • Responsables gouvernementaux et régulateurs examinant le fonctionnement pratique de l'autorégulation industrielle trouveront les principes de Google utiles pour comprendre les approches d'entreprise en matière de gouvernance de l'IA.

Comment ces principes fonctionnent en pratique

Google a mis en œuvre ces principes à travers plusieurs mécanismes :

  • Processus de révision des principes IA : Des comités de révision internes évaluent les projets par rapport à ces principes avant que le développement ne se poursuive
  • Conseil consultatif externe : Bien que de courte durée, Google a tenté de créer une supervision externe (dissous en 2019 en raison de controverses sur la sélection des membres)
  • Rapports réguliers : Des rapports annuels sur l'avancement des principes IA détaillent comment Google applique ces principes aux produits et décisions réels
  • Formation des employés : Des programmes de formation internes aident les ingénieurs et chefs de produit à intégrer ces principes dans le travail quotidien

Les principes ont conduit à des décisions concrètes, notamment la fin du contrat Project Maven, la limitation du développement de la technologie de reconnaissance faciale et l'établissement de processus de révision pour les contrats gouvernementaux d'IA.

Mots-clés

Googleprincipes IApolitique d'entrepriseIA responsable

En bref

Publié

2018

Juridiction

Mondial

Catégorie

Policies and internal governance

Accès

Accès public

Construisez votre programme de gouvernance de l'IA

VerifyWise vous aide à implémenter des cadres de gouvernance de l'IA, à suivre la conformité et à gérer les risques dans vos systèmes d'IA.

Principes d'IA de Google | Bibliothèque de la gouvernance de l'IA | VerifyWise