OpenAI
PolitiqueActif

Politiques d'utilisation d'OpenAI

OpenAI

Voir la ressource originale

Politiques d'utilisation d'OpenAI

Résumé

Les politiques d'utilisation d'OpenAI servent de règlement définitif pour quiconque construit avec ou utilise les systèmes d'IA d'OpenAI, de ChatGPT aux intégrations API GPT-4. Ces politiques vont au-delà des conditions d'utilisation typiques en établissant des garde-fous spécifiques autour du contenu généré par l'IA et des interactions avec les systèmes. Elles interdisent explicitement des activités allant de la génération de contenu illégal aux tentatives de contournement des mesures de sécurité, tout en établissant des attentes de conformité pour les développeurs construisant des applications commerciales sur les plateformes d'OpenAI.

À qui s'adresse cette ressource

  • Développeurs et ingénieurs intégrant les API d'OpenAI dans des applications ou services
  • Chefs de produit planifiant des fonctionnalités alimentées par l'IA utilisant les modèles d'OpenAI
  • Équipes de conformité s'assurant que l'utilisation organisationnelle de l'IA est alignée avec les exigences de la plateforme
  • Chercheurs en sécurité de l'IA comprenant les approches de gouvernance des plateformes d'IA commerciales
  • Équipes juridiques examinant les accords de services d'IA tiers et les obligations associées
  • Entrepreneurs construisant des startups ou produits IA sur l'infrastructure d'OpenAI

La réalité de l'application

Contrairement à de nombreuses politiques de plateforme qui reposent principalement sur les signalements des utilisateurs, OpenAI emploie à la fois une surveillance automatisée et une révision humaine pour faire respecter ces politiques. Les violations peuvent entraîner une suspension immédiate de l'accès à l'API, la résiliation du compte ou une interdiction permanente de la plateforme. Les politiques déclarent explicitement qu'OpenAI surveille l'utilisation de l'API pour la conformité, ce qui signifie que les développeurs doivent implémenter leur propre filtrage de contenu et validation des entrées utilisateur plutôt que de se fier uniquement aux mesures de sécurité d'OpenAI.

Lignes rouges à ne pas franchir

Les politiques établissent plusieurs catégories de contenu et comportements strictement interdits :

  • Interdictions de génération de contenu incluent la création de matériel illégal, de contenu d'abus sexuel d'enfants, de campagnes de harcèlement, de logiciels malveillants ou de contenu promouvant la violence.
  • Tentatives de manipulation du système telles que l'injection de prompt, le jailbreaking ou l'ingénierie inverse du comportement du modèle sont explicitement interdites.
  • Restrictions commerciales empêchent l'utilisation des modèles d'OpenAI pour développer des systèmes d'IA concurrents ou pour générer du contenu pour des campagnes politiques sans divulgations appropriées.

Notamment, les politiques interdisent également l'utilisation des systèmes d'OpenAI pour la prise de décision gouvernementale à haut risque, la reconnaissance faciale par les forces de l'ordre ou les systèmes de notation sociale automatisés.

Obligations de conformité des développeurs

Si vous construisez sur la plateforme d'OpenAI, vous héritez de responsabilités spécifiques au-delà du simple évitement de contenu interdit. Vous devez implémenter des garde-fous raisonnables pour prévenir les abus par vos utilisateurs, établir vos propres politiques de contenu qui s'alignent ou dépassent les standards d'OpenAI, et fournir une divulgation claire que l'IA est utilisée dans votre application.

Pour les applications impliquant des cas d'utilisation sensibles comme la santé, la finance ou l'éducation, des exigences de diligence raisonnable supplémentaires s'appliquent. Les développeurs sont censés effectuer des tests appropriés, implémenter une supervision humaine si nécessaire et maintenir des pistes d'audit des décisions du système d'IA.

Ce qui manque et ce qu'il faut compléter

Les politiques d'OpenAI se concentrent fortement sur les restrictions de contenu et d'utilisation mais fournissent des conseils limités sur l'implémentation technique des mesures de conformité. Les organisations doivent généralement compléter ces politiques avec leurs propres cadres de gouvernance de l'IA internes, programmes d'éducation des utilisateurs et procédures de réponse aux incidents.

Les politiques n'abordent pas non plus en détail la rétention des données, les transferts de données transfrontaliers ou l'intégration avec d'autres systèmes d'IA, nécessitant des considérations supplémentaires pour les déploiements en entreprise.

Points d'attention

  • Responsabilité héritée : Vos applications construites sur la plateforme d'OpenAI doivent se conformer à la fois aux politiques d'OpenAI et à toutes les lois applicables dans votre juridiction. Les politiques d'OpenAI ne remplacent pas les exigences légales locales.
  • Évolution des politiques : OpenAI met régulièrement à jour ces politiques, et l'accès continu à l'API nécessite une conformité continue avec la version actuelle. Implémentez une surveillance des changements de politique plutôt que de supposer des exigences statiques.
  • Contenu généré par les utilisateurs : Si votre application permet aux utilisateurs de saisir des prompts ou du contenu traité par les modèles d'OpenAI, vous êtes responsable de prévenir les violations de politique par vos utilisateurs, pas seulement votre utilisation directe.

Mots-clés

OpenAIpolitique d'utilisationutilisation acceptablepolitique de contenu

En bref

Publié

2024

Juridiction

Mondial

Catégorie

Policies and internal governance

Accès

Accès public

Construisez votre programme de gouvernance de l'IA

VerifyWise vous aide à implémenter des cadres de gouvernance de l'IA, à suivre la conformité et à gérer les risques dans vos systèmes d'IA.

Politiques d'utilisation d'OpenAI | Bibliothèque de la gouvernance de l'IA | VerifyWise