Les politiques d'utilisation d'OpenAI servent de règlement définitif pour quiconque construit avec ou utilise les systèmes d'IA d'OpenAI, de ChatGPT aux intégrations API GPT-4. Ces politiques vont au-delà des conditions d'utilisation typiques en établissant des garde-fous spécifiques autour du contenu généré par l'IA et des interactions avec les systèmes. Elles interdisent explicitement des activités allant de la génération de contenu illégal aux tentatives de contournement des mesures de sécurité, tout en établissant des attentes de conformité pour les développeurs construisant des applications commerciales sur les plateformes d'OpenAI.
Contrairement à de nombreuses politiques de plateforme qui reposent principalement sur les signalements des utilisateurs, OpenAI emploie à la fois une surveillance automatisée et une révision humaine pour faire respecter ces politiques. Les violations peuvent entraîner une suspension immédiate de l'accès à l'API, la résiliation du compte ou une interdiction permanente de la plateforme. Les politiques déclarent explicitement qu'OpenAI surveille l'utilisation de l'API pour la conformité, ce qui signifie que les développeurs doivent implémenter leur propre filtrage de contenu et validation des entrées utilisateur plutôt que de se fier uniquement aux mesures de sécurité d'OpenAI.
Les politiques établissent plusieurs catégories de contenu et comportements strictement interdits :
Notamment, les politiques interdisent également l'utilisation des systèmes d'OpenAI pour la prise de décision gouvernementale à haut risque, la reconnaissance faciale par les forces de l'ordre ou les systèmes de notation sociale automatisés.
Si vous construisez sur la plateforme d'OpenAI, vous héritez de responsabilités spécifiques au-delà du simple évitement de contenu interdit. Vous devez implémenter des garde-fous raisonnables pour prévenir les abus par vos utilisateurs, établir vos propres politiques de contenu qui s'alignent ou dépassent les standards d'OpenAI, et fournir une divulgation claire que l'IA est utilisée dans votre application.
Pour les applications impliquant des cas d'utilisation sensibles comme la santé, la finance ou l'éducation, des exigences de diligence raisonnable supplémentaires s'appliquent. Les développeurs sont censés effectuer des tests appropriés, implémenter une supervision humaine si nécessaire et maintenir des pistes d'audit des décisions du système d'IA.
Les politiques d'OpenAI se concentrent fortement sur les restrictions de contenu et d'utilisation mais fournissent des conseils limités sur l'implémentation technique des mesures de conformité. Les organisations doivent généralement compléter ces politiques avec leurs propres cadres de gouvernance de l'IA internes, programmes d'éducation des utilisateurs et procédures de réponse aux incidents.
Les politiques n'abordent pas non plus en détail la rétention des données, les transferts de données transfrontaliers ou l'intégration avec d'autres systèmes d'IA, nécessitant des considérations supplémentaires pour les déploiements en entreprise.
Publié
2024
Juridiction
Mondial
Catégorie
Policies and internal governance
Accès
Accès public
VerifyWise vous aide à implémenter des cadres de gouvernance de l'IA, à suivre la conformité et à gérer les risques dans vos systèmes d'IA.