Ethics and principles
High level principles without enforcement mechanisms.
17 ressources
Lignes directrices éthiques de l'UE pour une IA digne de confiance
Les lignes directrices éthiques du groupe d'experts de haut niveau sur l'IA établissant sept exigences clés pour une IA digne de confiance : agentivité humaine, robustesse technique, vie privée, transparence, diversité, bien-être sociétal et responsabilité.
Conception éthiquement alignée de l'IEEE
La vision complète de l'IEEE pour prioriser le bien-être humain dans les systèmes autonomes et intelligents. Elle fournit des cadres conceptuels et des recommandations pratiques à travers de multiples domaines et cas d'utilisation.
Déclaration de Toronto sur l'apprentissage automatique et les droits de l'homme
Une déclaration de la société civile appelant les systèmes d'apprentissage automatique à respecter les droits de l'homme. Elle met l'accent sur les droits à l'égalité, à la non-discrimination, à la vie privée et à une procédure régulière dans le contexte des systèmes IA.
Principes IA d'Asilomar
Un ensemble de 23 principes pour une IA bénéfique développés lors de la conférence d'Asilomar en 2017. Couvre les questions de recherche, l'éthique et les valeurs, et les questions à long terme incluant la sécurité de l'IA.
Principes IA d'Asilomar (TechTarget)
Les Principes IA d'Asilomar sont un ensemble de 23 lignes directrices pour la recherche et le développement de l'intelligence artificielle, couvrant la sécurité, l'éthique et les considérations à long terme.
Conférence d'Asilomar sur l'IA bénéfique
La conférence d'Asilomar sur l'IA bénéfique était une conférence de 2017 qui a rassemblé des chercheurs et experts en IA pour discuter de l'avenir de l'intelligence artificielle.
Déclaration de Montréal pour une IA responsable
La Déclaration de Montréal est un cadre collaboratif qui vise à guider le développement de l'IA pour servir le bien-être de tous. Elle fournit des recommandations démocratiquement fondées pour le développement et le déploiement responsables de l'IA.
Déclaration de Montréal pour une IA responsable (Principes)
La Déclaration de Montréal est un cadre éthique complet pour le développement responsable de l'IA qui s'adresse aux individus, organisations et entreprises impliqués dans l'intelligence artificielle.
Déclaration de Montréal pour un développement responsable de l'IA
La Déclaration de Montréal est un cadre pour le développement responsable de l'IA qui a été annoncé en novembre 2017 suite à un forum sur le développement socialement responsable de l'IA.
Principes d'intelligence artificielle de Pékin
Les Principes IA de Pékin sont des lignes directrices éthiques pour le développement de l'intelligence artificielle publiées en mai 2019. Ils fournissent des principes complets couvrant tout le cycle de vie de la recherche, du développement et de l'application de l'IA.
Liaison des principes d'intelligence artificielle (LAIP)
La Liaison des principes d'intelligence artificielle (LAIP) est un réseau de plateformes développé par des institutions académiques et entreprises d'IA chinoises de premier plan. Il sert de répertoire et de système de liaison pour les principes éthiques de l'IA.
Principes IA de Pékin
Les Principes IA de Pékin sont un cadre complet publié par l'Académie d'intelligence artificielle de Pékin (BAAI) qui fournit des lignes directrices éthiques pour la recherche, le développement et le déploiement de l'IA.
Lignes directrices éthiques pour une IA digne de confiance
Lignes directrices éthiques développées par le groupe d'experts de haut niveau sur l'intelligence artificielle de la Commission européenne, publiées en avril 2019.
Lignes directrices éthiques pour une IA digne de confiance par le HLEG
Lignes directrices éthiques influentes pour l'intelligence artificielle digne de confiance publiées par le groupe d'experts de haut niveau sur l'IA de l'UE en avril 2019.
Principes et approche de l'IA responsable de Microsoft
Le cadre de Microsoft décrivant six principes fondamentaux pour le développement et le déploiement responsables de l'IA. La ressource fournit des conseils sur la conception, la construction et le test des systèmes IA selon les standards éthiques.
IA responsable : Politiques et pratiques éthiques
Le cadre d'IA responsable de Microsoft décrit les politiques et pratiques éthiques pour le développement et le déploiement de l'IA. Le cadre aborde les questions clés incluant l'équité, la fiabilité et la sécurité, la vie privée et la sécurité, l'inclusivité, la transparence et la responsabilité.
Adopter les principes et pratiques de l'IA responsable - Formation
Un module de formation qui explore les six principes fondamentaux pour le développement et le déploiement responsables de l'IA : équité, fiabilité et sécurité, vie privée et sécurité, inclusivité, transparence et responsabilité.