High level principles without enforcement mechanisms.
17 ressources
Les lignes directrices éthiques du groupe d'experts de haut niveau sur l'IA établissant sept exigences clés pour une IA digne de confiance : agentivité humaine, robustesse technique, vie privée, transparence, diversité, bien-être sociétal et responsabilité.
La vision complète de l'IEEE pour prioriser le bien-être humain dans les systèmes autonomes et intelligents. Elle fournit des cadres conceptuels et des recommandations pratiques à travers de multiples domaines et cas d'utilisation.
Une déclaration de la société civile appelant les systèmes d'apprentissage automatique à respecter les droits de l'homme. Elle met l'accent sur les droits à l'égalité, à la non-discrimination, à la vie privée et à une procédure régulière dans le contexte des systèmes IA.
Un ensemble de 23 principes pour une IA bénéfique développés lors de la conférence d'Asilomar en 2017. Couvre les questions de recherche, l'éthique et les valeurs, et les questions à long terme incluant la sécurité de l'IA.
Les Principes IA d'Asilomar sont un ensemble de 23 lignes directrices pour la recherche et le développement de l'intelligence artificielle, couvrant la sécurité, l'éthique et les considérations à long terme.
La conférence d'Asilomar sur l'IA bénéfique était une conférence de 2017 qui a rassemblé des chercheurs et experts en IA pour discuter de l'avenir de l'intelligence artificielle.
La Déclaration de Montréal est un cadre collaboratif qui vise à guider le développement de l'IA pour servir le bien-être de tous. Elle fournit des recommandations démocratiquement fondées pour le développement et le déploiement responsables de l'IA.
La Déclaration de Montréal est un cadre éthique complet pour le développement responsable de l'IA qui s'adresse aux individus, organisations et entreprises impliqués dans l'intelligence artificielle.
La Déclaration de Montréal est un cadre pour le développement responsable de l'IA qui a été annoncé en novembre 2017 suite à un forum sur le développement socialement responsable de l'IA.
Les Principes IA de Pékin sont des lignes directrices éthiques pour le développement de l'intelligence artificielle publiées en mai 2019. Ils fournissent des principes complets couvrant tout le cycle de vie de la recherche, du développement et de l'application de l'IA.
La Liaison des principes d'intelligence artificielle (LAIP) est un réseau de plateformes développé par des institutions académiques et entreprises d'IA chinoises de premier plan. Il sert de répertoire et de système de liaison pour les principes éthiques de l'IA.
Les Principes IA de Pékin sont un cadre complet publié par l'Académie d'intelligence artificielle de Pékin (BAAI) qui fournit des lignes directrices éthiques pour la recherche, le développement et le déploiement de l'IA.
Lignes directrices éthiques développées par le groupe d'experts de haut niveau sur l'intelligence artificielle de la Commission européenne, publiées en avril 2019.
Lignes directrices éthiques influentes pour l'intelligence artificielle digne de confiance publiées par le groupe d'experts de haut niveau sur l'IA de l'UE en avril 2019.
Le cadre de Microsoft décrivant six principes fondamentaux pour le développement et le déploiement responsables de l'IA. La ressource fournit des conseils sur la conception, la construction et le test des systèmes IA selon les standards éthiques.
Le cadre d'IA responsable de Microsoft décrit les politiques et pratiques éthiques pour le développement et le déploiement de l'IA. Le cadre aborde les questions clés incluant l'équité, la fiabilité et la sécurité, la vie privée et la sécurité, l'inclusivité, la transparence et la responsabilité.
Un module de formation qui explore les six principes fondamentaux pour le développement et le déploiement responsables de l'IA : équité, fiabilité et sécurité, vie privée et sécurité, inclusivité, transparence et responsabilité.