Fisher Phillips
Voir la ressource originaleFisher Phillips propose un modèle de politique prêt à être implémenté qui aborde l'un des défis les plus pressants du lieu de travail en 2024 : comment gouverner l'utilisation par les employés d'outils d'IA populaires comme ChatGPT, Claude et DALL-E sans étouffer l'innovation. Ce n'est pas un cadre théorique - c'est un document pratique qui fournit un langage spécifique, des limites claires et des conseils actionnables que les départements RH et les équipes juridiques peuvent personnaliser et déployer immédiatement. Le modèle établit un équilibre soigneux entre permettre une utilisation productive de l'IA tout en protégeant les informations sensibles de l'entreprise et en maintenant les standards de conformité.
Contrairement aux cadres de gouvernance de l'IA généraux qui nécessitent des mois d'interprétation, ce modèle se concentre spécifiquement sur les outils d'IA générative tiers que les employés utilisent déjà de manière informelle. Il aborde le scénario réel où les membres du personnel expérimentent avec ChatGPT pour l'aide à la rédaction ou utilisent DALL-E pour des présentations, souvent sans directives organisationnelles claires. Le modèle de politique fournit des exemples concrets de cas d'utilisation acceptables et inacceptables, le rendant immédiatement actionnable pour les organisations qui ont besoin de structures de gouvernance en place rapidement.
Le document reconnaît que les employés utiliseront ces outils indépendamment de l'existence de politiques formelles, donc il adopte une approche pragmatique pour canaliser cette utilisation de manière productive tout en établissant des garde-fous nécessaires autour de la protection des données et des standards de qualité.
Le modèle suppose une structure d'emploi traditionnelle et peut nécessiter des modifications pour les organisations avec des populations significatives de contractuels ou de travailleurs à distance. Considérez comment l'application de la politique et la formation fonctionneront à travers différentes classifications et emplacements de travailleurs.
Bien que la politique aborde bien la protection des données, les organisations dans des industries hautement réglementées (santé, services financiers, défense) auront besoin de dispositions supplémentaires spécifiques à leurs exigences de conformité. Le modèle fournit une base mais ne devrait pas être considéré comme suffisant pour les environnements réglementaires spécialisés.
La politique se concentre sur l'utilisation individuelle des employés plutôt que sur les implémentations d'IA d'entreprise ou les solutions d'IA personnalisées, donc les organisations planifiant une adoption plus large de l'IA auront besoin de cadres de gouvernance supplémentaires au-delà de ce modèle.
Publié
2024
Juridiction
États-Unis
Catégorie
Policies and internal governance
Accès
Accès public
AI Act de l'UE - Texte officiel complet
Regulations and laws • Union européenne
Lignes directrices de l'AI Act de l'UE pour les modèles d'IA à usage général
Regulations and laws • Commission européenne
Mesures provisoires de la Chine pour les services d'IA générative
Regulations and laws • Administration du cyberespace de Chine
VerifyWise vous aide à implémenter des cadres de gouvernance de l'IA, à suivre la conformité et à gérer les risques dans vos systèmes d'IA.