Texas Responsible AI Governance Act

Guide de conformite au Texas AI Act

Naviguez la loi texane sur la gouvernance de l'IA en toute confiance. Nous vous aidons a realiser les evaluations d'impact, a mettre en oeuvre les exigences de transparence et a maintenir la conformite pour les systemes d'IA a haut risque deployes au Texas.

Qu'est-ce que le Texas AI Act ?

Le Texas Responsible AI Governance Act (TRAIGA), adopte sous la designation HB 149, etablit des exigences pour le deploiement et le developpement de systemes d'IA a haut risque au Texas. Le Texas est le troisieme Etat, apres le Colorado et l'Utah, a adopter une legislation complete sur l'IA. La loi se concentre sur l'interdiction de pratiques specifiques nuisibles de l'IA a travers un cadre de responsabilite basee sur l'intention affectant l'emploi, l'education, la sante, le logement, l'assurance, les services financiers et les services gouvernementaux.

Details cles : Signe par le gouverneur Greg Abbott le 22 juin 2025, en vigueur le 1er janvier 2026. Exige des evaluations d'impact, des divulgations de transparence, des programmes de gouvernance et une supervision humaine pour l'IA a haut risque. Applique exclusivement par le procureur general du Texas avec des sanctions civiles allant de 10 000 $ a 200 000 $ par violation (qui peuvent s'accumuler quotidiennement). La conformite au NIST AI RMF fournit un refuge/defense affirmative.

Base sur les risques

Se concentre sur les decisions consequentes a haut risque

Application par le procureur general

Pas de droit d'action prive

Complete le Colorado AI Act et s'aligne sur les principes du EU AI Act.

Qui doit se conformer ?

Deployers d'IA a haut risque

Toute organisation utilisant l'IA dans l'emploi, l'education, la sante, le logement, les services financiers ou le gouvernement

Developpeurs et fournisseurs d'IA

Entreprises developpant ou fournissant des systemes d'IA utilises dans des contextes a haut risque

Employeurs bases au Texas

Organisations utilisant l'IA pour l'embauche, la promotion ou d'autres decisions d'emploi

Institutions financieres

Banques, preteurs et assureurs utilisant l'IA pour la souscription, le pret ou l'evaluation des risques

Prestataires de soins de sante

Hopitaux et systemes de sante deployant l'aide a la decision clinique ou l'IA diagnostique

Agences gouvernementales

Agences etatiques et locales du Texas utilisant l'IA pour la determination des prestations ou la prestation de services

Comment VerifyWise soutient la conformite au Texas AI Act

VerifyWise fournit un preset Texas TRAIGA fonctionnant en mode checklist de conformite, adapte a l'accent de la loi sur la gouvernance et la divulgation

Exigence Texas TRAIGA
Couverture VerifyWise
Politique de gestion des risques
Element de checklist structure pour la documentation et la maintenance des politiques
Divulgation IA aux candidats
Element de checklist pour documenter les procedures et le calendrier de divulgation
Conservation des dossiers
Champs de metadonnees et suivi par checklist pour la documentation de conformite
Sensibilisation aux categories protegees
Categories pre-configurees pour la race, la couleur, le handicap, la religion, le sexe, l'origine nationale et l'age

Capacites de conformite supplementaires

Workflows d'evaluation d'impact

Realisez des evaluations d'impact completes pour les systemes d'IA a haut risque avec des modeles structures couvrant toutes les exigences TRAIGA. Documentez l'analyse des risques, les mesures d'attenuation et les impacts sur les parties prenantes avec une collecte automatisee des preuves.

Couvre : Article 4 : Documentation et workflows d'approbation des evaluations d'impact

Notification et divulgation aux consommateurs

Generez des notifications et divulgations conformes pour les decisions assistees par l'IA. La plateforme maintient des modeles pour les exigences de transparence et suit quand et comment les notifications sont fournies aux personnes concernees.

Couvre : Article 5 : Obligations de transparence et exigences de notification des consommateurs

Gestion du programme de gouvernance IA

Etablissez et maintenez des programmes de gouvernance alignes sur les exigences du Texas AI Act. Suivez les politiques, procedures, pratiques d'attenuation des risques et mecanismes de supervision humaine avec une documentation centralisee.

Couvre : Article 6 : Programme de gouvernance des deployers et exigences de supervision

Suivi de la documentation developpeur

Maintenez des packages de documentation complets pour les developpeurs d'IA incluant les descriptions de systemes, les evaluations des risques et les guides de deploiement. Assurez-vous que les developpeurs respectent leurs obligations de divulgation envers les deployers.

Couvre : Article 7 : Documentation developpeur et devoirs de divulgation

Surveillance continue et rapports

Suivez les performances des systemes d'IA, les resultats indesirables et les metriques de conformite au fil du temps. Generez des rapports pour les revues de gouvernance internes et maintenez des pistes d'audit pour les enquetes potentielles du procureur general.

Couvre : Article 6 : Obligations de surveillance continue et de reporting

Gestion des risques tiers

Gerez les relations entre deployers et developpeurs avec le suivi des contrats, les echanges de documentation et la diligence raisonnable continue. Assurez-vous que les deux parties remplissent leurs obligations respectives en vertu de la loi.

Couvre : Articles 6 et 7 : Gestion de la relation deployer-developpeur

Toute la documentation est horodatee et maintient des pistes d'audit completes. Ces preuves demontrent une conformite proactive plutot qu'une documentation retroactive creee en reponse aux demandes du procureur general.

Couverture complete des exigences du Texas AI Act

VerifyWise fournit des outils dedies pour toutes les obligations de conformite TRAIGA

26

Exigences du Texas AI Act

26

Exigences avec outils dedies

100%

Couverture dans toutes les categories d'obligations

Evaluations d'impact8/8

Identification des risques, attenuation, documentation

Transparence et divulgation6/6

Notification, explicabilite, information des consommateurs

Obligations des deployers7/7

Gouvernance, surveillance, supervision humaine

Devoirs des developpeurs5/5

Documentation, divulgation des risques, cooperation

Concu pour la conformite IA au niveau des Etats

Modeles d'evaluation d'impact

Workflows specifiques TRAIGA pour tous les elements requis

Generateur de notification consommateur

Generation automatisee des divulgations et suivi de la diffusion

Conformite multi-etats

Correspondance avec le Colorado AI Act et le EU AI Act

Pret pour l'audit du procureur general

Packages de documentation pour les demandes d'application

Exigences cles de conformite

Obligations fondamentales pour les deployers de systemes d'IA a haut risque selon TRAIGA

Article 4

Evaluations d'impact pour l'IA a haut risque

Les deployers doivent realiser et documenter des evaluations d'impact completes avant de deployer des systemes d'IA a haut risque.

Elements requis :

Objectif et avantages prevus du systeme d'IA
Limitations et risques connus ou raisonnablement previsibles
Mesures pour attenuer les risques identifies
Description des entrees de donnees et evaluation de la pertinence
Procedures de formation, de test et de surveillance des performances
Mecanismes de revision et de supervision humaine
Evaluation des impacts discriminatoires potentiels (cadre de responsabilite basee sur l'intention)
Documentation de l'engagement des parties prenantes (le cas echeant)
Article 5

Transparence et notification aux consommateurs

Les deployers doivent fournir une notification claire aux consommateurs lorsque l'IA a haut risque est utilisee pour prendre des decisions consequentes.

Elements requis :

Fournir une notification en temps opportun avant d'utiliser l'IA dans les decisions consequentes
Expliquer le role joue par l'IA dans le processus decisionnel
Divulguer quelles donnees ont ete utilisees et leur pertinence
Informer les individus du droit de faire appel ou de corriger les informations
Fournir une declaration d'objectif et d'utilisations prevues
Rendre les informations de divulgation accessibles au public (dans la mesure du possible)
Les prestataires de soins de sante doivent divulguer l'utilisation du systeme d'IA dans le traitement
Les agences gouvernementales doivent divulguer les interactions IA aux citoyens
Article 6

Obligations de gouvernance des deployers

Les organisations deployan de l'IA a haut risque doivent mettre en oeuvre des programmes de gouvernance et maintenir une supervision continue.

Elements requis :

Etablir des politiques et procedures de gouvernance IA
Designer du personnel responsable de la supervision
Mettre en oeuvre des pratiques d'attenuation et de gestion des risques
Maintenir une revision humaine pour les decisions consequentes
Surveiller les performances du systeme d'IA et les resultats indesirables
Documenter toutes les activites et decisions de gouvernance
Mettre a jour les evaluations en cas de changement materiel des systemes

Definitions des systemes d'IA a haut risque

Le TRAIGA s'applique aux systemes d'IA prenant des decisions consequentes dans ces domaines

Emploi

Systemes d'IA qui prennent ou sont un facteur substantiel dans les decisions consequentes concernant :

  • Recrutement et embauche
  • Promotion et avancement
  • Licenciement ou mesures disciplinaires
  • Remuneration et avantages
  • Affectation de travail ou planification
  • Evaluation et surveillance des performances

Education

Systemes d'IA utilises dans les contextes educatifs pour :

  • Decisions d'admission des etudiants
  • Placement academique ou avancement
  • Allocation d'aide financiere ou de bourses
  • Mesures disciplinaires
  • Evaluation des performances academiques
  • Acces aux opportunites educatives

Services financiers

Systemes d'IA prenant des decisions concernant :

  • Decisions de credit et de pret
  • Souscription et tarification d'assurance
  • Evaluation des risques pour les produits financiers
  • Detection de fraude entrainant des actions sur les comptes
  • Recommandations d'investissement
  • Eligibilite aux services financiers

Sante

Systemes d'IA impliques dans :

  • Recommandations de diagnostic ou de traitement
  • Stratification des risques des patients
  • Allocation des ressources de sante
  • Determinations de couverture d'assurance
  • Recommandations de parcours de soins
  • Aide a la decision clinique affectant le traitement

Logement

Systemes d'IA utilises pour :

  • Examen des demandes de location
  • Selection et approbation des locataires
  • Decisions de pret hypothecaire
  • Evaluation immobiliere affectant l'acces
  • Recommandations d'opportunites de logement
  • Evaluation du risque d'expulsion

Services gouvernementaux

Systemes d'IA deployes par les entites gouvernementales pour :

  • Eligibilite et distribution des prestations publiques
  • Decisions de permis et de licences
  • Evaluations des risques par les forces de l'ordre
  • Allocation des services sociaux
  • Actions d'application reglementaire
  • Allocation des ressources publiques

Note : Les systemes d'IA doivent prendre ou etre un facteur substantiel dans les decisions consequentes pour etre consideres a haut risque. Les utilisations administratives ou mineures dans ces domaines peuvent ne pas declencher d'obligations de conformite.

Obtenir de l'aide pour classifier vos systemes d'IA

Feuille de route de mise en oeuvre de la conformite

Parcours pratique vers la conformite au Texas AI Act avant le 1er janvier 2026

Phase 1Semaines 1-4

Preparation et inventaire

  • Realiser l'inventaire complet de tous les systemes d'IA en usage
  • Classifier les systemes comme a haut risque ou non selon TRAIGA
  • Identifier les lacunes dans la documentation actuelle
  • Etablir un comite de gouvernance et attribuer les roles
  • Examiner les contrats avec les developpeurs/fournisseurs d'IA
  • Evaluer les pratiques actuelles de notification et de divulgation
Phase 2Semaines 5-10

Evaluations d'impact

  • Realiser les evaluations d'impact pour tous les systemes a haut risque
  • Documenter les mesures d'attenuation des risques
  • Identifier et traiter les impacts discriminatoires potentiels
  • Etablir les procedures de supervision humaine
  • Creer les registres d'engagement des parties prenantes
  • Completer les packages de documentation
Phase 3Semaines 11-14

Mise en oeuvre de la transparence

  • Rediger les modeles de notification aux consommateurs
  • Mettre en oeuvre les mecanismes de divulgation
  • Creer les supports de transparence destines au public
  • Etablir les processus d'appel et de correction
  • Former le personnel aux exigences de notification
  • Deployer les systemes de diffusion des notifications
Phase 4Semaine 15+

Conformite continue

  • Mettre en oeuvre les processus de surveillance continue
  • Etablir des revues de gouvernance regulieres
  • Creer des procedures de reponse aux incidents
  • Maintenir la documentation et mettre a jour les evaluations
  • Surveiller les directives reglementaires
  • Realiser des audits de conformite periodiques

Sanctions et application

Comprendre les mecanismes d'application et les incitations a la conformite

Sanctions civiles

10 000 $ a 200 000 $ par infraction

  • Les sanctions vont de 10 000 $ a 200 000 $ par infraction
  • Les violations peuvent s'accumuler quotidiennement en cas de non-conformite continue
  • Les violations sont determinees par incident ou par individu concerne
  • Le procureur general a un pouvoir discretionnaire dans l'evaluation des sanctions

Autorite d'application

Le procureur general du Texas a l'application exclusive

  • Pas de droit d'action prive pour les individus
  • Le procureur general peut enqueter sur la conformite de sa propre initiative
  • Le procureur general peut emettre des demandes d'enquete civile
  • La conformite cooperative peut reduire les sanctions

Dispositions de refuge

La conformite au NIST AI RMF fournit une defense affirmative

  • La conformite au NIST AI Risk Management Framework fournit un refuge
  • Les programmes de gouvernance documentes pesent en faveur
  • Remediation rapide des problemes identifies
  • Divulgation volontaire des violations
  • Preuves d'efforts de conformite raisonnables

Calendrier de conformite

En vigueur le 1er janvier 2026

  • Tous les systemes a haut risque doivent etre conformes d'ici le 1er janvier 2026
  • Les systemes deployes apres la date d'entree en vigueur doivent etre conformes des le lancement
  • Le procureur general peut publier des directives de mise en oeuvre
  • Surveiller les clarifications reglementaires

Echeance importante : 1er janvier 2026

Tous les deployers et developpeurs de systemes d'IA a haut risque doivent etre pleinement conformes a la date d'entree en vigueur. Lancez votre programme de conformite maintenant pour assurer un temps adequat pour les evaluations, la documentation et la mise en oeuvre.

Demarrer l'evaluation de conformite aujourd'hui
Modeles de politiques

Modeles de politiques Texas AI Act

Modeles de politiques prets a l'emploi alignes sur les exigences TRAIGA, le Colorado AI Act et le EU AI Act

Evaluations d'impact

  • • Politique d'evaluation d'impact
  • • Modele d'identification des risques
  • • Documentation d'attenuation
  • • Analyse d'impact discriminatoire
  • • Registres d'engagement des parties prenantes
  • • Procedures de mise a jour des evaluations
  • + 3 autres modeles

Transparence et divulgation

  • • Modele de notification aux consommateurs
  • • Politique de divulgation des decisions IA
  • • Declaration de transparence
  • • Processus d'appel et de correction
  • • Directives de divulgation publique
  • • Suivi de la diffusion des notifications
  • + 4 autres modeles

Gouvernance et supervision

  • • Politique du programme de gouvernance IA
  • • Procedures de supervision humaine
  • • Matrice des roles et responsabilites
  • • Politique de surveillance continue
  • • Exigences de documentation developpeur
  • • Plan de reponse aux incidents
  • + 5 autres modeles

Questions frequemment posees

Questions courantes sur la conformite au Texas AI Act

Le Texas Responsible AI Governance Act (TRAIGA), egalement connu sous le nom de HB 149, a ete signe par le gouverneur Greg Abbott le 22 juin 2025 et entre en vigueur le 1er janvier 2026. Tous les deployers et developpeurs de systemes d'IA a haut risque doivent etre conformes a cette date. Consultez le texte officiel du projet de loi pour la legislation complete.
Un systeme d'IA est considere a haut risque s'il prend ou est un facteur substantiel dans les decisions consequentes affectant l'emploi, l'education, la sante, le logement, l'assurance, les services financiers ou les services gouvernementaux. La determination depend a la fois du domaine d'utilisation et de l'importance de la decision prise. Les utilisations mineures ou purement administratives ne sont generalement pas qualifiees de haut risque.
Le procureur general du Texas a l'autorite exclusive d'application. Il n'y a pas de droit d'action prive, ce qui signifie que les individus ne peuvent pas poursuivre directement pour les violations. Le procureur general peut enqueter sur les violations potentielles, emettre des demandes d'enquete civile et imposer des sanctions civiles allant de 10 000 $ a 200 000 $ par violation (qui peuvent s'accumuler quotidiennement pour les violations continues). Visitez le site du procureur general du Texas pour les informations d'application.
Non. Les evaluations d'impact ne sont requises que pour les systemes d'IA classes a haut risque (ceux prenant des decisions consequentes dans l'emploi, l'education, la sante, le logement, les services financiers, l'assurance ou les services gouvernementaux). Les systemes d'IA a faible risque (chatbots, recommandations de contenu, etc.) ne necessitent pas d'evaluations d'impact formelles selon TRAIGA, bien que la gestion generale des risques reste conseillee.
Les deux lois se concentrent sur les systemes d'IA a haut risque et partagent des exigences similaires pour les evaluations d'impact et la transparence. Cependant, la loi texane ne s'applique qu'au sein de la juridiction du Texas et est appliquee exclusivement par le procureur general sans droit d'action prive, tandis que le Colorado AI Act prevoit a la fois l'application par le procureur general et les droits d'action prives. Le TRAIGA du Texas utilise un cadre de responsabilite basee sur l'intention (l'impact disparate seul ne suffit pas a demontrer l'intention de discriminer) et fournit la conformite au NIST AI RMF comme refuge/defense affirmative.
Les developpeurs doivent fournir une documentation complete aux deployers incluant les descriptions de systemes, les risques connus, les limitations de performance et les guides de deploiement. Les deployers doivent realiser des evaluations d'impact, mettre en oeuvre des programmes de gouvernance, fournir des notifications aux consommateurs et maintenir une supervision humaine. Si vous developpez et deployez de l'IA, vous avez des obligations dans les deux roles.
Avant d'utiliser l'IA a haut risque pour prendre des decisions consequentes, vous devez fournir une notification en temps opportun expliquant : (1) que l'IA est utilisee, (2) quel role l'IA a joue dans la decision, (3) quelles donnees ont ete utilisees et pourquoi elles sont pertinentes, et (4) le droit de faire appel ou de corriger les informations. La notification doit etre claire, visible et fournie de maniere accessible a la personne concernee.
En vertu du TRAIGA, les developpeurs ont des obligations legales de fournir de la documentation aux deployers. Si un fournisseur refuse, cela cree un risque de conformite pour vous en tant que deployer. Vous devriez : (1) documenter vos demandes d'information, (2) envisager de changer de fournisseur, (3) realiser vos propres evaluations dans la mesure du possible, et (4) consulter un conseil juridique. Les deployers ne peuvent pas externaliser la responsabilite de conformite aux fournisseurs.
Oui. Les evaluations d'impact doivent etre mises a jour lorsqu'il y a des changements materiels au systeme d'IA, a son utilisation prevue ou aux donnees qu'il traite. Les changements materiels incluent : les nouvelles fonctionnalites, les cas d'utilisation elargis, les modifications significatives des donnees d'entrainement ou le deploiement vers de nouvelles populations. Nous recommandons de revoir les evaluations au moins annuellement meme sans changements materiels.
La loi s'applique aux systemes d'IA a haut risque qui prennent des decisions consequentes affectant les residents du Texas, quel que soit l'emplacement du deployer ou du developpeur. Si vous utilisez l'IA pour prendre des decisions d'emploi, de pret ou d'autres decisions couvertes concernant des personnes au Texas, vous etes soumis au TRAIGA meme si votre organisation a son siege ailleurs.
Le TRAIGA est similaire en structure au EU AI Act avec son approche basee sur les risques et son accent sur les systemes a haut risque. Les organisations operant a l'echelle mondiale trouveront des chevauchements dans les exigences (evaluations d'impact, transparence, supervision humaine). De nombreuses entreprises mettent en oeuvre un programme de gouvernance IA unifie qui satisfait plusieurs reglementations, notamment le TRAIGA, le EU AI Act, le Colorado AI Act et les directives FTC.
Les deployers doivent mettre en oeuvre une revision humaine significative pour les decisions consequentes prises avec l'IA a haut risque. Le reviseur humain doit : (1) avoir l'autorite de modifier ou d'annuler les recommandations de l'IA, (2) comprendre les limitations du systeme d'IA, (3) etre forme pour identifier les erreurs potentielles ou les biais, et (4) documenter son processus de revision. Valider automatiquement les decisions de l'IA sans veritable revision ne satisfait pas cette exigence.
Le TRAIGA ne comprend pas d'exemptions explicites pour les petites entreprises. La loi s'applique a tout deployer ou developpeur de systemes d'IA a haut risque quelle que soit la taille de l'organisation. Cependant, les petites organisations peuvent avoir des deploiements d'IA plus simples necessitant une documentation moins extensive. L'essentiel est de savoir si vous utilisez l'IA pour des decisions a haut risque, pas la taille de votre organisation.
Oui, VerifyWise fournit des outils complets pour la conformite TRAIGA, notamment des workflows d'evaluation d'impact, la gestion de la documentation, des modeles de notification aux consommateurs, le suivi du programme de gouvernance et des capacites de surveillance continue. Notre plateforme aide les deployers et les developpeurs a remplir leurs obligations respectives avec des workflows automatises et la collecte de preuves. Nous fournissons egalement des correspondances avec le EU AI Act et le Colorado AI Act pour la conformite multi-juridictionnelle.

Pret pour la conformite au Texas AI Act ?

Lancez votre parcours de conformite avec notre plateforme complete d'evaluation et de mise en oeuvre.

Texas AI Act (TRAIGA) Compliance Guide | VerifyWise