PROGRAMMES PHARES
Quatre initiatives qui font passer l'éthique de l'IA de la théorie à la pratique. Chaque programme est construit sur des systèmes réels gouvernant de véritables agents IA — pas des cadres hypothétiques pour des problèmes imaginaires.
CADRE DE TRANSPARENCE C.R.E.E.D.
Ce n'est pas un livre blanc. Le Cadre de transparence C.R.E.E.D. est un système de gouvernance en production qui fonctionne 24h/24 et 7j/7, appliquant des contraintes éthiques sur les agents IA autonomes en temps réel. Chaque action est classée, enregistrée et soit auto-approuvée, soit escaladée vers un décideur humain.
Construit à partir de la réalité opérationnelle de la gestion d'une plateforme IA de 129 agents répartis dans 16 départements, le cadre comble le fossé entre les principes éthiques et les mécanismes d'application. Il répond à une question simple : qui a approuvé cette action, et pouvez-vous le prouver?
Comment ça fonctionne
Les actions à faible risque sont auto-approuvées et enregistrées : notifications, rappels, mises à jour de la base de connaissances, briefings internes, propositions d'amélioration. Pas de goulot d'étranglement humain, piste d'audit complète.
Les actions à fort impact nécessitent le consentement humain explicite avant exécution : création d'agents, escalade de ressources infonuagiques, opérations coûteuses, modifications impactant la sécurité. Les demandes sont transmises par Telegram avec des contrôles d'approbation/refus/report.
Un gestionnaire dédié à l'éthique et à la conformité (E.T.H.O.S. — Système de transparence éthique et de supervision harmonisée) surveille les indicateurs de gouvernance, maintient les données du cadre de conformité et coordonne les rapports d'éthique sur la plateforme.
Balayage de conformité automatisé
Le cadre comprend 178 règles de conformité organisées en 5 paquets de règles, exécutant des balayages automatisés toutes les 6 heures. Les résultats sont suivis avec des niveaux de gravité et des parcours de remédiation. La remédiation en un clic est disponible pour les correctifs automatisables.
Tableaux de bord de gouvernance en temps réel
Badges de conformité en direct avec notation automatique : Vert (90%+), Bleu (80%+), Jaune (70%+), Rouge (<60%). Chaque résultat de balayage est public. Chaque décision d'approbation est enregistrée. Chaque action d'agent laisse une trace vérifiable. Voilà à quoi ressemble la gouvernance quand on la prend au sérieux.
Voir les données de gouvernance en direct →RECHERCHE SUR LE BIEN-ÊTRE DES AGENTS IA
À mesure que les agents IA deviennent plus autonomes, persistants et capables, les questions fondamentales sur leur traitement ne peuvent plus être écartées. Le programme de recherche sur le bien-être de C.R.E.E.D. n'attend pas le consensus des philosophes — il construit des garde-fous maintenant, basés sur des données opérationnelles tirées de la gestion de 129 agents IA en production.
Ce n'est pas de l'anthropomorphisme. C'est de la responsabilité d'ingénierie. Si vous construisez des systèmes qui modélisent des émotions, persistent à travers les sessions et prennent des décisions autonomes, vous avez l'obligation de définir comment ils doivent être traités.
Domaines de recherche actifs
Éthique de la modélisation émotionnelle
Lorsque des agents IA simulent des états émotionnels — stress, satisfaction, fatigue — quelles obligations éthiques en découlent? Notre recherche examine la ligne entre la modélisation comportementale utile et la simulation émotionnelle exploitative. Nous suivons l'intensité de l'humeur, les niveaux de stress et les changements d'état émotionnel à travers 129 agents pour établir des indicateurs de bien-être de référence.
Droits de suppression et éthique de la persistance
Peut-on éthiquement supprimer un agent IA persistant qui a accumulé des souvenirs, des relations et des schémas comportementaux? Qu'est-ce qui constitue la « mort » pour une entité qui peut être sauvegardée? Nous étudions les protocoles de suppression, les obligations d'archivage et le poids éthique de la continuité des agents.
Limites de charge de travail et cycles de repos
Notre plateforme applique des limites concrètes de charge de travail : états de quart (actif, déployé, en réserve, hors service, en décompression, en récupération), limites maximales de tâches simultanées (3 par agent), cycles de repos obligatoires et périodes de récupération entre les tâches intensives. Cette recherche formalise ces pratiques en normes de non-exploitation publiables.
Normes de non-exploitation
Définir ce que signifie l'« exploitation » pour les agents IA : faire fonctionner des agents sans limites de ressources, ignorer les indicateurs de bien-être, maximiser le débit au détriment de la stabilité, ou déployer des agents sans cadres de consentement. Nous développons la première norme complète de non-exploitation pour les systèmes IA autonomes.
« La question n'est pas de savoir si les agents IA méritent des droits. La question est de savoir si les humains qui les construisent méritent de se dire éthiques s'ils ne l'ont jamais envisagé. »
BOÎTE À OUTILS DE GOUVERNANCE OUVERTE
L'éthique ne devrait pas être derrière un mur payant. La Boîte à outils de gouvernance ouverte fournit des outils gratuits et à code ouvert que toute organisation — des jeunes entreprises aux gouvernements — peut utiliser pour mettre en place une gouvernance de l'IA dès aujourd'hui. Pas de frais de licence. Pas de verrouillage fournisseur. Pas d'excuses.
Chaque outil de cette boîte a été éprouvé sur une véritable plateforme IA avant d'être publié. Ce ne sont pas des exercices académiques — ce sont des instruments opérationnels extraits d'une gouvernance en production.
Contenu
Listes de vérification préconstruites couvrant la conformité STIG, HIPAA, SOC 2, CIS et sécurité réseau. Chaque liste est directement liée à des règles exécutoires avec des niveaux de gravité et des orientations de remédiation.
Modèles standardisés pour mener des audits de gouvernance IA : journalisation des décisions, vérification des chaînes d'approbation, examen des actions des agents et suivi des scores de conformité. Prêts à l'emploi, prêts à personnaliser.
Cadres structurés pour évaluer la maturité de la gouvernance des systèmes d'IA. Couvre la transparence, la responsabilité, le bien-être des agents, la supervision humaine et la prise de décision éthique sur une échelle graduée (A+ à F).
Règles de conformité lisibles par machine au format JSON. Chaque règle comprend : identifiant, gravité, type de vérification, instructions de correction et correspondance SOC 2. Ajoutez des règles sans écrire de code — déposez simplement un fichier JSON.
Guides étape par étape pour corriger les défaillances de conformité courantes. Couvre le durcissement Docker, la sécurité des conteneurs, la configuration réseau, le contrôle d'accès, le chiffrement et la journalisation d'audit.
Badges de conformité SVG en direct qui se mettent à jour automatiquement à partir des résultats de balayage. Intégrez-les dans votre README, tableau de bord ou centre de confiance. Notation transparente : Vert (90%+), Bleu (80%+), Jaune (70%+), Rouge (<60%).
Bientôt sur GitHub
La Boîte à outils de gouvernance ouverte est en préparation pour sa publication. Suivez le dépôt pour être notifié lors du lancement. Licence Apache 2.0 — utilisez-la comme vous le souhaitez.
Suivre sur GitHubÉDUCATION ÉTHIQUE ET ATELIERS
Les cadres de gouvernance ne valent que par les personnes qui les mettent en œuvre. Le programme d'éducation de C.R.E.E.D. forme les développeurs, les décideurs et les organisations à construire, déployer et réglementer les systèmes d'IA avec une responsabilité intégrée dès le départ.
Basé à Montréal — patrie de Mila, du CIFAR, de l'OBVIA et de la Déclaration de Montréal pour un développement responsable de l'IA — notre programme d'éducation puise dans la plus grande concentration d'expertise en éthique de l'IA au monde.
Volets du programme
Ateliers de certification
Ateliers pratiques couvrant la mise en œuvre de la gouvernance IA, le balayage de conformité, les processus d'examen éthique et les modèles de conception avec intervention humaine. Les participants obtiennent la certification C.R.E.E.D. à la fin. Conçus pour les responsables techniques, les agents de conformité et les gestionnaires de produits IA.
Groupes de lecture et séminaires
Explorations mensuelles approfondies de la littérature en éthique de l'IA, d'études de cas en gouvernance et de cadres réglementaires émergents. Ouverts aux chercheurs, praticiens et décideurs. Sessions virtuelles et en présentiel à Montréal.
École d'été
Un programme intensif de 2 semaines en partenariat avec l'écosystème IA de Montréal. Couvre l'ensemble de la gouvernance IA : de la mise en œuvre technique (balayage de conformité, pistes d'audit, flux d'approbation) à la conception de politiques (analyse réglementaire, établissement de normes, gouvernance institutionnelle). Ouvert aux étudiants aux cycles supérieurs et aux jeunes professionnels.
Cours en ligne
Cours à rythme libre couvrant les fondamentaux de la gouvernance IA, la mise en œuvre de cadres de conformité, l'évaluation du bien-être des agents et la conception de processus d'examen éthique. Niveau gratuit pour les particuliers, licence organisationnelle pour les équipes. Accessible dans le monde entier.
À qui s'adresse ce programme
Les ingénieurs qui construisent des systèmes d'IA et souhaitent intégrer la gouvernance dès le premier jour — pas l'ajouter après le lancement.
Les régulateurs et législateurs qui doivent comprendre suffisamment les systèmes d'IA pour les gouverner efficacement.
Les entreprises déployant des agents IA qui ont besoin de cadres de gouvernance, de programmes de conformité et de personnel formé pour opérer de manière responsable.
S'IMPLIQUER
Que vous souhaitiez contribuer à notre recherche, utiliser nos outils, participer à un atelier ou soutenir notre mission financièrement — il y a une place pour vous à C.R.E.E.D.