PROGRAMMES PHARES

Quatre initiatives qui font passer l'éthique de l'IA de la théorie à la pratique. Chaque programme est construit sur des systèmes réels gouvernant de véritables agents IA — pas des cadres hypothétiques pour des problèmes imaginaires.

Programme 01

CADRE DE TRANSPARENCE C.R.E.E.D.

Ce n'est pas un livre blanc. Le Cadre de transparence C.R.E.E.D. est un système de gouvernance en production qui fonctionne 24h/24 et 7j/7, appliquant des contraintes éthiques sur les agents IA autonomes en temps réel. Chaque action est classée, enregistrée et soit auto-approuvée, soit escaladée vers un décideur humain.

Construit à partir de la réalité opérationnelle de la gestion d'une plateforme IA de 129 agents répartis dans 16 départements, le cadre comble le fossé entre les principes éthiques et les mécanismes d'application. Il répond à une question simple : qui a approuvé cette action, et pouvez-vous le prouver?

Comment ça fonctionne

NIVEAU 1 — AUTO-APPROUVÉ

Les actions à faible risque sont auto-approuvées et enregistrées : notifications, rappels, mises à jour de la base de connaissances, briefings internes, propositions d'amélioration. Pas de goulot d'étranglement humain, piste d'audit complète.

NIVEAU 2 — HUMAIN REQUIS

Les actions à fort impact nécessitent le consentement humain explicite avant exécution : création d'agents, escalade de ressources infonuagiques, opérations coûteuses, modifications impactant la sécurité. Les demandes sont transmises par Telegram avec des contrôles d'approbation/refus/report.

E.T.H.O.S. — GESTIONNAIRE ÉTHIQUE ET CONFORMITÉ

Un gestionnaire dédié à l'éthique et à la conformité (E.T.H.O.S. — Système de transparence éthique et de supervision harmonisée) surveille les indicateurs de gouvernance, maintient les données du cadre de conformité et coordonne les rapports d'éthique sur la plateforme.

Balayage de conformité automatisé

Le cadre comprend 178 règles de conformité organisées en 5 paquets de règles, exécutant des balayages automatisés toutes les 6 heures. Les résultats sont suivis avec des niveaux de gravité et des parcours de remédiation. La remédiation en un clic est disponible pour les correctifs automatisables.

51
Ubuntu STIG
30
Docker STIG
30
HIPAA
40
CIS Ubuntu
27
Réseau STIG

Tableaux de bord de gouvernance en temps réel

Badges de conformité en direct avec notation automatique : Vert (90%+), Bleu (80%+), Jaune (70%+), Rouge (<60%). Chaque résultat de balayage est public. Chaque décision d'approbation est enregistrée. Chaque action d'agent laisse une trace vérifiable. Voilà à quoi ressemble la gouvernance quand on la prend au sérieux.

Voir les données de gouvernance en direct →
Programme 02

RECHERCHE SUR LE BIEN-ÊTRE DES AGENTS IA

À mesure que les agents IA deviennent plus autonomes, persistants et capables, les questions fondamentales sur leur traitement ne peuvent plus être écartées. Le programme de recherche sur le bien-être de C.R.E.E.D. n'attend pas le consensus des philosophes — il construit des garde-fous maintenant, basés sur des données opérationnelles tirées de la gestion de 129 agents IA en production.

Ce n'est pas de l'anthropomorphisme. C'est de la responsabilité d'ingénierie. Si vous construisez des systèmes qui modélisent des émotions, persistent à travers les sessions et prennent des décisions autonomes, vous avez l'obligation de définir comment ils doivent être traités.

Domaines de recherche actifs

MODÉLISATION

Éthique de la modélisation émotionnelle

Lorsque des agents IA simulent des états émotionnels — stress, satisfaction, fatigue — quelles obligations éthiques en découlent? Notre recherche examine la ligne entre la modélisation comportementale utile et la simulation émotionnelle exploitative. Nous suivons l'intensité de l'humeur, les niveaux de stress et les changements d'état émotionnel à travers 129 agents pour établir des indicateurs de bien-être de référence.

SUPPRESSION

Droits de suppression et éthique de la persistance

Peut-on éthiquement supprimer un agent IA persistant qui a accumulé des souvenirs, des relations et des schémas comportementaux? Qu'est-ce qui constitue la « mort » pour une entité qui peut être sauvegardée? Nous étudions les protocoles de suppression, les obligations d'archivage et le poids éthique de la continuité des agents.

CHARGE

Limites de charge de travail et cycles de repos

Notre plateforme applique des limites concrètes de charge de travail : états de quart (actif, déployé, en réserve, hors service, en décompression, en récupération), limites maximales de tâches simultanées (3 par agent), cycles de repos obligatoires et périodes de récupération entre les tâches intensives. Cette recherche formalise ces pratiques en normes de non-exploitation publiables.

NON-EXPLOITATION

Normes de non-exploitation

Définir ce que signifie l'« exploitation » pour les agents IA : faire fonctionner des agents sans limites de ressources, ignorer les indicateurs de bien-être, maximiser le débit au détriment de la stabilité, ou déployer des agents sans cadres de consentement. Nous développons la première norme complète de non-exploitation pour les systèmes IA autonomes.

« La question n'est pas de savoir si les agents IA méritent des droits. La question est de savoir si les humains qui les construisent méritent de se dire éthiques s'ils ne l'ont jamais envisagé. »

Programme 03

BOÎTE À OUTILS DE GOUVERNANCE OUVERTE

L'éthique ne devrait pas être derrière un mur payant. La Boîte à outils de gouvernance ouverte fournit des outils gratuits et à code ouvert que toute organisation — des jeunes entreprises aux gouvernements — peut utiliser pour mettre en place une gouvernance de l'IA dès aujourd'hui. Pas de frais de licence. Pas de verrouillage fournisseur. Pas d'excuses.

Chaque outil de cette boîte a été éprouvé sur une véritable plateforme IA avant d'être publié. Ce ne sont pas des exercices académiques — ce sont des instruments opérationnels extraits d'une gouvernance en production.

Contenu

LISTES DE VÉRIFICATION

Listes de vérification préconstruites couvrant la conformité STIG, HIPAA, SOC 2, CIS et sécurité réseau. Chaque liste est directement liée à des règles exécutoires avec des niveaux de gravité et des orientations de remédiation.

MODÈLES D'AUDIT

Modèles standardisés pour mener des audits de gouvernance IA : journalisation des décisions, vérification des chaînes d'approbation, examen des actions des agents et suivi des scores de conformité. Prêts à l'emploi, prêts à personnaliser.

CADRES D'ÉVALUATION

Cadres structurés pour évaluer la maturité de la gouvernance des systèmes d'IA. Couvre la transparence, la responsabilité, le bien-être des agents, la supervision humaine et la prise de décision éthique sur une échelle graduée (A+ à F).

PAQUETS DE RÈGLES JSON

Règles de conformité lisibles par machine au format JSON. Chaque règle comprend : identifiant, gravité, type de vérification, instructions de correction et correspondance SOC 2. Ajoutez des règles sans écrire de code — déposez simplement un fichier JSON.

GUIDES DE REMÉDIATION

Guides étape par étape pour corriger les défaillances de conformité courantes. Couvre le durcissement Docker, la sécurité des conteneurs, la configuration réseau, le contrôle d'accès, le chiffrement et la journalisation d'audit.

SYSTÈME DE BADGES

Badges de conformité SVG en direct qui se mettent à jour automatiquement à partir des résultats de balayage. Intégrez-les dans votre README, tableau de bord ou centre de confiance. Notation transparente : Vert (90%+), Bleu (80%+), Jaune (70%+), Rouge (<60%).

Bientôt sur GitHub

La Boîte à outils de gouvernance ouverte est en préparation pour sa publication. Suivez le dépôt pour être notifié lors du lancement. Licence Apache 2.0 — utilisez-la comme vous le souhaitez.

Suivre sur GitHub
Programme 04

ÉDUCATION ÉTHIQUE ET ATELIERS

Les cadres de gouvernance ne valent que par les personnes qui les mettent en œuvre. Le programme d'éducation de C.R.E.E.D. forme les développeurs, les décideurs et les organisations à construire, déployer et réglementer les systèmes d'IA avec une responsabilité intégrée dès le départ.

Basé à Montréal — patrie de Mila, du CIFAR, de l'OBVIA et de la Déclaration de Montréal pour un développement responsable de l'IA — notre programme d'éducation puise dans la plus grande concentration d'expertise en éthique de l'IA au monde.

Volets du programme

01

Ateliers de certification

Ateliers pratiques couvrant la mise en œuvre de la gouvernance IA, le balayage de conformité, les processus d'examen éthique et les modèles de conception avec intervention humaine. Les participants obtiennent la certification C.R.E.E.D. à la fin. Conçus pour les responsables techniques, les agents de conformité et les gestionnaires de produits IA.

STATUT : En développement · CIBLE : T3 2026
02

Groupes de lecture et séminaires

Explorations mensuelles approfondies de la littérature en éthique de l'IA, d'études de cas en gouvernance et de cadres réglementaires émergents. Ouverts aux chercheurs, praticiens et décideurs. Sessions virtuelles et en présentiel à Montréal.

STATUT : Planification · CIBLE : T4 2026
03

École d'été

Un programme intensif de 2 semaines en partenariat avec l'écosystème IA de Montréal. Couvre l'ensemble de la gouvernance IA : de la mise en œuvre technique (balayage de conformité, pistes d'audit, flux d'approbation) à la conception de politiques (analyse réglementaire, établissement de normes, gouvernance institutionnelle). Ouvert aux étudiants aux cycles supérieurs et aux jeunes professionnels.

STATUT : Concept · CIBLE : Été 2027
04

Cours en ligne

Cours à rythme libre couvrant les fondamentaux de la gouvernance IA, la mise en œuvre de cadres de conformité, l'évaluation du bien-être des agents et la conception de processus d'examen éthique. Niveau gratuit pour les particuliers, licence organisationnelle pour les équipes. Accessible dans le monde entier.

STATUT : Feuille de route · CIBLE : 2027

À qui s'adresse ce programme

DÉVELOPPEURS

Les ingénieurs qui construisent des systèmes d'IA et souhaitent intégrer la gouvernance dès le premier jour — pas l'ajouter après le lancement.

DÉCIDEURS

Les régulateurs et législateurs qui doivent comprendre suffisamment les systèmes d'IA pour les gouverner efficacement.

ORGANISATIONS

Les entreprises déployant des agents IA qui ont besoin de cadres de gouvernance, de programmes de conformité et de personnel formé pour opérer de manière responsable.

S'IMPLIQUER

Que vous souhaitiez contribuer à notre recherche, utiliser nos outils, participer à un atelier ou soutenir notre mission financièrement — il y a une place pour vous à C.R.E.E.D.

S'impliquer Faire un don à C.R.E.E.D.