Innovation

RASCI et Intelligence Artificielle : Comment l'IA Change les Responsabilités

L'IA transforme le travail. Qui est responsable quand une IA prend des décisions ? Comment adapter RASCI à l'ère de l'automatisation ? Guide complet 2025.

QFQ
Équipe Qui Fait Quoi
05 February 2025 13 min de lecture
RASCI et Intelligence Artificielle : Comment l'IA Change les Responsabilités

Introduction : L'IA Bouleverse Tout



2025. L'IA est partout.

ChatGPT rédige vos emails. GitHub Copilot code à votre place. Midjourney crée vos designs. Notion AI résume vos réunions. Des IA prennent des décisions de recrutement, de crédit, de diagnostic médical.

Question existentielle : Quand une IA fait le travail, qui est Responsible ? Et surtout, qui est Accountable si ça foire ?

RASCI a été créé dans les années 60-70, bien avant l'IA. Il doit évoluer. Cet article explore comment adapter RASCI à l'ère de l'intelligence artificielle.

---

Le Problème : L'IA Crée un Vide de Responsabilité



Cas Réel #1 : ChatGPT et le Service Client



Contexte : Une entreprise déploie un chatbot IA pour gérer 80% des tickets support.

Situation : L'IA donne une mauvaise information à un client. Perte financière pour le client. Procès.

Question : Qui est responsable ?
- Le développeur qui a codé le chatbot ?
- Le data scientist qui a entraîné le modèle ?
- Le responsable customer success qui l'a déployé ?
- Le CEO qui a validé le projet ?
- L'IA elle-même ? (Non, une IA ne peut pas être responsable légalement.)

Résultat : Vide juridique. Flou total. Personne n'assume.

Cas Réel #2 : GitHub Copilot et le Code Buggé



Contexte : Un dev utilise Copilot pour générer du code. Il valide sans relire à fond.

Situation : Bug critique en production. Perte de données client.

Question : Qui est responsable ?
- GitHub/OpenAI (créateurs de Copilot) ?
- Le dev qui a utilisé l'IA ?
- Le lead dev qui a validé le merge ?
- Le manager qui a poussé sur les délais ?

Résultat : Guerre d'avocats. Assurances qui refusent de couvrir. Chaos.

Le Pattern : L'IA Dilue la Responsabilité



Quand une IA est impliquée, tout le monde pense que quelqu'un d'autre est responsable. Résultat : personne ne l'est vraiment.

RASCI doit clarifier ça. Maintenant.

---

Le Nouveau Rôle : L'IA comme "Assistant" (Not Accountable)



Principe Fondamental



Une IA ne peut JAMAIS être Accountable.

Pourquoi ? Parce que :
- Une IA n'a pas de personnalité juridique
- Une IA ne peut pas aller en prison
- Une IA ne peut pas payer des dommages
- Une IA ne peut pas être virée

Donc : Il FAUT toujours un humain Accountable derrière.

Le Rôle "A" (Assistant IA)



Nous proposons d'ajouter un nouveau rôle dans RASCI étendu :

A (Assistant) : L'IA aide le R (Responsible) mais un humain reste Accountable.

Règle d'or : Si une IA fait 90% du travail, l'humain reste 100% Accountable.

---

Matrice RASCI Étendue : Avec IA



Exemple : Équipe Marketing avec IA





RASCI avec IA : Équipe Marketing






















































Tâche CMO Content Manager ChatGPT
(IA)
Designer Midjourney
(IA)
Rédiger article de blog I A A
Valider qualité de l'article C R A
Créer visuel article C A A
Valider visuel avant publication C R A
Publier l'article I R A





R
Responsible : Fait le travail


A
Accountable : Décide et valide


A
Assistant (IA) : Aide le R, mais humain reste A


S
Support : Aide si blocage


C
Consulted : Donne son avis AVANT


I
Informed : Tenu au courant APRÈS




Principe clé : L'IA est "Assistant" (rose) : elle FAIT le travail (rédaction, design). Mais l'humain reste TOUJOURS Accountable de la validation et de la qualité finale.


Analyse de la Matrice



Rédiger article :
- ChatGPT = Assistant (génère le texte)
- Content Manager = Accountable (valide la qualité)
- Si l'article contient une erreur → Content Manager responsable, pas ChatGPT

Créer visuel :
- Midjourney = Assistant (génère l'image)
- Designer = Accountable (valide que c'est conforme)
- Si le visuel enfreint un copyright → Designer responsable, pas Midjourney

Message clair : L'IA aide. L'humain assume.

---

Les 5 Règles d'Or RASCI + IA



Règle #1 : Jamais d'IA en Accountable



Interdiction absolue. Une IA peut être Assistant. Jamais Accountable.

Exemple interdit :
```
Décision recrutement : IA = A
```

Correct :
```
Scoring CV : IA = Assistant
Décision finale : RH Manager = A
```

Règle #2 : L'Humain Valide TOUJOURS



Même si l'IA fait 95% du travail, l'humain DOIT valider les 5% critiques.

Exemple :
- ChatGPT rédige un email de réponse client
- L'humain DOIT relire avant envoi
- Si erreur → humain responsable

Règle #3 : Traçabilité Obligatoire



Quand une IA est impliquée, documentez :
- Quelle IA ? (ChatGPT-4, Claude, Copilot...)
- Quel prompt ?
- Qui a validé ?
- Quand ?

Pourquoi ? En cas de litige, vous devez prouver que l'humain a assumé sa responsabilité.

Règle #4 : Formation Obligatoire



Si votre équipe utilise des IA, formation obligatoire sur :
- Les limites de l'IA (hallucinations, biais, erreurs)
- La responsabilité humaine
- Les process de validation

Vous ne pouvez pas dire "je savais pas que ChatGPT pouvait se tromper".

Règle #5 : Assurance Adaptée



Vérifiez que votre assurance professionnelle couvre les erreurs liées à l'IA. Beaucoup d'assurances excluent encore l'IA.

---

Cas d'Usage : IA dans Différentes Fonctions



Développement avec Copilot/Cursor



AVANT (Sans IA) :
- Dev = R + A (code et assume)
- Lead Dev = C (review)

APRÈS (Avec IA) :
- Copilot = Assistant (génère code)
- Dev = R + A (valide, teste, assume)
- Lead Dev = C (review)

Règle : Le dev qui merge le code généré par IA est Accountable. Point final.

Marketing avec ChatGPT/Jasper



AVANT (Sans IA) :
- Rédacteur = R + A (rédige et assume)
- CMO = C (valide)

APRÈS (Avec IA) :
- ChatGPT = Assistant (génère texte)
- Rédacteur = R + A (édite, valide, assume)
- CMO = C (valide stratégie)

Règle : Si l'article contient une erreur factuelle → Rédacteur responsable, pas ChatGPT.

Design avec Midjourney/DALL-E



AVANT (Sans IA) :
- Designer = R + A (crée et assume)
- DA = C (valide)

APRÈS (Avec IA) :
- Midjourney = Assistant (génère image)
- Designer = R + A (sélectionne, ajuste, assume)
- DA = C (valide cohérence marque)

Règle : Si l'image enfreint un copyright → Designer responsable.

Recrutement avec IA de Scoring



AVANT (Sans IA) :
- RH = R + A (trie CV et décide)
- Manager = C (entretien final)

APRÈS (Avec IA) :
- IA Scoring = Assistant (note les CV)
- RH = R + A (vérifie score, décide)
- Manager = C (entretien final)

Règle : Si l'IA discrimine (âge, genre, origine) → RH + Entreprise responsables. Poursuites possibles.

---

Le Futur : IA Autonome et Responsabilité



Scénario 2030 : IA Presque Autonome



Imaginons 2030. Une IA gère 100% du customer support. Zéro humain dans la boucle.

Questions :
- Qui est Accountable ?
- L'éditeur de l'IA (OpenAI, Google...) ?
- L'entreprise qui l'utilise ?
- Un "AI Ethics Officer" dédié ?

Réponse actuelle (2025) : Flou juridique total. Les législations évoluent.

Le Rôle Émergent : AI Accountability Manager



Certaines entreprises créent un nouveau poste : AI Accountability Manager.

Son rôle :
- Cartographier toutes les IA utilisées dans l'entreprise
- S'assurer qu'un humain est Accountable pour chaque IA
- Gérer les incidents liés à l'IA
- Interface avec les assurances et régulateurs

Dans RASCI : Il devient le A par défaut pour toutes les décisions prises par IA.

---

Checklist RASCI + IA



Avant de déployer une IA dans votre équipe, vérifiez :

- [ ] L'IA est clairement identifiée comme "Assistant" dans RASCI
- [ ] Un humain est explicitement Accountable
- [ ] Process de validation humaine documenté
- [ ] Formation équipe sur limites de l'IA
- [ ] Traçabilité (logs, prompts, validations)
- [ ] Assurance professionnelle couvre l'IA
- [ ] Conformité RGPD / AI Act (EU)
- [ ] Plan de crise si l'IA fait une erreur majeure

Si un seul item manque, ne déployez pas.

---

Conclusion : L'IA Change RASCI, Pas le Principe



L'intelligence artificielle transforme radicalement le travail. Mais elle ne change pas le principe fondamental de RASCI :

Il faut toujours un humain Accountable.

L'IA peut être Responsible (faire le travail). Mais elle ne peut JAMAIS être Accountable (assumer les conséquences).

Nos recommandations 2025 :

1. Ajoutez le rôle "Assistant IA" dans vos matrices RASCI
2. Clarifiez explicitement qui est Accountable quand une IA est impliquée
3. Formez vos équipes sur la responsabilité humaine
4. Documentez tout (traçabilité)
5. Préparez-vous aux évolutions législatives (AI Act EU, etc.)

L'IA est l'outil le plus puissant de l'histoire. Utilisez-la. Mais assumez.

---

Ressources



- 📥 [Template RASCI + IA](https://quifaitquoi.app/templates/rasci-ia) - Matrice avec rôle Assistant IA
- 🎯 [Guide IA Responsable](https://quifaitquoi.app/guides/ia-responsable) - Best practices
- 💬 [Cas d'Usage IA RASCI](https://quifaitquoi.app/exemples/ia-rasci) - 10 exemples concrets

Utilisez l'IA dans votre équipe ? Testez [Qui Fait Quoi](https://quifaitquoi.app) gratuitement. Bob (notre IA) vous aide à créer des matrices RASCI adaptées à l'IA. Paradoxe assumé. 😉

Tags :

#RASCI #IA #Intelligence artificielle #Automatisation #Futur du travail

Partager cet article :

Vous avez aimé cet article ?

Découvrez comment Qui Fait Quoi peut transformer votre organisation

🚀 Démarrer Gratuitement