L’IA est puissante, mais les entreprises se heurtent souvent à : sécurité, incontrôlabilité cloud et intégration aux systèmes existants
Risque de fuite de données
Envoyer des données sensibles vers le cloud pour l'inférence rend toute fuite difficile à tracer ; audit, responsabilité et remédiation deviennent complexes
Risque élevé
📍 2024 Incident réel
Fuite de données AT&T sur le dark web (incl. SSN)
30 mars 2024
73,000,000 personnes (comptes actuels + anciens)
AT&T indique qu’un jeu de données publié sur le dark web touche environ 7,6M de titulaires actuels et 65,4M d’anciens (≈73M au total) et peut inclure des informations sensibles comme les numéros de sécurité sociale.
Les mises à jour du modèle, les politiques, la disponibilité et la cohérence des sorties cloud ne sont pas sous votre contrôle ; un changement peut déstabiliser tout le flux
Difficile à gouverner
📍 2025 Enquête (actions non prévues)
SailPoint : accès à des systèmes non autorisés
28 mai 2025
39 % (accès à des systèmes/ressources non autorisés)
L’enquête mondiale de SailPoint indique que 80% des entreprises déclarent que leurs agents IA ont réalisé des actions non prévues, dont l’accès à des systèmes ou ressources non autorisés (39%). Le rapport mentionne aussi que 23% ont vu des agents trompés pour révéler des identifiants d’accès. Quand des modèles cloud sont connectés à des outils et des permissions de fichiers, une action non prévue peut devenir une erreur irréversible (ex : suppression/écrasement de données critiques).
Même si les réponses sont bonnes, sans connexion sûre au CRM/ERP/tickets, cela finit en copier-coller et ne passe pas à l’échelle
Bloque la mise en production
📍 2024 Incident réel
Le chatbot d’Air Canada a donné une mauvaise information
15 fév 2024
812.02 CAD (montant ordonné)
Le Civil Resolution Tribunal de la Colombie-Britannique a jugé Air Canada responsable d’informations trompeuses de son chatbot et a ordonné le paiement de 812,02 $ CA (dommages + intérêts + frais). Si les réponses ne sont pas alignées avec les politiques et règles officielles, il est dangereux de reconnecter la sortie aux processus.
Les DSI peuvent justifier, l'IT peut opérer, l'audit peut tracer
Vérifiable (Prêt à l'acceptation)
Transformer « bien » en critères d'acceptation : points de test + régression pour que les corrections tiennent. (ex. Taxonomie d'erreurs / AIEC)
Points clés
✓Checklist d'acceptation à partir des besoins
✓Tests de régression (éviter les récidives)
Contrôlable (Risque borné)
Transformer conformité et risque en règles : quoi répondre, quoi relire, quoi refuser—sans promesses excessives ni chiffres inventés.
Points clés
✓Règles par niveau de risque
✓Politiques par secteur et équipe
Traçable (Avec sources)
Fournir sources et contexte (RAG/Graphe de connaissances) et conserver des logs pour audit et responsabilité.
Points clés
✓Réponses avec citations
✓Logs complets de conversation
Activation IA
Faites parler vos systèmes existants en langage humain—sans modification de code.
Points clés
✓Aucune modification système (zéro dette technique)
✓L'IA rédige, vous décidez
Architecture IA prête pour l’ESG
Des salles serveurs en kW aux bureaux en 240W : durabilité et responsabilité d’entreprise
kW+
Ère de la salle serveurs
NVIDIA DGX Spark™
🌍
E
Durabilité environnementale
240W (niveau bureau)
Déploiement prêt pour le bureau Sans salle dédiée ni climatisation
🤝
S
Responsabilité sociale
Les données restent sur site
Vie privée protégée Conforme aux règles et à l’éthique locales
📋
G
Gouvernance d’entreprise
Auditable et traçable
Accès par rôles, sources citées Logs de bout en bout
🌱Aligné avec les ODD de l’ONU : Action climatique, Consommation et production responsables
Trois étapes pour déployer un assistant IA
Transformez « on veut de l’IA » en livraison vérifiable : définissez le succès, configurez règles/connaissance dans l’UI, puis validez avec de vraies questions et itérez.
ÉTAPE 1
Dites
Définir objectifs et critères de succès
Décrire le contexte et les contraintes
Définir ce que « bon » signifie
Transformer en spécifications claires et vérifiables
→
ÉTAPE 2
Cliquez
Configurer connaissances et règles
✓Définir le ton et le style
✓Connecter documents/KB comme sources approuvées
✓Configurer permissions et limites de sécurité
→
ÉTAPE 3
Voyez
Valider et itérer avec des exemples
Tester avec de vraies questions
Examiner les sorties et affiner vite
Déployer seulement quand c’est stable et validé
CAS D’USAGE
Du scénario à une livraison vérifiable
Définir les résultats par KPI et réduire le risque via règles + sources (cas sous NDA).
Habilitation IA
Responsable IT / Intégration systèmes
Tâche
Une phrase pour faire comprendre le langage humain à votre legacy—sans changer l’architecture ; l’IA propose, vous décidez d’exécuter
Résultats
✓Mise à niveau en un clic : sans toucher l’architecture—OpenAPI in → brouillon de flux out (prévisualisable/modifiable)