top of page
Rechercher

SHADOW Ai : 78 % de vos collaborateurs utilisent des IA non autorisées. Vous le saviez ?

  • Photo du rédacteur: GRGT
    GRGT
  • il y a 3 jours
  • 3 min de lecture
personne travaillant avec l'ia et regardant au-dessus de son épaule pour voir si personne ne regarde

Près de 80 % des salariés utilisent des outils d'intelligence artificielle non autorisés par leur entreprise. Pire : la majorité y entre des données sensibles. Un phénomène massif, souvent ignoré, qui expose les organisations à des risques majeurs, juridiques, financiers et réputationnels.


Le chiffre est brutal. 78 % des employés admettent utiliser des outils IA non approuvés par leur employeur. C'est ce que révèle une enquête WalkMe menée en 2025 auprès de 1 000 travailleurs américains. Et ce n'est pas un phénomène marginal : plus de la moitié (51 %) déclarent recevoir des directives contradictoires sur quand et comment utiliser l'IA au travail.


En Belgique, la tendance suit la même trajectoire. Un quart des travailleurs belges utilisent régulièrement l'IA au travail, soit une hausse de 50 % par rapport à 2024, selon SD Worx. Le pays se classe troisième en Europe pour l'adoption de l'IA en entreprise, derrière le Danemark et la Suède. Mais cette avance cache une réalité moins glorieuse : une enquête portant sur plus de 12 000 cols blancs révèle que 60 % d'entre eux utilisent des outils IA au travail, mais seulement 18,5 % connaissent l'existence d'une politique d'entreprise à ce sujet.


On appelle ce phénomène le "Shadow AI", l'utilisation d'outils d'intelligence artificielle en dehors de tout cadre officiel. Et contrairement à ce qu'on pourrait croire, ce ne sont pas les juniors les plus concernés. Les cadres dirigeants affichent les taux d'utilisation régulière non autorisée les plus élevés, selon le rapport UpGuard de novembre 2025. Même les professionnels de la sécurité, près de 90 % d'entre eux, utilisent des outils IA non approuvés. Un comble.


Le problème ne réside pas dans l'outil lui-même. Environ 38 % des employés partagent des données confidentielles avec des plateformes IA sans autorisation, révèle une étude CybSafe et NCA de fin 2024. Plus alarmant encore : 57 % des utilisateurs d'outils IA gratuits admettent y saisir des informations sensibles de leur entreprise. Contrats clients, données financières, échanges stratégiques, tout y passe. Sans que personne ne sache où ces données atterrissent.


Le RGPD n'attendra pas que vous soyez prêts

Les conséquences ne sont plus hypothétiques. Près de 20 % des entreprises ont déjà subi une violation de données liée à une utilisation non autorisée de l'IA. Le coût moyen ? Plus de 650 000 dollars par incident lié à l'IA, selon le rapport IBM 2025. Cisco indique que 46 % des organisations ont signalé des fuites de données internes via l'IA générative, noms d'employés, informations clients, données stratégiques aspirées par des outils sur lesquels l'entreprise n'a aucune visibilité.

Le cadre réglementaire européen ne pardonne pas l'improvisation. Lorsque le Shadow AI provoque une fuite de données de citoyens européens sans consentement, les amendes peuvent atteindre 4 % du chiffre d'affaires mondial. 73 % des implémentations d'agents IA dans les entreprises européennes en 2024 présentaient une vulnérabilité RGPD, selon un audit des autorités de protection des données. Le AI Act européen, applicable depuis août 2024, ajoute une couche supplémentaire d'exigences.


Face à ce constat, la tentation du tout-interdit est compréhensible. Mais non seulement cela étouffe l'innovation, mais c'est aussi impossible à appliquer face à la multiplication des outils. Le trafic lié à l'IA générative a bondi de plus de 890 % en 2024. Les solutions existent ailleurs.


Former, d'abord. Seuls 7,5 % des employés ont reçu une formation approfondie à l'IA, une progression dérisoire de 0,5 % en un an. Or, 90 % des violations de données impliquent une erreur humaine. Sans sensibilisation aux risques spécifiques de l'IA, où vont les données, comment les modèles les traitent, quelles informations ne jamais partager, les collaborateurs restent des bombes à retardement involontaires.


Encadrer, ensuite. Établir une charte d'utilisation claire, un processus d'approbation rapide pour les nouveaux outils, un catalogue d'alternatives sécurisées. 97 % des organisations ayant subi un incident de sécurité lié à l'IA n'avaient pas mis en place de contrôles d'accès appropriés, et 63 % n'ont toujours aucune politique de gouvernance IA. Le vide crée le chaos.


Le Shadow AI n'est pas un problème technologique. C'est un problème de management, de culture, de communication. Les collaborateurs utilisent ces outils parce qu'ils les trouvent utiles, et parce que personne ne leur a donné de meilleure option. Un constat troublant de l'étude UpGuard : il existe une corrélation positive entre les employés qui estiment comprendre les exigences de sécurité IA et ceux qui utilisent régulièrement des outils non approuvés. Autrement dit, la confiance sans cadre mène droit au risque.


La question n'est plus de savoir si votre entreprise est concernée, elle l'est. La vraie question : combien de temps encore avant de reprendre le contrôle ?

 
 
 

Commentaires


B-WAW contact pictogram

CONTACT

BUZZY NEST - AvenUe Reine Astridlaan 92, 1310 LA HULPE

E- mail : info@b-waw.be

+32 486 599 021

Ready to transform your business with AI?

Contact us today and unlock your potential!

Thank you for your messge

B-WAW bottom logo

© 2024 by B-WAW

bottom of page