
Monde Numérique - Actu Tech
đ€ Les erreurs que font les entreprises avec lâIA gĂ©nĂ©rative (Ămilie Brochette, Orange CyberdĂ©fense)
·22 min
Lâintelligence artificielle bouleverse les usages dans les entreprises, mais elle ouvre aussi une nouvelle gĂ©nĂ©ration de risques cyber. Entre Shadow AI, fuite de donnĂ©es, agents autonomes et manipulation des chatbots, les organisations dĂ©couvrent un terrain encore largement incontrĂŽlĂ©. Interview : Ămilie Brochette, spĂ©cialiste solutions IA et business chez Orange CyberdĂ©fenseEn partenariat avec Orange CyberdĂ©fense Punchlines- 90 % des entreprises ont du Shadow AI.- Tout le monde est devenu dĂ©veloppeur avec lâIA.- On ne peut pas se protĂ©ger de quelque chose que lâon ignore.- Les IA gĂ©nĂ©ratives sont sensibles Ă la manipulation psychologique.- LâIA gĂ©nĂ©rative va booster le DLP.Pourquoi lâIA est-elle devenue un sujet majeur pour la cybersĂ©curitĂ© ?LâIA est entrĂ©e trĂšs vite dans les entreprises, souvent sans vĂ©ritable cadre. Pendant longtemps, tout le monde sâest focalisĂ© sur les gains de productivitĂ© et les cas dâusage, sans regarder les risques associĂ©s. En 2025, jâai passĂ© beaucoup de temps Ă sensibiliser les entreprises et jâai Ă©tĂ© frappĂ©e par le niveau de mĂ©connaissance, mĂȘme chez des Ă©quipes cybersĂ©curitĂ©. Le premier risque, câest le Shadow AI. Des collaborateurs utilisent des outils comme ChatGPT avec des comptes personnels pour des tĂąches professionnelles, en partageant parfois des donnĂ©es sensibles sans sâen rendre compte. Cela peut provoquer des pertes de propriĂ©tĂ© intellectuelle, des problĂšmes RGPD ou des fuites de secrets industriels. Comment les entreprises peuvent-elles reprendre le contrĂŽle ?La premiĂšre Ă©tape, câest la sensibilisation. Il faut expliquer les risques Ă tout le monde, pas seulement aux Ă©quipes IT ou cybersĂ©curitĂ©. Aujourdâhui, tous les mĂ©tiers utilisent lâIA : RH, juridique, marketing, recherche⊠Ensuite, il faut des outils de visibilitĂ© et de contrĂŽle. Certaines entreprises installent des plugins navigateurs ou des solutions de DLP pour dĂ©tecter les usages IA, classifier les documents et empĂȘcher certains transferts de donnĂ©es sensibles. LâIA gĂ©nĂ©rative amĂ©liore mĂȘme ces technologies de DLP en aidant Ă analyser automatiquement les documents non structurĂ©s. Lâautre enjeu, câest de proposer des alternatives sĂ©curisĂ©es. Si lâentreprise interdit simplement ChatGPT sans offrir dâoutil Ă©quivalent, les collaborateurs continueront Ă utiliser des solutions non contrĂŽlĂ©es. Pourquoi les agents IA changent-ils complĂštement la donne ?Avec les agents IA, on passe Ă un autre niveau. LâIA nâest plus seulement capable de rĂ©pondre ou dâanalyser des informations : elle agit directement dans le systĂšme dâinformation. On peut connecter un agent Ă Outlook, Salesforce, Ă un agenda ou Ă un Active Directory. Il peut crĂ©er des rĂ©unions, envoyer des mails, ouvrir des opportunitĂ©s commerciales ou interagir avec dâautres outils. Certains agents restent supervisĂ©s par lâhumain, mais dâautres deviennent totalement autonomes. Cela soulĂšve Ă©normĂ©ment de questions de sĂ©curitĂ©. Comment contrĂŽler leurs actions ? Faut-il centraliser les Ă©changes entre agents ? Comment vĂ©rifier ce quâils font ? Aujourdâhui, tout le monde expĂ©rimente encore ces technologies et cherche les bons modĂšles de protection. HĂ©bergĂ© par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.
