Forum InCyber 2026 : pourquoi bloquer l’IA en entreprise est une erreur stratégique

Forum InCyber 2026 : pourquoi bloquer l’IA en entreprise est une erreur stratégique
Le « Shadow AI », qui désigne l'utilisation d'outils d'intelligence artificielle non approuvés par les entreprises, représente un défi croissant dans l'écosystème cyber. Cela nécessite une stratégie d'intégration réfléchie.
Interdire les outils d'IA pousse les employés vers la clandestinité, dégradant la visibilité et augmentant les risques de sécurité, selon Ivan Rogissat de Zscaler. La responsabilité en cas de fuite de données dépend de l'usage et de l'autorisation des outils d'IA, l'entreprise devant concilier performance et sécurité des flux.
Contexte et enjeux
Lors du Forum InCyber, Numerama a approfondi les discussions autour des menaces grandissantes pour les entreprises, notamment le Shadow AI. Deux questions centrales émergent face à ce défi : quelle stratégie adopter et quelles responsabilités en cas de fuite de données internes ?
Le Shadow AI est considéré comme le pendant moderne du Shadow IT. Alors que les capacités de ces solutions continuent de croître, les entreprises doivent trouver un moyen de les intégrer efficacement sans freiner l'appétit des employés pour des outils prometteurs en termes de productivité.
Interdiction et clandestinité
Ivan Rogissat souligne que la réaction instinctive de nombreuses entreprises a été de bloquer l'accès aux IA. Cependant, cette approche est une erreur stratégique majeure.
- Interdire l'outil ne fait pas disparaître le besoin, mais pousse les salariés à utiliser ces outils en dehors du cadre professionnel, ce qui entraîne une perte totale de visibilité.
Performance et sécurité
La quête de productivité et la curiosité face aux nouvelles technologies sont des priorités pour de nombreux employés. Ivan Rogissat affirme que la performance est devenue non négociable.
- Si une solution ne répond pas aux attentes de performance, les utilisateurs chercheront des alternatives non officielles.
Le véritable défi pour les entreprises est de combiner maîtrise des flux et performance. Une priorité est d'identifier les informations sensibles, car de nombreuses données restent non classifiées.
Responsabilité en cas de fuite
Si l'interdiction est une impasse, la question de la responsabilité en cas de compromission des données se pose.
- Si une fuite survient via une IA validée et déployée en interne, la responsabilité incombe à la direction informatique.
- En revanche, si un employé utilise un outil non autorisé, la responsabilité revient à l'utilisateur.
Pour la DSI, le défi consiste à sécuriser les données tout en maintenant la performance et la simplicité pour l'utilisateur.
Brief IA — Veille IA quotidienne
Toutes les innovations IA du monde entier, résumées et analysées automatiquement chaque jour.