Brief IA

Forum InCyber 2026 : pourquoi bloquer l’IA en entreprise est une erreur stratégique

🤖 Models & LLMvia Numerama IA·Amine Baba Aissa·

Forum InCyber 2026 : pourquoi bloquer l’IA en entreprise est une erreur stratégique

Forum InCyber 2026 : pourquoi bloquer l’IA en entreprise est une erreur stratégique
En bref
1Bloquer l'IA en entreprise peut exacerber les risques liés au 'Shadow AI', une menace croissante pour la sécurité des données.
270% des entreprises expriment des inquiétudes concernant les fuites de données internes, soulignant l'ampleur du problème.
3Les débats au Forum InCyber 2026 insistent sur l'importance d'une stratégie proactive pour contrer les défis de cybersécurité liés à l'IA.
💡Pourquoi c'est importantUne adoption réfléchie de l'IA peut transformer les entreprises en bastions de sécurité face aux cybermenaces émergentes.
📄
Article traduit en français

Forum InCyber 2026 : pourquoi bloquer l’IA en entreprise est une erreur stratégique

Le « Shadow AI », qui désigne l'utilisation d'outils d'intelligence artificielle non approuvés par les entreprises, représente un défi croissant dans l'écosystème cyber. Cela nécessite une stratégie d'intégration réfléchie.

Interdire les outils d'IA pousse les employés vers la clandestinité, dégradant la visibilité et augmentant les risques de sécurité, selon Ivan Rogissat de Zscaler. La responsabilité en cas de fuite de données dépend de l'usage et de l'autorisation des outils d'IA, l'entreprise devant concilier performance et sécurité des flux.

Contexte et enjeux

Lors du Forum InCyber, Numerama a approfondi les discussions autour des menaces grandissantes pour les entreprises, notamment le Shadow AI. Deux questions centrales émergent face à ce défi : quelle stratégie adopter et quelles responsabilités en cas de fuite de données internes ?

Le Shadow AI est considéré comme le pendant moderne du Shadow IT. Alors que les capacités de ces solutions continuent de croître, les entreprises doivent trouver un moyen de les intégrer efficacement sans freiner l'appétit des employés pour des outils prometteurs en termes de productivité.

Interdiction et clandestinité

Ivan Rogissat souligne que la réaction instinctive de nombreuses entreprises a été de bloquer l'accès aux IA. Cependant, cette approche est une erreur stratégique majeure.

  • Interdire l'outil ne fait pas disparaître le besoin, mais pousse les salariés à utiliser ces outils en dehors du cadre professionnel, ce qui entraîne une perte totale de visibilité.

Performance et sécurité

La quête de productivité et la curiosité face aux nouvelles technologies sont des priorités pour de nombreux employés. Ivan Rogissat affirme que la performance est devenue non négociable.

  • Si une solution ne répond pas aux attentes de performance, les utilisateurs chercheront des alternatives non officielles.

Le véritable défi pour les entreprises est de combiner maîtrise des flux et performance. Une priorité est d'identifier les informations sensibles, car de nombreuses données restent non classifiées.

Responsabilité en cas de fuite

Si l'interdiction est une impasse, la question de la responsabilité en cas de compromission des données se pose.

  • Si une fuite survient via une IA validée et déployée en interne, la responsabilité incombe à la direction informatique.
  • En revanche, si un employé utilise un outil non autorisé, la responsabilité revient à l'utilisateur.

Pour la DSI, le défi consiste à sécuriser les données tout en maintenant la performance et la simplicité pour l'utilisateur.

TwitterLinkedIn

Brief IA — Veille IA quotidienne

Toutes les innovations IA du monde entier, résumées et analysées automatiquement chaque jour.