Blog Zscaler

Recevez les dernières mises à jour du blog de Zscaler dans votre boîte de réception

S'abonner
Nouveautés et annonces

Tous les regards sont tournés vers la sécurisation de l’IA générative

image
SANJAY KALRA
novembre 20, 2023 - 8 Min de lecture

Une enquête révèle que les entreprises se précipitent pour utiliser des outils d’IA générative malgré d’importantes préoccupations en matière de sécurité.

Le monde informatique a tendance à se répéter en ce qui concerne les erreurs qu’il commet en se précipitant pour adopter les dernières innovations technologiques. Le meilleur exemple actuel est la ruée observée l’année dernière pour adopter des outils d’IA générative (GenAI), qui a été déclenchée par la popularité de ChatGPT. La prolifération de nouvelles applications d’IA générative est similaire à ce que nous avons observé avec le SAAS. Les entreprises se sont empressées de migrer les applications de leurs data centers vers des environnements cloud et n’ont commencé à se préoccuper de leur sécurité (et de leurs performances) qu’après coup. 

Zscaler a récemment commandé une étude intitulée « Tous les regards sont tournés vers la sécurisation de l’IA générative » pour découvrir comment les entreprises modernes utilisent les outils d’IA générative, les implications en matière de sécurité de cette adoption rapide et la manière dont la propriété intellectuelle et les données des clients sont protégées tout au long du processus. Les résultats, qui représentent les réponses de 900 responsables informatiques sur 10 marchés mondiaux, suggèrent que les entreprises sont incitées à se précipiter pour utiliser les outils d’IA générative, en dépit d’importantes préoccupations en matière de sécurité. 

Les préoccupations concernant la sécurité dominent

Selon nos recherches, 95 % des entreprises utilisent déjà les outils d’IA générative d’une manière ou d’une autre au sein de leur entreprise. 57 % des responsables informatiques autorisent leur utilisation sans restriction et un peu plus d’un tiers (38 %) l’envisagent avec prudence. Les 5 % restants ont répondu qu’ils attendaient de voir l’évolution de la technologie ou qu’ils interdisaient totalement l’utilisation de ces outils. 

Cependant, malgré ces chiffres élevés, 89 % des responsables informatiques interrogés admettent que leur entreprise considère l’IA générative comme un risque potentiel pour la sécurité, et près de la moitié d’entre eux (48 %) reconnaissent que la menace pourrait actuellement l’emporter sur les opportunités que ces outils pourraient apporter. 

 

Image

Une majorité d’entreprises utilisent les outils d’IA générative.

 

Compte tenu de ces résultats, l’adoption précoce de l’IA générative semble être un risque moins calculé que nous ne voudrions le croire. Et en réalité, les entreprises seraient bien avisées de prendre en considération à la fois les questions de sécurité et de confidentialité avant d’aller plus loin. L’IA générative promet des avantages de productivité et de créativité remarquables, de sorte qu’une interdiction complète de son utilisation placerait les entreprises dans une situation concurrentielle passablement désavantageuse. De ce point de vue, il est encourageant de constater que seule une petite minorité s’engage dans cette voie. Mais son adoption doit être abordée de manière stratégique, en accordant une attention primordiale à la sécurité afin de garantir une utilisation responsable et sûre. 

D’où viennent les préoccupations en matière de sécurité ?

Les principales préoccupations répertoriées par les entreprises qui n’utilisent pas l’IA générative étaient la perte potentielle de données sensibles, le manque de compréhension de ses dangers et de ses avantages, et le manque de ressources pour surveiller son utilisation. Étant donné que 23 % des entreprises qui utilisent des outils d’IA générative n’effectuent aucun contrôle, on comprend pourquoi ce dernier point en particulier a été considéré comme une menace. 

Image

Les entreprises ne réagissent en fonction des problèmes de sécurité.

 

Lors de l’introduction d’une nouvelle technologie, il est crucial de comprendre les défis de sécurité uniques qu’elle soulève afin que ceux-ci n’éclipsent pas son potentiel. Ne pas mettre en œuvre de mesures de sécurité supplémentaires liées à l’IA générative, ce qu’admettent un tiers des entreprises qui l’utilisent, représente une autre décision risquée qui pourrait exposer les entreprises. Et même si 31 % de ce même groupe ont inclus des solutions spécifiques à l’IA générative dans leur feuille de route, l’intention est bien moins efficace que l’action, car le temporaire a souvent tendance à devenir permanent. 

Le principal défi de sécurité que pose l’IA générative réside dans la fuite de données, ce qui souligne l’importance vitale de solides mesures de sécurité des données. La première mesure que les entreprises doivent prendre consiste donc à acquérir une parfaite visibilité sur qui utilise les applications d’IA générative, et lesquelles, puis de contrôler leur utilisation. Une fois la visibilité retrouvée, elles peuvent déployer des mesures de protection des données, en commençant par la classification des données afin d’éviter les fuites. Étonnamment, seulement 46 % des personnes interrogées ont exprimé leur confiance dans le fait que leur entreprise avait classé toutes ses données en fonction de leur niveau de criticité. 44 % des personnes interrogées ont au moins commencé à classifier certaines de leurs données comme condition préalable à la mise en œuvre de mesures de sécurité. Mais cela est loin d’être suffisant.

Image

Les entreprises doivent agir maintenant pour reprendre le contrôle.

 

Les services informatiques doivent prendre le contrôle de l’utilisation et de la sécurité de l’IA générative

Alors que les entreprises semblent tellement peu préparées à sécuriser l’IA générative, on peut s’interroger sur les raisons qui poussent à une adoption aussi rapide de cette technologie. 

Étonnamment, la pression du déploiement ne vient pas de ce que l’on pourrait penser. Malgré une prise de conscience générale, ce ne sont pas les employés qui semblent être le moteur de l’intérêt et de l’utilisation actuels. Seuls 5 % des personnes interrogées ont déclaré que cela provenait de ce groupe. Il ne s’agit pas non plus de pistes commerciales (21 %). En réalité, 59 % des responsables informatiques ont déclaré qu’ils étaient eux-mêmes à l’origine de cette évolution. 

La situation, dans ce cas, semble être moins liée à la « pression » exercée par les entreprises pour introduire de nouvelles technologies qu’au « désir   des équipes informatiques de suivre l’innovation technologique. L’intérêt des chefs d’entreprise étant encore peu marqué, il semblerait que l’IA générative doive encore passer du statut de terrain de jeu des équipes informatiques à celui de catalyseur commercial au sens plus large. 

Le fait que les équipes informatiques soient à l’origine d’une adoption précoce devrait rassurer les responsables informatiques et les chefs d’entreprise. Cela signifie qu’il est possible de modérer stratégiquement le rythme de l’adoption de l’IA générative, en accordant au département informatique suffisamment de temps pour maîtriser ses mesures de sécurité avant que les risques de sécurité et de confidentialité ne se transforment en crises. 

La mise en œuvre de l’IA générative doit s’accompagner d’une solution Zero Trust telle que la plateforme Zscaler Zero Trust Exchange, garantissant une surveillance et une autorité complètes sur l’utilisation de la technologie par utilisateur et par application, qui permet aux entreprises de maintenir un environnement sécurisé et contrôlé. Les étapes suivantes permettront aux équipes informatiques de reprendre le contrôle des outils d’IA générative :

  1. Mener des évaluations approfondies des risques de sécurité pour les applications d’IA générative afin de comprendre les risques de sécurité et de confidentialité et d’y répondre
  2. Mettre en œuvre une architecture Zero Trust globale pour acquérir la visibilité requise et n’autoriser que les applications et les utilisateurs d’IA générative approuvés
  3. Établir un système de journalisation complet pour suivre toutes les invites et réponses de l’IA générative
  4. Appliquer des mesures de protection contre la perte de données basées sur le Zero Trust pour sécuriser toutes les activités de l’IA générative et empêcher l’exfiltration de données

Chaque fois qu’une nouvelle technologie émerge, elle s’accompagne de cas d’utilisation à la fois positifs et négatifs. Zscaler est le pionnier des solutions Zero Trust qui permettront de libérer l’énorme potentiel de l’IA générative de manière sûre et responsable, tout comme nous avons été le fer de lance de l’adoption du cloud sécurisé. Avec Zscaler, accélérez avec audace votre révolution de l’IA générative.

 

form submtited
Merci d'avoir lu l'article

Cet article a-t-il été utile ?

Recevez les dernières mises à jour du blog de Zscaler dans votre boîte de réception

En envoyant le formulaire, vous acceptez notre politique de confidentialité.