Alors que le nombre d'utilisateurs de chatgpt a atteint 100 millions d'utilisateurs en 2 mois, pourquoi les entreprises peinent-elles plus à intégrer ces nouvelles technologies ?
L'avènement des Large Langage Models (ChatGPT par ex.) est source d’opportunités immenses : ils ont un potentiel de transformation totale du secteur tertiaire. L’apport de l’IA générative n’est plus à prouver : ces systèmes pourraient permettre de désengorger les lignes d’appel de support clients, d’améliorer la fidélisation, et de permettre aux premiers à l’adopter de profiter d’un statut de pionnier attrayant (Carrefour – Hopla).
Si le grand public est immédiatement tombé sous le charme du nouveau bijou technologique (100 millions d’utilisateurs en 2 mois, du jamais vu), les entreprises se montrent pourtant plus prudentes, préoccupées par des inquiétudes légitimes concernant leur réputation, la cybersécurité et la protection de leurs données sensibles. Quels sont les facteurs qui justifient cette appréhension et accentuent le retard technologique des entreprises ? Nous avons identifié trois problématiques de sécurité principales.
L’introduction d’une barre conversationnelle en langage naturel expose les entreprises à des comportements malveillants qui en passant les bonnes commandes pourraient avoir accès à des données compromettantes (consignes données par l’entreprise à la machine, accès à la toute la data base client…) ou à faire dire des propos néfastes qui pourraient nuire à la réputation de l’entreprise.
Qu'un robot prononce des paroles racistes ou discrimimnatoires qui soient reprises est une inquiétude importante pour les DSIs.
De plus, ces systèmes ont des vulnérabilités inconnues et les sécuriser est complexe : comment former des modèles de cybersécurité efficaces lorsque les attaques sont d'une nature totalement nouvelle ? Sur quelles bases les entrainer, puisque l’on ne sait pas comment ils vont être attaqués ?
Adopter une double compétence "conception de logiciel IA - cybersécurité" apparaît comme une combinaison prometteuse pour enclencher le processus d’intégration de ces technologies en entreprises.
Les experts en cybersécurité et en développement de systèmes IA doivent travailler main dans la main pour anticiper les failles potentielles, concevoir des mécanismes de défense innovants et élaborer des procédures de test rigoureuses. Le système de cybersécurité est en effet compétent grâce aux retours d’utilisation concrets des implantations logiciels IA, et ces derniers sont légitimés par ces systèmes de sécurité.
Enfin, si un prompting innocent de correction d’un devoir n‘est pas un problème, la relecture par la machine d’un mail avec toutes les informations d’une transaction est d’une toute autre nature : la majorité des grandes entreprises ne peuvent pas se permettre d'envoyer toutes leurs données sensibles aux propriétaires des LLMs. Sans outil ni chiffrage, c’est corrompre des informations privées pour des tâches simples.
Les solutions à cette problématique sont diverses et variées, mais difficiles à implanter, reposant souvent sur des technologies complexes.
- L'option du LLM open-source est une première solution pour ne pas envoyer ses données à un acteur tiers.
- Le système de data-masking (reconnaitre intelligemment les données sensibles et les cacher) est un outil plus simple mais très efficace s’il dispose d’un système de détection de pointe.
- Le chiffrement homomorphe, solution basée sur le cryptage algorithmique des données avant leur envoi aux LLM, est encore balbutiant mais pourrait permettre une protection totale tout en tirant parti de l'IA.
L'arrivée des LLM offre des opportunités professionnelles multiples pour les entreprises, mais ses implantations seront accélérées lorsque ces dernières auront une confiance totale et une vision de rentabilité plus nette. Entre temps, le gain potentiel qu’apporte ces technologies peut-il justifier une prise de risque en attendant des systèmes pleinement sécurisés ?
Vous pouvez découvrir notre solution de data-masking :