Blog

Actualités

IA génératives et risque cyber

Les IA génératives permettent de produire un contenu (image, voix, texte, vidéo, code…) de façon autonome à partir d’une demande textuelle humaine, les “invites” ou “prompts” en anglais. Comme toutes les intelligences artificielles, les IA génératives utilisent des modèles de machine learning : les algorithmes apprennent et améliorent en continu leurs performances dans l’exécution d’une tâche spécifique.

Les IA génératives, entre eldorado et cauchemar…

Selon une étude publiée en 2023 par l’Ifop pour Talan, 71% des Français ont déjà entendu parler des IA génératives et 74% d’entre eux estiment qu’elles constituent une nouvelle révolution industrielle. En mars de cette même année, le laboratoire de recherche économique de Goldman Sachs annonçait déjà que leur utilisation pourrait entraîner une hausse de 7% du PIB mondial (près de 7000 milliards de dollars) et une croissance de la productivité de 1,5 point de pourcentage sur une période de 10 ans (source : AWS Amazon).

Accélération de la recherche, amélioration de la productivité et de l’expérience client, optimisation des processus métiers… l’utilisation des IA génératives multiplie les promesses. Mais dans les faits, il semble nécessaire de bien connaître les risques associés et d’adopter les bons réflexes, surtout lorsque l’on sait que 72% des Français estiment ne pas avoir les connaissances suffisantes pour les utiliser et que 68% de ceux qui s’en servent dans l’entreprise ne le disent pas à leur supérieur hiérarchique ! (Etude Ifop).

Au fur et à mesure de leur déploiement massif, les IA génératives posent de plus en plus de problèmes, que ce soit en termes de protection des droits d’auteur, de divulgation d’informations non sourcées, biaisées ou imprécises, de deep fakes… Sur le sujet de la cybersécurité également, les IA génératives doivent inciter les entreprises à revoir leurs pratiques et à mieux identifier les risques.

68% des Français qui utilisent les IA génératives dans l’entreprise ne le disent pas à leur supérieur hiérarchique

Mieux connaître les risques et revoir ses pratiques

Le premier enjeu concerne la confidentialité et la protection des données. Les données transmises aux IA génératives sont assimilées par le robot et peuvent potentiellement être dévoilées à des tiers. La mésaventure de Samsung a été largement relayée dans les médias : en 2023, l’entreprise coréenne a en effet interdit l’utilisation des IA génératives après avoir découvert que certains membres de son personnel avaient divulgué du code source interne en le téléchargeant sur ChatGPT.

Au-delà des informations contenues dans les requêtes, les IA génératives collectent également un grand nombre d’éléments (localisation, outils Google, etc.) ; le consentement est obligatoire, encore faut-il y être attentif… gare aux fuites de données dans le cas contraire.

Autre point de vigilance, les IA génératives sont aussi largement utilisées par les cybercriminels, qui ne s’y sont pas trompés : elles sont une aide précieuse pour générer des codes malveillants, des messages pertinents, créer des campagnes de phishing ou d’ingénierie sociale encore plus efficaces. La productivité profite ainsi à tout le monde : les hackers bénéficient désormais d’un nouvel outil pour automatiser des attaques massives et exploiter les failles de sécurité.

Pour faire face à ces menaces, l’Union Européenne a adopté en décembre 2023 l’IA Act qui contient de nombreuses dispositions relatives à la transparence, la protection des données et aux règles concernant les données d’entraînement des modèles. Il n’en demeure pas moins qu’en 2024, l’IA est désormais un sujet essentiel au sein des thématiques de cybersécurité. Pour chaque entreprise, la réflexion est urgente sur le degré d’exposition, les moyens de sensibilisation, les stratégies de sécurisation… Contactez-nous pour en savoir plus !

Image : Mojahid Mottakin sur unsplash.com

À lire aussi