Pour améliorer l’efficacité et la productivité des collaborateurs, de plus en plus de managers expérimentent l’IA. L’exposition aux failles, biais et fraudes est sous-estimée.
« En se démocratisant, l’IA sert des usages positifs et ouvre des perspectives d’aide à la décision. Mais elle amplifie aussi les actes de délinquance, comme les fraudes au président en forte recrudescence actuellement. Lutter contre ce type de menace requiert une coopération internationale renforcée », souligne Myriam Quéméner, magistrate honoraire et docteure en droit, lors du dernier Forum des solutions de Cybersecurité IA et Cloud de Paris.
Anthony Duplantier, fondateur d’Holirisk et membre du CEFCYS complète : « L’IA est un outil dont on peut se servir dans les règles de l’art, comme de façon détournée. La fraude au président est un bon exemple. Grâce à l’IA, un attaquant peut changer de format pour mieux duper sa victime. Hier encore, il mettait sous pression un collaborateur par téléphone ou par email. A présent, la voix et l’apparence du président de l’entreprise sont trafiquées dans le but de déclencher un virement. Les tentatives sont menées un vendredi soir, avant le départ en weekend. La parade professionnelle ? Elle consiste à comprendre l’IA, à cerner les risques pour les contrôler. Et à maîtriser les usages. »

Un autre phénomène méconnu et tout aussi dangereux est pointé par Léo Cohen, CEO de Certif-IA : « A côté des risques entrants liés aux deep fakes, je note des risques sortants, en lien avec l’usage des LLM hors de tout cadre professionnel. En deux ans, les IA ont généré plus d’images que l’homme dans toute son histoire ; le web et les réseaux sociaux en sont envahis. Des usages raisonnés, décidés par la direction, peuvent être précisés aux équipes au travers d’une charte de l’IA. Cet encadrement nécessaire débute par l’acculturation des collaborateurs et par quelques restrictions d’usage. »
Sensibiliser tous les niveaux
Selon lui, chacun doit appréhender les enjeux de sécurité, de sobriété et d’éthique de l’IA. Il rappelle que de grands groupes tels Samsung ont déjà interdit les générateurs grand public à leurs salariés pour éviter des fuites d’informations de R&D, et met en garde : « Dans un cabinet d’avocats, la rédaction d’actes juridiques assistée par l’IA peut provoquer la fuite d’informations sensibles. Les modèles sont entraînés à partir de nos données. Or, la plupart des services en ligne auxquels nous accédons depuis un smartphone ou un ordinateur sont régis par le Cloud Act. »
Les changements fréquents de cap politique outre-Atlantique secouent durablement les partenaires économiques comme les investisseurs : « On parle énormément de souveraineté à présent en Europe. C’est très bien de réagir et de vouloir contenir les données des citoyens sur un cloud national [NDLR: comme l’ont décidé les Pays-Bas en mars]. Il faut offrir une souveraineté, au moins européenne. Mais la réaction me semble tardive. N’est-il pas déjà trop tard ? », interroge Myriam Quéméner.
L’IA aide le juriste à retrouver des jurisprudences en lien avec une affaire, assiste l’avocat à préparer son audience. Elle peut contribuer à démêler des contentieux répétitifs entre entreprises, tout au plus. Au pénal, pour vérifier s’il y a eu infraction ou pas de la part d’un hacker, la juge doit déterminer ses intentions réelles : « A-t-il infiltré ce réseau pour un motif légitime ? Agit-il vraiment pour le bien commun, comme il le prétend ? »
La prise de conscience d’usages favorables et néfastes gagne progressivement nos représentations nationales, observe Anthony Duplantier : « Au Sénat, la question de la nationalité de la donnée a été soulevée en octobre 2024. L’enjeu consiste à garantir notre souveraineté face aux règlementations étrangères invasives, ce que l’Union européenne tente de faire. Mais le partage d’informations reste le principe même de l’apprentissage d’un LLM. »
Les réponses générées par l’IA interrogent tour à tour, par leur approbation systématique, leur biais ou leur absence de neutralité. A quoi bon sonder une IA si on peut lui faire dire tout et son contraire ?
Reformulations et interactions
Le fondateur d’Holirisk résume l’inquiétude des dirigeants face à un autre cas d’usage redoutable : « Demander à une IA de debugger son code pour être plus efficace, c’est courant en informatique. Mais cela nourrit le modèle qui, plus tard, va réutiliser ces éléments pour répondre à d’autres requêtes semblables. L’IA reformule plus qu’elle n’invente. »
Comme l’histoire de l’humanité, celle de l’IA auraient déjà tendance à bégayer, invitant les éditeurs à protéger leurs modèles, à l’aide de règles de filtrage. Les réponses de l’IA varient suivant plusieurs paramètres : la qualité des données d’apprentissage, les filtres appliqués (qui se détournent), la tournure des prompts, voire le profil de l’utilisateur lorsqu’il est pris en compte.
Une architecture à base de serveurs internes ou de serveurs hébergés sur un cloud de proximité sera-t-elle apte à colmater les brèches ? Anthony Duplantier conseille plutôt une méthode qui a fait ses preuves en cybersécurité : « Cloisonner les infrastructures permet d’isoler les données sensibles et de réduire la surface d’attaque. Il faut anticiper l’injection de prompts et de codes malveillants cherchant à exfiltrer des informations. Un concurrent peut tenter de détourner vos clients en polluant votre modèle d’IA. Une gestion des risques s’impose. Du point de vue de la sécurité, l’IA est une application répartie comme une autre.»

Léo Cohen complète ces recommandations : « Travailler avec l’IA c’est collaborer avec des assistants virtuels. Cela revient à apprendre un nouveau langage. Reste à évaluer, métier par métier, les bénéfices qu’on peut obtenir de chaque outil ou agent conversationnel. Plutôt que de tout miser sur un seul, il faut bien examiner les gains concrets et les conditions générales d’utilisation, soigner la qualité des données pour garder le contrôle de l’IA. Quant à alléger des tâches chronophages, le travail d’automatisation reste un projet sur mesure. »
Myriam Quéméner conclut : « Les cas d’usage sont nombreux et touchent tous les secteurs. Au niveau d’un Comex, on gagne à encourager les interactions au service de la stratégie d’entreprise, à sensibiliser les métiers aux enjeux, sans chercher à faire peur ni à remplacer des collaborateurs par l’IA. »

Retrouvez les panels du Forum IA.Cloud de mars 2025 et les comptes-rendus des sessions préparées et animées par PulsEdit.