Dans un contexte où l’intelligence artificielle bouscule les normes technologiques, économiques et sociales, la question de sa sécurité devient un enjeu majeur. C’est précisément sur ce créneau que s’illustre une entrepreneure originaire de Rennes, récemment mise à l’honneur par Ouest-France. Surnommée « la Rennaise qui cadenasse l’intelligence artificielle », elle œuvre à renforcer les fondations sécuritaires des algorithmes intelligents dans une période où la confiance numérique est à reconstruire. Ce profil discret mais résolument visionnaire occupe désormais une place stratégique dans l’écosystème français de la cybersécurité appliquée à l’IA.
Une femme à la tête de la cybersécurité appliquée à l’intelligence artificielle
Un parcours entre éthique, ingénierie et gouvernance algorithmique
À mesure que les intelligences artificielles s’imposent dans tous les pans de notre quotidien – santé, finance, mobilité, ressources humaines – les appels se multiplient pour renforcer leur encadrement. C’est dans cette optique que cette Rennaise, au parcours à la croisée des sciences informatiques et de la gouvernance numérique, décide de se spécialiser dans la sécurisation des IA.
Issue d’une formation en cybersécurité et possédant une solide expérience en entreprise, elle fonde une structure innovante visant à protéger les systèmes d’intelligence artificielle contre les menaces internes (biais algorithmiques, décisions opaques) et externes (attaques adversariales, fuites de données sensibles). Ce positionnement rare lui permet aujourd’hui d’être identifiée comme une figure montante dans la sphère française de la tech responsable.
Une réponse locale aux enjeux globaux posés par l’IA
Son engagement dépasse la simple application de protocoles techniques. Elle s’intègre pleinement dans une dynamique de souveraineté numérique, promouvant une vision européenne du développement technologique fondée sur la transparence, l’auditabilité et la résilience. Depuis Rennes, cette entrepreneure souhaite ancrer ces enjeux dans les territoires, en rapprochant les problématiques de l’IA sécurisée des PME locales, des collectivités et des établissements d’enseignement supérieur bretons.
Sécuriser l’intelligence artificielle : un marché émergent aux enjeux critiques
Des menaces inédites liées à l’essor des intelligences génératives
Depuis l’avènement des modèles de langage de type GPT ou DALL·E, les usages de l’intelligence artificielle se sont démocratisés bien au-delà des seuls développeurs. Cependant, cette ouverture a généré un terrain fertile pour les risques :
- Manipulation des sorties pour produire des contenus malveillants (deepfakes, spam textuel, désinformation);
- Extraction de données confidentielles à partir de modèles entraînés;
- Utilisation détournée d’IA par des groupes cybercriminels pour automatiser les attaques (phishing, ingénierie sociale, etc.);
- Pénétration d’algorithmes critiques via des attaques dites adversariales visant à fausser ou tromper les résultats d’un modèle.
Dans ce contexte, la cybersécurité appliquée à l’IA n’est plus accessoire : elle devient un pilier stratégique pour les gouvernements, les entreprises et les développeurs d’intelligences algorithmiques.
Des solutions innovantes pour verrouiller les comportements des algorithmes
Les technologies développées par la spécialiste rennaise s’inscrivent dans ce nouveau corpus de solutions dédiées à la robustesse des intelligences artificielles. Elles permettent :
- La détection de dérives éthiques dans les décisions automatisées (par exemple dans les systèmes de recrutement ou d’octroi de prêt) ;
- La traçabilité des modèles, avec la possibilité d’identifier les dataset utilisés, leur biais potentiel et les paramètres d’entraînement ;
- Le renforcement des protocoles de chiffrement appliqués aux environnements IA distribués ;
- L’intégration de « garde-fous » comportementaux dans les LLM (large language models) mis à disposition du public.
Ce champ d’intervention, en pleine structuration mondiale, pourrait représenter une niche économique majeure dans les années à venir : selon de récents rapports de marchés, le secteur de la sécurité IA pourrait dépasser les 20 milliards d’euros dans le monde à horizon 2027.
Rennes, futur hub français de l’IA éthique et sécurisée
Un écosystème local propice à l’innovation technologique responsable
La ville de Rennes, historiquement ancrée dans les télécoms et la cybersécurité, s’affirme aujourd’hui comme un pôle de référence pour l’IA éthique en France. L’aventure portée par cette entrepreneure locale vient confirmer cette dynamique. Accompagnée par un tissu d’excellence (Inria, IMT Atlantique, Rennes School of Business), elle bénéficie d’un environnement propice à l’expérimentation technologique et à la diffusion académique.
De nombreuses entreprises locales, dans les domaines des transports, de la santé numérique ou de l’administration publique, deviennent ses partenaires pilotes. Objectif : intégrer dès aujourd’hui cette couche vitale de protection pour éviter les scandales, les défaillances juridiques et les vulnérabilités techniques.
Intégration accrue avec les politiques publiques nationales et européennes
Le travail mené à Rennes entre également en résonance avec les dernières initiatives européennes sur l’AI Act, qui impose une classification stricte des IA selon leur niveau de risque. L’approche développée localement pourrait ainsi servir de modèle adaptatif pour répondre aux exigences de conformité, en apportant des outils concrets pour :
- certifier les modèles IA à haut risque ;
- documenter les usages de données et les validations ;
- implémenter des protocoles de signalement ou de refus utilisateur intégrés aux modèles ;
- concevoir des « boîtes noires interprétables » pour expliciter une décision algorithmique.
En anticipant la normalisation à venir, cette spécialiste positionne Rennes comme l’avant-poste hexagonal de la gouvernance IA sécurisée.
Vers une démocratisation des solutions de cybersécurité pour l’IA
Réduction de la fracture entre experts IA et utilisateurs finaux
L’une des forces de l’approche défendue par cette entrepreneure est sa volonté de rendre les outils de sécurisation IA accessibles à des non-spécialistes. Grâce à une interface simplifiée, directement intégrable dans les flux de travail de PME ou d’entités publiques, l’objectif est de désacraliser les notions encore floues de modèle, dataset, ou dérive algorithmique. Là où certains grands groupes misent sur des outils propriétaires lourds à implémenter, la solution rennaise joue la carte de l’interopérabilité et de l’agilité.
Cette stratégie permet d’envisager une meilleure adoption des bonnes pratiques de cybersécurité IA dans des secteurs aussi diversifiés que :
- le e-commerce (protection des moteurs de recommandation) ;
- la santé connectée (préservation des données personnelles sensibles) ;
- le transport intelligent (sécurisation des modèles prédictifs de trafic) ;
- l’éducation numérique (détection des biais dans les systèmes de notation automatisée).
Vers une certification française ou européenne des IA sécurisées
Dans le prolongement de cette vision ouverte et inclusive, les réflexions s’intensifient autour de la création d’un label ou d’un label étatique pour les IA développées et vérifiées en France. L’initiative pourrait s’articuler autour de plusieurs axes :
- Conformité RGPD et AI Act ;
- Auditabilité indépendante des processus d’entraînement ;
- Test de robustesse contre les menaces adversariales ;
- Standardisation éthique portant sur la non-discrimination, les biais et la transparence des décisions IA.
La démarche portée par cette Rennaise pourrait servir de socle expérimental pour élaborer une telle certification, sous égide nationale ou européenne. Dans un contexte de tensions internationales sur les questions de souveraineté technologique, l’enjeu est stratégique pour la place de la France dans le futur marché mondial du numérique éthique.
Conclusion : Rennes dans le peloton de tête de l’intelligence artificielle responsable
En s’emparant d’un enjeu technologique névralgique avec rigueur et clairvoyance, cette spécialiste rennaise prouve que le leadership en innovation ne dépend pas uniquement de la taille des structures, mais de leur vision. Sa volonté de sécuriser l’intelligence artificielle, de la rendre plus transparente, plus robuste et plus équitable, fait écho aux grandes préoccupations des décideurs tech à l’échelle mondiale. Depuis la Bretagne, l’initiative portée contribue à dessiner les contours d’une IA européenne responsable, respectueuse de nos valeurs démocratiques, auditable dans ses décisions, et sécurisée dans ses usages. Une trajectoire prometteuse à suivre… de très près.









