Trente ans après le Minitel, une norme juridique vieillissante encadre les usages numériques français, alors que les modèles d’IA avalent déjà des masses de données publiques mondiales.
Pensée en 1996 pour protéger les annuaires et les catalogues, la loi sur les bases de données se heurte désormais aux capacités d’apprentissage des algorithmes modernes. Ce cadre, fondé sur le droit sui generis, freine l’économie numérique française et fragilise la souveraineté technologique tout en entretenant un blocage de l’innovation.
Un droit de 1996 face à l’économie numérique actuelle
En 1996, l’Union européenne adoptait un droit sui generis pour protéger les bases de données, alors que le Minitel et le fax structuraient encore les échanges et que le web grand public en était à ses débuts. Ce texte était conçu pour défendre l’investissement des éditeurs de répertoires.
Trente ans plus tard, ce même socle juridique encadre toujours les services numériques de 2025. Pour Marc Lebel, fondateur de Jinka, il s’agit d’un cadre juridique obsolète : la vieille directive sur les bases de données se frotte désormais aux usages numériques actuels, faits d’IA, de moteurs d’agrégation et de plateformes qui réutilisent les informations plutôt que de les figer.
Pourquoi nos IA ne peuvent-elles pas apprendre sur des données publiques ?
Les IA développées par des acteurs français comme Jinka apprennent en analysant de gigantesques volumes de textes, d’images et de sons. Leur rôle consiste par exemple à détecter les fraudes dans les annonces immobilières ou à rapprocher automatiquement un logement proposé en ligne des attentes d’un foyer.
Pour que ces systèmes progressent, il faudrait que les contenus mis en ligne soient lisibles par les robots. Sans un véritable accès aux données publiques, le moindre dispositif d’opt-out TDM empêche l’entraînement des modèles et leur indexation automatisée de ces informations pourtant déjà visibles pour n’importe quel internaute humain.
Deux poids, deux mesures : les GAFAM avancent, les acteurs locaux piétinent
Publiée le 17 décembre 2025 à Paris, la tribune de Marc Lebel décrit comment les GAFAM entraînent leurs modèles d’IA sur des bases de données chez eux, puis les déploient en France avec des services raffinés, déjà rentabilisés par marchés domestiques.
Jinka, qui revendique 4 millions d’utilisateurs depuis 2020, reste soumise au droit sui generis de 1996, qui encadre strictement l’extraction de données pourtant accessibles au public sur les plateformes d’annonces immobilières françaises. Ce carcan produit une véritable asymétrie réglementaire et offre un net avantage compétitif étranger aux géants du numérique capables d’entraîner leurs IA à l’abri de ces restrictions, puis de revenir conquérir le marché national français.
Ce que propose Marc Lebel et Jinka pour protéger le consommateur
Marc Lebel, président de Jinka fondée en 2020, expose dans sa tribune parue le 17 décembre 2025 une vision concrète de la régulation des données. Il défend la création d’une exception de comparaison permettant à des services tiers d’agréger les annonces de plus de 5000 sites sans déplacer la transaction finale.
Pour redonner de l’air aux acteurs français, Marc Lebel cible directement les grandes plateformes d’annonces qui verrouillent leurs flux tout en profitant de l’exposition offerte par les moteurs globaux. Il demande la fin de la discrimination d’accès, la mise en place d’un open data d’intérêt général sur les prix et la disponibilité des logements, locatifs présenté comme une réelle protection du consommateur face aux abus et aux arnaques.