Multiverse Computing affine sa stratégie en France, misant sur des LLM compressés pour transformer l’IA d’entreprise, loin des simples preuves de concept et des démonstrations spectaculaires encore réservées aux laboratoires technologiques internationaux.
Les grands groupes français cherchent désormais à ancrer leurs POC dans des services d’IA robustes, intégrés à leurs systèmes métiers, avec des exigences fortes en performance, sécurité opérationnelle et impact environnemental. Dans cette optique, la compression de modèles d’IA prépare un déploiement à grande échelle, réduit fortement les coûts d’inférence et soutient une véritable souveraineté des données pour des secteurs régulés, en quête de fiabilité au quotidien.
Des modèles compressés pour passer du test à l’industrialisation
Multiverse Computing fait de la compression de modèles le pivot de sa stratégie 2026 en France. Les équipes transforment les prototypes de LLM en solutions prêtes pour la production, exécutables sur des infrastructures clients sans surdimensionner le matériel.
Cette évolution s’appuie sur une chaîne logicielle maison qui orchestre le quantization, le pruning et la distillation. Grâce à ce socle, les clients combinent inférence sur site, déploiement full-stack optimisé, baisse de la consommation énergétique et meilleure portabilité des LLM entre cloud public, cloud privé et edge.
- Industrialisation rapide de POC LLM vers des plateformes de production.
- Adaptation aux contraintes de souveraineté des données en Europe.
- Support des équipes métiers via des modèles spécialisés par secteur.
Hypernova 60b, blackstar 12b : quand la vitesse et les coûts pèsent dans le choix des LLM
Avec Hypernova 60B et Blackstar 12B, Multiverse Computing met sur le marché une génération de LLM compressés pensée pour les clients européens. Ces modèles, entraînés sur des corpus multilingues, visent les cas d’usage francophones les plus exigeants en 2026.
Les équipes d’ingénierie affinent l’architecture pour réduire la latence et stabiliser les réponses, y compris sur des charges simultanées. Par rapport à des modèles non compressés, les clients observent une nette accélération des temps de réponse et une réduction des coûts cloud. Cette optimisation s’effectue sans sacrifier la qualité, la performance à précision comparable restant un argument clé face aux GPT généralistes ou aux modèles propriétaires internes.
En France, des secteurs visés où la conformité compte autant que la performance
En 2026, Multiverse Computing concentre ses efforts en France sur la banque, l’assurance, l’énergie, la santé, la défense et les services publics. Les décideurs réclament des solutions déployées sur site, capables de fonctionner derrière le pare‑feu de l’entreprise et de dialoguer avec leurs systèmes existants.
Ces organisations placent la confiance, la traçabilité et l’audit des modèles au cœur de leurs projets d’IA. Pour répondre aux exigences réglementaires françaises, Multiverse Computing propose une IA pour secteurs critiques capable de fonctionner sans connexion internet, en traitant les données sensibles en entreprise sur leurs propres infrastructures et en garantissant un traitement souverain des données de bout en bout.
La compression des LLM nous permet d’apporter des cas d’usage concrets aux équipes françaises, sans compromis sur la confidentialité ou la conformité.
Direction Multiverse Computing
Une croissance portée par les revenus récurrents et un catalogue de modèles qui s’élargit
Le développement de Multiverse Computing en France s’appuie sur des contrats pluriannuels signés avec de grands comptes industriels, financiers et publics. Les projets pilotes basculent vers des déploiements étendus, facturés sous forme d’abonnements et d’accompagnement, afin d’ancrer durablement les usages de l’IA générative dans les métiers.
Les performances financières du groupe se répercutent directement sur les équipes basées à Paris et à Lyon. Après une levée de fonds 215 millions au niveau groupe, la filiale française contribue fortement à des revenus annuels récurrents en hausse, s’appuie sur un catalogue de LLM compressés couvrant plusieurs tailles de modèles, adapté aux contraintes de coûts et de latence des clients, et soutient une croissance à trois chiffres annoncée jusqu’en 2026.
Recrutements, clients grands comptes et label Systematic : les marqueurs d’un ancrage local
En 2026, Multiverse Computing consolide sa présence dans l’Hexagone en structurant une équipe dédiée autour de son bureau parisien. Parmi les recrutements en France annoncés figurent quatre postes commerciaux et techniques, destinés à soutenir plus de 100 clients et un chiffre d’affaires récurrent de 100 millions de dollars atteint en 2025.
La filiale française s’appuie sur un réseau de clients comme Crédit Agricole, Natixis BPCE, Allianz France, Renault ou Airbus, qui testent ou déploient des solutions construites sur modèles compressés. Ces premiers grands comptes industriels renforcent la crédibilité locale, tout comme le label Systematic Paris-Region « Champion 2025 », attribué par le pôle Deep Tech de la région parisienne.