High-tech

Cet entrepreneur veut vendre aux 35.000 communes françaises des containers faisant office de data centers

Son nom ne vous dira sans doute rien. Ancien collaborateur de Bill Gates chez Microsoft (c’est lui qui lui a soufflé l’idée de Teams !), David Gurlé n’a jamais été en manque d’idées pour faire avancer la tech. Pionnier des systèmes de voix sur IP dans les années 1990, on lui doit Symphony, la fintech spécialiste de la messagerie cryptée valorisée à plus d’un milliard de dollars. Mais aussi hivenet, la plateforme de cloud à faible empreinte environnementale, distribuée sur l’espace inutilisé des ordinateurs et des téléphones des particuliers.

Revenu de son rêve américain, il s’est installé à Cannes dont il est originaire. Dans le cadre du World IA Cannes Festival, l’entrepreneur y a officialisé ce 13 février aux côtés de Clara Chappaz (ministre déléguée chargée de l’intelligence artificielle et du numérique) et David Lisnard (maire de Cannes) son nouveau projet nommé PoliCloud.

Son idée ? Vendre aux communes françaises des containers faisant office de data centers ! Et compte tenu du profil du monsieur, tout porte à croire que cette idée n’a rien de farfelue. 20 Minutes l’a interrogé.

En quoi consiste PoliCloud que vous venez de dévoiler à Cannes ?

L’idée est de répondre aux défis actuels de besoins d’infrastructures souveraines pour le cloud et l’IA, mais d’infrastructures à l’attention des villes, de leurs habitants et de leurs entreprises, qui soient aussi éco responsables.

David Gurlé, lors de la présentation de PoliCloud, à Cannes, le 13 février 2025.
David Gurlé, lors de la présentation de PoliCloud, à Cannes, le 13 février 2025. - PoliCloud

Grâce à PoliCloud, on y parvient à l’aide de containers de six mètres sur trois qui contiennent des équipements informatiques pour faire du stockage de données. À l’intérieur, 2 pétabytes d’espace disque (soit deux millions de gigabits) et 104 GPU Nvidia. Ces containers sont acquis par les villes, moyennant un investissement de 800.000 euros. Policloud les met en réseau, créant ainsi un méga data center virtuel.

À 800.000 euros, toutes les communes ne pourront pas s’équiper, loin s’en faut…

C’est à Cannes que le premier PoliCloud vient d’être installé, une ville de 74.000 habitants. Suivra la commune de Châteauneuf (3.000 habitants) qui dispose de ressources photovoltaïques, ce qui réduira le coût d’exploitation de sa structure. Outre l’achat ferme, nous avons développé un système le leasing. Une coopérative de communes est également un modèle qui mérite d’être exploré.

D’après notre modèle économique, le retour sur investissement s’opère en trois ans et demi. Dès lors, on est en revenu positif. Policloud commercialisera les services en tant que sous-traitant, avec une commission de 10 %. Les communes n’ont pas cette expertise-là, mais savent gérer des infrastructures, leur sécurisation. Notre modèle économique est basé sur une utilisation à 60 % du serveur. C’est une moyenne.

Mais pourquoi géolocaliser des petits serveurs, plutôt que de créer un méga data center français, comme d’habitude ?

Pour répondre à plusieurs défis. D’abord, la surface requise pour créer des data centers importants est très conséquente. Avec PoliCloud, 25 m2 seulement sont nécessaires. S’y associe ensuite une consommation électrique minorée, soit un avantage écologique évident. Vu la quantité relativement faible en besoins électriques, nos PoliCloud peuvent aussi être facilement connectés à des ressources renouvelables, que ce soit du solaire ou de l’éolien.

Par ailleurs, la ville, c’est là où les hommes et les femmes travaillent, cultivent des centres d’innovation, des incubateurs… On est dans une situation où, au XXIe siècle, l’infrastructure informatique doit faire partie de l’offre de services, au même titre que le traitement de l’eau, la collecte des ordures.

Le premier PoliCloud, installé à Cannes.
Le premier PoliCloud, installé à Cannes. - PoliCloud

Vous évoquiez l’aspect écologique de ces serveurs, n’est-ce pas antinomique ?

Outre la possibilité d’alimenter les PoliCloud grâce à l’énergie renouvelable, nos serveurs ont besoin d’un simple refroidissement par air et non par eau. Des villes avec lesquelles nous discutons se demandent déjà si elles ne vont pas placer leur futur container à côté d’une piscine municipale et récupérer la chaleur du data center pour chauffer l’eau de leurs bassins. On discute aussi avec les agriculteurs pour leurs serres, avec des éleveurs de volailles qui ont un important besoin de chaleur… L’opportunité de positionner un container de 25 m2 sur de tels sites devient une réelle opportunité.

Qu’en est-il de la souveraineté que vous vantez ?

Vu que ces containers appartiennent aux villes, on se retrouve face à une souveraineté absolue ! Aucune loi extraterritoriale ne peut s’exercer. Les données sont encryptées de bout à bout, la gestion des clés d’encryptage est détenue par la commune qui peut ainsi sécuriser les données en transit. Le principe que nous défendons va aussi permettre de répartir des serveurs sur tout le territoire, avec une résilience qui vient du concept même du système, sans point de vulnérabilité unique.

Quels types de services les communes équipées de PoliCloud vont-elles pouvoir proposer ?

Pour les besoins propres des communes, on pense aux données de l’administration qu’il faut traiter, stocker, archiver et protéger. Il y a aussi celles des services de sécurité, des caméras de surveillance. Pour les habitants et les entreprises locales, il est question de stockage, d’archivage, de back-up. Ensuite, les serveurs vont permettre aux communes de faire tourner des machines virtuelles avec assez de mémoire vive, des sites Web, des bases de données.

Un container PoliCloud peut stocker jusqu'à 2 pétabytes de données (soit deux millions de gigabites) et 104 GPU Nvidia
Un container PoliCloud peut stocker jusqu’à 2 pétabytes de données (soit deux millions de gigabites) et 104 GPU Nvidia - PoliCloud

Et avec ces 104 GPU (soit 13 serveurs avec 8 GPU dans chaque container), les ressources d’un PoliCloud peuvent être louées à la minute, à l’heure, à la journée pour entraîner des modèles IA.

Notre dossier «Intelligence artificielle»

Quels tarifs pour les particuliers ?

Pour le stockage de données, les tarifs pratiqués pour 2 To de mémoire sont généralement de 12 euros/mois. On sera à moitié prix. Pour les GPU, ce sera 1,50 euro à l’heure, au lieu de 3 euros chez Google ou Amazon. Nous n’avons pas les mêmes contraintes d’infrastructure, avec un coût de construction moindre et des coûts fixes quasi inexistants.

Combien de communes espérez-vous équiper ?

Il existe 35.000 communes en France. Nous en avons déjà signé cinq ! Je suis certain qu’une fois les premières installations faites, on dépassera les cent communes équipées. Mon rêve serait d’arriver à 10 %, soit 3.600. Je pense que c’est réalisable.