Retour sur la KubeCon Europe 2025
Par Hugues Connan, Hervé Balderacchi et Florian Cartron
Waw! Quelle KubeCon incroyable !
Cette année encore, Zenika était présent à la KubeCon qui s’est déroulée cette année à Londres, du 1er au 4 avril ! 🇬🇧💂
Une première journée dédiée aux évènements partenaires co-localisés avant d’attaquer le 2 avril la KubeCon en tant que telle. Par exemple, Red Hat, via son évènement “Openshift Commons Gathering”, a mis en avant l’IA et la virtualisation, avec notamment KubeVirt, projet au statut incubating du landscape CNCF intégrable à sa plateforme OpenShift. Google en a aussi profité pour organiser le “Google Cloud Container Day” où nous avons pu fêter les 10 ans de Google Kubernetes Engine (GKE) ainsi que d’entrevoir quel serait son futur.
Cette édition Europe a été la plus importante avec plus de 12 500 personnes au compteur, une bonne manière de célébrer les 10 ans de la Cloud Native Computing Foundation (CNCF). #cTENcf
Cet événement majeur a été l’occasion d’être informé des dernières actualités de la CNCF, des retours d’expériences, des bonnes pratiques dans l’écosystème Cloud et des dernières innovations.
Retour sur les sujets qui nous ont marqués.
Keynotes
Chaque journée de la KubeCon a débuté par une série de keynotes en séance plénière. Le premier jour, Chris Aniszczyk, CTO de la CNCF, a inauguré la KubeCon. Chaque jour, 8 à 10 créneaux ont été proposés, alternant retours d’expériences et annonces de projets novateurs, avec une variété de sujets et d’intervenants. Plongeons ensemble au cœur des keynotes et découvrons les sujets qui ont particulièrement retenu notre attention.
Annonce du Golden Kubestronaut
Le programme Kubestronaut, annoncé lors de la KubeCon EU 2024 à Paris, a déjà attiré 1475 participants. Lors de la KubeCon EU 2025, le programme Golden Kubestronaut a été officiellement lancé. Il requiert l’obtention de 13 certifications : les 5 certifications Kubernetes et 8 certifications « Cloud Native » (Prometheus, ArgoCD, Cilium, Istio, OpenTelemetry, GitOps, Backstage et Kyverno). Les heureux détenteurs de ces certifications recevront un bonnet jaune et un sac à dos. Pour plus d’informations sur le parcours Kubestronaut, vous pouvez consulter notre article dédié.
gitjobs.dev
gitjobs.dev est un site sous l’égide de la CNCF qui recense des postes à pourvoir avec du temps dédié à des contributions open source. Actuellement en bêta, le site permet de savoir combien de temps est alloué à la contribution aux projets open source (upstream ou non). La plateforme a pour but de promouvoir l’open source afin que la communauté de mainteneurs puisse s’agrandir.
Headlamp
Headlamp est une interface utilisateur intuitive pour Kubernetes, pensée pour être simple à utiliser et hautement extensible. Que vous soyez développeur·euse ou administrateur·rice, elle offre une vue claire de vos clusters Kubernetes, notamment grâce à la vue sous forme de map des dépendances entre vos ressources déployées. Headlamp peut s’installer en application “desktop” ou être déployée directement dans un cluster Kubernetes, selon vos besoins. Idéal pour gagner en visibilité et en productivité !

Spotify Portal for Backstage
Cela fait maintenant 5 ans que Spotify a rendu open source Backstage, le désormais célèbre framework pour construire son propre portail développeur. Et bien, fort de ce succès avec une large adoption, Spotify lance maintenant Portal, une implémentation de Backstage en mode SaaS.
Service Mesh
De nombreux retours d’expérience ont mis en évidence l’efficacité des solutions de service mesh dans des environnements exigeants. Une tendance forte se dégage : l’adoption croissante du mode Ambient, qui se distingue par la réduction de l’usage des sidecars, apportant une plus grande légèreté, une consommation réduite des ressources du cluster, et une simplicité de déploiement accrue.
Cette recherche de simplification a été mise en lumière lors de multiples sessions de la KubeCon. Le New York Times, par exemple, a fait part de son expérience positive avec Istio Ambient, mettant en avant des gains de performance notables et une réduction de la complexité opérationnelle.
Un nouveau venu a également suscité l’intérêt : Kmesh, un projet de la CNCF encore en phase de sandbox. Basé sur eBPF, il offre une approche moderne et performante du service mesh. Toutefois, son stade expérimental le rend encore inadapté à un usage en production.
Mais le débat autour de l’architecture optimale est loin d’être tranché. Dans la session “The Great Sidecar Debate”, William Morgan, CEO de Buoyant, l’entreprise derrière Linkerd, a défendu l’approche sidecar, soulignant qu’à grande échelle, celle-ci permettait de meilleures performances que le mode Ambient, notamment en termes de latence et de gestion fine des ressources. Selon lui, chaque choix architectural reste avant tout un compromis : entre consommation de ressources, complexité opérationnelle, surface d’attaque, et résilience. Il s’agit de bien peser les avantages et les inconvénients.
Platform Engineering
Le platform engineering continue de s’imposer comme un sujet central, bien au-delà du simple effet de mode. Deux retours d’expérience partagés à la KubeCon EU l’illustrent brillamment. Decathlon a présenté un parcours particulièrement honnête et instructif, marqué par des allers-retours dans leurs choix d’implémentation, avec une grande capacité à faire des compromis pragmatiques. Précurseurs dans l’âme, ils faisaient du platform engineering avant même que le terme ne devienne un buzzword. Aujourd’hui, leur maturité atteint un niveau impressionnant : ils sont capables de déployer une nouvelle plateforme en moins de 20 minutes.
Du côté de Fidelity International, la transition de Cloud Foundry vers Kubernetes a été l’occasion de repenser entièrement leur approche, jusqu’à construire ce qu’ils appellent un « hôtel Kubernetes 5 étoiles« , illustrant une vision modulaire et industrialisée de leur infrastructure. Avec un retour encore une fois très honnête et instructif sur le niveau d’attente, à la fois de la part des développeurs et des équipes plateforme, qui est loin d’être stable tout au long de l’implémentation du projet.
Dans ce contexte d’effervescence, deux nouvelles certifications dédiées au platform engineering viennent d’être annoncées par la Linux Foundation, et la PlatformCon s’installera à Londres en juin, preuve que le sujet est en train de se structurer durablement.
K8S et IA, où en est-on?
Aujourd’hui, l’Intelligence Artificielle est partout dans notre quotidien. Depuis quelque temps déjà, nous pouvons sentir un vrai virage. Mais alors comment l’IA s’intègre à Kubernetes ? Pour que l’IA puisse fonctionner, elle s’appuie sur la GPU. Lors de la KubeCon, nous avons pu assister à 2 talks qui parlent de GPU dans Kubernetes.
Le premier talk, par Carlos Santana, Sr. Specialist Solutions Architect chez AWS, s’intitulait “Explain How Kubernetes Works With GPU Like I’m 5”. Nous nous attendions à de la vulgarisation, nous avons été servis ! Pour que la GPU fonctionne dans Kubernetes, il faut 6 éléments essentiels, répartis sur 3 niveaux du cluster:
Au niveau de la machine hôte :
- Driver : Logiciel essentiel permettant au système d’exploitation de l’hôte de communiquer avec le GPU.
- Container Toolkit : Logiciel qui permet aux conteneurs, s’exécutant sur l’hôte, d’accéder au GPU.
Au niveau de l’application :
- Librairie GPU (ex: CUDA) : Logiciel intégré directement dans le code de l’application pour exploiter la puissance de calcul du GPU.
Au niveau de Kubernetes :
- Node Feature Discovery : Service Kubernetes chargé de détecter et d’identifier les ressources matérielles (dont les GPU) présentes sur chaque nœud du cluster.
- GPU Feature Discovery : Service Kubernetes spécialisé dans l’identification et la surveillance des GPU disponibles sur les nœuds du cluster.
- Device Plugin : Service Kubernetes qui expose les GPU au planificateur (scheduler) et surveille leur état, permettant ainsi aux pods de les utiliser.
Une fois les GPU bien intégrés dans nos clusters Kubernetes, comment optimiser leur utilisation ? Le talk “GPU Sharing at CERN: Cutting the Cake Without Losing a Slice!” par Diana Gaponcic nous explique les différentes approches pour les exploiter efficacement:
- Time Sharing : Chaque tâche utilise le GPU à tour de rôle.
- Multi-Process Service (MPS) : Plusieurs processus partagent simultanément le GPU.
- Multi-Instance GPU (MIG) : Une seule GPU est divisée en plusieurs instances isolées, chacune avec ses propres ressources dédiées.
Le Time Sharing est simple, mais peut entraîner des performances limitées. Le MPS améliore l’utilisation des ressources lorsque les tâches individuelles n’utilisent pas pleinement la capacité du GPU. Le MIG permet de faire fonctionner plusieurs tâches indépendantes avec une qualité de service garantie.
Les approches traditionnelles de partage des GPU, comme le Time Sharing et le MIG, présentent des limites en termes de flexibilité, notamment en raison de la configuration statique au niveau du nœud, ce qui rend difficile la gestion individuelle des GPU. La gestion dynamique des ressources (DRA) offre une solution en permettant une allocation flexible et granulaire des GPU, sans nécessiter de partitionnement préalable ni de configuration par nœud.
LLM et Kubernetes, juste une tendance?
Lors d’une session à la KubeCon, des mainteneurs de Kubernetes ont répondu à des questions tout en dégustant des sauces piquantes. À la question « Quel est le terme à la mode qui vous agace en ce moment ? », la réponse unanime a été LLM/GenAI.
Malgré cela, les applications de LLM pour administrer des flottes de clusters se multiplient (observabilité, troubleshooting, auto-remédiation), avec de nombreuses startups sur le créneau, et ce, bien sûr, en plus de tous les use cases plus ou moins justifiés que les entreprises s’empressent de tester, histoire de ne pas rater le train de l’IA.
Un exemple notable en open source est K8SGPT : https://k8sgpt.ai/.
Quelques sujets en vrac (mais qui valent le détour)
L’Autoscaling évolue !
La KubeCon Europe 2025 aura aussi été l’occasion d’apercevoir des éléments du futur dans Kubernetes. Évidemment, l’IA est au cœur des innovations et de la tendance. Mais pour faire tourner les modèles IA, il nous faut des systèmes performants qui soient capables d’autoscaler en fonction de la charge.
C’est dans cette optique que nous avons assisté au talk “The Next Generation of DaemonSet Autoscaling” d’Adam Bernot et Bryan Boreham. Ils proposent ici d’autoscaler verticalement les DaemonSet, en modifiant dynamiquement les requests des pods associés au DaemonSet en fonction de leur consommation. Cela permet d’éviter le gâchis de ressources avec des requests trop élevées et d’éviter le bursting i.e. la consommation des pods supérieures à leurs requests. Combiné au InPlaceVerticalScaling, cela devient une feature extrêmement intéressante.
Adoption de la Gateway API
La Gateway API, une innovation relativement récente, vise à remplacer le système d’ingress largement utilisé, en particulier l’ingress Nginx. Bien que le projet ingress-nginx soit prévu d’être archivé dans les deux prochaines années, peu d’entreprises ont migré vers la Gateway API. Cette réticence s’explique par le fait que toutes les fonctionnalités configurables via des annotations dans l’ancien système ne sont pas encore disponibles dans la Gateway API.
Les “Poster Sessions”, un coup de projecteur sur des initiatives innovantes
Parmi les nombreux formats proposés à la KubeCon, il y en a un qui mérite qu’on s’y attarde : les Poster Sessions. Moins formelles que les conférences traditionnelles, mais tout aussi riches, elles offrent un moment privilégié pour explorer les projets émergents de l’écosystème cloud native… le tout autour d’un déjeuner.
Le principe est simple : des contributeurs et contributrices présentent leur travail sous forme de posters affichés dans un espace dédié. Cela peut être un outil, un framework, une étude de cas, une idée en cours de développement, ou encore une contribution à un projet open source. Le format est visuel, clair, et surtout pensé pour susciter la discussion.
Pendant un créneau souvent calé autour du repas, les visiteurs peuvent se balader, s’arrêter sur les sujets qui les intriguent, poser des questions et échanger directement avec les personnes à l’origine des projets. C’est une occasion unique d’avoir un contact direct avec les créateurs ou les mainteneurs, sans pression ni micros.
Ce qui rend ces sessions si intéressantes, c’est qu’elles donnent souvent un aperçu des tendances à venir. Voici ce qu’on a pu observer:
- Helmless, un workflow pour déployer vos applications serveless facilement sur Google Cloud Run
- Koney, un opérateur kubernetes permettant de générer des honeypots dans un cluster
Conclusion
Nous ressortons de cette édition KubeCon Europe 2025 avec des étoiles dans les yeux. Ces 4 jours ont été intenses entre les keynotes, les talks suivis et les différentes animations et discussions que nous avons pu avoir sur les stands. Cette expérience nous a offert une vision approfondie et à jour des tendances, des innovations et des meilleures pratiques dans ces domaines passionnants et en constante évolution.
Si vous souhaitez aller plus loin, vous pouvez retrouver les slides sur le site sched KubeCon Europe 2025 ou les enregistrements vidéos de toutes les conférences via la chaîne Youtube de la CNCF.

