Veille Technologique

La Conteneurisation : Docker & Kubernetes

Comment la conteneurisation transforme-t-elle le déploiement d'applications et s'impose-t-elle comme standard dans les environnements DevOps et cloud modernes ?

Avril 2026 Ewan BESSUARD DevOps, Cloud, Infrastructure 17 sources

Problématique

En quoi la conteneurisation avec Docker et Kubernetes constitue-t-elle un levier stratégique pour la modernisation des infrastructures informatiques, et comment ces technologies s'imposent-elles comme standards incontournables dans les pratiques DevOps et cloud d'aujourd'hui ?

Cette problématique m'a été inspirée par ma formation en BTS SIO option SISR, qui aborde l'administration des systèmes, la virtualisation et la sécurité des infrastructures. En alternance, j'ai pu observer que les environnements professionnels font face à un défi commun : déployer des applications de façon reproductible, rapide et sécurisée, quelle que soit l'infrastructure sous-jacente.

La conteneurisation répond directement à cette problématique. Comprendre son fonctionnement, ses outils phares (Docker, Kubernetes) et ses enjeux (sécurité, performance, adoption en entreprise) est donc essentiel pour tout professionnel de l'informatique.

Qu'est-ce que la veille technologique ?

La veille technologique consiste à surveiller et analyser régulièrement les évolutions d'un domaine technologique donné : nouvelles versions d'outils, publications de recherche, bonnes pratiques émergentes, tendances du marché. Elle permet de rester à jour, d'anticiper les changements et d'adapter ses compétences en conséquence.

Ce n'est pas simplement "lire des actualités" : c'est une démarche structurée qui distingue deux types de collecte d'information — la veille passive (abonnement à des flux qui livrent l'information) et la veille active (recherche proactive dans des sources de référence).

Veille passive

Abonnement à des flux RSS, newsletters et agrégateurs d'actualités. L'information vient à soi sans nécessiter de recherche active.

Veille active

Consultation directe de documentations officielles, visionnage de tutoriels YouTube, lecture de releases notes sur GitHub.

Rester compétitif

Suivre l'évolution des outils et pratiques pour ne pas être dépassé par les nouvelles technologies du secteur.

Évoluer professionnellement

Anticiper les compétences recherchées par les employeurs et identifier les technologies à maîtriser pour progresser.

Ma démarche de veille

En tant qu'étudiant en BTS SIO option SISR, je m'intéresse particulièrement aux technologies d'infrastructure, de virtualisation et de déploiement d'applications. La conteneurisation est au cœur des compétences attendues dans mon domaine : elle est présente dans les cours de systèmes, dans les offres d'emploi, et de plus en plus dans les environnements professionnels.

J'ai structuré ma veille en deux approches complémentaires, que j'alimente depuis le début de ma deuxième année de BTS :

Cette veille me permet de faire le lien entre ce que j'apprends en cours (administration Linux, virtualisation, réseaux) et ce qui se pratique réellement en entreprise, notamment lors de mon alternance à la Direction Générale des Douanes et Droits Indirects.

Veille passive — mes flux RSS et sources d'abonnement

La veille passive repose sur des flux RSS et des abonnements à des newsletters ou agrégateurs. Je n'ai pas besoin de chercher l'information : elle arrive dans mon lecteur (Feedly). Voici les sources auxquelles je suis abonné :

Veille active — mes ressources de référence

La veille active implique d'aller chercher l'information soi-même dans des sources de référence. Je consulte régulièrement :

La conteneurisation : concepts fondamentaux

La conteneurisation est une méthode d'isolation et de déploiement qui consiste à emballer une application avec tout son environnement d'exécution : code, bibliothèques, dépendances, fichiers de configuration. Cet ensemble forme un conteneur, une unité autonome et portable.

Contrairement à une machine virtuelle qui embarque un système d'exploitation complet, un conteneur partage le noyau (kernel) du système hôte. Il est donc beaucoup plus léger, démarre en quelques secondes et consomme peu de ressources.

Analogie : un conteneur, c'est comme une boîte de transport normalisée (comme celles qu'on voit sur les bateaux). Peu importe le port de destination (développement, test, production, cloud), la boîte s'ouvre et fonctionne identiquement à chaque fois.

Conteneurs vs Machines Virtuelles

Machine Virtuelle (VM)

Approche traditionnelle
  • Embarque un OS complet (plusieurs Go)
  • Démarrage en plusieurs minutes
  • Consomme beaucoup de ressources
  • Difficile à versionner et reproduire
  • Isolation forte (hyperviseur)

Conteneur

Approche moderne
  • Partage le noyau OS de l'hôte (quelques Mo)
  • Démarrage en quelques secondes
  • Très léger en ressources
  • Versionnable via Dockerfile (comme du code)
  • Isolation des processus applicatifs

Sources passives — 9 articles commentés

Ces articles ont été collectés via mes abonnements RSS sur Feedly. Ils arrivent dans mon flux d'actualité sans que j'aie besoin de les chercher activement.

1

Docker Init : générer des Dockerfiles en quelques secondes

Docker a introduit la commande docker init pour permettre aux développeurs de générer automatiquement un Dockerfile, un fichier .dockerignore et une configuration Docker Compose adaptés à leur projet (Node.js, Python, Go, Java…). En analysant la structure du projet, Docker produit une base prête à l'emploi que l'on peut ensuite affiner. Cet article présente le fonctionnement de la commande, les langages supportés et les bonnes pratiques intégrées d'emblée (images légères, utilisateur non-root, multi-stage builds).

Réduit considérablement le temps de mise en conteneur d'un nouveau projet et encourage les bonnes pratiques dès le départ.
2

Kubernetes v1.32 "Penelope" — Notes de version

Chaque nouvelle version de Kubernetes est documentée en détail par son équipe de développeurs. La version 1.32 (nommée "Penelope") introduit des améliorations notables sur la gestion des volumes persistants, des améliorations de performances du scheduler, et des fonctionnalités de sécurité renforcées pour les Pods. L'article liste les fonctionnalités passées en "stable" (utilisables en production), celles en "beta" (à tester) et les dépréciations à anticiper.

Indispensable pour anticiper les migrations et éviter d'utiliser des API dépréciées dans ses déploiements.
3

Docker à 10 ans : comment le conteneur est devenu la nouvelle VM

En 2023, Docker fêtait ses 10 ans. Cet article rétrospectif analyse comment une simple démo de Solomon Hykes lors de PyCon 2013 a déclenché une révolution dans l'industrie. Il explique l'évolution de Docker depuis un projet interne de dotCloud jusqu'à l'adoption massive par les GAFAM, la création du format OCI (Open Container Initiative), et les défis commerciaux rencontrés par l'entreprise (vente des activités Enterprise, changement de modèle tarifaire). Un article essentiel pour comprendre la trajectoire de cet écosystème.

Donne un recul historique précieux sur l'émergence d'un outil devenu incontournable en moins d'une décennie.
4

CNCF Annual Survey 2024 — État de l'adoption cloud-native

Chaque année, la Cloud Native Computing Foundation publie un rapport d'enquête mondial sur l'adoption des technologies cloud-native. L'édition 2024 révèle que 96 % des organisations interrogées utilisent ou évaluent Kubernetes, que l'adoption en production continue de progresser, et que la sécurité des conteneurs est désormais la priorité n°1 des équipes. Le rapport présente aussi les tendances émergentes : intégration de l'IA dans les pipelines CI/CD, montée en puissance de l'edge computing avec des conteneurs, et adoption croissante de WebAssembly.

Chiffres de référence pour mesurer l'ampleur de l'adoption mondiale et identifier les tendances à surveiller.
5

Podman vs Docker : quelle alternative pour les conteneurs sans démon ?

Red Hat a développé Podman, une alternative à Docker qui ne nécessite pas de démon (daemon) fonctionnant en root. Chaque conteneur Podman est un processus enfant de l'utilisateur qui l'a lancé, ce qui améliore significativement la sécurité. Cet article compare les deux outils sur les commandes (presque identiques), la gestion des images, la compatibilité avec les Dockerfiles existants et l'intégration dans les pipelines CI/CD. Il explique aussi pourquoi Podman est maintenant le défaut sur RHEL et Fedora.

Essentiel pour comprendre que Docker n'est pas le seul outil de conteneurisation et que la sécurité (rootless) est un critère de choix.
6

Sécurité des conteneurs : les fondamentaux à ne pas négliger

Cet article d'InfoQ dresse un panorama des risques de sécurité spécifiques aux conteneurs : images avec des vulnérabilités connues, mauvaise configuration des droits (conteneur lancé en root), secrets exposés dans les images, attaques de type "container escape" permettant d'accéder à l'hôte, et risques liés aux images publiques non vérifiées sur Docker Hub. L'auteur présente les contre-mesures : scan d'images (Docker Scout, Trivy), principe du moindre privilège, signatures d'images (Cosign), et politiques réseau.

La sécurité est un angle souvent négligé lors de la prise en main de Docker. Cet article comble ce manque avec des exemples concrets.
7

Docker Desktop : évolution tarifaire et impact sur les développeurs

En 2021, Docker a rendu son outil Docker Desktop payant pour les entreprises de plus de 250 employés ou réalisant plus d'1 M$ de chiffre d'affaires. Cet article de ZDNet France analyse l'impact de cette décision : fuite vers des alternatives comme Podman Desktop, Rancher Desktop ou Lima, mais aussi accélération de l'adoption de Docker dans les environnements CI/CD (sans interface graphique, donc gratuit). L'article illustre comment un changement de modèle économique peut remodeler l'écosystème.

Montre que le choix d'un outil en entreprise dépend aussi de facteurs économiques et de licences, pas seulement techniques.
8

Conteneurs Docker et Kubernetes : comprendre et adopter ces technologies

Dossier grand public du Journal du Net sur la conteneurisation à l'intention des directions techniques et des décideurs. Il explique simplement ce qu'est un conteneur, pourquoi les entreprises l'adoptent (réduction du "ça marche sur ma machine", accélération des déploiements, optimisation des coûts infrastructure) et pose la question Docker vs Kubernetes. Une bonne introduction accessible sans prérequis technique avancé, qui positionne la conteneurisation dans le contexte des transformations numériques en entreprise.

Utile pour comprendre le discours "business" autour des conteneurs et comment les présenter à des interlocuteurs non-techniques.
9

Docker Scout : analyser la sécurité de sa chaîne d'approvisionnement logicielle

Docker Scout est un outil intégré à Docker Desktop et à la CLI qui analyse les images Docker à la recherche de vulnérabilités connues (CVE). Il inspecte toutes les couches de l'image, identifie les paquets vulnérables et propose des recommandations concrètes (mise à jour vers une version corrigée, changement d'image de base). L'article présente le fonctionnement de Scout, son intégration dans les pipelines CI/CD via GitHub Actions et GitLab CI, et les indicateurs de conformité pour les équipes SecOps.

La sécurité "by design" dans le cycle de vie des images : indispensable dans tout environnement professionnel sérieux.

Sources actives — 8 ressources commentées

Ces ressources sont consultées de façon proactive : je les cherche moi-même pour approfondir un sujet, valider une information ou apprendre une compétence pratique.

10

Bonnes pratiques d'écriture d'un Dockerfile (documentation officielle)

La documentation officielle Docker fournit une référence exhaustive sur comment écrire un Dockerfile efficace et sécurisé. Cette page détaille les bonnes pratiques : utiliser des images de base officielles et légères (Alpine, distroless), minimiser le nombre de couches (RUN), ne pas stocker de secrets dans l'image, utiliser .dockerignore, profiter des multi-stage builds pour réduire la taille finale de l'image. C'est la source primaire que je consulte chaque fois que j'écris ou optimise un Dockerfile.

Source de référence incontournable, maintenue par Docker lui-même, toujours à jour avec les dernières recommandations.
11

Kubernetes — Vue d'ensemble des concepts (documentation officielle)

La documentation officielle Kubernetes est structurée en plusieurs niveaux : concepts, tutoriels, tâches, et références API. La section "Concepts" explique les objets fondamentaux de Kubernetes : Pod (unité de base), Deployment (gestion du cycle de vie des Pods), Service (exposition réseau), ConfigMap / Secret (configuration), Ingress (routage HTTP). Je consulte cette section régulièrement pour comprendre le rôle précis de chaque ressource avant de les utiliser en TP ou en stage.

Indispensable pour ne pas confondre les objets Kubernetes et comprendre leurs relations (un Service expose des Pods, pas des conteneurs).
12

Docker Tutorial for Beginners — Cours complet Docker et Kubernetes

TechWorld with Nana est la chaîne YouTube de référence pour apprendre Docker et Kubernetes en anglais. Nana Janashia y propose des tutoriels structurés progressivement : de l'installation de Docker jusqu'à la création de clusters Kubernetes complets, en passant par Docker Compose, les registres d'images et l'intégration CI/CD. Les explications sont visuelles (schémas en temps réel), le débit est lent et clair. J'ai suivi son cours "Docker Tutorial for Beginners" de 3h, qui m'a donné une compréhension solide des bases.

Format vidéo idéal pour comprendre des concepts abstraits (réseaux Docker, overlay networks) avec des démonstrations en direct.
13

Docker de A à Z — Série complète en français

Xavki est un DevOps senior français qui partage son expertise sur YouTube. Sa série Docker propose plusieurs dizaines d'épisodes courts (15-20 min) couvrant la prise en main, les réseaux Docker, les volumes, Docker Compose, les registres privés, et des cas d'usage réels. Ce qui distingue Xavki, c'est la profondeur technique : il explique ce qui se passe sous le capot (namespaces Linux, cgroups, le système de fichiers overlay) plutôt que de rester en surface. C'est la ressource française que je recommande en priorité pour un étudiant SISR.

Parfait pour comprendre Docker en français avec un niveau de profondeur technique adapté à une formation SISR (liens avec Linux, réseaux).
14

Apprendre Docker — Tutoriels Grafikart en français

Grafikart propose une série de tutoriels Docker en français orientée développement web : conteneurisation d'une application PHP/MySQL avec Docker Compose, gestion des volumes pour la persistance des données, configuration d'un serveur Nginx dans un conteneur, et déploiement sur un VPS. Les tutoriels sont concrets et partent toujours d'un cas d'usage réel. Idéal pour comprendre comment Docker s'intègre dans un projet web complet, de la phase de développement au déploiement.

Cas d'usage complets et concrets, très utiles pour reproduire un environnement similaire lors de projets scolaires ou personnels.
15

ANSSI — Recommandations de sécurité relatives aux déploiements Docker

L'Agence Nationale de la Sécurité des Systèmes d'Information (ANSSI) a publié un guide officiel sur la sécurisation des déploiements Docker. Il couvre : la sécurisation du démon Docker (protection de la socket Unix), la gestion des droits et la limitation des capacités (Linux capabilities), la sécurisation des images (scan, signature, registre de confiance), la configuration réseau sécurisée et la surveillance des conteneurs. C'est le document de référence français pour tout administrateur souhaitant déployer Docker dans un contexte professionnel ou sensible.

Source officielle française, particulièrement pertinente dans le contexte d'une administration publique comme les Douanes.
16

Borg, Omega, and Kubernetes — Leçons apprises chez Google

Cet article de recherche publié par des ingénieurs de Google (dont Brendan Burns, co-créateur de Kubernetes) retrace l'histoire des systèmes d'orchestration internes de Google : Borg (2000), Omega (2010) et enfin Kubernetes (open-sourcé en 2014). Il explique les leçons tirées de chaque génération, notamment pourquoi Google a décidé d'open-sourcer Kubernetes plutôt que de continuer en interne. C'est un article fondamental pour comprendre les décisions architecturales qui ont façonné Kubernetes et pourquoi il est conçu comme il l'est.

Comprendre les origines de Kubernetes aide à comprendre ses choix de conception (déclarativité, auto-réparation, séparation concerns).
17

CI/CD avec Docker et GitHub Actions — Automatiser le build et le déploiement

GitHub Actions permet d'automatiser la construction d'images Docker, leur analyse de sécurité et leur déploiement à chaque push ou pull request. Cet article et les workflows officiels associés montrent comment écrire un pipeline complet : build de l'image avec docker/build-push-action, authentification à Docker Hub ou GitHub Container Registry, scan de vulnérabilités avec Trivy, et déploiement automatique sur un cluster Kubernetes. Cette intégration est au cœur des pratiques DevOps modernes.

La CI/CD avec Docker est une compétence très recherchée en entreprise ; comprendre ces pipelines est un vrai avantage sur le marché du travail.

Frise chronologique

La conteneurisation n'est pas née avec Docker. Elle est le fruit d'une évolution progressive des mécanismes d'isolation du noyau Linux, qui s'étale sur plus de 40 ans.

1979

chroot — Unix V7

Introduction de chroot sur Unix : première forme d'isolation permettant de changer la racine du système de fichiers pour un processus. Ancêtre conceptuel de la conteneurisation.

2000

FreeBSD Jails

FreeBSD introduit les "jails" : isolation réseau et système de fichiers pour chaque processus. Première isolation complète comparable aux conteneurs modernes.

2006

cgroups — Google / Linux

Google contribue au noyau Linux les control groups (cgroups) : permettent de limiter et monitorer les ressources (CPU, RAM, réseau) d'un groupe de processus. Brique fondamentale des conteneurs.

2008

LXC — Linux Containers

LXC combine namespaces Linux et cgroups pour créer des conteneurs légers sur Linux. C'est la technologie sur laquelle Docker sera initialement construit.

2013

Docker 1.0 — La révolution

Solomon Hykes présente Docker lors de PyCon 2013. La plateforme démocratise la conteneurisation en simplifiant radicalement la création, distribution et exécution de conteneurs. Docker Hub est lancé pour partager les images.

2014

Kubernetes — Open Source par Google

Google open-source Kubernetes, basé sur son système interne Borg. Le projet résout le problème de l'orchestration à grande échelle : comment gérer des centaines de conteneurs en production ?

2015

CNCF + OCI fondés

Création de la Cloud Native Computing Foundation (Linux Foundation) pour gouverner Kubernetes et l'écosystème cloud-native. L'Open Container Initiative (OCI) standardise le format des images et des runtimes de conteneurs.

2016

Docker Swarm mode

Docker intègre son propre orchestrateur natif "Swarm mode" pour concurrencer Kubernetes. Il sera finalement dépassé par K8s qui s'impose comme standard de l'industrie.

2017

Kubernetes adopté par AWS, Azure, GCP

Les trois grands fournisseurs cloud lancent leurs services Kubernetes managés : EKS (Amazon), AKS (Microsoft) et GKE (Google). Kubernetes devient le standard incontesté de l'orchestration de conteneurs.

2019

Podman — Red Hat

Red Hat publie Podman, une alternative à Docker sans démon (daemonless) et sans root (rootless). Il devient le runtime par défaut sur RHEL et Fedora, introduisant une approche plus sécurisée des conteneurs.

2021

Docker Desktop devient payant en entreprise

Docker annonce la fin de la gratuité de Docker Desktop pour les grandes entreprises (>250 employés). Cette décision accélère l'adoption d'alternatives (Rancher Desktop, Podman Desktop) et relance le débat sur les dépendances à des outils commerciaux.

2022

Kubernetes 1.24 — Suppression de Dockershim

Kubernetes supprime la couche de compatibilité "Dockershim" qui permettait d'utiliser Docker Engine comme runtime. Les clusters K8s utilisent désormais directement des runtimes OCI (containerd, CRI-O).

2023

Docker Scout + Docker Init

Docker lance Docker Scout (analyse de sécurité des images intégrée à la CLI) et Docker Init (génération automatique de Dockerfiles). L'écosystème continue de mûrir vers plus de sécurité et de productivité.

2024–2026

IA + conteneurs, edge computing, WebAssembly

L'intégration de l'IA dans les pipelines CI/CD conteneurisés, le déploiement de conteneurs à la périphérie du réseau (edge) et l'émergence de WebAssembly comme complément aux conteneurs ouvrent de nouvelles perspectives pour cet écosystème.

Lexique

Définitions des termes clés de l'écosystème de la conteneurisation.

Image Docker

Modèle en lecture seule qui décrit l'environnement d'un conteneur (OS, dépendances, code). Construite à partir d'un Dockerfile. On crée des conteneurs à partir d'une image.

Conteneur

Instance en cours d'exécution d'une image Docker. Processus isolé du système hôte via les namespaces Linux et limité en ressources via les cgroups.

Dockerfile

Fichier texte contenant les instructions pour construire une image Docker. Chaque instruction (FROM, RUN, COPY, CMD…) crée une couche dans l'image finale.

Docker Hub

Registre public de Docker permettant de partager et télécharger des images. Equivalent d'un "GitHub pour les images Docker". Il existe aussi des registres privés (GitLab Registry, Harbor).

Docker Compose

Outil permettant de définir et lancer plusieurs conteneurs interconnectés via un fichier YAML (docker-compose.yml). Utilisé pour les environnements de développement multi-services.

Volume

Mécanisme de persistance des données Docker. Contrairement aux données dans le conteneur (supprimées à l'arrêt), les volumes survivent au cycle de vie du conteneur.

Pod

Plus petite unité déployable dans Kubernetes. Un Pod regroupe un ou plusieurs conteneurs partageant le même réseau et stockage. Kubernetes orchestre des Pods, pas directement des conteneurs.

Deployment

Objet Kubernetes déclaratif qui gère le déploiement et la mise à jour de Pods. Il garantit qu'un nombre défini de réplicas est toujours en cours d'exécution.

Service

Abstraction réseau Kubernetes qui expose un ensemble de Pods sur une adresse IP stable. Assure la découverte de services et la répartition de charge entre les Pods.

Ingress

Ressource Kubernetes qui gère les règles de routage HTTP/HTTPS depuis l'extérieur du cluster vers les Services internes. Fait office de reverse proxy configurable.

Namespace

Mécanisme Kubernetes d'isolement logique des ressources au sein d'un même cluster. Permet de segmenter les environnements (dev, staging, prod) sur la même infrastructure.

Helm

Gestionnaire de paquets pour Kubernetes. Un "chart" Helm est un ensemble de templates YAML paramétrables permettant de déployer des applications complexes en une commande.

OCI

Open Container Initiative — Standard ouvert définissant le format des images de conteneurs et leur runtime. Garantit l'interopérabilité entre Docker, Podman, containerd et d'autres outils.

cgroups

Control Groups — Fonctionnalité du noyau Linux permettant de limiter et surveiller l'utilisation des ressources (CPU, mémoire, réseau) d'un groupe de processus. Brique fondamentale des conteneurs.

Namespace Linux

Mécanisme du noyau Linux qui isole les ressources système (PID, réseau, système de fichiers, utilisateurs) entre les processus. Permet à chaque conteneur d'avoir sa propre vue du système.

DevOps

Culture et ensemble de pratiques visant à rapprocher les équipes de développement (Dev) et d'exploitation (Ops) pour accélérer et fiabiliser les livraisons logicielles. La conteneurisation en est un pilier.

CI/CD

Intégration Continue / Déploiement Continu. Pipeline automatisé qui build, teste et déploie une application à chaque modification du code. Docker est au cœur de la majorité des pipelines CI/CD.

Microservices

Architecture découpant une application en petits services indépendants, chacun avec sa propre logique métier. Chaque service est idéalement déployé dans son propre conteneur.

Liens avec mon alternance et mes cours

La conteneurisation n'est pas un sujet purement théorique pour moi. Elle résonne avec mes expériences concrètes : ce que j'apprends en cours et ce que j'observe en entreprise.

En 2026, la maîtrise de Docker et la connaissance de Kubernetes font partie des compétences explicitement mentionnées dans les offres d'emploi en administration système et infrastructure. Suivre cette veille me permet de préparer ma montée en compétence pour la suite de mon parcours professionnel.

Conclusion

La conteneurisation a profondément transformé la façon dont les applications sont développées, déployées et maintenues. En répondant à la problématique posée, cette veille montre que Docker et Kubernetes ne sont pas de simples outils : ils représentent un changement de paradigme dans la gestion des infrastructures, alignant les pratiques de développement et d'exploitation autour d'un standard commun, portable et reproductible.

Pour un étudiant en BTS SIO SISR, comprendre ces technologies est devenu aussi fondamental que maîtriser la virtualisation ou l'administration Linux. Cette veille, entretenue via des sources passives (RSS) et actives (docs, YouTube), me permet de rester à jour sur un écosystème qui évolue rapidement et de faire le lien entre mes cours, mon alternance et les pratiques professionnelles actuelles.

La conteneurisation est aujourd'hui incontournable — et la comprendre, c'est comprendre comment fonctionne une grande partie de l'internet moderne.