Outils pour utilisateurs

Outils du site


informatique:docker

Docker

Docker propose des conteneurs logiciels, les conteneurs partagent le même système d'exploitation (noyaux, processus d'initialisation, drivers réseaux …).

Principes

Docker propose un certains nombre d'images « standard » notamment:

  • Ubuntu
  • Debian
  • CentOS

Toute les images sont dérivé de ces trois images via un système d'héritage. Chaque image est créé depuis l'état de base d'une de ces images et y ajoute des fonctionnalités (installation d'un logiciel, configuration d'un automatisme…) et il est possible de faire hériter une image d'une autre image qui hérite elle même d'une autre image et cela de façon infini.

De plus Docker offre un mécanisme très intéressant pour minimiser la taille de disque nécessaire à la mise en place de ces images. Docker met en place le système de fichier UnionFS (a layered copy-on-write filesystem, which means that the container image's filesystem is a culmination of multiple read-only filesystem layers. And these layers are shared between running containers) pour le système de fichier de ses conteneurs et de ses images. Celui-ci permet de monter plusieurs systèmes de fichier sur un unique point de montage dans un ordre précis, le fichier utilisé pour un chemin sera le dernier monté.

Docker propose un dépôt communautaire appelé le Hub Repository qui propose les images de base des différentes distributions mais aussi des images officiels empaquetant des logiciels près à l'emploi comme MySQL ou PHP … Voir aussi le pendant en mode Dockerfile http://dockerfile.github.io

La pile Docker est composer d'une daemon (needs root privileges) qui s'occupe de faire “tourner” les conteneurs, et d'un client (no root privileges) pour interagir avec le daemon (via a RESTful API on default port 2375).

L'isolation des conteneurs est réalisée avec les Namespaces (namespace doc) du noyau Linux, la limitation des ressources avec les Control groups (cgroups v1 / v2). Aussi par défaut, modifiable avec –cap-add –privileged –security-opts, l'utilisateur root est limité, certains privilèges lui sont retirés:

  • Mount/unmount devices
  • Managing raw sockets
  • Filesystem operations such as creating device nodes and changing file ownerships

Deux modes de fonctionnements pour les conteneurs: le mode interactif et le mode daemon. Le mode interactif lance le conteneur au premier plan et vous permet d'intéragir avec lui, tandis que le mode daemon lance le conteneur en arrière plan et rend la main.

Docker recommande un seul processus par conteneur. Mais la commande exec (docker v1.3+) permet d'injecter un processus pour se “connecter” à un conteneur en exécution.

Docker affecte une adresse ip à chacun des conteneurs. Pour faciliter les connexions entre eux il y a les links de la forme –link CONTAINER_IDENTIFIER:ALIAS.

La construction d'image Dockerfile peut-être décrite dans un fichier Dockerfile (like a Makefile).

Documentation

Docker et la tendance de la conteneurisation : a-t-elle vraiment été en production ? 2016-10-09

Cheat sheets:

Tutos

Livres:

Installation

$ cat /etc/apt/sources.list.d/docker.list 
# Docker
# https://docs.docker.com/engine/installation/debian/#debian-jessie-80-64-bit
#
# PGP Key:
# apt-key adv --keyserver hkp://pgp.mit.edu:80 --recv-keys 58118E89F3A912897C070ADBF76221572C52609D
 
deb https://apt.dockerproject.org/repo debian-jessie main

Ajouter son user au group docker

$ sudo groupadd docker # Adds the docker group (s'il n'existe pas déjà)
$ sudo gpasswd -a $(whoami) docker # Adds the current user to the docker group
$ sudo service docker restart
# logout / login for changes takes effect

Commandes

docker run

Lancer un conteneur:

  # mode interactif:
  # -i active le mode interactif,
  # -t active le mode tty qui permet d'afficher la sortie standard
  docker run -t -i ubuntu:latest

docker start

Relancer un container arrếté (exited)

  docker start -i <ID>

docker ps

Lister les conteneurs:

  # -a pour tous les conteneurs, quelque soit leur statut (up, exited, terminated)
  docker ps -a
  CONTAINER ID  IMAGE  COMMAND  CREATED  STATUS  PORTS  NAMES
  ...

docker inspect

  # 
  docker inspect <nom ou id>
  ...

docker exec

Pour lancer un nouveau processus dans un conteneur en cours d'exécution, par exemple un shell pour inspecter son état de santé :

  # 
  $ docker exec -it <nom ou id> bash
  ...

docker images

Usage: docker images [OPTIONS] [REPOSITORY[:TAG]]

List images

  -a, --all            Show all images (default hides intermediate images)
  --digests            Show digests
  -f, --filter=[]      Filter output based on conditions provided
  --help               Print usage
  --no-trunc           Don't truncate output
  -q, --quiet          Only show numeric IDs

docker commit

docker save

 docker save -o <save image filename> <image name>

ou

 docker save <image name> | bzip2 > -o <save image filename.bz2>

Dockerfile

Orchestration

With Docker Machine, we have provisioned the Docker daemons. With Docker Swarm, we can rest assured that we'll be able to control our containers from anywhere and that they'll remain available if there are any failures. Docker Compose helps us compose our distributed applications on top of this cluster.

Swarm

Ajoute au Docker client des fonctionnalités (libswarm) de gestion de cluster.

https://github.com/docker/swarm/

Compose

Docker Compose permet de créer et configurer un ensemble de conteneurs avec un fichier YAML.

Tutos / Exemples:

Docker Machine

https://github.com/docker/machine

$ machine create -d [infrastructure provider] [provider options] [machine name]

Rancher

Rancher natively supports and manages all of your Kubernetes, Mesos, and Swarm clusters.

Images Docker

nginx-proxy

Le container jwilder/nginx-proxy sert de reverse proxy aux containers Dockers fournissant des services web.

Le conteneur nginx-proxy peut-être démarré après les virtualhosts conteneurs. C'est cool pour le boot du système ;-)

webdevops

Dockerfiles from WebDevOps for PHP, Apache and Nginx (with PHP5 and PHP7)

https://hub.docker.com/r/webdevops/

https://github.com/webdevops/Dockerfile

mariadb

https://hub.docker.com/_/mariadb/

https://github.com/docker-library/mariadb

Exemple pour accéder au serveur mysql depuis l'hôte:

$ docker exec -it <container ID> mysqladmin -u root -p variables

etherpad-lite

Tips & tricks

Mise à jour

En cas de mise à jour de l'application, nous recréerons l'image en empaquetant la mise à jour de l'application, puis nous détruiront le conteneur pour le relancer avec l'image mis à jour.

Il est possible mais pas conseiller de faire la mise à jour d'une application dans un conteneur, on préférera mettre à jour l'image puis recréer un conteneur avec l'image mis à jour.

Exemple:

docker pull mysql
docker stop my-mysql-container
docker rm my-mysql-container
docker run --name=my-mysql-container --restart=always \
       -e MYSQL_ROOT_PASSWORD=mypwd -v /my/data/dir:/var/lib/mysql -d mysql

Container’s configuration

Intégration système

Démarrage du système

Comment démarrer les conteneurs au démarrage du système ?

Limites système

Memory
WARNING: Your kernel does not support memory limit capabilities. Limitation discarded.

Il faut activer cgroup.memory

Dans /etc/default/grub modifier:

GRUB_CMDLINE_LINUX="cgroup_enable=memory"

Puis

run update-grub2
reboot

Et vérifier :

$ cat /proc/cgroups

Multi Process Docker Images

Supervisord is a very lightweight process manager.

Setting up an apt-cacher

When you have multiple Docker servers, or when you are building multiple unrelated Docker images, you might find that you have to download packages every time. This can be prevented by having a caching proxy in-between the servers and clients. It caches packages as you install them. If you attempt to install a package that is already cached, it is served from the proxy server itself, thus reducing the latency in fetching packages and greatly speeding up the build process. Let's write a Dockerfile that sets up an apt-caching server as a caching proxy server:

FROM ubuntu
VOLUME ["/var/cache/apt-cacher-ng"]
RUN apt-get update ; apt-get install -yq apt-cacher-ng
EXPOSE 3142
RUN echo "chmod 777 /var/cache/apt-cacher-ng ;" +
 "/etc/init.d/apt-cacher-ng start ;" +
 "tail -f /var/log/apt-cacher-ng/*" >> /init.sh
CMD ["/bin/bash", "/init.sh"]

This Dockerfile installs the apt-cacher-ng package in the image and exposes port 3142 (for the target containers to use).

Build the image using this command:

$ sudo docker build -t shrikrishna/apt_cacher_ng

Then run it, binding the exposed port:

$ sudo docker run -d -p 3142:3142 --name apt_cacher shrikrishna/apt_cacher_ng

To see the logs, run the following command:

$ sudo docker logs -f apt_cacher

Using the apt-cacher while building your Dockerfiles:

So we have set up an apt-cacher. We now have to use it in our Dockerfiles:

FROM ubuntu
RUN echo 'Acquire::http { Proxy "http://<host's-docker0-ip-here>:3142"; };' >> /etc/apt/apt.conf.d/01proxy

In the second instruction, replace the <host's-docker0-ip-here> command with your Docker host's IP address (at the docker0 interface)

informatique/docker.txt · Dernière modification: 03/01/2017 21:25 par cyrille