Proxmox V9
Proxmox VE est une plate-forme open-source complète pour la virtualisation d’entreprise. Grâce à l’interface Web intégrée, vous pouvez facilement gérer les machines virtuelles, le stockage, la mise en réseau, …
Proxmox
Proxmox V9.0: Modernisation générale de la base, avec un passage à Debian 13 (Trixie) et au noyau Linux 6.14.8 - 2 par défaut. Cette base s’accompagne de QEMU 10.0.2, de LXC 6.0.4 et d’OpenZFS 2.3.3.
Liens
- Site Officiel de Proxmox VE : https://www.proxmox.com/proxmox-ve
- Documentation de Proxmox VE : https://pve.proxmox.com/wiki/
- Projet GitHub de Proxmox VE : https://github.com/proxmox
- Téléchargement des images ISO
Installation via ISO
- Installation sur machine Lenovo ThinkCentre M700 Tiny
- Comment installer Proxmox VE 8 et créer des VMs ?
- Installation Proxmox
- Proxmox ISO
- Fichier proxmox-ve_9.0-1.iso
- Version 9.0-1
- File Size 1.64 GB
- Last Updated August 05, 2025
- SHA256SUM 228f948ae696f2448460443f4b619157cab78ee69802acc0d06761ebd4f51c3e
Installer ISO sur clé usb /dev/sdx
1
sudo dd if=proxmox-ve_9.0-1.iso of=/dev/sdx bs=4M
Démarrer la machine Lenovo sur la clé USB et procéder à l’installation de Proxmox (F12 pour accès menu démarrage)
Interface : eno1
FQDN : pve.home.arpa
IP address: 192.168.0.215/24
Gateway: 192.168.0.205
DNS: 192.168.0.205
Redémarage à la fin de l’installation et accès lien https://192.168.0.215:8006
Pour accéder à l’interface, connectez-vous en tant que root et fournissez le mot de passe que vous définissez lors de l’installation de Proxmox.
Une boîte de dialogue apparaît en disant qu’il n’y a pas d’abonnement valide pour le serveur. Proxmox offre un service complémentaire optionnel auquel vous pouvez vous abonner. Pour ignorer le message, cliquez sur OK.
Accès proxleno via SSH
SSH activé avec autorisation connexion root
Accès SSH : ssh root@192.168.0.215
Changer le mot de passe root
1
passwd root
On désactive les dépôts entreprise
1
2
3
# Désactivera message "no valid subscription" sur Proxmox
mv /etc/apt/sources.list.d/pve-enterprise.sources .
mv /etc/apt/sources.list.d/ceph.sources .
Lancer les mises à jour
1
apt update && apt upgrade -y
Hostname
hostnamectl
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
Static hostname: pve
Icon name: computer-desktop
Chassis: desktop 🖥️
Machine ID: 7db95bb5bbad47bfa90043c0aa05d738
Boot ID: 77fb1b06c0b045e2bb4d37c17b7087de
Product UUID: 44b55a2c-9bc4-11e6-a167-917cd8ac1800
Operating System: Debian GNU/Linux 13 (trixie)
Kernel: Linux 6.14.8-2-pve
Architecture: x86-64
Hardware Vendor: Lenovo
Hardware Model: ThinkCentre M700
Hardware Serial: S4Z98432
Firmware Version: FWKTBCA
Firmware Date: Mon 2021-12-27
Firmware Age: 3y 7month 1w 4d
Motd
On se connecte en utilisateur leno sur proxmox via SSH
Les outils
1
apt install jq figlet
Effacer et créer motd
1
rm /etc/motd && nano /etc/motd
1
2
3
4
5
6
7
8
9
10
11
12
_ __ _ _ ___ __ __ _ __ ___ __ __
| '_ \| '_|/ _ \\ \ /| ' \ / _ \\ \ /
| .__/|_| \___//_\_\|_|_|_|\___//_\_\
|_| _
_ __ __ __ ___ | |_ ___ _ __ ___ __ _ _ _ _ __ __ _
| '_ \\ V // -_) _ | ' \ / _ \| ' \ / -_) _ / _` || '_|| '_ \/ _` |
| .__/ \_/ \___|(_)|_||_|\___/|_|_|_|\___|(_)\__,_||_| | .__/\__,_|
|_| |_|
_ ___ ___ _ __ ___ __ ___ _ ___
/ |/ _ \|_ ) / | / / ( _ ) / \ |_ )/ || __|
| |\_, / / / _ | |/ _ \/ _ \ _| () |_ / / | ||__ \
|_| /_/ /___|(_)|_|\___/\___/(_)\__/(_)/___||_||___/
NFS Client
Configuration du client NFS sur Proxmox
1
apt install nfs-common # installé par défaut sur trixie
Point de montage et lien
1
mkdir -p /mnt/sharenfs
Ajouter les points de montage du serveur nfs: nano /etc/fstab
1
192.168.0.205:/sharenfs /mnt/sharenfs nfs4 nofail,x-systemd.automount,x-systemd.requires=network-online.target,x-systemd.device-timeout=10s,rsize=8192,wsize=8192 0 0
Rechargement et montage
1
systemctl daemon-reload && mount -a
Clavier et langue
Langue ajouter language: fr
en fin du fichier /etc/pve/datacenter.cfg
1
2
keyboard: fr
language: fr
Connexion SSH avec clés
connexion avec clé
sur l'ordinateur de bureau
Générer une paire de clé curve25519-sha256 (ECDH avec Curve25519 et SHA2) pour une liaison SSH avec le serveur.
1
ssh-keygen -t ed25519 -o -a 100 -f ~/.ssh/lenovo-ed25519
Envoyer les clés publiques sur le serveur KVM
1
ssh-copy-id -i ~/.ssh/lenovo-ed25519.pub root@192.168.0.215
sur le serveur KVM
On se connecte
1
ssh root@192.168.0.215
Créer une configuration serveur SSH /etc/ssh/sshd_config.d/lenovo.conf
1
2
3
Port = 55215
PasswordAuthentication no
ChallengeResponseAuthentication yes
Relancer le serveur
1
systemctl restart sshd
Test connexion depuis PC1
1
ssh -p 55215 -i ~/.ssh/lenovo-ed25519 root@192.168.0.215
pve.home.arpa
Ajout autorité certification home.arpa
1
2
cp /mnt/sharenfs/cwwk/homearpaCA.crt /usr/local/share/ca-certificates/
update-ca-certificates
Nginx web
Installation
1
apt update && apt install nginx
Ligne commentée #include /etc/nginx/sites-enabled/*;
dans fichier /etc/nginx/nginx.conf
Domaine pve.home.arpa
Certificats pve.home.arpa.crt pve.home.arpa.key dans /etc/ssl/private/
1
cp /mnt/sharenfs/proxmox/pve.home.arpa.* /etc/ssl/private/
Créer un fichier de configuration nginx
/etc/nginx/conf.d/pve.home.arpa.conf
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
upstream proxmox {
server "pve.home.arpa";
}
server {
listen 80 default_server;
listen [::]:80 default_server;
rewrite ^(.*) https://$host$1 permanent;
}
server {
listen 443 ssl;
listen [::]:443 ssl;
server_name _;
ssl_certificate /etc/ssl/private/pve.home.arpa.crt;
ssl_certificate_key /etc/ssl/private/pve.home.arpa.key;
proxy_redirect off;
location / {
proxy_http_version 1.1;
proxy_set_header Upgrade $http_upgrade;
proxy_set_header Connection "upgrade";
proxy_pass https://127.0.0.1:8006;
proxy_buffering off;
client_max_body_size 0;
proxy_connect_timeout 3600s;
proxy_read_timeout 3600s;
proxy_send_timeout 3600s;
send_timeout 3600s;
}
}
Vérifier
1
nginx -t
Redémarrer le serveur
1
systemctl restart nginx
Accès https://pve.home.arpa
Une boîte de dialogue apparaît en disant qu’il n’y a pas d’abonnement valide pour le serveur. Proxmox offre un service complémentaire optionnel auquel vous pouvez vous abonner. Pour ignorer le message, cliquez sur OK.
Se connecter SSH et saisir les commandes suivantes pour désactiver le message d’abonnement
1
2
3
sed -i.bak "s/.data.status.toLowerCase() !== ‘active’) {/.data.status.toLowerCase() !== ‘active’) { orig_cmd\(\); } else if ( false ) {/" /usr/share/javascript/proxmox-widget-toolkit/proxmoxlib.js
systemctl restart pveproxy.service
En ajoutant le dépôt « no subscription », nous allons étendre cette liste.
Ce dépôt est un référentiel gratuit qui contient les mises à jour de Proxmox sans nécessiter d’abonnement.
Authentification 2FA
Ajout authentification à 2 facteurs
Renseigner Description et mot de passe et scanner le code avec application mobile AEGIS
Saisir le code 329627 dans Vérifier le code puis cliquer sur Ajouter
Authentification TOTP ajouter à l’utilisateur leno
Web pve.home.arpa
Ensuite, vous pouvez accéder à votre serveur Proxmox à partir d’un navigateur: https://pve.home.arpa
Proxmox Pare-feu
Pare-feu intégré
Le pare-feu intégré de Proxmox
- Web interface: 8006 (TCP, HTTP/1.1 over TLS)
- VNC Web console: 5900-5999 (TCP, WebSocket)
- SPICE proxy: 3128 (TCP)
- sshd (used for cluster actions): 22 (TCP)
- rpcbind: 111 (UDP)
- sendmail: 25 (TCP, outgoing)
- corosync cluster traffic: 5405-5412 UDP
- live migration (VM memory and local-disk data): 60000-60050 (TCP)
Trois niveaux de pare-feu
- Pare-feu du “Centre de données” (Datacenter)
- Pare-feu des nœuds (nodes)
- Pare-feu des machines virtuelles et conteneurs
Règles à créer
Créer des règles pour le “Centre de données” (Datacenter) avant d’activer le pare-feu
Pour ajouter des règles : “Centre de données” (Datacenter) → Pare-feu → [Ajouter]
Attention ! il y a des règles à créer avant l’activation du pare-feu
Pour autoriser le port 8006 en TCP pour le portail WEB d’administration de Proxmox.
Ne pas oublier de cocher activer
Pour autoriser le port 55215 (par défaut 22) en TCP pour l’accès en SSH
Activation du pare-feu “Centre de données”
Lorsque toutes vos règles sont activées, vous pouvez maintenant activer le pare-feu en vous rendant
dans : “Centre de données” (Datacenter) → Parefeu
Par défaut, tout ce qui entre est rejeté, tout ce qui sort est accepté.
Création groupe de sécurité
Les groupes de sécurité permettent de regrouper plusieurs règles de pare-feu en une seule règle.
Ils sont créés uniquement dans la zone “Centre de données” (Datacenter)
Exemple “ServeurWEB” avec les ports (55215, 80, 443, etc.).
“Centre de données” (Datacenter) → Parefeu → Groupe de sécurité
Cliquez sur Créer, donnez un nom.
Vous pouvez sélectionner ce groupe et cliquez sur [Ajouter] dans la partie droite pour commencer à
ajouter toutes les règles de pare-feu.
Ls règles (in, ACCEPT, tcp, Port destination) pour le port 80 http, port 443 HTTPS et SSH (port 55215)
Activation groupe de sécurité pour une machine
Pour les règles. Rendez-vous dans la partie Parefeu de votre machine virtuelle et cliquez sur [Insérer: Groupe de
sécurité].
Choisissez le groupe de sécurité qui vous convient et cochez Activer.
Activer le pare-feu d’une machine
Sélectionnez la machine → Parefeu → Options → Sélectionnez Parefeu → [Éditer]
Cochez Parefeu → [OK]
Alias “Centre de données” (Datacenter)
Alias va permettre de nommer les IP ou les plages d’IP à utiliser dans le pare-feu.
“Centre de données” (Datacenter) → Pare-feu → Alias → [Ajouter]
On peut ajouter une plage d’adresse IP avec le CIDR (par exemple 192.168.1.0/24).
IPSet
Règles de pare-feu qui correspondent aux adresse IP ou aux sous-réseaux IP.
Exemple : IPSet nommé “Admin”.
Peuvent être crées dans les niveaux de pare-feu (Datacenter, VM et conteneurs).
Permet de créer des listes blanches et des listes noires d’adresses IP.
“Centre de données” (Datacenter) → Parefeu → IPSet → [Créer]
Nommez l’IPSet → [OK]
Cliquez sur l’IPSet → [Ajouter] à droite.
Règles pour une machine virtuelle ou un conteneur
Exemple pour autoriser le ping (protocole ICMP).
On sélectionne la machine → Parefeu → [Ajouter]
Saisir les paramètres, macro Ping, ne pas oublier de cocher Activer.
Comme source, adminpset
Gérer la machine Lenovo Proxmox
cwwk - Domaine pve.home.arpa
Proxmox pve.home.arpa
Générer les certicicats du domaine local pve.home.arpa
1
2
3
4
5
6
7
8
# Machine cwwk
cd $HOME
./gencert.sh pve.home.arpa
# Copie et déplacement
sudo cp pve.home.arpa.crt /etc/ssl/private/
sudo cp pve.home.arpa.key /etc/ssl/private/
mv pve.home.arpa.crt $HOME/sharenfs/rnmkcy/cwwk/home/yick/CA/
mv pve.home.arpa.key $HOME/sharenfs/rnmkcy/cwwk/home/yick/CA/
Fichier de configuration proxy nginx /etc/nginx/conf.d/pve.home.arpa.conf
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
upstream pvex {
server 192.168.0.215:8006;
}
server {
# ipv4 listening port/protocol
listen 443 ssl http2;
# ipv6 listening port/protocol
listen [::]:443 ssl http2;
server_name pve.home.arpa;
ssl_certificate /etc/ssl/private/pve.home.arpa.crt;
ssl_certificate_key /etc/ssl/private/pve.home.arpa.key;
location / {
proxy_pass https://pvex;
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
proxy_set_header X-Forwarded-Proto $scheme;
proxy_http_version 1.1;
proxy_set_header Upgrade $http_upgrade;
proxy_set_header Connection "Upgrade";
proxy_buffering off;
}
}
Vérification et rechargement nginx
1
2
sudo nginx -t
sudo systemctl reload nginx
Gestion distante démarrage et arrêt
On veut démarrer ou éteindre, depuis le poste linux PC1, la machine distante Lenovo Proxmox (pve.rnmkcy.eu) via ssh et “wake on lan”
Démarrer ou éteindre une machine distante sur le réseau via ssh et “wake on lan”
Poste linux PC1 (archlinux/EndeavourOS)
Installer wake on lan
1
2
sudo apt install wakeonlan # Debian/Ubuntu
yay -S wakeonlan # archlinux
Rechercher adresse Mac de la machine Lenovo Proxmox
1
ping -c3 pve.home.arpa && arp -n
Lenovo Proxmox : 192.168.0.215 ether 00:23:24:c9:06:86
Client SPICE
Le protocole SPICE est utilisé pour accéder graphiquement à la console de vos machines virtuelles sur Proxmox.
Il est plus agréable d’utilisation que le serveur VNC utilisé par défaut à travers le navigateur puisqu’il permet une meilleure intégration ainsi que le support du copier-coller (ce qui est extrêmement avantageux).
[Proxmox] Spice
Ensuite il vous faut un logiciel client SPICE sur votre machine pour pouvoir accéder à la console via le protocole.
Pour cela, je vous recommande d’installer le paquet virt-viewer :
1
apt install -y virt-viewer
Désormais, une fois sur Proxmox lorsque vous cliquerez sur le bouton Console, un fichier sera téléchargé sur votre machine.
Il vous suffira de l’ouvrir avec virt-viewer et le tour est joué !
Importer un fichier ISO dans Proxmox
Afin de pouvoir installer les systèmes d’exploitation sur nos différentes machines virtuelles, nous devons au préalable télécharger les images système (ISO) et les importer dans Proxmox.
Les fichiers ISO sont stockés dans le dossier
/var/lib/vz/template/iso/
Pour cela, Proxmox dispose d’un élément assez sympa je trouve, une sorte de banque où seront stockés toutes vos images. Procédez comme ceci :
Sélectionnez votre nœud puis le stockage (local, dans notre cas).
Cliquez sur “ISO Images”, puis sur le bouton “Upload” et recherchez l’image à importer sur votre disque local.
Répéter l’opération autant de fois que nécessaire selon la quantité d’images ISO à importer, la seule limite c’est votre espace de stockage.
Les fichiers ISO sont stockés dans le dossier /var/lib/vz/template/iso/
Comment utiliser le disque EFI dans Proxmox
How to Use EFI Disk in Proxmox?
Ajouter EFI Disque via la ligne de commande
1
2
3
qm ensemble 100 --bios ovmf
qm set 100 --efidisk0 local-lvm:1,format=raw
# Remplacer 100 par votre ID VM, et local-lvm par votre nom de stockage
Affecter un USB hôte à l’invité
Comment activer l’USB Passthrough pour Home Assistant sous Proxmox ?
Voie simple: passez l’identifiant du périphérique USB à l’invité
Attribuer une clé Yubikey connectée à l’hôte à VM 103
1
lsusb
1
Bus 001 Device 004: ID 1050:0407 Yubico.com Yubikey 4/5 OTP+U2F+CCID
Assignez-le à la VM en mode su par
1
qm set 103 -usb0 host=1050:0407
Réponse: update VM 103: -usb0 host=1050:0407
Eteindre la VM (en cours d’exécution) et relancer
Sauvegarder et restaurer des machines virtuelles
Comment sauvegarder et restaurer des machines virtuelles dans Proxmox
Machines virtuelles et conteneurs
Création machine virtuelle
Pour créer une nouvelle machine virtuelle, il faut cliquer sur le bouton “Créer une VM” en haut à droite de l’interface.
il faut nommer la machine
Pour un ordonnancement correct, il sera utile de définir une nomenclature de nommage, je vous propose, ceci :
- VM-[ID de la VM] – OS-Nom de la machine
- CT-[ID du conteneur] – OS-Nom de la machine
Le “Resource Pool” ne sera utilisé que si vous avez plusieurs emplacements de stockage sur le Proxmox (pour de l’ordonnancement / backup, etc.).
Sélectionnez à présent l’ISO que vous souhaitez installer sur la machine et le type de système correspondant. Particularité pour une VM freeBSD, on sélectionnera « Other ».
Sachez qu’il est aussi possible d’utiliser directement le lecteur de CD/DVD physique, voir une clé USB directement branchée au serveur.
Pour les conteneurs,les templates préconfigurés sont téléchargeables directement via l’interface et il est demandé si vous souhaitez définir un mot de passe dès la création.
Sur l’écran suivant, on peut configurer certains aspects du système, en cochant « Advanced ». Ainsi, il sera possible de modifier le type de Firmware (BIOS ou UEFI), le type de disque (IDE, SCSI, SATA) et l’émulation SSD, le démarrage automatique, le type de CPU, etc.
L’étape suivante consiste à configurer le stockage de la machine virtuelle, avec le choix du disque dur, son type et sa taille.
À présent, il s’agit de définir les spécifications du CPU, avec éventuellement la possibilité de modifier les vCPU (processeurs virtuels).
Ensuite, nous définissons la quantité de mémoire RAM allouée à cette VM, il est alors possible d’allouer une quantité maximale et minimale (en mode avancé), permettant de limiter la monopolisation des ressources en fonction de l’utilisation de la machine.
La partie Network est assez simple en soi sur une VM, on sélectionne l’interface (Bridge) sur laquelle on souhaite avoir la VM et éventuellement le tag du VLAN (VLAN Tag).
Nous sommes à la dernière étape où nous avons le droit à un résumé. Si cela vous convient, cliquez sur “Terminé” pour créer la machine virtuelle. Cela n’installe pas le système d’exploitation dans la VM, mais la machine sera prête à l’installation.
Notre VM est alors créé et nous pouvons à présent la retrouver dans notre node (partie de gauche de l’interface).
Ajout EFI
How to add an EFI disk in Proxmox?
https://www.bgocloud.com/knowledgebase/95/making-your-first-virtual-machine-and-container-in-proxmox-ve.html
Démarrage VM
Pour pouvoir lancer la VM nouvellement créée, il suffit de faire un clic droit sur l’icône de la machine dans le menu de gauche et de sélectionner “Démarrer”
L’autre option est de la sélectionner la VM, comme nous venons de le faire, puis de sélectionner “Démarrer” en haut à droite de l’écran. D’ailleurs, ce menu comporte un bouton “Plus” qui permet de détruire une machine et son stockage associé, c’est-à-dire le disque virtuel. Ce menu permet aussi de créer un Template (c’est-à-dire un modèle de VM), que l’on pourra cloner à souhait (plutôt pratique).
Une fois la machine démarrée, nous avons accès aux métriques en sélectionnant “Résumé” (charge CPU, RAM, espace de stockage, etc.).
De la même façon, il est possible de suivre l’état de votre hyperviseur en sélectionnant : “Centre de données” puis “Résumé”.
Pour accéder à la machine virtuelle ou au conteneur, il suffit de double-cliquer sur son icône dans le menu de gauche. Cette manipulation ouvre une fenêtre qui donne un accès à l’interface graphique de la machine virtuelle.
Sur la capture d’écran ci-dessus, on peut voir une flèche sur le côté gauche, celle-ci permet d’avoir accès à des options supplémentaires de la VM, telles que :
- Mettre en plein écran
- Activer une combinaison de touche (CTRL+ALT+SUPPR)
- Démarrage, arrêt, rafraichir l’interface
- Etc…
Note : sous Linux, si vous utiliser CTRL+W pour une recherche avec l’éditeur “nano”, la fenêtre va se fermer sans pour autant éteindre la VM, il faut alors sélectionner [A], puis [CTRL], puis après votre touche [W] afin de permettre la recherche. Une fois le mot trouvé, désactivez la fonctionnalité.
Il ne reste plus qu’à procéder à l’installation du système d’exploitation, que ce soit du Linux ou du Windows !
Erreurs
VM quit/powerdown failed - got timeout
Erreur de délai d’attente
L’erreur de délai d’attente se produit lorsque la machine virtuelle est verrouillée ou que le processus est toujours en cours d’exécution en arrière-plan.
Si la machine virtuelle est verrouillée, nous déverrouillons la VM et l’arrêtons.
Sinon, nous nous connectons au nœud hôte.
Ensuite, nous trouvons le PID du processus de la machine en utilisant la commande.
1
2
ps aux | grep "/usr/bin/kvm -id VMID"
ps aux | grep "/usr/bin/kvm -id 100" # VMID=100 dans notre exemple
1
root 15847 0.5 0.6 3779756 49520 ? Sl 09:58 0:10 /usr/bin/kvm -id 100 -name vm-001-debian11-yunotest -no-shutdown -chardev socket,id=qmp.......................
Une fois que nous avons trouvé le PID, nous tuons le processus en utilisant la commande.
1
kill -9 15847 # PID=15847 dans notre exemple
Arrêt en mode CLI
Nous avons rencontré de nombreuses instances qui arrêtent la machine virtuelle à partir de l’interface web pour effectuer les tâches.
Ainsi, nous arrêtons la machine virtuelle à partir du nœud. Pour arrêter la VM, il faut d’abord trouver le VMID.
Nous utilisons donc la commande suivante pour arrêter la machine virtuelle
1
qm stop <VMID>
Ensuite, en rafraîchissant l’interface web, nous pouvons voir que la machine virtuelle est arrêtée.
VM verrouillée
L’une des raisons les plus courantes pour lesquelles il est impossible d’arrêter une machine virtuelle est que celle-ci a été verrouillée. Cela se produit généralement lorsque nous essayons d’arrêter une machine virtuelle alors qu’une sauvegarde est en cours.
La machine virtuelle se verrouille alors pour terminer le processus de sauvegarde. Ainsi, nous pouvons attendre que le processus de sauvegarde supprime la VM. Sinon, nous pouvons déverrouiller la machine virtuelle et l’arrêter.
Pour déverrouiller la VM, nous nous connectons au nœud hôte.
Puis nous trouvons le VMID de la machine virtuelle en utilisant la commande
1
cat /etc/pve/.vmlist
Une fois que nous avons obtenu le VMID, nous déverrouillons la VM à l’aide de la commande
1
qm unlock <VMID>
Après avoir déverrouillé la machine virtuelle, nous pouvons supprimer la machine virtuelle à partir de l’interface web ou en utilisant le CLI.
Création Conteneur
Images des conteneurs
Les images de conteneurs, parfois également appelées -templates ou -Appliances, sont des archives tar qui contiennent tout pour exécuter un conteneur.
Proxmox VE lui-même fournit une variété de modèles de base pour les distributions Linux les plus courantes. Ils peuvent être téléchargés en utilisant l’utilitaire de ligne de commande GUI ou pveam (short for Proxmox VE Appliance Manager). En outre, les modèles de conteneur TurnKey Linux sont également disponibles à télécharger.
La liste des modèles disponibles est mise à jour quotidiennement par l’intermédiaire de pve-daily-update
.
Vous pouvez également déclencher une mise à jour manuellement en exécutant en mode su :
1
pveam update
Pour voir la liste des images disponibles tourner:
1
pveam available
Vous pouvez restreindre cette grande liste en spécifiant la section qui vous intéresse, par exemple les images système de base
1
pveam available --section system
Liste des images système disponibles
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
system almalinux-9-default_20240911_amd64.tar.xz
system alpine-3.19-default_20240207_amd64.tar.xz
system alpine-3.20-default_20240908_amd64.tar.xz
system alpine-3.21-default_20241217_amd64.tar.xz
system archlinux-base_20240911-1_amd64.tar.zst
system centos-9-stream-default_20240828_amd64.tar.xz
system debian-11-standard_11.7-1_amd64.tar.zst
system debian-12-standard_12.7-1_amd64.tar.zst
system devuan-5.0-standard_5.0_amd64.tar.gz
system fedora-41-default_20241118_amd64.tar.xz
system fedora-42-default_20250428_amd64.tar.xz
system gentoo-current-openrc_20250508_amd64.tar.xz
system openeuler-24.03-default_20250507_amd64.tar.xz
system openeuler-25.03-default_20250507_amd64.tar.xz
system opensuse-15.6-default_20240910_amd64.tar.xz
system rockylinux-9-default_20240912_amd64.tar.xz
system ubuntu-20.04-standard_20.04-1_amd64.tar.gz
system ubuntu-22.04-standard_22.04-1_amd64.tar.zst
system ubuntu-24.04-standard_24.04-2_amd64.tar.zst
system ubuntu-24.10-standard_24.10-1_amd64.tar.zst
system ubuntu-25.04-standard_25.04-1.1_amd64.tar.zst
Alpine Linux
Alpine Linux est une distribution Linux légère et sécurisée, conçue pour être utilisée dans des environnements exigeants en termes de performance et de sécurité. Elle est basée sur le noyau Linux et utilise le gestionnaire de paquets “apk” pour gérer les applications et les bibliothèques.
Alpine Linux est particulièrement adaptée aux environnements de virtualisation, de conteneurisation et de cloud, grâce à sa taille réduite et à sa consommation faible en ressources. Elle est également utilisée dans de nombreux autres contextes, tels que les serveurs Web, les routeurs et les appareils embarqués.
- Taille réduite : Alpine Linux est une distribution très légère, avec une image ISO de seulement 5 Mo, ce qui la rend idéale pour les environnements où l’espace disque est limité.
- Consommation faible en ressources : Alpine Linux utilise peu de mémoire et de CPU, ce qui en fait une excellente option pour les environnements de virtualisation et de conteneurisation où les ressources sont partagées.
- Temps de démarrage rapide : grâce à sa taille réduite et à sa consommation faible en ressources, Alpine Linux démarre rapidement et est prêt à être utilisé en quelques secondes.
- Faible empreinte en termes de sécurité : Alpine Linux est conçue pour être sécurisée dès le départ, avec une base de code réduite et des paquets verrouillés par défaut. Cela réduit le risque de vulnérabilités et de menaces de sécurité.
Créer un jeu de clès SSH sur le poste PC1
1
ssh-keygen -t ed25519 -o -a 100 -f ~/.ssh/ct-alp01
La clé publique est disponible sous le dossier ~/.ssh/ct-alp01.pub
Les réglages généraux d’un conteneur incluent
- le nœud : le serveur physique sur lequel le conteneur va fonctionner
- ID CT: un numéro unique dans cette installation Proxmox VE utilisée pour identifier votre conteneur
- Nom d’hôte : le nom d’hôte du conteneur
- Resource Pool: un groupe logique de conteneurs et de VMs
- Mot de passe : le mot de passe “root” du conteneur
- SSH Public Key: une clé publique pour se connecter au compte racine sur SSH
Conteneur non privilégié : cette option permet de choisir au moment de la création si vous voulez créer un conteneur privilégié ou non privilégié.
Se connecter à l’interface de gestion de Proxmox VE
Créer un conteneur
renseigner Nom d’hôte, Mot de passe root (root49600), Charger le fichier de clef SSH (ct-alp01.pub)
En mode console
Mise à jour
1
apk -U upgrade
Créer un utilisateur
1
setup-user
Installer openssh
1
apk add openssh
Activer le service et lancer
1
2
rc-update add sshd
service sshd start
Connexion SSH
1
ssh -i ~/.ssh/ct-alp01 root@192.168.0.231
Cockpit
Cockpit est une interface graphique Web pour la gestion des serveurs Linux. Il permet aux utilisateurs d’effectuer des tâches telles que configurer les réseaux, gérer le stockage et surveiller les performances du système directement via un navigateur Web. Il s’intègre aux outils système existants, le rendant adapté à la fois aux débutants et aux administrateurs expérimentés.
https://community-scripts.github.io/ProxmoxVE/scripts?id=cockpit
Pour créer un nouveau Proxmox VE Cockpit LXC, lancez la commande ci-dessous dans Proxmox VE Shell.
1
bash -c "$(curl -fsSL https://raw.githubusercontent.com/community-scripts/ProxmoxVE/main/ct/cockpit.sh)"
Fin installation
Location fichier de configuration : /etc/cockpit/cockpit.conf