Skip to main content

Sistema de backup pull para Proxmox VE

Sistema de backup basado en snapshots LVM para maquinas virtuales en Proxmox VE. Utiliza una arquitectura pull donde el servidor de storage inicia las conexiones SSH hacia Proxmox y tira de los datos. El servidor Proxmox nunca tiene acceso de escritura al storage.

Motivacion

El modelo tradicional push (Proxmox envia al storage) tiene un problema de seguridad critico: si el servidor Proxmox es comprometido, el atacante tiene credenciales SSH con acceso de escritura al storage y puede destruir todos los backups.

Con el modelo pull:

  • Proxmox no conoce las credenciales del storage
  • Proxmox no puede escribir ni borrar en el storage
  • Solo el storage decide cuando y que se respalda
  • Un Proxmox comprometido no puede destruir los backups existentes

Arquitectura

A partir de v2.0.0 el flujo es por VM en vez de por disco individual. Para VMs con multiples discos, todos los snapshots se crean atomicamente antes de transferir cualquier dato, garantizando consistencia temporal. Desde v2.1.0, un lock distribuido permite que multiples storages respalden el mismo Proxmox sin colisiones.

Storage Server                          Proxmox Server

     |                                       |
     |-- ssh "list" ------------------------>|  (inventario de VMs)
     |<-- CSV: vmid,status,vg,lv,size -------|
     |                                       |
     |  Para cada VM:                        |
     |-- ssh "snapshot-vm <vmid> <pct>       |
     |        <caller_id> <lock_ttl>" ------>|  (lock distribuido + snapshots atomicos de TODOS los discos)atomicos)
     |<-- manifest: snap_name,vg,lv,size ----|
     |                                       |
     |  Para cada disco en manifest:         |
     |-- ssh "stream-disk <vg> <snap>" ----->|  (stream comprimido)comprimido dd|pigz)
     |<------------ dd|pigzcompressed stream ----------|
     |-- guarda en incoming/                 |
     |-- verifica pigzPIPESTATUS -t+ tamano        |
     |                                       |
     |  Si TODOS los discos OK:              |
     |-- mv atomico incoming/ -> snapshots/  |
     |-- prune copias antiguas               |
     |                                       |
     |  Si ALGUN disco falla:                |
     |-- elimina TODO incoming/ de esta VM   |
     |-- backup previo en snapshots/ intacto |
     |                                       |
     |  SIEMPRE:                             |
     |-- ssh "cleanup-vm <vmid>              |
     |        <caller_id>" ----------------->|  (elimina TODOSsnapshots los+ snapshots)libera lock)

Consistencia multi-disco (v2.0.0)

El problema que resuelve v2.0.0: en versiones anteriores, los snapshots se creaban uno a uno (snapshot disk0 → transfer disk0 → cleanup disk0 → snapshot disk1 → transfer disk1). Para VMs con multiples discos, los snapshots capturaban diferentes instantes, produciendo backups inconsistentes.

La solucion:

  1. snapshot-vm crea TODOS los snapshots en sucesion rapida (milisegundos entre ellos)

  2. Si algun snapshot falla, rollback automatico de los ya creados

  3. Los streams se transfieren secuencialmente pero desde snapshots del mismo instante

  4. cleanup-vm elimina todos los snapshots al final

Semantica all-or-nothing

  • Un backup parcial de VM es inutil (disk0 de hoy y disk1 de ayer)
  • snapshots/ siempre contiene conjuntos completos
  • Si ANY disco falla: se borra todo el incoming de esa VM, el backup anterior queda intacto
  • Prune solo ejecuta tras exito total

Validacion de integridad (v2.1.2)

La compresion se realiza on-the-fly en el pipeline SSH: dd if=/dev/vg/snap bs=16M | pigz -c -p4 -3. Los errores del pipeline se detectan via PIPESTATUS inmediatamente. No se ejecuta verificacion post-transferencia (pigz -t) porque:

  • Re-leer ficheros de 93GB+ desde disco mecanico (30-40 MB/s) tarda 40-50 minutos
  • Es redundante: si el pipeline falla, PIPESTATUS lo captura
  • La verificacion de integridad de backups pertenece a auditorias periodicas, no al flujo diario

Lock distribuido (v2.1.0)

Cuando multiples storages respaldan el mismo Proxmox, un lock distribuido previene colisiones:

  • Ficheros lock en /run/pull-backup/vm-{vmid}.lock en Proxmox
  • Adquisicion atomica via ln (hard link, falla con EEXIST si ya existe)
  • Contenido: caller_id, timestamp, TTL
  • VM bloqueada por otro storage: skip limpio (exit 80, VM_LOCKED)
  • Locks expirados (mas antiguos que lock_ttl) se limpian automaticamente
  • Solo el caller que creo el lock puede liberarlo

Configuracion: caller_id (unico por storage) y lock_ttl (segundos) en pull-backup.cfg. Sin caller_id, el lock se desactiva (modo single-storage).

Componentes

Componente Version Ubicacion Funcion
proxmox-backup-helper.sh 2.0.01.1 Proxmox: ~/usr/local/bin/utilidades/proxmox-backup/pull/ o (repo clonadoclonado) Manejador SSH restringido con 1213 comandoscomandos, lock distribuido
proxmox-pull-backup.sh 2.0.01.2 Storage: ~/root/backups/utilidades/proxmox-backup/pull/ o (repo clonadoclonado) Orquestador de backups (flujo por VM)VM, lock distribuido)
proxmox-pull-restore.py 1.0.0 Storage: mismo directorio Herramienta de restauracion (Python 3.6+)
backup-access-shell.sh 1.0.0 Storage: /usr/local/bin/mismo directorio Shell de solo lectura para restore
install-pull-backup.sh 1.0.0 Storage: mismo directorio Instalador automatizado

IMPORTANTE: Todos los scripts se ejecutan desde el repo clonado (~/utilidades/proxmox-backup/pull/). Nunca copiar a /usr/local/bin/ ni a otra ruta del sistema. Un git pull actualiza todo.

Requisitos previos

  • Proxmox: Version 7.x, 8.x o 9.x con almacenamiento LVM
  • Storage: Servidor Linux con espacio suficiente
  • Ambos servidores: pigz instalado (apt-get install pigz)
  • Storage: Python 3.6+ (solo stdlib, sin dependencias externas)
  • Red: Acceso SSH desde storage hacia Proxmox

Instalacion

Paso 1: Clonar el repositorio en ambos servidores

En Proxmox (como root):

cd ~
git clone <url-del-repo> utilidades

En storage (como usuario de backup, NO root):

cd ~
git clone <url-del-repo> utilidades

Paso 2: Instalar pigz en ambos servidores

apt-get install -y pigz

Paso 2: Subir los scripts al storage

# Desde la maquina local o mediante rsync
rsync -avz proxmox-backup/pull/ storage:/root/backups/pull/
chmod +x /root/backups/pull/*.sh

Paso 3: EjecutarGenerar elclave instaladorSSH y configurar acceso

DesdeEn el servidor de storage:

cd ~/root/backups/pull/utilidades/proxmox-backup/pull
./install-pull-backup.sh \mkdir --proxmox-hostp prox06.example.comkeys
\ssh-keygen --proxmox-portt 22 \ed25519 --proxmox-namef prox06 \keys/id_pull_backup -N "" -storage-dirC /srv/storage/backups_kvm"pull-backup@$(hostname)"

ElCopiar instalador ejecuta 8 pasos automaticos:

  1. Generala clave SSHpublica ed25519 en /root/backups/pull/keys/

  2. Copia el helper aal Proxmox en /usr/local/bin/

  3. Configura authorized_keys con restriccion command=:

  4. # 
  5. En

    Crea/root/.ssh/authorized_keys directoriosdel incoming/Proxmox: command="/root/utilidades/proxmox-backup/pull/proxmox-backup-helper.sh",no-port-forwarding,no-X11-forwarding,no-agent-forwarding,no-pty ssh-ed25519 AAAA... pull-backup@mystor01  y snapshots/

  6. Auto-detecta discos LVM en Proxmox

  7. Anade el host al inventario proxmox_hosts.cfg

  8. Instala backup-access-shell.sh en storage

  9. Ejecuta tests de conectividad

Paso 4: Crear la configuracion principal

cd ~/utilidades/proxmox-backup/pull
cp /root/backups/pull/config/pull-backup.cfg.example \
   /root/backups/pull/config/pull-backup.cfg
cp config/proxmox_hosts.cfg.example hosts/proxmox_hosts.cfg

Editar los valores segun el entorno:config/pull-backup.cfg:

# Directorios
incoming_dir="/srv/storage/backups_kvm/incoming"
final_dir="/srv/storage/backups_kvm/snapshots"

# Retencion
numcopias=3

# Snapshots
(v2.0.0)
snapshot_pct=15          # Porcentaje del LV para snapshot
(default 15)
default_vm_scope="all"   # "all" = descubre y respalda todas las VMs; "none" = requiere filtro explicito

# Rendimiento
min_speed_mbs=150    # MB/s minimos esperados (para timeout dinamico)
min_free_gb=1024500      # GB libres requeridos (ademas del tamano estimado)
ssh_timeout=30       # Timeout SSH en segundos

# Lock distribuido (v2.1.0+, obligatorio si hay multiples storages)
caller_id="mystor01"    # Identificador unico de este storage
lock_ttl=7200            # TTL del lock en segundos (2h)

# Permisos de ficheros
file_owner="backupuser:backupuser"   # chown tras escribir

# Notificaciones (solo en errores)
correo="admin@example.com"

Paso

Editar 5: Revisar el inventario de hosts

cat /root/backups/pull/hosts/proxmox_hosts.cfg

Formato CSV::

# name,host,port,key_file,disks_file
avanza01,ns3248916.ip-91-134-71.eu,myprox01,10.0.0.1,22,/root/backups/pull/keys/id_pull_backup,

El campo disks_file es opcional desde v2.0.0. Si se deja vacio yCon default_vm_scope="all", el orquestador descubre automaticamente todas las VMs activas via el comando list.activas.

Paso 5: Crear directorios de datos

mkdir -p /srv/storage/backups_kvm/incoming
mkdir -p /srv/storage/backups_kvm/snapshots
mkdir -p ~/utilidades/proxmox-backup/pull/logs

Paso 6: Verificar conectividad

cd ~/utilidades/proxmox-backup/pull
./proxmox-pull-backup.sh --host myprox01 --verbose --dry-run

Paso 7: Configurar cron

# Backup diario a las 10:02:00 UTC
echocrontab "-e
0 102 * * * ~/root/backups/utilidades/proxmox-backup/pull/proxmox-pull-backup.sh >> ~/root/backups/utilidades/proxmox-backup/pull/logs/cron.log 2>&1" | crontab -1

IMPORTANTE con multiples storages: escalonar los crons con al menos 15 minutos de diferencia. Aunque el lock distribuido previene colisiones, la separacion temporal reduce contention.

Actualizacion

cd ~/utilidades
git pull

No requiere reinicio. Los scripts se invocan frescos en cada ejecucion.

Uso diario

Ejecutar backup manual

cd ~/utilidades/proxmox-backup/pull

# Dry-run (no ejecuta nada, muestra lo que haria)
./proxmox-pull-backup.sh --host prox06myprox01 --verbose --dry-run

# Backup real de todas las VMs de un host
./proxmox-pull-backup.sh --host prox06myprox01 --verbose

# Backup de una VM especifica
./proxmox-pull-backup.sh --host prox06myprox01 --vm 104 --verbose

# Backup de varias VMs (separadas por coma o repetido)
./proxmox-pull-backup.sh --host prox06myprox01 --vm 104,203 --verbose

# Backup de todos los hosts configurados
./proxmox-pull-backup.sh --verbose

Listar backups disponibles

python3 proxmox-pull-restore.py --config config/pull-backup.cfg list

# Filtrar por host
python3 proxmox-pull-restore.py --config config/pull-backup.cfg list --host prox06myprox01

# Filtrar por VM
python3 proxmox-pull-restore.py --config config/pull-backup.cfg list --vm 316

Restaurar una VM

Escenario A: la VM existe y esta parada (sobreescribe los discos):

python3 proxmox-pull-restore.py --config config/pull-backup.cfg \
  restore --host prox06myprox01 --vm 316 --data-only

Escenario B: la VM no existe (crea LV, config y restaura datos):

python3 proxmox-pull-restore.py --config config/pull-backup.cfg \
  restore --host prox06myprox01 --vm 316 --from-scratch

Restaurar desde una fecha concreta:

python3 proxmox-pull-restore.py --config config/pull-backup.cfg \
  restore --host prox06myprox01 --vm 316 --date 2026-02-08

Restaurar varias VMs en paralelo:

python3 proxmox-pull-restore.py --config config/pull-backup.cfg \
  restore --host prox06myprox01 --vm 316 900 --workers 2

IMPORTANTE: el argumento --config va ANTES del subcomando (list, restore).

Modelo de seguridad

Lado Proxmox

El helper (proxmox-backup-helper.sh) se ejecuta exclusivamente via la restriccion command= en authorized_keys. Esto significa que cualquier conexion SSH con esa clave ejecuta el helper, ignorando el comando solicitado por el cliente.

El helper valida cada argumento con expresiones regulares estrictas:

  • Volume groups: solo alfanumericos, guiones y guiones bajos
  • Logical volumes: solo patron vm-\d+-disk-\d+
  • Snapshot names: solo patron snap-\d+-disk\d+
  • VMIDs: solo numeros entre 100 y 999999
  • Snapshot porcentaje: solo numeros entre 1 y 100
  • caller_id: solo alfanumericos, guiones y guiones bajos (v2.1.0)

Comandos no reconocidos se rechazan con error. Todas las operaciones se registran en syslog.

Lado Storage

El storage inicia todas las conexiones. Proxmox nunca se conecta al storage para los backups. El unico acceso inverso (Proxmox hacia storage) es para restore, y se canaliza a traves de backup-access-shell.sh que solo permite operaciones de lectura (pigz -dc, ls, test, cat, du) y valida rutas con readlink -f contra symlinks maliciosos.

Estructura de ficheros

En el servidor de storage

~/root/backups/utilidades/proxmox-backup/pull/
  proxmox-pull-backup.sh        # Orquestador v2.0.01.2
  proxmox-pull-restore.py       # Herramienta de restore
  backup-access-shell.sh        # Shell read-only
  install-pull-backup.sh        # Instalador
  config/
    pull-backup.cfg              # Configuracion principal (gitignored)
    pull-backup.cfg.example      # Template (versionado)
  hosts/
    proxmox_hosts.cfg            # Inventario de hosts disks_prox06.(gitignored)
    disks_myprox01.txt           # (Opcional) filtro de discos (gitignored)
  keys/
    id_pull_backup               # Clave privada SSH (gitignored)
    id_pull_backup.pub           # Clave publica SSH (gitignored)
  logs/
    pull-backup-YYYY-MM-DD.log   # Log diario (gitignored)
    cron.log                     # Log de cron (gitignored)

En el servidor Proxmox

~/usr/local/bin/utilidades/proxmox-backup/pull/
  proxmox-backup-helper.sh      # Helper restringido v2.0.01.1

/root/.ssh/authorized_keys      # Clave con command=
/run/pull-backup/               # Lock files distribuidos (runtime)

Directorio de backups

/srv/storage/backups_kvm/
  incoming/                                # Transferencias en curso
  snapshots/
    kvm-104-disk0.2026-02-26-10-00-12.gz   # Disco 0 comprimido
    kvm-104-disk1.2026-02-26-10-00-12.gz   # Disco 1 (mismo timestamp)
    kvm-104.conf.2026-02-26-10-00-12       # Config de la VM

Nomenclatura de ficheros

kvm-{vmid}-disk{N}.{YYYY-MM-DD-HH-MM-SS}.gz    # Discos
kvm-{vmid}.conf.{YYYY-MM-DD-HH-MM-SS}           # Configuraciones

Comandos del helper

El helper v2.0.01.1 acepta 1213 comandos, todos validados con regex:

Comando Argumentos Funcion
list (ninguno) Lista VMs activas con discos LVM
list-all (ninguno) Lista TODAS las VMs (incluidas paradas)
list-snapshots (ninguno) Lista snapshots activos (deteccion de huerfanos)
snapshot-vm vmid porcentaje [force] [caller_id] [lock_ttl] v2.0.0:Adquiere Crealock distribuido (si caller_id), crea snapshots atomicos de TODOS los discos de una VM.discos. Devuelve manifest por stdout
stream-disk vg snap_name v2.0.0: Envia stream comprimido (dd | pigz) de un snapshot existente
cleanup-vm vmid [caller_id] v2.0.0: Elimina TODOS los snapshots de una VM y libera lock
check-lockvmidVerifica estado del lock distribuido de una VM (v2.1.0)
snapshot vg lv porcentaje [force] (Deprecated) Crea snapshot individual y envia stream
cleanup vg snap_name Elimina un snapshot LVM individual
config vmid Devuelve el fichero de configuracion de la VM
restore vg lv Recibe stream comprimido y lo escribe al disco
create-disk vg nombre size_gb Crea un nuevo volumen logico
restore-config vmid Recibe y escribe la config de la VM

Formato del manifest (snapshot-vm)

# snap_name,vg,lv,size_gb
snap-104-disk0,pve,vm-104-disk-0,150
snap-104-disk1,pve,vm-104-disk-1,125

Opciones del orquestador

proxmox-pull-backup.sh [--config <path>] [--host <name>] [--vm <vmid>[,<vmid>...]] [--dry-run] [--force] [--verbose]

  --config <path>            Fichero de configuracion (default: ./config/pull-backup.cfg)
  --host <name>              Backup solo este host (default: todos los hosts)
  --vm <vmid>[,<vmid>...]    Backup solo estas VMs (separadas por coma, repetible)
  --dry-run                  Muestra lo que haria sin ejecutar
  --force                    Auto-limpieza de snapshots huerfanos en Proxmox
  --verbose                  Salida detallada

Parametros de configuracion

ParametroDefaultDescripcion
incoming_dir(obligatorio)Directorio temporal para transferencias en curso
final_dir(obligatorio)Directorio final de backups
numcopias3Copias a retener por disco
snapshot_pct15Porcentaje del LV para snapshot
default_vm_scope"all""all" = descubre todas las VMs; "none" = requiere filtro
min_speed_mbs150MB/s minimos esperados (para timeout dinamico)
min_free_gb1024GB libres minimos en storage (ademas del tamano estimado)
force_orphan_cleanup0Auto-limpiar snapshots huerfanos (1 = activado)
caller_id""Identificador de este storage (obligatorio para multi-storage)
lock_ttl7200TTL del lock distribuido en segundos
file_owner""user:group para chown tras escritura (ej: backupuser:backupuser)
correo""Email para notificaciones de error (nunca en exito)
ssh_timeout30Timeout de conexion SSH en segundos

Funcionalidades avanzadas

Descubrimiento dinamico (v2.0.0)

Con default_vm_scope="all" en la config, el orquestador descubre automaticamente todas las VMs activas usando el comando list del helper. Los ficheros disks_*.txt pasan a ser opcionales (filtro de exclusion, no inventario obligatorio).

Timeout dinamico

El timeout de cada transferencia se calcula automaticamente segun el tamano del disco:

timeout = (tamano_disco_gb * 1024) / min_speed_mbs

Con un minimo de 300 segundos. Para un disco de 150GB a 150 MB/s el timeout es ~17 minutos.

Deteccion de snapshots huerfanos

Antes de procesar cada host, el orquestador ejecuta list-snapshots y compara con los snapshots esperados. Los huerfanos (de ejecuciones previas fallidas) se limpian automaticamente si force_orphan_cleanup=1.

Estimacion de tamano

Si existe un backup previo del mismo disco, se usa su tamano como estimacion. Si no, se estima el 50% del tamano raw del disco. Esto se usa para la verificacion de espacio libre.

Verificacion de integridad

Tras cada transferencia, se ejecuta pigz -t sobre el fichero comprimido para verificar integridad. Si falla, se descarta el fichero y se reintenta.

Reintentos

Si un backup falla, se reintenta una vez tras 10 minutos de espera. Solo se reporta error si el segundo intento tambien falla. Si falla el reintento, la VM completa se marca como fallida (all-or-nothing).

Pruning automatico

Tras completar los backups, se mantienen solo las ultimas numcopias copias de cada disco. Las configs asociadas a backups eliminados tambien se limpian.

Rendimiento validado

Produccion (avanza01marzo + stor01avanzait, febrero 2026)

KVM 104 — 2 discos, snapshots atomicos2026, v2.0.0:

1.2)
DiscoVM Tamano rawDiscos Comprimido Tiempo transfertotal Velocidad Verificacion pigz -tRuta
disk0KVM 104 1502 (150+125 GB)93 GB 9114.5 GBmin 828s (14 min)106-111 MB/s ~16avanza01 min→ stor01avanzait
disk1KVM 203 1252 (85+50 GB)39 GB 80~12 GBmin 769s (13 min)10656-76 MB/s ~17avanza01 → stor01avanzait
KVM 1001 (620 GB)415 GB30 min233 MB/sindivaprox0 → localstor (local)
KVM 1011 (260 GB)114 GB10 min187 MB/sindivaprox0 → localstor (local)

TotalMejora v2.1.2: 171La GBeliminacion comprimidos,de 3657sla (verificacion pigz -t post-transferencia redujo el tiempo total de KVM 104 de ~61 min)min incluyendo(v2.0.0) snapshots,a transfers,~14.5 verificacionmin y cleanup.aceleracion de 4x. La integridad de la compresion se valida on-the-fly via PIPESTATUS del pipeline dd | pigz.

Staging (avanza02 + stor01avanzait, febrero 2026)

Operacion Disco Tiempo Velocidad Resultado
Backup 5GB 11s 6 MB/s 73MB comprimido
Restore data-only 5GB 10s 7 MB/s OK
Restore from-scratch 5GB 9s 7 MB/s LV + config + datos
Deteccion huerfanos -- instantaneo -- Auto-limpieza
Pruning 4 a 3 copias -- <1s -- Retencion exacta

Despliegues actuales

Storage Host Proxmox VMs Cron (UTC) Version
localstor (stor00)indivaprox0KVM 100 (1d, 620GB), KVM 101 (1d, 260GB)22:00 VM100, 23:15 VM101v2.1.2
stor01indivaprox0todas (dynamic discovery)02:00v2.1.2
stor01avanzait avanza01 KVM 104 (2 discos)2d), KVM 203 (2 discos)2d) 10:00 UTC diario v2.0.01.2

Troubleshooting

El backup genera un fichero .gz invalido

Causa: Los comandos lvcreate/lvremove escriben mensajes a stdout que contaminan el stream gzip.

Solucion: Verificar que el helper redirige stdout de lvm a stderr (>&2). Actualizar el helper a v2.0.0.1.1+.

ErrorVM "integerbloqueada expressionpor expected"otro enstorage el(exit installer80)

Causa: grepOtro -cstorage viaesta SSHrespaldando devuelveesa multiplesVM. lineasEl lock distribuido (0\n0),v2.1.0) bashpreviene nola puede comparar.colision.

Solucion: BugEs menorun conocido,comportamiento nocorrecto. afectaLa VM se salta limpiamente y se respalda en la siguiente ejecucion. Si el lock es huerfano (proceso anterior murio), esperar a laque instalacion. El paso 3 completa correctamente.

El installer falla enexpire el testTTL de(default restriccion

2h)

Causa:o setlimpiar -euo pipefail captura el exit code 1 del helper cuando rechaza un comando no autorizado.

Solucion: Bug menor conocido. La restriccion funciona correctamente. Verificar manualmente con:manualmente:

ssh -i keys/id_pull_backup proxmox "lscleanup-vm /<vmid> <caller_id>"
# Debe devolver: ERROR: Unknown command: ls

ElSnapshot/lock restorehuerfano dicetras "pigz:matar unrecognizedun format"proceso

Causa: ElSi ficherose .gzmata estael corruptoproceso del orquestador (verkill primer-9), problema).pueden quedar snapshots y locks huerfanos en Proxmox.

Solucion: RehacerLimpiar elmanualmente:

backup
ssh con-i elkeys/id_pull_backup helperproxmox v2.0.0.

"cleanup-vm <vmid> <caller_id>"

Timeout en backups de discos grandes

Causa: El timeout dinamico depende de min_speed_mbs en la config.

Solucion: Reducir min_speed_mbs si la red es lenta. Por ejemplo, para 50 MB/s reales:

min_speed_mbs=40   # Dejar margen del 20%

Snapshot overflow (snap_percent=100)

Causa: El disco recibe mas escrituras de las esperadas durante la transferencia, llenando el snapshot COW.

Solucion: Aumentar snapshot_pct en la config (default: 15). Para VMs con alta actividad de I/O, usar 20-25.

El restore dice "pigz: unrecognized format"

Causa: El fichero .gz esta corrupto.

Solucion: Rehacer el backup con el helper v2.1.1+.

Repositorio

El codigo fuente esta en el repositorio utilidades bajo proxmox-backup/pull/.

Documentacion completa: proxmox-backup/README.md y proxmox-backup/docs/SPEC-pull-backup-architecture.md.

Historial de versiones

Version Fecha Cambio principal
2.1.0.02 2026-02-0803-02 PrimeraEliminada versionverificacion funcionalpigz -t post-transferencia (aceleracion 4x en disco mecanico)
2.1.1.01 2026-02-0803-01 Fix9 stdoutbugs pollutioncorregidos: race condition TOCTOU en helper,lock, validacionset staging+e en pipelines, globals stale, etc.
2.1.4.0 2026-02-0903-01 Multi-VMLock filter,distribuido dynamicpara discoveryprevencion de colisiones multi-storage
2.0.0 2026-02-26 Snapshots atomicos multi-disco, flujo per-VM, all-or-nothing, snapshot-vm/stream-disk/cleanup-vm
1.4.02026-02-09Multi-VM filter, dynamic discovery
1.1.02026-02-08Fix stdout pollution en helper, validacion staging
1.0.02026-02-08Primera version funcional

Ultima actualizacion

  • Fecha: 2026-02-2603-02
  • Version: 2.0.01.2
  • Autor: Abkrim