Po niekolkych rokoch som sa trocha zacal zaujmat aj o zalohovanie

Sice to co potrebujem, tak zalohovane mam, ale nepaci sa mi ako to zalohujem, chcel by som to trocha zautomatizovat.
Nedavno som riesil ako zalohovat jednoducho mariadb a obsah webov, tak som pouzil tento skript
#!/bin/bash
mysqldump nazov_db > ~/nazov_db-$(date +%Y-%m-%d-%H.%M.%S).sql
tar -cvzf ~/backup_nazov_webu-$(date +%Y-%m-%d-%H.%M.%S).tar.gz /var/www/www.nazov_webu.info
Funguje to celkom OK, ale po nejakej zmene na webe, alebo v DB, tie backupy vymazem a spravim nove zalohy.
Urcite su na to nejake ficurky ako robit aj inkrementalne zalohy, ale chcem sa predsa skusenejsich opytat.
Predstavoval by som si to takto:
- Zaloha by sa robila napr. 1x za den (to by sa poriesilo cronom)
- Spravila by sa prva zaloha webu a DB (vid skript hore).
- Dalsie zalohy by boli inkrementalne (cize ak sa v ten den nic na webe nezmeni, tak nic sa nebude zalohovat).
- Na to by bol asi vhodny rdiff-backup (resp. rsync).
- Urcite by bolo bobre, aby tie zalohy boli ulozene ako *.tar.gz (zrejme lepsie v pripade obnovy).
- Urcite ich nechcem zalohovat na disk v servery, ale niekde vzdialene.
- V tomto pripade by mohol byt gzip este encrypted
- Ukladat by som ich chcel niekde na google drive (v gmaily sa zdiela 15GB priestor a ja mam volne este 14.5GB)
Je to takto dobre ? Ako to mate poriesene vy ?
Ja nie som firma, mam len maly domaci server, preto to chcem zalohovat mimo moje disky, niekde von.
Teoreticky by to stacilo zalohovat niekde na kluc v desktope, alebo to by som musel kazdy den robit rucne (vlozit kluc, spustit skript atd ...).
Alebo este ma napadla myslinka, pychnut kluc do servera, namountovat ho tam a nechat zalohy robit tam.