Zkoušel jsi btrfs fi df? Ukáže podrobnější informace o tom co kolik žere. Například metadata jsou defaultně dokonce duplikována, pokud máš hodně malých souborů a tedy hodně metadat, tak se to podle mě může projevit.
Už to asi chápu. Klasické df do "Used" z nějakého důvodu nezapočítává duplikovaná metadata, která u mne dle "btrfs fi df" zabírají 940 MB:
root@web6:~# btrfs filesystem df /
Data, single: total=9.95GiB, used=9.72GiB
System, DUP: total=32.00MiB, used=16.00KiB
Metadata, DUP: total=1.35GiB, used=940.31MiB
GlobalReserve, single: total=240.00MiB, used=0.00B
A jelikož záhadně chybějící volné místo dle df je cca 720 MB, tak by to mohla být nezapočítaná metadata.
root@web6:~# df /
Filesystem 1K-blocks Used Available Use% Mounted on
/dev/vda1 13619200 12367364 531612 96% /
Jenže 940 MB a 720 MB jsou trochu odlišné hodnoty a navíc to nevysvětluje tu neopravitelnou chybu z výpisu "btrfs check" a zmatená čísla ve výpisu "btrfs qgroup show".
btw: Tu ZFS partitionu na tom 8 TB SMR disku jsem včera opět zkusil připojit přes zfsonlinux read-write. Asi tak 15 hodin se prováděl příkaz "zpool import" a zuřivě to pracovalo a pak práce disku přestala a stroj přestal reagovat. Do syslogu se problém, ať už je jakýkoliv, nestihne zaznamenat. Včera jsem to zkusil ve virtuálce, ale totéž to dělá i nativně. Asi opravdu jedině data evakuovat na ne-SMR disk. Proto řeším, zda na ZFS nebo zda je již Btrfs dostatečně zralé.