pani, ten zdroj vypoctu (asi wikipedia) by ste mali brat naozaj ako silne teoreticky a zjednoduseny vypocet.
Dovod:
Vratim sa k jednej debate z roku 2014, ktoru mam poznacenu v mojich zalozkach. Ma v sebe viac reality, ako teorie. Link je tu:
https://www.truenas.com/community/threads/the-math-on-hard-drive-failure.21110/Matematika (priamo v linku):
- pre vypocet Failures rate musite brat do uvahy, aky mate Array, kolko je v nom diskov a kolko je z toho realne redundandnych diskov
- ak do toho zaratate aj geometriu blokov, tak sa posuvate dalej k presnejsim vypoctom
Skuste si to dat do excelu a zistite, ktory typ RAIDu a nastavenia jeho poctu diskov/redundancie bude vplyvat na moznosti vzniku failures.
Ak ste prave zistili, ze RAID5 je na tom horsie ako RAID10, tak mate dalsi dovod skumat viac informacii ako len pozerat na MTBF.
MTBF je udaj, ktory "odhaduje" spolahlivost pri dodrzanych laboratornych podmienkach na skupine diskov (to je k tej statistike).
Nie je garanciou niecoho, co by malo byt brane ako primarny evaluator zivotnosti samotneho a konkretneho disku, ktory pouzivate.
Druhy pohlad MTBF = Mean Time = priemerny cas. Priemer je jeden z najmenej presnych ukazovatelov. Preto ludia na presne vypocty pouzivaju percentily.
Priemerny pocet hodin, kedy padne dopravne lietadlo je tiez k nicomu = MTBF je to iste.
Cela ta prezentacia, na ktoru ste tu upozornili je o rozdeleni na Enterprise/Desktop, ktora neberie do uvahy, ze svet nie je len cierny/biely. Dtto ten Intel doc.