= rychle budou pribyvat nove a stare mazat.
Záznamy se (řekl bych) obvykle nemažou, ale označí se jako neplatné.
K odstranění záznamu dojde buď mimochodem, protože databáze se tak rozhodla nebo naplánovanou úlohou nebo tvým přičiněním. Rozdíl je PostgreSQL/MSSQL/MySQL. Někdy je to opruz, kdy je potřeba tabulky zazálohovat, dropnout indexy, truncate, vytvořit indexy a to v době, kdy je databáze offline. Prostě to není jen tak.
Mluvíš tu o desítkách milionů záznamů za den, tj. řekněme o dvou desítkách milionů záznamů za den, tj. milion záznamů za hodinu, 16 tisíc záznamů za minutu a 277 záznamů za vteřinu (třeba ve špičce). Píšeš do 15-ti tabulek, takže plácnu 15*40 znaků = 277 zázn/sec *15tabulek *40 znaků = 166 200 znaků za vteřinu = 166KB za vteřinu (podle toho, jaké kódování použiješ), což NENÍ MOC. Jenže tu databázi nejspíš uvláčíš. Ale dá se z toho utéct třeba přes CREATE TABLE t (i INT) ENGINE = MEMORY; Což může a nemusí být dobré řešení, rozhodně když budeš mít hodně ramky, neutaháš disky a s rozumnou koncepcí to třeba rozlouskneš i při tomhle objemu dat. Obráceně, když budeme počítat 24 000 000 záznamů za den * 15 * 40 = dvacet až padesát giga ramky za den, to není drahé, sám tu mám v jedné mašině 64 GB ram, ramky stály litr 16GB (jsou tam čtyři moduly).
Nechci ti brát iluze, ale evidentně sis ukousl výrazně větší krajíc, než jsi schopen sníst.
...
Navíc v cloudu by ses nedoplatil.
Má pravdu předseda! Nejprve bych to rozjel lokálně a zjistil limity, zlepšil to, ořezal, vyčistil, zlepšil, optimalizoval a spočítal si, kolik mě bude provoz stát.