Řeším to takto:
cat logfile |grep -v tohlenechci |grep -v tohleTakyNechci |grep -v aniTohleNechci |less (prohlédnu a hned přidám další grep -v).
Čísla původních řádků: cat logfile |nl|grep -i error |less
Na opravdu velké logy používám perl, dokáže "grep -v" i 10x rychleji: cat logfile |perl -e 'while(<>){if ($_=~/tohlenechci/){}else{print $_}} velmi ošklivé a velmi účinné, pokud máte 2GB log, kde je 98% jedna otravná hláška.
Pořadí dějů ve více log souborech: logy jedině s timestampem, pak používám konstrukci: cat log1 log2 |sort|grep -v
Díky, timestampy mám, takže profiltrované řádky hledám v původním textu podle nich, jen jsem si představoval něco klikacího. Příkazového řádku se trochu bojím. Perl vyzkouším, díky.
A proč už dávno na to nemáš svou vlastní aplikaci?
Na grafy jsem si prográmek udělal, na zobrazování textu zvýrazňování a vyhledávání si netroufnu (zabralo by to více času, než kolik by to ušetřilo). Říkal jsem si, že to je věc, kterou potřebuje každý druhý embedded vývojář i spousta PC/web/... softwérářů. Čekal jsem, že na to existuje spousta malých ale výkonných programů plných barviček s ideálním počtem klikátek, aby se v tom dokázal zorientovat i každý začínající arduinista.
echo "Proc jsem si jen ty logy nerozdelil do nekolika tematickych souboru, kdyz musim logovat takove mnozstvi bordelu"; rm -rf /home/tuxik/projects; echo "Mas co jsi chtel, zajdi na pivo, zapij zal a priste to delej poradne, ted mas tri dny cas na premysleni"; sleep $((60*60*24*3)); PRPOPR="/home/tuxik/projects/prvni_poradny_projekt"; mkdir -p $PRPOPR; cd $PRPOPR; vim main.c
loguju většinou embedded zařízení přes sériovou linku do PC, tedy jedním streamem (někdy více zařízení najednou do více souborů). Pokud bych to pokaždé dělil na 20 souborů (nebo kolik parametrů vlastně sleduju), tak bych v tom měl imho ještě větší zmatek než teď.
Ve chvíli kompilace a spouštění programu nevím, co jsem udělal špatně a co se při tomto spuštění pokazí a tak loguju všechno, co by se pokazit mohlo (o čem vím, že už se někdy pokazilo). Ve chvíli, kdy narazím na nesprávnou funkci začnu prohrabovat log. Kontrolou jednoho logu pak trávím nejčastěji 10 minut - 2 hodiny, přijde mi tak zbytečné data sypat do nějaké databáze, ale možná by to taky bylo řešení.