Zobrazit příspěvky

Tato sekce Vám umožňuje zobrazit všechny příspěvky tohoto uživatele. Prosím uvědomte si, že můžete vidět příspěvky pouze z oblastí Vám přístupných.


Příspěvky - echo_zulu

Stran: [1] 2 3 ... 8
1
Software / Re:Odstranění duplicit a konsolidace dat
« kdy: 13. 05. 2026, 22:18:05 »
Neviem, čo vám skrachovalo, v podstate ma to ani nezaujíma, neobťažovali ste sa sem vlepiť príkazy, ktoré ste použili, dohadovať sa o tom, čo to bolo a riešiť to je pre mňa strata času, ale z toho popisu, čo ste sem dali si myslím, že je to úplne mimo kontext toho, čo som písal ja, aj mimo mnou navrhnutého riešenia, pretože v tom nikto žiadne veľké dáta cez kolónu neposiela. To nakoniec v PowerShelli v rámci jeho štandardnej knižnice celkovo nerobí nikto, posielaný je odkaz na objekt .Net obsahujúci metadáta týkajúce sa položky súborového systému, ako napríklad cesta, dátumy, veľkosť, vlastnosti, atď., prípadne ďalšie pridané vlastnosti. Dáta zo súboru sú načítavané prúdom .Net po častiach, inkrementálny hash je tiež počítaný objektom z .Net. To všetko je uvedené už v mojom prvom príspevku.

Přes kolonu běžně posílám desítky GB dat. Jednoduchý příkaz:
Kód: [Vybrat]
tar czvf - adresář | gzip > archiv.tgzFunguje to skvěle, rychle a využiji tím 2 jádra procesoru současně.

Pro deduplikaci souborů:
Kód: [Vybrat]
sha256sum . | sort | filtr_mazající_duplicity

A? Má to niečo spoločné s mojou prvotnou odpoveďou? Vidíte v nej niekde, že by som cez kolónu posielal nejaké veľké dáta?

Prípadne, má to niečo spoločné s mojou poslednou odpoveďou? Že neviem, čo konkrétne a kde konkrétne ste písali, keď vám to skolabovalo?

Táto konkrétna vec totiž na Windows funguje principiálne rovnako ano na Linuxe. S prihliadnutím na rozdiely v API a v modeli procesov a vlákien. Asi tak od čias NT 3.1. To bol rok asi tak 1993. Už som vám to niekoľkokrát opakoval. Ale je to márne, je to márne, je to očividne márne.

Záver pre mňa: niekde ste počuli niečo, čo platilo pre Windows 95 a ste schopný opakovať to do nekonečna bez toho aby ste sa obťažovali vyhľadať si ako to v skutočnosti je. Plus si ešte mýlite operačný systém a programovací jazyk. Ale to už som písal.

2
Software / Re:Odstranění duplicit a konsolidace dat
« kdy: 12. 05. 2026, 22:02:34 »
Už som vám naznačoval, že to, čo ste popisovali, je už viac ako 25 rokov vyriešené a teda žiadne súbory tam nie sú. A okrem toho, v PowerShelli idú dáta cez kolónu k spotrebiteľovi cez ešte menšiu časť pamäte ako v Linuxe. Dokumentácia aj zdrojový kód sú tuším otvorené a verejne dostupné.

Dá se to poznat tak, že tou rourou pošlu třeba 200 GB dat, když je jen 100 GB volného místa v úložišti. Pokud mám pravdu, tak to zkolabuje. Pokud nemám pravdu, tak to proběhne během několika málo sekund.

Ve Windows 10 mi to zkolabovalo.

Nehnevajte sa, ale vy naozaj pôsobíte v IT? Nemyslím si, že má pre mňa zmysel pokračovať v debate s niekým, kto očividne nepozná rozdiel medzi programovacím jazykom a operačným systémom, kto sa nenamáha prečítať si navhrnuté riešenie predtým ako sa k nemu vyjadrí a kto sa neobťažuje zistiť si ako veci v skutočnosti fungujú na iných platformách, napriek tomu, že dostane informáciu, že je všetko prístupné a že veci už dávno fungujú inak ako si celé roky myslí.

Neviem, čo vám skrachovalo, v podstate ma to ani nezaujíma, neobťažovali ste sa sem vlepiť príkazy, ktoré ste použili, dohadovať sa o tom, čo to bolo a riešiť to je pre mňa strata času, ale z toho popisu, čo ste sem dali si myslím, že je to úplne mimo kontext toho, čo som písal ja, aj mimo mnou navrhnutého riešenia, pretože v tom nikto žiadne veľké dáta cez kolónu neposiela. To nakoniec v PowerShelli v rámci jeho štandardnej knižnice celkovo nerobí nikto, posielaný je odkaz na objekt .Net obsahujúci metadáta týkajúce sa položky súborového systému, ako napríklad cesta, dátumy, veľkosť, vlastnosti, atď., prípadne ďalšie pridané vlastnosti. Dáta zo súboru sú načítavané prúdom .Net po častiach, inkrementálny hash je tiež počítaný objektom z .Net. To všetko je uvedené už v mojom prvom príspevku.

Správate sa ako troll, ktorý, keď vidí niekde napísané Windows, jednoducho sa potrebuje vyjadriť, že Windows je šmejd, napriek tomu, že daná téma sa Windows vôbec nijako netýka. Okrem toho, že predrečník má vo Windows dáta. Ale má ich aj na Linuxe a PowerShell funguje aj tam. Podobnú skupina tvoria ľudia, ktorí sa správajú rovnako, keď vidia niekde napísané C++. Nebol by som prekvapený, keby ste boli členom oboch skupín.

Ja osobne som do tejto témy zapojil výhradne kvôli tomu, že tu predtým panoval názor, že je nutné kvôli deduplikácii počítať hash z celého objemu dát všetkých súborov, čo teda ani náhodou nie je pravda a aspoň toto si už možno uvedomujete aj vy, takže som rád, že som to mohol objasniť a možno trochu zjednodušiť život aj vám a to napriek tomu, že ste písali, že je to optimalizácia, ktorá nie je potrebná.

Ostatné veci už s dovolením nechávam na vaše samoštúdium.

3
Software / Re:Odstranění duplicit a konsolidace dat
« kdy: 12. 05. 2026, 18:24:42 »
Ve Windows je to tak komplikované? No jo, nemají roury...
PowerShell pochopiteľne "roury" má, a asi vás zmiatlo, že nepíšem o primitíve spájajúcom dve fázy spacovania, čo je menej dôležitý koncept, ale o celom mechanizme kolóny, označenom tak sme sa to kedysi dávno učili.

Pokud vím, tak Windows mají stále parodii na roury přes dočasné soubory. Není to efektivní a proto je uživatelé moc nepoužívají. Zejména při zpracování velkých souborů je to problém.


Je možné, že si mýlite operačný systém a programovací jazyk? To by sa v kombinácii s tým ako autoritatívne sa vyjadrujete k príspevkom ostatných asi nemalo stávať.

Jasne píšem, že je to pre PowerShell a ten predsa beží aj na Linuxe aj na MasOS. Tak prečo do toho montujete Windows, mimochodom vo verzii 95, možno 98? Odvtedy už tie veci, ktoré spomínate fungujú inak a to už je minimálne štvrť storočia. Okrem toho v prvej odpovedi spomínam aj iné programovacie jazyky. Mechanizmus vyraďovania súborov, ktoré nie sú duplikátmi ostane rovnaký.

V Linuxu je podpora pipe službou operačního systému, není tedy součástí aplikace. Vůbec nevyužívá souborový systém, data jdou od producenta ke konzumentovi přes velmi malou část operační paměti. Ve Windows je podpora emulována přes soubory a tím má mizerný výkon. Netuším, zda to v pozdějších verzích napravili, ale nemám to jak zjistit. V desítkách to ještě nebylo a obávám se, že to tam stále není.

Vy si naozaj mýlite operačný systém a programovací jazyk. To že je na jednej platforme niečo implementované nejako neznamená, že to tak nutne musí byť implementované aj na iných platformách.

Už som vám naznačoval, že to, čo ste popisovali, je už viac ako 25 rokov vyriešené a teda žiadne súbory tam nie sú. A okrem toho, v PowerShelli idú dáta cez kolónu k spotrebiteľovi cez ešte menšiu časť pamäte ako v Linuxe. Dokumentácia aj zdrojový kód sú tuším otvorené a verejne dostupné.

4
Software / Re:Odstranění duplicit a konsolidace dat
« kdy: 12. 05. 2026, 15:10:04 »
Sám jsem deduplikaci pomocí hash úspěšně udělal v Bashi na své sbírce filmů. Najde shodu i když mají různé názvy.
Pokud tě zajímají jen přesné duplicity, tak je to v pohodě, i když to na velkém úložišti bude prostě trvat (přečíst celý disk a prohnat ty TB skrz CPU...)

Práveže ak chcete iba nájsť presné duplicity, tak všetky tie TB dát cez CPU prehnať nemusíte, stačia iba tie, ktoré sú bezpodmienečne nutné.
Aha, pardon, asi jsem ještě neměl dost kofeinu v krvi. :-)

To nevadí, nemám problém niečo zopakovať. Je fakt, že tá moja prvá odpoveď bola dosť dlhá.

5
Software / Re:Odstranění duplicit a konsolidace dat
« kdy: 12. 05. 2026, 15:04:04 »
Ve Windows je to tak komplikované? No jo, nemají roury...
PowerShell pochopiteľne "roury" má, a asi vás zmiatlo, že nepíšem o primitíve spájajúcom dve fázy spacovania, čo je menej dôležitý koncept, ale o celom mechanizme kolóny, označenom tak sme sa to kedysi dávno učili.

Pokud vím, tak Windows mají stále parodii na roury přes dočasné soubory. Není to efektivní a proto je uživatelé moc nepoužívají. Zejména při zpracování velkých souborů je to problém.


Je možné, že si mýlite operačný systém a programovací jazyk? To by sa v kombinácii s tým ako autoritatívne sa vyjadrujete k príspevkom ostatných asi nemalo stávať.

Jasne píšem, že je to pre PowerShell a ten predsa beží aj na Linuxe aj na MasOS. Tak prečo do toho montujete Windows, mimochodom vo verzii 95, možno 98? Odvtedy už tie veci, ktoré spomínate fungujú inak a to už je minimálne štvrť storočia. Okrem toho v prvej odpovedi spomínam aj iné programovacie jazyky. Mechanizmus vyraďovania súborov, ktoré nie sú duplikátmi ostane rovnaký.


Citace
Takže když v bloku n+1 změním písmenko, tak jsou soubory stále shodné?
- ak je ale kontrolný súčet za prvých n blokov rovnaký, tak ten rozdiel v jednom bajte zistíte v iterácii n+1, do iterácie n sú súbory kandidátmi na duplikáty, ale v iterácii n+1 nimi byť prestanú a tiež ich vyradíte z ďalšieho spracovania

Inak, mohol som asi použiť i na označenie čísla iterácie, ale to už je teraz jedno.

Takže ty soubory stejně musím projít celé, ale už chápu, že jen některé.

Áno, ale iba tie, ktoré sú naozaj duplikátmi, tomu sa nedá zabrániť, ak chceta mať istotu. Veľa z tých, ktoré duplikátmi nie sú vypadne v prvých iteráciách.

6
Software / Re:Odstranění duplicit a konsolidace dat
« kdy: 12. 05. 2026, 11:53:14 »
sam mam zkusenost, ze delat hash jednotlivych souboru a porovnavat je overkill.
.
Postup v skratke pre PowerShell: ...

Ve Windows je to tak komplikované? No jo, nemají roury...

Njn, ešte stále sa stáva, že tu niekto "trollí", ale to že sa nájde niekto, kto má problém s chápaním písaného textu, porovnáva neporovnateľné a vyjadruje sa tak ako vy, ma už v tejto dobe naozaj trochu prekvapuje.

PowerShell pochopiteľne "roury" má, a asi vás zmiatlo, že nepíšem o primitíve spájajúcom dve fázy spacovania, čo je menej dôležitý koncept, ale o celom mechanizme kolóny, označenom tak sme sa to kedysi dávno učili.

To máte ako s vláknom, mne sa tiež slovo vlákno nepáči, ale akceptujem, že ho niekto kedysi dávno z nejakých dôvodov zaviedol.

Tu máte článok, kde je to slovo použité, myslím, že médium, kde je ten článok publikovaný je v odbornej komunite celkom rešpektované:  https://www.root.cz/clanky/terminaly-tajemstvi-zbavene-procesy-a-signaly/

Je k tomu aj celkom výživná diskusia, kde sú uvedené dôvody prečo toto slovo a prečo ho niektorí nechápu.

Pokiaľ ale máte pocit, že som niečo mohol napísať inak a že je chyba na mojej strane, čo sa mohlo stať, písal som to v noci, rád sa dozviem čo, nech sú moje príspevky v budúcnosti jednoduchšie na pochopenie.

Súbory, ktoré majú rovnakú veľkosť a nemajú rovnaký inkrementálny hash z prvých n blokov nie sú duplikátmi a nie je teda pre ne nutné počítať hash od bloku n+1. Vlastne možno ani nemusí byť počítaný inkrementálny hash, ale stačí prostý hash z daného bloku, ale to je v podstate jedno, lebo vypočítať hash je lacné v porovnaní so získaním dát z úložiska.

Takže když v bloku n+1 změním písmenko, tak jsou soubory stále shodné?

V akom prípade? keď je kontrolný súčet za prvých n blokov rovnaký alebo rôzny?

- ak je kontrolný súčet za prvých n blokov rôzny, tak vás blok n+1 nezaujíma, lebo tie súbory na základe prvých n blokov nemôžu na byť duplikátmi a v iterácii n ste ich z vyradili, takže v iterácii n+1 vôbec nie sú, pretože kontrolný súčet z nich nepočítate, lebo nemusíte, keďže viete z predchádzajúcej iterácie, že tie súbory nie sú duplikátmi.

- ak je ale kontrolný súčet za prvých n blokov rovnaký, tak ten rozdiel v jednom bajte zistíte v iterácii n+1, do iterácie n sú súbory kandidátmi na duplikáty, ale v iterácii n+1 nimi byť prestanú a tiež ich vyradíte z ďalšieho spracovania

Inak, mohol som asi použiť i na označenie čísla iterácie, ale to už je teraz jedno.

7
Software / Re:Odstranění duplicit a konsolidace dat
« kdy: 12. 05. 2026, 10:32:11 »
Sám jsem deduplikaci pomocí hash úspěšně udělal v Bashi na své sbírce filmů. Najde shodu i když mají různé názvy.
Pokud tě zajímají jen přesné duplicity, tak je to v pohodě, i když to na velkém úložišti bude prostě trvat (přečíst celý disk a prohnat ty TB skrz CPU...)

Práveže ak chcete iba nájsť presné duplicity, tak všetky tie TB dát cez CPU prehnať nemusíte, stačia iba tie, ktoré sú bezpodmienečne nutné.

Dúfal som, že to bude z mojej odpovede jasné. Súbory, ktoré majú rovnakú veľkosť a nemajú rovnaký inkrementálny hash z prvých n blokov nie sú duplikátmi a nie je teda pre ne nutné počítať hash od bloku n+1. Vlastne možno ani nemusí byť počítaný inkrementálny hash, ale stačí prostý hash z daného bloku, ale to je v podstate jedno, lebo vypočítať hash je lacné v porovnaní so získaním dát z úložiska.

8
Software / Re:Odstranění duplicit a konsolidace dat
« kdy: 11. 05. 2026, 23:08:19 »
sam mam zkusenost, ze delat hash jednotlivych souboru a porovnavat je overkill.

Nie celkom, už som to robil niekoľkokrát v rôznych verziách so stovkami tisíc súborov. Zvlášť keď sa jedná iba o deduplikáciu, ktorá je oveľa menej náročná ako sa zdá. Vidím tam Windows, používam na takéto veci PowerShell je na to ako stvorený, má prístup aj do .Net aj do Windows API, dajú sa v ňom písať aj testy aj tam funguje TDD. A to isté by malo fungovať aj na Linuxe, v rámci .Net Core, tuším. Prípadne python alebo C# alebo čokoľvek.

Postup v skratke pre PowerShell: získať položky súborov v daných zložkách, to sú objekty, asi typ FileInfo alebo niečo také, zoskupiť podľa veľkosti, iba súbory s rovnakou veľkosťou (celkovo alebo veľkosť prúdu audio/video dát, ak ignorujem popisky) môžu byť duplikáty; pre každú skupinu veľkosti (cyklus alebo ForEach-Objekt) ktorá má viac ako jedného člena pridať objektom FileInfo v aktuálnej skupine cez Add-Member ako vlastnosť prúd na čítanie bloku dát, pridať aj objekt .Net na inkrementálný hash, zistiť si vopred z úložiska minimálnu veľkosť bloku, ktorú má zmysel načítať z disku (lebo keď aj zadám iba 1 bajt, OS aj tak načíta napríklad 4kb), pre danú veľkosť vypočítať koľko blokov zistenej veľkosti potrebujem na danú veľkosť súboru. Počet blokov určí počet iterácii inkrementálneho hashovania, pre každú iteráciu poslať položky aktuálnej skupiny veľkosti súborov do ForEach-Objekt, pre každú položku v bloku toho ForEach-Objekt načítať pre danú iteráciu i-ty blok podľa čísla iterácie, z prúdu, ktorý bol pridaný do položky v predchádzajúcich krokoch, pridať načítané dáta do kontrolného súčtu cez objekt z .Net, ktorý bol tiež pridaný do položky a vrátiť položku ako výsledok. Plus mínus niečo na tento spôsob.

Pokiaľ takto spracované položky chcem zhromaždené v jednom poli, tak ich normálne priradím do premennej, ak nie, tak ich zreťazím v kolóne s ďalším krokom, tým ten ForEach-Objekt nie je blokujúci, ale je ako generátorová korutina, ktorá posiela položky ďalej do ďalšieho kroku, takže keď napríklad v prvom kroku kolóny je piata položka, prvá položka je už v piatom kroku kolóny, ak ani jeden z krokov nie je blokujúci. (+-1, nerozmýšľam, nepočítam to...)

Ďalším krokom tu ale je zoskupenie podľa aktuálnej hodnoty inkrementálneho kontrolného súčtu. To sa asi dá urobiť iba blokujúco, lebo sú nutné všetky položky.

Tým vzniknú skupiny podľa aktuálnej hodnoty inkrementálneho kontrolného súčtu, tie ktoré po prvej iterácii majú iba jedného člena nemajú rovnaký prvý blok, nie sú to teda duplikáty, tým treba iba zatvoriť prúd, prípadne odobrať a aj ten objekt .Net, ktorý inkrementálne hashuje a zabudnúť na ne.

Súbory v skupinách, ktoré majú viac ako jedného člena sú kandidáti na duplikáty a tie je treba v ďalšej iterácii poslať opäť do toho ForEach-Objekt, kde sa načíta druhý blok dát, pridá sa do inkrementálneho kontrolného súčtu a výsledok sa zas zoskupí podľa aktuálnej hodnoty kontrolného súčtu z prvých dvoch blokov.

Takto postupne vypadnú súbory, ktoré nie sú duplikáty, veľa z nich hneď v prvých iteráciách, pre veľa z nich sa teda kontrolný súčet počíta iba z blokov na začiatku, dovtedy, kým nevypadnú z hry a úplný kontrolný súčet sa vypočíta iba z tých súborov, ktoré naozaj duplikátmi sú.

Takže pre deduplikáciu nie je nutné počítať celé kontrolné súčty zo všetkých súborov.

ForEach-Objekt má aj paralelnú verziu, ale je to zložitejšie, lebo je nutné obmedziť podľa typu úložiska počet paralelne bežiacich úloh (NVME zvládne viac, SATA SSD menej, rotačný disk ešte menej, možno iba 1, sieťové som neskúšal), pokiaľ máte všetko z NVME, je to jednoduché, ak nie, tak sa to dá zoskupiť podľa druhu úložiska a jednotlivé skupiny podľa druhu hardvéru riešite oddelene s rôznym obmedzením súbežnosti a pred zoskupením podľa výsledku aktuálnej iterácie kontrolného súčtu to zlúčite do jedného poľa. V PowerShelli je to iba jedna ďalšia úroveň cyklu a to zlúčenie je vzhľadom na vlastnosti kolóny automatické.

Potom sú tam ešte také veci ako odkazy na súbory, pevné alebo symbolické, to je nutné vedieť rozlíšiť, získať cieľový súbor odkazu, nechať v sade iba jeden výskyt, nemá zmysel deduplikovať 10 súborov, keď všetky ukazujú na tie isté dáta, to zistíte aj z Windows API, že sú to fyzicky tie isté dáta prístupné pod viacerými názvami a je lepšie prefiltrovať to vopred.

Robil som aj presúvanie súborov v jednej stromovej štruktúre podľa vzoru ich umiestnenia v inej stromovej štruktúre, a podobné veci, to ale vyžaduje buď úplné kontrolné súčty pre všetko, alebo podľa typu dát, napríklad audio/video súbory sa dá tipnúť si, že keď sú dáta v strede rôzne, celý súbor je rôzny, tak stačí kontrolný súčet z kúsku dát.

9
Studium a uplatnění / Re:Kam odejít z IT v době AI?
« kdy: 11. 05. 2026, 14:23:32 »
Jinak komerční produkt to byl +- od dob, kdy se tou hudbou někdo začal živit. Od té chvíle se jakékoliv vyjadřování čehokoliv pohybuje v mezích, kdy je za to dost posluchačů ochotných platit.

Áno. Ale bez možnosti zaznamenať zvuk a pustiť ho bez prítomnosti toho, kto je zaznamenaný, tá komercia v rozsahu v akom je dnes neexistovala.

Jinak komerční produkt to byl +- od dob, kdy se tou hudbou někdo začal živit. Od té chvíle se jakékoliv vyjadřování čehokoliv pohybuje v mevo slyšet. Takže se obvykle omezuju na to, co to dělá se mnou.

To sa predsa dá pomerne dobre zistiť podľa toho, kto to vytvoril. Vyberáte si, čo počúvate, nie? Alebo počúvate čokoľvek vám niekto naservíruje?

Ona ta hranice mezi lidskou a umělou hudbou nebyla úplně ostrá už před AI. Jak moc se AI hudba liší od toho, když si někdo nakliká symfonický orchestr ze samplů a své kokrhání prožene přes autotune?

Rozdiel je zásadný. Skúste si niečo naklikať sám a uvidíte, čo dostanete.

Nemyslím si, že sa musíme dohadovať o tom, že hudba generovaná AI neexistuje. Existuje.

Nemyslím si ani, že sa musíme dohadovať o tom, kto má čo počúvať. Pokiaľ niekomu vyhovujú komerčné rádiostanice a hudba generovaná AI, tak nech to počúva.

Pre mňa osobne je to strata času. Pretože počas toho času by som mohol počúvať niečo, čím niekto chcel niečo vyjadriť. A inokedy, ticho je niekedy náhodou celkom fajn.

10
Studium a uplatnění / Re:Kam odejít z IT v době AI?
« kdy: 11. 05. 2026, 12:19:51 »
... Neumí skládat hudbu a texty písní. ...
Mrknul jste někdy poslední dobou na Youtube a podobně? Protože AI generované hudby jsou tam mraky. Nejsou to sice  mistrovská díla, ale kvalita +- odpovídá standardní masprodukci.
Psal hudbu. O načesaném hluku se nezmiňoval.
Jenže pak do toho načesaného hluku padne i většina toho, co před AI nagenerovali lidi. A rozlišovat to je strašně subjektivní.

Ale subjektívna je predsa celá hudba. Neexistuje objektívny hodnotiaci systém, ktorý by označil nejakú hudbu za skvelú a tú by potom na základe toho počúval každý a mal na ňu rovnaký názor.

Vždy záleží na tom, ako kto danú skladbu vníma a čo mu tá skladba prináša. Môže sa to týkať nejakých emócií alebo iba toho načesaného hluku.

Ja osobne si myslím, že je lepšie, keď sa to týka emócií a v tom prípade je lepšie, keď hudbu vytvoril niekto, kto emócie tiež má a niečo tou hudbou vyjadruje. Nebol by som prekvapený, keby hudba bola prvotne vyjadrením niečoho. A hudbou sa vždy vyjadrovali ľudia. To až oveľa neskôr sa z hudby stal ešte aj komerčný produkt.

To, že existuje hudba vytvorená umelou inteligenciou, že je dostupná a že ju niekto dokonca možno počúva, pre mňa osobne nie je vôbec dôležité. Aj keby mala byť kompozične a technicky skvelá. Iba by mala existovať povinnosť takú produkciu jasne označiť, aby sa jej dalo s minimálnymi nákladmi vyhnúť.

A že je všade? Asi v ničom v súčastnosti nie je taká miera nadprodukcie ako v hudbe. Ešte možno vo videách na YouTube.

11
Studium a uplatnění / Re:Kam odejít z IT v době AI?
« kdy: 10. 05. 2026, 23:10:45 »
Pokud jsem z našeho rozhovoru vyrozuměl dobře, říkal, že největším problémem je zadání. Musí vytvořit tak dobré zadání, aby AI vygenerovala správný kód, a ne něco jiného. Udělat dobré zadání, prý dá hodně práce.
Dá to hodně práce, je to pěkná otrava
Ale pak tím vznikne skvělá dokumentace, což má pro následující rozvoj velkou hodnotu.
To se nevylučuje.

Celkom by ma zaujímal názor ctených účastníkov, čo sa v posledných mesiacoch stalo s tým, že ľudia nevedia, čo chcú. To už teraz neplatí? Nevznikol náhodou agilný proces, keď už musím použiť to škaredé slovo, kvôli tomu, aby sa postupne odstraňovala neurčitosť? Keď sa v tejto dobe do detailu špecifikuje zadanie hneď na začiatku a považuje sa to za správny postup. To už je teraz také rýchle a také lacné, že keď sa zistí, že boli tokeny spálené na niečo, čo je niečo iné ako je v skutočnosti potrebné, tak sa prepíše špecifikácia a nechá sa to vygenerovať zas?

a stejně pak člověk musí celý výsledek podrobně projít a doladit.

Alternativně je možno v zadání vyžadovat vytvoření detailních testů, a pokud ty budou OK tak se dá podrobné procházení a dolaďování vynechat.
Kéž by to bylo vždy tak jednoduché... Nemluvě o tom, že testy pokryjí koncovou funkcionalitu (a ani v tom nejsou dokonalé) ale rozhodně neřeší spravovatelnost, celkový návrh a mikroarchitekturu. Což je zcela typický omyl lidí, kteří nevyvíjí a pro které nic jiného, než koncová funkcionalita neexistuje. (Ostatně není to nic nového, tak to bylo i před AI. Ale AI má skvělou schopnost dát tomu vyloženě destruktivní potenciál.)

Súhlasím.

Navyše, kdesi som čítal alebo počul, že AI nevylepšuje, ale zosilňuje toho, kto s ňou pracuje. Vo všetkom. Aj v chaose.

Inak čo sa týka tých vygenerovaných testov, dáva vám zmysel nechať si vygenerovať testy a nechať si zároveň tým istým generátorom povedať, že tie testy sú v poriadku a že všetky boli úspešné? To nekontrolujete ani tie testy, čo vám to vygeneruje, či dávajú zmysel? A ak mám teda naozaj provokovať, ale fakt bez urážky, viete vôbec písať testy a posúdiť, či sú dobré alebo zlé?

A ešte som si všimol, že je v poslednej dobe veľmi populárne TDD. Teda tá skratka. S obsahom, ako ho chápu AI influenceri. Čo nemá so skutočným TDD príliš spoločného.

PS: Keby to náhodou nebolo jasné, reagujem na viacerých účastníkov diskusie. Viem, že pán Poljak testy rád nepíše, ale tá posledná časť naozaj nie je o ňom.

12
Vývoj / Re:Používáte LLM při vývoji?
« kdy: 31. 03. 2026, 22:17:35 »

Tady je asi ta absurdita videt, v AI je to zatim schovane za tvrzeni "budouci modely budou lepsi (budou? - uz ted se naucily ze vsecho dostupneho)"


Už niekoľkokrát som zaregistroval názor, že modely ako také už svoj potenciál vyčerpali a že aktuálne vnímané zvýšenie užitočnosti je vďaka tomu, čo je naokolo, teda to ako sa modely spúšťajú a čo spúšťajú.

13
Vývoj / Re:Používáte LLM při vývoji?
« kdy: 31. 03. 2026, 22:10:49 »

Ja mam zatim fakt problem ten limit najit. Vzdycky si reknu, ze tohle uz nepujde a vzdycky me to prekvapi...


Asi záleží na tom aké robíte aplikácie. Sú to iba podnikové systémy alebo systémové aplikácie riadené rôznymi druhmi udalostí, s rôznymi druhmi súbežnosti, využitím medzipamäte, atď?


Dokazes mi nadefinovat kde konci trivialni aplikace a kde zacina seriozni business?


Často stačí jedno netriviálne prepojenie medzi dvoma vrstvami, alebo väzba niečoho na životnosť zúčastnených objektov, alebo na určitú potrebnú postupnosť operácií a celé sa to rozsype.

Popisovať takéto scenáre v prirodzenom jazyku je viac práce ako napísať kód.

Keď človek vie, čo robí.

A keď nevie, čo robí, tak to s LLM nevyrieši, lebo sa to bude točiť dookola. Ani s agentami to nevyrieši. Lebo sa to bude točiť dookola a páliť tokeny.

Takže ja to používam na ukážky atď., tam to vnímam ako užitočné.

14
Vývoj / Re:Používáte LLM při vývoji?
« kdy: 31. 03. 2026, 21:57:55 »

Kdyz mi v peak hour jede patnact instanci claude code najednou a navzajem si predavaji ukoly tak to jenom svisti..

Chcel by som vidieť ako tých 15 inštancií kontrolujete, že tie tokeny spotrebúvajú efektívne, že sa niektoré iba netočia dookola a že by niekto iný s inými agentami a iným nastavením neurobil to isté, čo vy za menej tokenov.

Obrazne povedané, dlhé trasy môžete jazdiť na dvojke na plný plyn. (do určitej vzdialenosti  :) ) Alebo ich môžete jazdiť na šestke. Dosiahnutie vysokej predpísanej spotreby paliva nemôže znamenať, že to robíte správne. Znamená to iba, že máte vysokú spotrebu.

15
Vývoj / Re:Používáte LLM při vývoji?
« kdy: 31. 03. 2026, 20:23:41 »

Slysel jsem nejaky odhady, ze bude potreba $1000 denne na tokeny per developer/ai operator.


Tiež som ten nezmysel zaregistroval. Bolo to v kontexte, že pokiaľ toľko neplatíte za tokeny, nie ste dostatočne efektívni... Ako keby to, koľko spálite tokenov malo nejakú súvislosť s tým, aké dielo vytvoríte.

Inak, keby to tak náhodou dopadlo, nebol by to pravý opak toho, čo roztlieskávači nadšene nazývajú demokratizáciou programovania?

Stran: [1] 2 3 ... 8