1
Vývoj / Re:Vezme AI ajťákům práci?
« Poslední příspěvek od František Ryšánek kdy Dnes v 13:16:58 »Ta dnešní LLM-based architektura je jako lidský mozek ve snu. Kontinuálně sní, co bylo dál. Na rozdíl od lidského mozku se nemá kam probudit. Snažíme se nutit LLM, aby "snil pokročile", aby při tom bral v úvahu maximum vědomostí, co se kde šustlo v internetu. Víc a ještě víc vědomostí, vyčtených kdoví kde všude. Ale pořád je to jenom ten sen. Masivně paralelní mnohovláknové snění, s mnoha front-endy pro jednotlivé lidské pozorovatele. Humanoidní primáti sedí na židličkách a dokola se ptají "a co bylo dál?" a model si v dané otevřené instanci vždycky zase kus dosní. Dotaz - odpověď.
Aby nám to vzalo práci, musel by Stvořitel dát té neuronové síti monoistické bdělé vědomí. Třeba taky schopnost kontinuálně se učit. U biologických mozků s tím souvisí taky schopnost zapomínat nepodstatné, nebo si opravovat předchozí vědomosti, učit se z jednotlivé zkušenosti (pokus omyl). Ale za mě nejdůležitější je ten bdělý stav, to čemu říkáme "já" (možná špatná volba - nebazíruju tady na sebeuvědomění). Ta věc by musela mít nějaký buffer, kde by se drželo nějaké střednědobé zadání, kolem kterého by si ta věc "zpětnovazebně cyklicky filtrovala, odvozovala, asociovala". Plus by do toho míchala vstupy zvenčí, a asi by potřebovala taky nějaké "akční výstupy". Žádný dotaz-odpověď - prostě furt. Ta věc by musela být nadána schopností soustředně uvažovat a autonomně konat. Pokud správně chápu, toto se dnes víceméně neohrabaně roubuje jako mechanická nadstavba přebujelého "snivého" LLM, a ještě naschvál omezujeme autonomii (paletu "aktuátorů"), aby nás ta věc nevygumovala z povrchu zemského.
Chceme po chudákovi "AI", aby nás zastoupil v práci, přitom mu nedáme naši reálnou zkušenost, možnost experimentu ve fyzické realitě, možnost vzít si z výsledku okamžité trvalé ponaučení...
Máme kladivo, a proto problém vnímáme jako hřebík. A protože nám tak trochu dochází, že s tímto přístupem asi nedosáhneme svého poněkud mlžného cíle, tak teď kolem toho kladiva zvenčí konstruujeme složité mechanické perpetuum mobile, aby to kladivo dokázalo fungovat jako nůžky... A tržní síly hrnou biblickou povodeň finančních prostředků tím směrem, že "postavíme ještě desetkrát větší kladivo! - to by v tom byl čert, aby nezačlo stříhat". A konkurenční tlupa "hele oni staví ještě větší kladivo! Proboha, musíme si postavit svoje, ještě větší než to jejich!" :-D
Ano dělám si z toho blbě srandu. Dave Plummer (ano ten funkční autista co kdysi napsal Task Manager) zrovna použil AI ke zmrtvýchvstání starého dobrého notepadu (aby odvylepšil ten jedenáctkový). To není špatný výkon, na "snivý LLM s lešením okolo", kterému se tady posmívám.
Zajímavý model samoučícího expertního systému poskládaného z pokročilejších neuronů káže jistý Charles Simon. Patří mezi hlasatele "neurosymbolických přístupů" a "spiking neurons". Zajímavá kombinace: nadaná schopností chroupat formální logiku na relativně nízké úrovni nad "neuronovým substrátem", zároveň spiking neurons mají blízko ke "kontinuálnímu fungování v reálném čase". Zjevně není sám, kdo jde jednak mimo LLM dav, druhak se zabývá konkrétně těmito tématy - jenom na rozdíl od souvěrců, kteří publikují v odborných časopisech, tenhle pán začal na nemladá kolena youtubeřit :-) Pokud správně chápu, opět má především "model zpracování a kódování znalostí", ale chybí mu "engine vědomí". Ani on neví, "kudy na to".
Fakt jsem zvědavej, kdo posune dál "architekturu".
Aby nám to vzalo práci, musel by Stvořitel dát té neuronové síti monoistické bdělé vědomí. Třeba taky schopnost kontinuálně se učit. U biologických mozků s tím souvisí taky schopnost zapomínat nepodstatné, nebo si opravovat předchozí vědomosti, učit se z jednotlivé zkušenosti (pokus omyl). Ale za mě nejdůležitější je ten bdělý stav, to čemu říkáme "já" (možná špatná volba - nebazíruju tady na sebeuvědomění). Ta věc by musela mít nějaký buffer, kde by se drželo nějaké střednědobé zadání, kolem kterého by si ta věc "zpětnovazebně cyklicky filtrovala, odvozovala, asociovala". Plus by do toho míchala vstupy zvenčí, a asi by potřebovala taky nějaké "akční výstupy". Žádný dotaz-odpověď - prostě furt. Ta věc by musela být nadána schopností soustředně uvažovat a autonomně konat. Pokud správně chápu, toto se dnes víceméně neohrabaně roubuje jako mechanická nadstavba přebujelého "snivého" LLM, a ještě naschvál omezujeme autonomii (paletu "aktuátorů"), aby nás ta věc nevygumovala z povrchu zemského.
Chceme po chudákovi "AI", aby nás zastoupil v práci, přitom mu nedáme naši reálnou zkušenost, možnost experimentu ve fyzické realitě, možnost vzít si z výsledku okamžité trvalé ponaučení...
Máme kladivo, a proto problém vnímáme jako hřebík. A protože nám tak trochu dochází, že s tímto přístupem asi nedosáhneme svého poněkud mlžného cíle, tak teď kolem toho kladiva zvenčí konstruujeme složité mechanické perpetuum mobile, aby to kladivo dokázalo fungovat jako nůžky... A tržní síly hrnou biblickou povodeň finančních prostředků tím směrem, že "postavíme ještě desetkrát větší kladivo! - to by v tom byl čert, aby nezačlo stříhat". A konkurenční tlupa "hele oni staví ještě větší kladivo! Proboha, musíme si postavit svoje, ještě větší než to jejich!" :-D
Ano dělám si z toho blbě srandu. Dave Plummer (ano ten funkční autista co kdysi napsal Task Manager) zrovna použil AI ke zmrtvýchvstání starého dobrého notepadu (aby odvylepšil ten jedenáctkový). To není špatný výkon, na "snivý LLM s lešením okolo", kterému se tady posmívám.
Zajímavý model samoučícího expertního systému poskládaného z pokročilejších neuronů káže jistý Charles Simon. Patří mezi hlasatele "neurosymbolických přístupů" a "spiking neurons". Zajímavá kombinace: nadaná schopností chroupat formální logiku na relativně nízké úrovni nad "neuronovým substrátem", zároveň spiking neurons mají blízko ke "kontinuálnímu fungování v reálném čase". Zjevně není sám, kdo jde jednak mimo LLM dav, druhak se zabývá konkrétně těmito tématy - jenom na rozdíl od souvěrců, kteří publikují v odborných časopisech, tenhle pán začal na nemladá kolena youtubeřit :-) Pokud správně chápu, opět má především "model zpracování a kódování znalostí", ale chybí mu "engine vědomí". Ani on neví, "kudy na to".
Fakt jsem zvědavej, kdo posune dál "architekturu".
Poslední příspěvky