1
Studium a uplatnění / Re:Prerspektivy studia IT ve světle současného vývoje AI
« kdy: Dnes v 13:19:28 »Tam jde, podle mě, o něco trochu jiného. S leaknutím dat se do nějaké míry počítá, úřady si je můžou i vyžádat, a proto se třeba nastavují nevypnutelná mazání soukromých zpráv na Slacku po dvou týdnech, a podobné věci. Ale když někdo z Microsoftu vynese data nějakého zákazníka, tak to bude pro MS ošklivá aféra a bude to drahé a žalovatelné, takže se ty korporáty snaží si tyhle věci navzájem nedělat. Zatímco když zaměstnanec nacpe ta samá data do ChatGPT, a za čtvrt roku to ta AI někomu vybleje slovo od slova, tak na OpenAI si ta poškozená firma nic nevezme. Může tak akorát vyhodit toho svého zaměstnance. A shareholdeři (a potenciálně úřady v případě třeba osobních dat) se začnou ptát "jak jste to mohli dovolit?" A šťourat se ve firemních procesech. Zatímco u toho emailu by se řeklo "my nic, my máme certifikaci, to oni" a problém se přehodí na ten Microsoft a tam to vyšumí do ztracena.Velkým zákazníkům jde spíše o to, aby neleaknuly jejich data, tj., aby model nezahrnul jejich otázky do svých znalostí. Některým jde o kód. Vlastně jakákoli práce s copilotama vede k leaku dat, které navíc patří firmě/zaměstnavateli, ne tomu vývojáři, co to tam dobrovolně kopíruje. A dalším jde o to, aby v obecných dotazech nebyly senzitivní informace. Třeba akciovky mají poměrně přesně zákonem dané, jak oznamují některé změny, akvizice atd. A pokud si třeba firemní copywriter nechá "připravit" tiskové prohlášení veřejným LLM, tak to už si říká o velký problém.Ehm. Naprostá většina firem má maily v Google/MS Cloudu, soubory sdílí přes google/one drive/sharepoint, komunikuje přes Slack, Teams, Meet a Zoom - to "tiskové prohlášení" se připravuje právě tam - zdrojáky a CI mají na GitHubu a hotové aplikace pak běží v Azure, AWS a podobně (=včetně kompletních zdrojáků, pokud je to interpretovaný jazyk, a ze snadno reverzovatelných binárek (určitě tam bude verze s debug symboly) pokud náhodou není). A ty teď tvrdíš, že se situace nějak změní, když budou používat LLM často i od té stejné firmy (Gemini = Google, ChatGPT = efektivně Microsoft, Claude = AWS) hostované na té stejné infrastruktuře?
A ty extrémně paranoidní, co teď mají on-premise Azure a on-premise GitHub/GitLab prostě budou mít vedle toho další rack s GPU - on-premise LLM. Zrovna třeba DeepSeek teď dělá přesně tohle.