I v tomto komentáři zůstanu u umělé inteligence, která se v tomto roce stala dominantním tématem v IT světě. Už proto, že jsme díky aplikaci AI získali hned dvě první místa v soutěži IEA. Dovolím si vypíchnout několik základních neporozumění, která vidím, když diskutujeme o tématech, jako je AI, RAG nebo LLM ve firmách.
Cítíme silný zájem, ale často obtížně hledáme reálný use case s jasným business přínosem. Když jej s klientem najdeme, je to skvělé, ale často prostě vidíme tápání. A to má podle mého názoru principiálně dva důvody.
Trochu paradox, že? Stojí za tím nepochopení toho, jak LLM modely fungují. Současný state-of-the-art modelů neobsahuje žádný koncept pravdy nebo něčeho, co bychom mohli nazvat uvažováním. A přesto dokáže neuvěřitelné věci, které vypadají, jako by model chápal kontext. Jedná se ale o obrovské statistické generátory textu či obrázků. Prostě je to někdo velmi hloupý s úžasnou pamětí, kdo toho hodně načetl a jen díky tomu dokáže velmi dobře odhadnout, co je v daném kontextu odpovídající pokračování. Lidská mysl nedokáže pochopit, kolik toho "LLM" modely "načetly", a tak si za jejich schopnosti nutně promítá logiku a další vlastnosti, které nám lidem umožňují ve stejných kontextech reagovat podobně, na základě řádově menšího objemu vstupních informací.
Například LLAMA 3 deklaruje, že k jejímu trénování Meta použila 15 triliónů tokenů, kde token je – zjednodušeně – slovo nebo kořen slova. Když si to přepočítáme, dostaneme cca 35 miliard normostran A4, což je hora papíru vysoká 3500 kilometrů. Díky tomu pak na základě kontextu (promptu a relativně omezeného množství dalších informací) vygeneruje pokračování. Aniž by sebeméně chápal, o co se jedná. Pravdivostí je pro něj jen pravděpodobnost shody jeho výstupu s tím, co si pamatuje z té haldy papíru.
Proto jsou modely obecně špatné třeba v matematice. Sice model vygeneruje něco, co vypadá jako rovnice, ale ve skutečnosti nepočítá. Je nutné jej doplnit jinými systémy, pro které pouze přeformuluje zadání, a ty výpočet provedou algoritmicky.
Ve finále tak máme generátor textu, který generuje velmi podobné výsledky jako lidé. Často lepší, ale často i horší. A pro business použití je extrémně složité odhadnout, kdy je úloha pro LLM vhodná a kdy nikoliv. Občas používám analogii se psem. Pes je inteligentní, ale jinak než člověk. Pro některé úlohy jsou psí schopnosti řádově lepší než lidské, pro jiné naopak. Jenže se psy žijeme už nějaký ten pátek a jejich přednosti dobře známe. A také psi nemluví, takže nemáme potřebu jejich inteligenci zaměňovat s lidskou. Tedy kromě Maxipsa Fíka.
A pak je tu ten druhý problém – máme tendenci považovat LLM za algoritmy. Tedy něco, co je ze samotného principu bezchybné a funguje predikovatelně. A uniká nám, že samotným principem strojového učení je určitá míra chyby. Ta může být často velmi malá, ale vždy bude přítomná. Adopce nástrojů umělé inteligence je jiná než adopce například CRM nebo ERP. Tam automaticky předpokládáme 100% spolehlivost a cokoliv jiného je považováno za chybu, kterou je třeba řešit. Při zavádění AI musíme s chybou vždy počítat a podle toho stavět business model, procesy apod.
Není to intuitivní, není to jednoduché. Ale výsledky se vyplatí.