Studie naznačuje omezení velkých jazykových modelů

Studie, která byla přehlížena po měsíce, nedávno publikovaná v magazínu Wired, tvrdí, že matematicky dokazuje, že velké jazykové modely „jsou neschopné provádět výpočetní a agentní úkoly nad určitou úrovní složitosti“ – přičemž tato úroveň složitosti je, co je důležité, poměrně nízká.

Tento dokument, který dosud nebyl recenzován, napsali Vishal Sikka, bývalý CTO německého softwarového giganta SAP, a jeho syn Varin Sikka. Vishal Sikka má dostatek zkušeností s umělou inteligencí: studoval pod Johnem McCarthym, nositelem Turingovy ceny, který doslova založil celé odvětví umělé inteligence, a dokonce přispěl k vytvoření samotného pojmu.

„Není možné, aby byly spolehlivé,“ řekl Vishal Sikka magazínu Wired.

Když se jej novinář zeptal, Sikka souhlasil, že bychom měli zapomenout na AI agenty, kteří by obsluhovali jaderné elektrárny, a na další slibná prohlášení, která ve svých vystoupeních předkládají zastánci umělé inteligence.

Je třeba ignorovat rétoriku technických CEO a věnovat pozornost tomu, co zjišťují vědci pracující pro ně, abychom zjistili, že i samotný průmysl umělé inteligence uznává, že technologie má v sobě zabudovaná určitá základní omezení. Například v září vědci OpenAI přiznali, že halucinace AI, při kterých velké jazykové modely sebevědomě tvoří nepravdivé informace, jsou stále rozšířeným problémem, i v čím dál pokročilejších systémech, a přesnost modelu „nikdy“ nedosáhne 100 procent.

To by evidentně mohlo výrazně ovlivnit proveditelnost takzvaných AI agentů, kteří jsou navrženi pro autonomní vykonávání úkolů bez lidské intervence, a které průmysl loni jednomyslně označil za svůj příští velký trend. Některé společnosti, které přijaly AI agenty, aby zmenšily své pracovní síly, si rychle uvědomily, že agenti nejsou ani zdaleka dostatečně dobří na to, aby nahradili odcházející zaměstnance, možná proto, že velmi často halucinovali a sotva dokončovali jakékoliv úkoly, které jim byly zadány.

Vůdci v oblasti AI trvají na tom, že silnější ochranné mechanismy vně AI modelů mohou filtrovat halucinace. Ačkoli jsou tyto modely stále náchylné k halucinacím, pokud jsou tyto chyby dostatečně vzácné, pak firmy nakonec začnou důvěřovat tomu, aby se modely zapojily do úkolů, které dříve svěřovaly lidským pracovníkům. Ve stejné studii, ve které vědci OpenAI připustili, že modely nikdy nedosáhnou dokonalé přesnosti, také odmítli myšlenku, že halucinace jsou „nevyhnutelné“, protože velké jazykové modely „mohou abstinovat v případě nejistoty.“ (I tak byste obtížně našli jakoukoliv populární chatbot, která by to opravdu dělala, pravděpodobně proto, že by to zanechalo chatboty méně působivými a méně atraktivními pro použití.)

I když je přesvědčen, že velké jazykové modely mají tvrdou hranici, Sikka souhlasí s osobnostmi v oblasti AI, které tvrdí, že halucinace mohou být omezeny.

„Naše studie říká, že čistý velký jazykový model má toto inherentní omezení – ale zároveň je pravda, že můžete kolem velkých jazykových modelů vytvořit komponenty, které tato omezení překonávají,“ řekl pro Wired.

Melisa Segura
Melisa Segura

Melisa Segura je kreativní autorka, která se zaměřuje na moderní styl života, módu a inspiraci pro každodenní chvíle. Její texty spojují lehkost, autenticitu a pozitivní energii. Ráda sdílí praktické tipy a nové nápady, které pomáhají čtenářům objevovat krásu v detailech i jednoduchosti.

Articles: 1504

Leave a Reply

Vaše e-mailová adresa nebude zveřejněna. Vyžadované informace jsou označeny *