Studenti z univerzity v Cambridge a Hebrejské univerzity v Jeruzalémě zadali ChatGPT úkol, který byl popsán před více než 2000 lety — slavné geometrické vyústění od Sókratese známé jako „zdvojení čtverce“. Cílem úkolu je najít způsob, jak zdvojnásobit plochu čtverce, přičemž není známo, že délka strany nového čtverce musí být rovna diagonále původního.
Výzkumníci si zvolili tento konkrétní problém, protože jeho řešení není zřejmé a vyžaduje abstraktní myšlení. Předpokládali, že je málo pravděpodobné, že správná odpověď by byla součástí tréninkových dat modelu, a proto by experiment mohl ukázat, zda může umělá inteligence „myslet“ nezávisle.
Výsledek překvapil tým: ChatGPT správně vysvětlil úkol ohledně čtverce, ale když byl požádán, aby zdvojnásobil plochu obdélníku, umělá inteligence prohlásila, že to není možné z geometrického hlediska — což, samozřejmě, není pravda. Jak poznamenává výzkumník Nadav Marko, tato odpověď prakticky vylučuje možnost, že by ChatGPT prostě „zapamatoval“ hotový výsledek. Model se zdá, že improvizoval na základě předchozích logických úvah, čímž vytvořil svou vlastní hypotézu — chování podobné lidskému učení.
Autoři studie, Marko a profesor Andreas Stylianidis, uvádějí, že tento objev vrhá nové světlo na schopnost velkých jazykových modelů „myslet“ v určitém smyslu. Předpokládají, že ChatGPT jednal v rámci takzvané zóny proximálního vývoje – konceptu v pedagogice, který popisuje rozdíl mezi tím, co student již ví, a tím, co může ovládnout za určitých učebních podmínek.
Výzkumníci varují, aby se tyto výsledky nepřeháněly – ChatGPT nemyslí jako člověk. Experiment však ukazuje, že umělá inteligence může projevovat „chování podobné učení“. Výzkumníci plánují testovat nové modely na širším spektru matematických úloh a vytvořit interaktivní systémy, které kombinují ChatGPT se simulátory geometrie, aby pomohli studentům zkoumat a chápat složité koncepty.









