„Všechno, co chatbot vyplivne, je halucinace.“ Jak efektivně využít AI při studiu, výuce a výzkumu

Umělá inteligence a velké jazykové modely mohou studujícím, vyučujícím i výzkumnictvu pomoci efektivněji řešit problémy, lépe si organizovat práci nebo pracovat s mnohem větším množstvím dat, než bylo donedávna představitelné. Otázka zní jak. Odpovědi jsme hledali u lidí, kteří lepšímu využívání nástrojů AI na akademické půdě a ve vědě v posledních měsících a letech takřka zasvětili život.

Všichni oslovení odborníci a odbornice zdůrazňují nutnost zachovat si při práci s nástroji AI kritické myšlení. I když jsou AI nástroje přínosné, objevují se obavy, že studující na ně budou příliš spoléhat, přestanou sami přemýšlet a analyzovat informace. 

Nejen vzhledem k tendenci jazykových modelů „halucinovat“ informace je přitom nutné ke každému výstupu přistupovat obezřetně a vše ověřovat. To se většinou neobejde bez hlubokých znalostí oboru. 

Co chatbot není 

Michaela Liegertová, proděkanka pro rozvoj a kvalitu Přírodovědecké fakulty Univerzity J. E. Purkyně v Ústí nad Labem, propaguje integraci AI nástrojů na českých univerzitách v podstatě od začátku. Považuje AI za nezbytnou součást akademického života, které nelze uniknout, a naopak by se měla plně využívat pro zlepšení výuky a výzkumu. Možnosti se proto studujícím, vyučujícím i výzkumnictvu snaží ukázat na workshopech a přednáškách.

Liegertová zdůrazňuje, že pro efektivní využívání současných nástrojů, které mají nejčastěji podobu chatbota, je zásadní vědět, co chatbot není a na co není stavěný. „Chatbot není databáze. Chatbot není vyhledávač,“ říká.

„Pokud potřebujete najít na webu nějaká fakta, používejte k tomu vyhledávač. Pokud potřebujete informace z databáze, jděte a využijte databázi, protože to jsou systémy založené na přímé shodě, kdy na každý dotaz dostanete vždy stejnou odpověď,“ dodává Liegertová. 

Lidé mají podle ní o chatbotech často zkreslenou představu a chodí se jich dotazovat na faktické věci, které by si mohli lépe dohledat na internetu. „Není důvod, proč by k tomu nemohli použít Google.“ 

Chatboty na druhé straně popisuje jako simulátory lidské konverzace. „Jsou to dynamické systémy, kde se odpověď odvíjí jenom na základě vstupu, tedy toho, co do nich napíšete. Z toho se počítá pravděpodobnost výstupu. Chatbot nemá žádnou vnitřní databázi faktů, jeho ‚vědomost‘ je uložená v parametrech, kterým se říká váhy,“ popisuje vědkyně.

Lidi podle proděkanky UJEP většinou překvapí, když chatbota popíše jako složitý počítačový program uložený a běžící na vzdáleném serveru. „Že vedle sebe jede tisíc paralelních klonů a ten váš dotaz router pošle k jedné instanci, která je do té doby nečinná, ta se probudí, provede výpočet, vrátí vám odpověď. Když napíšete reakci, router to zase pošle jiné instanci, která není obsazená,“ dodává.

Tomáš Sigmund z Data Ethics Lab na Fakultě informatiky a statistiky VŠE též varuje: „AI nerozumí významům toho, co analyzuje, a pracuje jen na syntaktické rovině. Může tak pominout zásadní nuanci nebo kontext. Může prezentovat jako významné něco, co významné není, nebo naopak. Časem se to bude zlepšovat, ale stejně syntaxe sémantiku nikdy zcela nenahradí.“   

S výjimkou posledních dvou bodů se většina výše uvedených doporučení týká nutnosti přistupovat k výstupům chatbotů a dalších nástrojů AI kriticky a spoléhat primárně na své vlastní schopnosti, znalosti oboru a úsudek. Pojí se to i se stále častěji skloňovanými takzvanými halucinacemi. Jde o fakticky nesprávné nebo zavádějící informace, kdy si model nezřídka vymyslí (vyhalucinuje) vlastní fakta nevycházející z reality ani žádných relevantních zdrojů. 

„Halucinování modelů není bug, ale jejich podstata“

Uživatelé často vnímají halucinace jako chybu, kdy se v modelu něco pokazilo. Podle Liegertové to není úplně přesná představa. „Halucinování jazykových modelů není bug, to není chyba, to je feature, to je jejich základní vlastnost a podstata toho, jak fungují.“

Velké jazykové modely podle ní nemají žádný kontakt s reálným světem. „Oni ani nevidí, na jakých tréninkových datech byli trénováni. Oni mají jenom uložené váhy, což je jediné, co vidí a na základě čeho generují,“ vysvětluje odbornice.

„Takže všechno, co vám ten model vyplivne, je halucinace,“ dodává Michaela Liegertová. Jen některé halucinace jsou podle ní tak blízko realitě, že jí v podstatě odpovídají. 

Snížit riziko halucinace lze jen velmi dobře napsaným promptem a poskytnutím vlastních dat, zdrojů a kontextu. 

„Jednou z nejlepších možností v současné době je  "ukotvit" chatbota na faktech, nechat ho na webu najít si k tématu relevantní zdroje (tak se fakta dostanou do kontextu konverzace). Vy pak můžete použité zdroje zkontrolovat, během interakce se podívat, jestli skutečně prohledal ty relevantní, jestli pocházejí z vědecké databáze, nebo čerpal z lifestylového magazínu, obskurních blogů a podobně,“ dodává Liegertová. 

Mít dobrý prompt a surfovat po zubaté hranici 

Jak již bylo řečeno, pro získání kvalitních výstupů je zásadní dobré promptování. „Je důležité se umět ptát. Dobrým výsledkům nepomáhá právě přístup uživatele, který nedodržuje osvědčené postupy a přijde s příliš obecným zadáním, například – napiš mi text o nesmrtelnosti chrousta,“ podotýká proděkanka Filozofické fakulty Univerzity Hradec Králové Klára Rybenská.

„Nástroj AI vám vždy nějaký text napíše, ale teprve ve chvíli, když definujete další parametry a přimějete ho interagovat jako určitou osobu, personu chcete-li, a ideálně ještě přidáte kontext. Pak můžete očekávat výstup, který je pro vás relevantní,“ dodává Rybenská. 

Michaela Liegertová v této souvislosti doporučuje, aby si studující před zadáním úkolu chatbotovi nejprve představili ideálního experta, kterého by chtěli mít po ruce, a přesně popsali jeho roli.  

Prompt by měl zahrnovat co nejvíce specifického kontextu – například místo: „Vygeneruj mi prezentaci o genovém inženýrství“ by mohl prompt znít: „Tvá role je expert na genové inženýrství s dlouholetou zkušeností ve výzkumu s publikacemi v žurnálech jako Nature a Science. Pomoz mi vytvořit prezentaci pro první ročník biologie, která bude aktuální a srozumitelná.“ 

Tímto způsobem podle Liegertové uživatelé a uživatelky získají odpověď, která lépe odpovídá jejich potřebám.

Liší se postupy v případě nutnosti úkol modifikovat, případně u navazujících úkolů. „Pokud chci dosáhnout nějakého konkrétního cíle, osvědčilo se mi opakovat celou instrukci a jen ji upřesňovat, případně modifikovat,“ popisuje svůj postup Tomáš Sigmund. 

„Pokud člověk jen navrhuje změny, AI může začít považovat hlavní cíl za méně významný a nepřihlíží k němu tolik, jako když ho v instrukcích opakujete,“ dodává.

S tím souhlasí také Klára Rybenská. „Kromě toho, že se snažím dodávat kontext, čeho by se měl výstup týkat, se mi někdy osvědčilo požadavky rozdělit a dávkovat je postupně. Určitě je také dobré požádat i o určitý tón textu, vše napomáhá lepším výsledkům,“ doplňuje. 

Při hledání vhodného využití nástrojů AI se přitom v současné době nelze vyhnout experimentování. „Potřebujete s modely pracovat, abyste získali intuici, v čem jsou dobré, a v čem nikoliv,“ potvrzuje Liegertová. 

Badatel Ethan Mollick v tomto ohledu hovoří o „zubaté hranici. „To znamená, že v něčem jazykové modely excelují, jsou lepší než lidé, ačkoliv z hlediska člověka jde o obtížný úkol. Na druhé straně jsou pak úkoly, které byť by byly pro člověka triviální, model selže,“ dodává proděkanka UJEP.

„Kouzlo oné zubaté hranice je, že nikdo nemůže přesně vědět, kudy vede. Neexistuje žádný jednoznačný návod k jazykovým modelům. A protože každý máme jiné potřeby, jiný obor, jiné znalost a jiný kontext, tak si to pro sebe potřebujeme ověřit sami tak, že po té hranici budeme surfovat a experimentovat s jazykovými modely,“ říká Liegertová. Postupně tak podle ní uživatelé získají intuici, které úkoly se hodí chatbotovi svěřit, a které nikoliv.

Experimentování s nástroji AI navíc může posílit schopnosti, které lidé využijí i v životě mimo tento kontext. „Díky tomu, že pracuji s AI, jsem si uvědomila, že mě to velmi pomohlo naučit se správně ptát,“ usmívá se Klára Rybenská. 

„Pokud nevíte, jakým způsobem se na něco zeptat, tak nikdy nedostanete odpověď, po které byste třeba toužili. To spousta lidí neumí,“ dodává.

Na různou práci různé náčiní 

Na každý úkol je také vhodnější jiný model a jiný nástroj. Nejnovější modely ChatGPT jsou ale už velmi všestranné a nabízejí řadu rozšíření. Podle Michaely Liegertové se hodí pro různé akademické úkoly, od rešerší po analýzu dat.  

„Díky jeho schopnosti volit různé moduly si můžete vytvořit komplexní workflow. Můžete si třeba vyfotit graf, nechat si z něj extrahovat data, provést analýzu ANOVA a výsledky rovnou exportovat do powerpointové prezentace. Hodí se tak zejména pro kontinuální práci a organizaci myšlenek v jednom rozhraní,“ rozvádí tento aspekt.​ 

V placené verzi navíc ChatGPT umožňuje vytvářet vlastní přizpůsobené chatboty. „Pro své studující tak dělám přizpůsobený GPT, který je napromptovaný tak, aby je vedl ke správným závěrům a k tomu, aby objevili správné odpovědi sami,“ popisuje jednu z možností Liegertová.

Pro některé úkoly může být vhodnější Claude od společnosti Anthropic. „Vyniká v přirozenějším jazyce, neodpovídá roboticky jako ChatGPT. Předností je schopnost vytvářet interaktivní výukové materiály, které mohou vyučující se studujícími sdílet online,“ říká vědkyně. Claude doporučuje vyučujícím zejména, když potřebují pro výuku pomůcky, které studující provázejí složitými tématy a vedou je k řešení krok za krokem. 

Řada akademiků a akademiček si pro vyhledávání v odborné literatuře pochvaluje nástroj Consensus, který existuje i jako rozšíření pro ChatGPT. Kromě přehledu literatury ke konkrétnímu tématu umožňuje zadat dotaz, k němuž následně vyhodnotí dostupnou relevantní literaturu.

Následně předloží statistické vyhodnocení odpovědí v jednotlivých článcích, shrnutí poznatků k dané otázce. Zároveň u toho poctivě cituje literaturu, z níž vychází, a nakonec přiloží bibliografii. V placené verzi je pak možné si nechat každou přiloženou studii dále shrnout a v beta verzi Consensus zkouší i možnost se studií chatovat a ptát se jí na další otázky.

Michaela Liegertová pro plné využití možností obou nástrojů radí investici do placených verzí modelů ChatGPT i Claude. „Po měsíci studující nebo vyučující získají představu o silných a slabých stránkách každého z nich a mohou se lépe rozhodnout, který nástroj je vhodný pro konkrétní úkol,“ věří.

Zároveň říká, že na svých školeních doporučuje i výzkumným týmům, aby si zaplatili tzv. týmové předplatné (minimálně 2 lidé u ChtGPT a minimálně 5 lidí pro Claude) . „Získají potom uzavřený okruh, kdy se citlivá data neposílají nikam dál a zároveň si pak mohou vytvářet a sdílet přizpůsobené asistenty či projekty, usnadňující týmovu spolupráci,“ dodává.

Dříve či později se zřejmě objeví téma finanční dostupnosti nástrojů AI. Řada vysokých škol už má dnes pro své studující a vyučující v rámci balíčku od Microsoftu i licenci na nástroj Copilot 365. S přístupností jiných modelů a nástrojů je to složitější. 

„Ideální by samozřejmě bylo, pokud by se našlo celoinstitucionální řešení, které by AI zpřístupnilo všem. OpenAI má licence pro univerzity, ale v současné době je o ně tak masivní zájem, že nevím o české univerzitě, které by se podařilo ji získat,“ vysvětluje Liegertová.

„Vzhledem k finančním možnostem univerzit se snažíme doporučovat, aby aspoň třeba na každé katedře měli jeden počítač, pro který budou mít opatřené placené verze, kam budou moci chodit studující, a mít to aspoň takto zpřístupněné,“ uzavírá Liegertová.