Umělá inteligence a vzdělávání ve zdravotnictví: pokrok, nebo hrozba?
Umělá inteligence (AI) se stále více objevuje v médiích jako potenciálně revoluční technologie a oblast zdravotnictví bude pravděpodobně jednou z klíčových oblastí jejího využití. Moderní AI modely mají také potenciál zásadně proměnit způsob, jakým se budoucí zdravotníci a zdravotnice učí a připravují na svou náročnou profesi. AI nástroje dokáží simulovat komplexní medicínské scénáře, poskytovat interaktivní zpětnou vazbu a přizpůsobovat se individuálním potřebám studentů. AI nemá ale jen pozitivní přínosy, přináší pro mnoho oblastí také rizika a z nich plynoucí výzvy.
Umělá inteligence ve formě tzv. velkých jazykových modelů (LLM) se do našich běžných životů dostala v listopadu 2022 s představením chatbota ChatGPT založeného na modelu GPT 3.5 od společnosti OpenAI. S příchodem ChatGPT mohli lidé poprvé konverzovat s počítačem opravdu v přirozeném jazyku, zadávat mu komplexní úkoly a získat výstupy, za něž by se v některých případech nemuseli stydět ani velmi schopní lidé. Od té doby se veřejně dostupné modely dál zásadně zlepšují, poslední verze LLM od firem OpenAI (GPT4-Turbo), Anthropic (Claude 3) nebo Google (Gemini 1.5) jsou ve svých výstupech často nerozlišitelné od profesionálů a v některých případech je i převyšují. Tak rychlý vývoj v oblasti jazykových modelů, který se navíc nezdá, že by zpomaloval, představuje výzvu i pro oblasti výchovy a vzdělávání příštích zdravotnic a zdravotníků. Jak se k této výzvě postavíme?
Jazykové modely zvládají na jedničku tvorbu textů, které splňují (často téměř dokonale) formální představy o kvalitním (akademickém) textu. Používají sofistikované struktury a výrazy, obratně pracují s odbornými koncepty a nejnovější verze LLM dokáží přesvědčivě napodobit i originální myšlení. Pokud jsou předmětem hodnocení v rámci výuky právě tyto aspekty textů (například u seminárních, a dokonce i některých kvalifikačních prací), pak lze v podstatě konstatovat, že současné LLM jsou s mírnými omezeními schopny takové texty produkovat na prakticky libovolné téma dle potřeby. To je pravděpodobně největší hrozba pro předměty a obory, kde hodnocení studujících spoléhá na tvorbu textů a kde je kladen důraz právě na jejich formální kvalitu. Ve zdravotnických oborech, na rozdíl například od některých společenských věd, je hodnocení tvorby textů spíše menšinové (zejména v českém vysokém školství), je dobré si být této dramatické změny vědomi. Napsat formálně kvalitní text je dnes už primárně úkolem pro stroj.
Kde jazykové modely zatím úplně nedosahují výkonů lidských expertů, je práce s fakty a jejich kontextem. Byť dnešní jazykové modely snadno a rychle vytvoří odpověď na sofistikovanou otázku, nezřídka se stává, že jim při tom uteče zásadní detail či nuance, a výsledek tak může být zásadním způsobem zavádějící, ale přitom formulovaný tak, že na první a někdy i druhý pohled vypadá naprosto přesvědčivě. I když dnes existují implementace jazykových modelů, které jsou schopny využívat různé nástroje včetně hledání na internetu (např. Microsoft Copilot či Perplexity založené na modelech OpenAI), tato jejich schopnost je kvůli omezenému výpočetnímu výkonu dosti limitovaná a dostačuje obvykle k jen velmi hrubému přehledu. Zavádějící výsledky mohou být pro vzdělávání hrozbou, pokud si jejich omezení neuvědomujeme, ale stejně tak obrovskou příležitostí: hlavním úkolem vzdělávání (nejen ve zdravotnictví) by nemělo být memorování faktů (které se zapomínají, mění, jsou vždy nejisté a stále lépe vyhledatelné), ale trénovaní vyšších kognitivních a meta-kognitivních dovedností, tedy postupů, jak pracovat s daty a především s jejich nejistotou a jak se pomocí nejistého a proměnlivého světa učit myslet.
Přesvědčivé, avšak potenciálně zavádějící či přímo chybné výstupy jazykových modelů jsou ideálním tréninkovým materiálem. Vyučující mohou při přípravě semináře z jazykových modelů vytěžit tisíce fragmentů formálně dokonalých textů, v nichž je skryta jedna či více chyb ve faktografii či myšlenkovém postupu. Takto třeba jeden z modelů vyprodukoval následující fragment s chybou:
Propranolol je neselektivní betablokátor, který se váže na beta-1 a beta-2 adrenergní receptory v buňkách srdečního svalu. Po navázání propranololu na tyto receptory dochází k inhibici signální kaskády spouštěné G-proteiny. Konkrétně propranolol inhibuje alfa podjednotku Gi proteinu, což vede ke snížení aktivity fosfolipázy C (PLC). Snížená aktivita PLC vede k poklesu koncentrace inositoltrifosfátu (IP3) a diacylglycerolu (DAG) v buňce. Nižší koncentrace IP3 a DAG pak vedou ke snížení uvolňování iontů Ca2+ z sarkoplazmatického retikula a ke snížení aktivity proteinkinázy C (PKC). Výsledkem působení propranololu je tedy negativně inotropní, chronotropní a dromotropní efekt na srdeční svalovinu, způsobený především poklesem intracelulární koncentrace iontů Ca2+ a snížením fosforylace proteinů ovlivňujících kontraktilitu srdečního svalu.
Na první pohled je text formálně kvalitní, sofistikovaný a logicky i fakticky konzistentní. Při znalosti receptorů a signálních kaskád katecholaminů ale nebude složité odhalit, že propranolol jako antagonista beta adrenergních receptorů bude účinkovat přes snížení aktivace Gs proteinu a ovlivnění koncentrace cAMP, nikoli IP3 a DAG, avšak při čtení podobných fragmentů jsme nuceni analyzovat každé faktické tvrzení a logické propojení, abychom našli chybu. Podobný typ úkolů lze vytvářet i pro další obory včetně klinických a lze je využít při výuce i při hodnocení znalostí. A i když jazykový model sám ne vždy vyprodukuje přímo text s chybou přesně dle našeho přání, může nám přinejmenším vytvořit prakticky nevyčerpatelnou zásobárnu textu k modifikaci.
Silnou stránkou jazykových modelů je napodobení konverzace s člověkem. V kontextu zdravotnického vzdělávání je tato schopnost dobře využitelná pro nácvik komunikačních dovedností, odběru anamnestických dat, či dokonce diagnostického procesu. Obecné jazykové modely pro tyto funkce nejsou ideální, protože bychom museli předem velmi detailně specifikovat kontext, ale už dnes existují specializované (specificky dotrénované) modely právě pro tyto účely. Jedním z nich je například Patient-Actor vyvinutý na Dartmouth University (https://ai.dartmouth.edu/patient-actor), který obsahuje velké množství klinických scénářů a druhů pacientů/pacientek a učí studující lékařství komunikaci i diagnostické rozvaze. Zatím tyto modely komunikují pouze přes textové rozhraní, ale s explozivním rozvojem modelů schopných generovat video se pravděpodobně v dohledné době dočkáme velmi realistických video-, či dokonce robotických pacientů a pacientek (syntetické video mluvčí už dnes umí z pouhé fotky a krátké nahrávky hlasu realisticky vytvořit například model VLOGGER od Googlu).
V neposlední řadě jsou i dnes existující jazykové modely velmi užitečné při tvorbě výukových materiálů. Model Whisper od OpenAI poslouží k prakticky bezchybnému přepisu audio- či videonahrávek přednášek, což může být využito k automatické tvorbě titulků v různých jazycích včetně přepisu a překladu prakticky v reálném čase pro usnadnění porozumění mluvenému slovu. Transkripty přednášek pak lze dále zpracovávat přes klasické jazykové modely do různých forem souhrnů, zápisků či diagramů, vytvářet z nich zkušební otázky a porovnávat je s výukovými cíli. V neposlední řadě nám mohou pokročilé jazykové modely i transkripty přednášek zkontrolovat, avšak zde platí stále caveat emptor!, neboť na výstupy modelů se zatím stále nedá bez dalšího spolehnout.
Na 3. lékařské fakultě Univerzity Karlovy se snažíme jazykové modely do výuky zapojovat po zralé úvaze a při vědomí jejich silných a hlavně slabých stránek. Výše popsané příklady zahrnují způsoby, kterými AI modely v tuto chvíli zapojujeme, avšak spolu s kolegy a kolegyněmi zabývajícími se pedagogikou medicíny hledáme i nové cesty a především se snažíme přemýšlet na zdravotnickým kurikulem budoucnosti.
Příchod umělé inteligence totiž již dnes ovlivňuje praktický výkon zdravotní péče a do budoucna můžeme čekat stále větší zásahy a změny. Od principiálně jednoduchých aplikací s přesto obrovským praktickým dosahem (například již existující asistentské aplikace, které z rozhovoru s pacientem nahrávaného mikrofonem v ordinaci vytvoří prakticky v reálném čase zdravotnickou dokumentaci v libovolném formátu), přes sofistikované diagnostické modely s nadlidskými schopnostmi, již dnes pronikající do radiologie, patologie a dalších oborů, až po roboty pomáhající s ošetřovatelskou péčí. Velké jazykové modely nám ukázaly, že umělá inteligence má dramatické praktické dopady, avšak tato technologie jistě není posledním slovem pro další vývoj. Vědci a vědkyně v oboru AI se dnes kromě optimalizace jazykových modelů zaměřují především na modely logického a kauzálního učení a uvažování (současné modely se učí, dalo by se říci, statisticky) a na multimodální učení – tedy ne pouze z textů, ale i z obrazů a hlavně videa. Budoucí modely se tedy dále přiblíží lidskému uvažování pochopením fyzikálních vztahů mezi reálnými objekty a budou schopny postupovat logicky a úsporně při řešení problémů v reálném světě. Ve formě agentních modelů, jejichž vývoj také bouřlivě probíhá, je umělá inteligence už dnes schopna více či méně naplánovat a provést komplexní postupy ve výzkumu či léčbě. Jazykové modely jsou významný krok v rozvoji AI, ale už dnes víme, že ne poslední.
Jak bude vypadat zdravotnictví za pět či padesát let, není snadné odhadnout, ale jakožto vyučující na lékařských a zdravotnických fakultách již dnes připravujeme naše studující na tento svět, a měli bychom tedy o této budoucnosti intenzivně přemýšlet.
Doc. MUDr. Jan Trnka, Ph.D., M.Phil., M.Sc.
Autor je přednosta Ústavu biochemie, buněčné a molekulární biologie a proděkan 3. lékařské fakulty UK