Chat GPT a další jazykové modely mohou pomoci s administrativou
Nemocnice začaly testovat software na zápis lékařských zpráv ze zvukového záznamu rozhovoru s pacientem nebo také na sumarizaci lékařské dokumentace. Vývoj v oblasti velkých jazykových modelů přináší pro zdravotnictví zajímavé možnosti.
Umělá inteligence ve zdravotnictví má už řadu praktických aplikací. Průkopníkem byly zobrazovací metody, ale dnes eviduje americký regulátor FDA už stovky zdravotnických prostředků, které využívají různé systémy s umělou inteligencí. Umělá inteligence pomáhá s diagnostikou, dlouhodobým sledováním pacientů, testuje se v oblasti prediktivních modelů.
Téma Digitální zdravotnictví a AI na prahu budoucnosti bylo předmětem zájmu semináře pořádaného v červnu advokátní kanceláří dubanska & co.
S rozvojem velkých jazykových modelů (LLM) se umělé inteligenci otevírá nové pole působnosti ve zdravotnictví. Tyto modely jsou nástroje umělé inteligence založené na neuronových sítích, které využívají hluboké učení, a používají se mimo jiné k překladům, přepisu řeči nebo generování textu. Známým příkladem je chatGPT, který dovede velmi přesvědčivě odpovídat na různé dotazy a požadavky. Při správné formulaci dotazu může napsat programovací kód, seminární práci i báseň.
Zažitá představa je, že software nemůže být schopen takové empatie jako člověk. Na University of California San Diego ovšem proběhl pokus, ve kterém pacienti jako empatické hodnotili odpovědi chatGPT častěji než odpovědi zdravotníků (doi: 10.1001/jamainternmed.2023.1838). Nedostatek empatie a pochopení tedy není aktuálně pro využití chatGPT ve zdravotnictví bariérou.
Jeho slabinou ale je, že na dotazy vrací takovou odpověď, jaká mu přijde na základě obrovského množství načerpaných textů pravděpodobná, bez ohledu na to, jestli se tato odpověď zakládá na skutečnosti. Často tedy produkuje velmi realisticky znějící nepravdy. Pro zdravotní rady je tedy chatGPT jako takový bez dalších úprav nepoužitelný.
„ChatGPT nelze v současné době používat bezpečně v lékařské praxi, je náchylný ke zkreslování a produkuje extrémně věrohodně znějící dezinformace,“ říká Hlavinka. Právě tyto věrohodně znějící nepravdy, někdy nazývané halucinace, jsou významným limitem využití chatGPT a podobných velkých jazykových modelů.
Umí přečíst i napsat lékařskou zprávu
S čím mohou velké jazykové modely pomoci přetíženému zdravotnictví? Obrovskou devizou LLM je schopnost vyhledávat v textu s porozuměním, tedy i ve volném textu, nejen v kolonkách. To, že je u nás zdravotní dokumentace do velké míry psána volným textem a jen malou část tvoří strukturovaný text, bylo dosud velkou bariérou sdílení zdravotních dat a jejich výzkumu. To je ale něco, s čím by si už ve velmi blízké době mohly velké jazykové modely technicky poradit.
„Jako každá nemocnice, která se věnuje digitalizaci, si všímáme, že by chatGPT a podobné modely mohly pomoci při běžné práci. Pokud máte data a chcete ulehčit práci lékařům, aby se mohli věnovat více pacientům, chcete využít nástroje na pročítání dlouhých textů,“ uvádí Hlavinka.
Vývoj jde směrem omezování velkých jazykových modelů tak, aby pracovaly s omezenými zdroji dat, například pouze s údaji ze zdravotnické dokumentace.
„Pokud bude lékař chtít odpověď výhradně v kontextu historie pacienta, můžeme připravit veškerá data o pacientovi a model bude odpovídat v jejich kontextu. Jedním z našich pilotních projektů je vyhledávání v interních datových zdrojích v nemocnici, ze zdravotní dokumentace, případně k tomu jde přidat data z telemetrie,“ popisuje Hlavinka.
Velký jazykový model by mohl být schopen jasně a pravdivě lékaři poskytnout například stručné shrnutí vývoje onemocnění u pacienta a odpovědět na doplňující dotazy.
A tak by program s LLM mohl například splnit pokyn: Připrav mi stručný souhrn anamnézy pacienta Jana Nováka. Mohl by připravit časovou osu dosavadních záznamů ve zdravotní dokumentaci, která je o pacientovi k dispozici. Nebo by mohl přepsat ze zdravotní dokumentace pacienta od jiného poskytovatele informace do elektronické zdravotní karty v takové struktuře, na jakou je dané pracoviště zvyklé.
Stačí vést s pacientem rozhovor, zprávu napíše software
Pokroky jsou zjevné i v oblasti přepisu mluveného slova, a tak přestává být sci‑fi představa, že lékař vůbec nezapisuje konzultaci s pacientem do zdravotní dokumentace, ale zápis na základě nahraného zvukového záznamu konzultace provede software. Může zároveň připravit několik verzí textu, jako například zprávu pro registrujícího lékaře, předvyplnit elektronický recept nebo žádanku a podobně.
„Existuje model, který umí přepsat rozhovor do strukturované zprávy a umí to v češtině. Testujeme ho a zatím jsou výsledky velmi nadějné. Cílem je, abychom zajistili čas lékaře pro pacienta. Dnes běžně lékař v ordinaci datluje do klávesnice a pacient má pocit, že se mu lékař nevěnuje. Pokud se to osvědčí, bude si moci lékař sednout naproti pacientovi, vést s ním přirozeně rozhovor, který bude zapisovat software, a lékař jen zápis zvaliduje. Je to velmi přesné,“ popisuje Hlavinka.
V Olomouci pracují s umělou inteligencí Microsoftu při jeho cloudových službách Azure Open AI. Svůj systém pro přepis rozhovoru s rozlišením mluvčího pro zdravotnictví chystá také firma Born Digital, jak popsal na workshopu právní kanceláře dubanska & co. zakladatel Born Digital Tomáš Malovec.
„Představte si situaci, že se lékař plně věnuje pacientovi, vyslechne ho, diagnostikuje, řekne svá doporučení, v reálném čase během několika sekund mu systém vygeneruje lékařskou zprávu, recepty, vše, co je nutné, případně doplní údaje, které během rozhovoru s pacientem nezazněly,“ uvedl svou prezentaci Malovec.
Veškeré potřebné technologie jsou k takovému řešení už známy. „Technologicky to funguje tak, že základem je rozhovor pacienta a doktora. Zatímco dnes je vstupní kanál pro vytvoření zprávy klávesnice, nově to může být mikrofon nebo kamera na naskenování dokumentů, které nejsou v elektronické podobě a které se mohou stát součástí zprávy,“ popisuje. Hlasová technologie pak podle něj dokáže porozumět rozhovoru a identifikovat řečníky, rozeznat pacienta a lékaře, případně i odlišit různé lékaře při vizitě, a vytvořit text. Dále pak systém dokáže porozumět textu, vytěžit z něj data a vygenerovat lékařskou zprávu nebo jinou dokumentaci. Je možné si zvolit úroveň odbornosti lékařské zprávy, jestli má být odborným jazykem, nebo jestli má být pro pacienta laickým jazykem. Může také zapracovat informace o léčivých přípravcích.
„Používáme velké jazykové modely, ale připravujeme jim vždy exaktní znalostní bázi, například dokumentaci k předepsanému léku, a zakazujeme mu použít cokoli, co se naučil dřív,“ říká Malovec.
Stejnou technologii pro přepis řeči do strukturovaného textu už společnost komerčně poskytuje v jiných odvětvích u desítek zákazníků, v současnosti ji adaptuje pro zdravotnictví a pilotuje ji v nemocnici.
Evropská regulace umělé inteligence je před schválením
„Způsobů využití velkých jazykových modelů ve zdravotnictví vidíme víc a víc,“ poznamenal na workshopu Dominik Mathauser z Microsoftu.
Ve výsledku by velké jazykové modely mohly pomoci převádět nestrukturovanou zdravotnickou dokumentaci na strukturovanou a tím usnadnit jak sdílení zdravotních dat, tak jejich sekundární využití ve výzkumu.
Pokud se dá software považovat za zdravotnický prostředek, musí projít certifikací podle evropských pravidel. Z českých vynálezů ji získal software Aireen na detekci diabetické retinopatie, usiluje o ni také Carebot pro hodnocení rentgenových snímků hrudníku. Obecná pravidla pro umělou inteligenci ale ještě přesně stanovena nejsou. Na evropské úrovni prochází legislativním procesem AI Act, nařízení Evropského parlamentu a Rady, kterým se stanoví harmonizovaná pravidla pro umělou inteligenci. V červnu schválil Evropský parlament svůj návrh, na kterém se ještě bude pracovat před finálním přijetím. Podle návrhu se budou rozlišovat nástroje s umělou inteligencí podle rizikovosti a na jednotlivé skupiny se budou uplatňovat různě přísná pravidla. Předpokládané pokuty za porušení nařízení o umělé inteligenci jsou navrhovány ještě vyšší než za porušení evropských pravidel na ochranu osobních údajů GDPR. „Rizika umělé inteligence se dají identifikovat v oblasti etiky, lidských práv, manipulace a dalších. Problém je, že odpovědnost je roztříštěná. Ovšem nevyužití potenciálu umělé inteligence by také bylo riziko,“ říká advokátka Barbora Dubanská.