-
Medical journals
- Career
ChatGPT-4o v dětské chirurgii a urologii: současné možnosti a limity v každodenním použití v prostředí českých nemocnic
Authors: J. Trachta; L. Poš
Authors‘ workplace: Klinika dětské chirurgie 2. LF UK a FN Motol a Homolka, Praha
Published in: Rozhl. Chir., 2026, roč. 105, č. 1, s. 20-28.
Category: Review
doi: https://doi.org/10.48095/ccrvch2026Overview
Tento narativní přehledový článek popisuje možnosti a limity využití jazykového modelu ChatGPT-4o v dětské chirurgii a urologii v prostředí českých nemocnic. Na základě rešerše 45 odborných a mediálních zdrojů publikovaných mezi lety 2023 a 2025 článek vysvětluje základní principy fungování chatbota a rozděluje možnosti využití ChatGPT-4o na reálné v současné praxi a potenciální v blízké budoucnosti. Model může sloužit jako nástroj ve výuce mediků a lékařů v přípravě na specializaci nebo jako užitečný asistent při psaní akademických prací. ChatGPT-4o lze využít v komunikaci s dětmi a jejich rodiči jako srozumitelný zdroj informací a odpovědí na laické otázky v přípravě před vyšetřením a operací. Lze využít jako nástroj sběru dat v monitorování dlouhodobých komplikací, kvality života a subjektivního vnímání perioperačního období. Lékařům může pomoci jako konzultační nástroj v diagnostickém a vyšetřovacím postupu nebo při psaní ambulantních zpráv a operačních protokolů. Mezi potenciální využití chatbota v budoucnosti patří integrace všech klinických údajů o pacientovi, generování přijímacích a propouštěcích zpráv nebo role intraoperativního multimodálního AI asistenta. Diskutována jsou etická rizika, zejména v oblasti autorství, spolehlivosti výstupů a ochrany osobních údajů. Zmíněna je zaváděná evropská legislativa v použití AI nejen ve zdravotnictví. Autoři na základě osobní zkušenosti doporučují zapojení nejnovějšího modelu ChatGPT jako užitečného podpůrného nástroje v každodenní praxi dětských chirurgů a věří, že časem bude praktická využitelnost chatbotů nadále narůstat.
Klíčová slova:
umělá inteligence – ChatGPT-4o – dětská chirurgie a urologie – praktická aplikace
Úvod
V posledních letech zaznamenala umělá inteligence (artificial intelligence – AI) významný pokrok, který ovlivnil různé oblasti medicíny. Jedním z nejvýznamnějších vývojů v této oblasti je vznik aplikací založených na velkých jazykových modelech (large language model – LLM), jako je ChatGPT, vyvinutý společností OpenAI, a desítky jiných [1]. ChatGPT je konverzační program (angl. chatbot a model chatbotu Generative Pre‑trained Transformer) využívající strojové učení k poskytování odpovědí na základě uživatelských vstupů (prompt – podnět, otázka, příkaz). Jeho schopnost porozumět a generovat přirozený jazyk otevírá nové možnosti pro jeho využití v různých lékařských oborech, vč. dětské chirurgie a dětské urologie.
Od roku 1956, kdy byl termín „artificial inteligence“ poprvé použit v USA jako téma konference o strojích schopných učit se a reagovat tak, jako by měly lidskou inteligenci. Trvalo dalších 50 let, než přišly dostatečně výkonné počítače schopné zpracovat velmi rychle obrovské množství dat, a napodobit tak skutečně lidskou inteligenci na počítačových sítích simulující sítě neuronů v lidském mozku [2,3]. Neuronová síť se, velmi zjednodušeně, učí obdobně jako malé dítě metodou pokus–omyl. V případě, že se stroj dobere správného výsledku, posiluje své „dráhy“ nebo „synapse“ mezi jednotlivými tranzistory na speciálních čipech, tzv. grafických kartách (graphics processing unit – GPU), v obřích datacentrech, rozmístěných po celém světě. Jestliže se dobere špatné odpovědi, chybné „synapse“ na základě automatické zpětné vazby (angl. backpropagation) potlačuje.
Fyzicky jsou datová centra obří haly plné regálů se stovkami až tisíci GPU serverů, které spotřebovávají obrovské množství energie a jsou chlazeny výkonnými klimatizačními systémy. Těchto „datových továren“ je po světě, zejména v USA, již více než 9 tisíc [4]. Fyzicky se tedy otázka, kterou položí uživatel chatbotu ChatGPT v psané podobě na obrazovce monitoru nebo mu ji nadiktuje, pošle přes internet do jedné z obřích hal datového centra, kde server aktivuje konkrétní model AI, např. ChatGPT-4o, bleskově proběhnou výpočty na grafických kartách tohoto modelu v řádu desítek až stovek GB a výsledkem je odpověď, která se zjeví zpět na obrazovce monitoru prakticky okamžitě, nebo dokonce v podobě příjemného robotického hlasu, který s uživatelem plynně konverzuje, jako je tomu u placeného modelu ChatGPT-4o Plus.
Neuronových sítí je více typů a podle toho, jak fungují, se hodí na jiné úkoly [5]. Vícevrstevná neuronová síť typu transformátor (angl. transformer) transformující slova na čísla a ta opět na slova, kterou používá ChatGPT, se hodí více na analýzu textu a řeči, jiné neuronové sítě zas na analýzu obrazů nebo třeba RTG snímků [1–3]. Z toho důvodu je dobré rozlišovat mezi AI nástroji. ChatGPT-4o nedokáže dostatečně přesně číst a interpretovat RTG snímky, které lze do dialogového okénka chatbota vložit. Ke čtení snímků zobrazovacích metod slouží jiné, k tomu navržené AI softwarové nástroje, jako je např. Carebot.
Český inovativní projekt Carebot je software zakomponovaný do radiologických prohlížečů RTG snímků, který pomáhá lékařům rychle a přesně diagnostikovat nálezy na RTG snímcích hrudníku. Používá ho přes 60 nemocnic v České republice, další pak na Slovensku, v Maďarsku, Polsku a v plánu je jeho rozšíření do dalších zemí. Autoři projektu pracují také na vývoji softwaru vyhodnocujícího kostní zlomeniny a mamografické nálezy [6].
S rostoucím využíváním těchto technologií vyvstávají otázky týkající se přesnosti, spolehlivosti a etických aspektů jejich implementace v klinické praxi. V roce 2024 byla pod záštitou ČLS JEP založena Česká společnost pro umělou inteligenci a inovativní digitální technologie v medicíně (ČSAIM). Jejím cílem je podporovat racionální zavádění umělé inteligence a digitálních technologií do českého zdravotnictví [7]. Tento článek chce rámcově uvést současné možnosti využití a limity AI v dětské chirurgii a urologii a zaměřit se zejména na poslední model chatbotu GPT-4o Plus a jeho konkrétní využití v každodenní praxi dětského chirurga nebo urologa v nemocnici.
Metodologie
Tento narativní přehledový článek byl vytvořen na základě cíleného vyhledávání odborné literatury a analytického třídění relevantních zdrojů. Primárním nástrojem pro rešerši byla databáze PubMed, kde byl použit následující boolean operátor:(„ChatGPT“ OR „GPT-4“ OR „GPT-4o“ OR „large language model“ OR „generative AI“) AND („pediatric surgery“ OR „paediatric surgery“ OR „pediatric urology“ OR „paediatric urology“). Pomocí této strategie bylo identifikováno celkem 43 článků publikovaných mezi roky 2023 a 2025, z nichž bylo po přečtení abstraktů 12 vyřazeno pro nedostatečnou relevanci k tématu. Zbylých 31 článků bylo prostudováno. Následně byly u každého článku analyzovány klíčové odkazy v seznamu literatury, což vedlo k dohledání a zařazení dalších 15 odborných publikací.
Součástí rešerše byly i vybrané mediální zdroje a webové portály, které reflektují aktuální diskuzi o vývoji a etických aspektech implementace umělé inteligence ve zdravotnictví. Tyto zdroje byly zařazeny v případech, kdy poskytovaly unikátní vhled do aktuálního využití technologií, jako je ChatGPT-4o, nebo doplňovaly odbornou literaturu o praktické kontexty a technologické novinky.
Výsledky
Ačkoliv je ChatGPT pouze jeden z několika desítek chatbotů na trhu vedle Copilot, Gemini, Claude nebo čínského DeepSeek atd., byl jako první veřejně zpřístupněn v listopadu 2022 právě ChatGPT a stále má nejvíce uživatelů. Jedním z důvodů velké obliby jak mezi laiky, tak mezi odborníky, vč. lékařů, je ten, že společnost OpenAI trénovala svého chatbota jak na obrovském množství dat z internetu, tak placenými lidmi a výsledkem je jeden z nejschopnějších nebo nejinteligentnějších chatbotů na trhu, jehož trénink stál přes 40 milionů dolarů [8].
V květnu 2025 chatbotovi položí minimálně jeden dotaz denně 122 milionů lidí, alespoň jeden dotaz týdně 800 milionů lidí [9]. Většina uživatelů ovšem položí více otázek za den, takže každý den položí lidé na celém světě v době psaní tohoto článku chatbotovi GPT přes jednu miliardu dotazů, což z něj dělá zatím nejúspěšnější aplikaci v novodobé historii internetu [9,10]. Přesto dnes vznikají ještě hybridní chatboti z několika základních LLM cílící na konkrétní skupiny uživatelů. Perplexity např. cílí na odborné a akademické uživatele vyhledávající informace s vylepšenou schopností uvádět konkrétní zdroje, ale v samotných odpovědích na odborné dotazy je slabší než ChatGPT [11,12].
Aby uživatelé tohoto chatbota, vč. lékařů, vytěžili z jeho schopností maximum, je zásadní umět mu položit správně vstupní dotaz (angl. prompt) [13]. Prompt by měl být co nejkonkrétnější, uvádět jasný kontext (např. specializaci tazatele a účel dotazu), specifikovat požadovaný formát výstupu (např. prostá odpověď na jeden odstavec, abstrakt, tabulka, seznam bodů) a případně omezit časové nebo literární rozpětí zdrojů u odborných dotazů (např. studie publikované od roku 2023, podle doporučení Evropské společnosti dětské urologie (European Society for Paediatric Urology – ESPU) atd.).
Výborná je schopnost chatbota přetavit odpověď do srozumitelnější podoby, jestliže tazatel požádá o přepsání, např.: „Vysvětli mi to jazykem středoškoláka / jazykem 6letého dítěte.“ Lepší než dlouhé, nekonečné souvětí jsou jasné a krátké věty. Málo efektivní je zadávat chatbotovi jen jednotlivá klíčová slova, která je nutno naopak volit při zadávání do vyhledávačů typu Google. Chatbotovi lze diktovat i celé odstavce a chatbot se v nich neztratí, a to ani v češtině.
Příliš obecné či neúplné zadání promptu často vede k povrchním nebo nepřesným odpovědím. Dětský chirurg by tak např. neměl zadávat: „Napiš mi něco o léčbě vezikoureterálního refluxu,“ ale spíše: „Napiš v češtině pro dětského chirurga před atestací přehled všech sporných otázek v léčbě vezikoureterálního refluxu u dětí. Odpověď napiš v jednotlivých bodech, použitelných v PowerPoint prezentaci na odborném semináři. Uveď všechny své zdroje odpovědi z dostupných evropských a amerických guidelines a z PubMedu v období mezi roky 2023 a 2025.“
O ChatGPT se mluví a píše ve všech medicínských oborech, přičemž autoři přehledových článků o ChatGPT málo odlišují mezi potenciálními využitími v blízké budoucnosti, které zatím nikdo v každodenní praxi nevyzkoušel, protože to není možné, a reálnými možnostmi, které je možné vyzkoušet ve té které nemocnici už dnes [1,2]. Autoři tohoto článku se zaměřili na takové rozdělení a výsledkem je tabulka Reálné a potenciální využití ChatGPT-4o (tab. 1).
Table 1. Reálné a potenciální využití ChatGPT-4o. Tab. 1. Real and potential uses of ChatGPT-4o.
ChatGPT, zejména jeho nejnovější placená verze ChatGPT-4o Plus, může v současnosti sloužit jako:
Nástroj k výuce mediků a lékařů v přípravě na specializaci
Formou odborného dialogu, přezkušování pomocí otázek, které chatbot vymýšlí a pokládá studentovi, lze proniknout do studované kapitoly učebnice mnohem hlouběji a zábavnou interaktivní formou, která přináší kromě porozumění i snadnější zapamatování si látky. ChatGPT nejen dokáže složit státní nebo atestační zkoušky z medicíny stejně nebo lépe než medici a lékaři mnoha specializací [14–17], ale umí i vytvářet velmi dobře a rychle testy s výběrem odpovědí [18]. Student dostává i okamžitou zpětnou vazbu, zda odpověděl správně, a jestliže ne, chatbot mu správnou odpověď řekne a vysvětlí, proč je správná. Chatbot je naopak slabší ve vysvětlování, proč se student nebo lékař mýlí, není nastaven tak, aby vystupoval konfrontačně, a proto se musí student chatbota aktivně doptávat, proč nebo v čem se přesně mýlí.
Pomocník při psaní akademické práce
Chatbot je schopen shrnout a stručně vysvětlit v češtině jakýkoliv článek stažený ve formě PDF nebo Word, vložený do dialogového okénka chatbota. Umí bleskově vyhledat, přečíst a vysvětlit vybrané pasáže z odborných doporučení, jako jsou guidelines ESPU nebo jiných odborných společností. Dokáže stylisticky upravit, pročistit a logicky uspořádat jakýkoliv vědecký text v češtině i angličtině, takže pisatel článku nemusí platit několik tisíc korun za korekturu nativním mluvčím v různých online Proof Reading firmách. Dokáže sepsat abstrakt nebo hlavní body prezentace, které může autor upravit, předělat nebo doplnit. Takové využití ChatGPT s sebou nese ovšem jasná etická omezení, která zmiňujeme v diskuzi [19,20].
ChatGPT-4o lze využít i k psaní žádostí o granty nebo motivačních a doporučujících dopisů, pakliže autor těchto dokumentů pracuje s návrhem chatbota pouze jako s konceptem, který sám dotvoří a pochopitelně pak za něj nese i plnou odpovědnost. V žádosti o grant by měl žadatel použití AI nástroje také přiznat. Při psaní motivačních a doporučujících dopisů lze jako prompt vložit životopis kandidáta spolu s popisem pracovní náplně, o kterou žádá, a doplnit konkrétní osobní zkušenost s kandidátem na pracovní post či stáž. Výsledkem je náležitě strukturovaný a logicky uspořádaný dopis, jehož napsání zabere výrazně méně času.
Nástroj monitorování dlouhodobých komplikací, kvality života a subjektivního vnímání operací dětských pacientů a jejich rodin
ChatGPT-4o je v auditu nebo výzkumu dětských pacientů a jejich rodin schopen vést dialog s rodiči nebo samotnými pacienty na zvolené téma. Je schopen přepisovat řeč a dialogy, analyzovat výrazy, výběr slov a strukturu odpovědí (např. nerozhodnost, opakování, negativní výrazy), detekovat základní emocionální podtóny (např. smutek, úzkost, radost) na základě intonace, pauz, váhání, síly hlasu apod. a adekvátně na ně reagovat [21]. Může se tak v dialogu dokonce jevit empatičtější než skutečný lékař, jako tomu bylo v průřezové studii publikované v časopise JAMA, kde chatbot ve srovnání s lékaři generoval kvalitnější a empatičtější odpovědi na otázky pacientů položené v online fóru [22].
Chatbot je schopen vyčistit a strukturovat transkript (např. odstranit šumy, doplnit interpunkci, zestručnit), analyzovat subjektivní obsah výpovědi pacienta, ihned jej kvantifikovat podle zvolených škál (např. Likertovy škály) a porovnat výpovědi jednotlivých pacientů [16,19]. Je tak dobrým nástrojem, jak zmapovat výsledky a dlouhodobé komplikace po operacích, míru stresu a nejistoty spojených s léčbou, dlouhodobou kvalitu života nebo jiné zvolené téma. ChatGPT nemá zatím přístup k biologickým signálům (srdeční tep, mimika) a neumí spolehlivě určit emoce jen z hlasu – pouze je odhaduje (podobně jako vyškolený psycholog při telefonickém rozhovoru), neprovádí medicínsky validované psychologické hodnocení. Jeho výstupy jsou podpůrné, nikoliv diagnostické, což se ovšem může změnit v blízké budoucnosti.
AI konzultant pro rodiče a podpůrný nástroj komunikace
Pomocí ChatGPT-4o lze snadno vytvářet srozumitelné webové stránky, letáky a edukativní materiály pro rodiny, které nechtějí přímo konzultovat ChatGPT. Rodiny, které se interakci s chatbotem nebrání a jsou ochotny ho vyzkoušet, mohou být chatbotem poměrně spolehlivě informovány ohledně diagnózy, léčby, možných komplikací a dalšího sledování po operaci, a to laickým jazykem přizpůsobeným přímo věku tazatelů, tzn. i dětem, kterých se vyšetření nebo operace týká a které v ambulancích nebo na lůžku nemají dost odvahy ptát se přímo zaneprázdněných lékařů. Tyto informace pak může lékař jenom doplnit nebo upřesnit. Lékař může mít obavu z halucinací, které chatbot sdělí rodině, ale v rozhovoru s laikem je chatbot velmi opatrný, vždy upozorňuje, že není lékař a že konečné slovo má lékař [23].
Chatbot může výrazně zlepšit komunikaci lékaře tváří v tvář nestandardnímu pacientovi, který má kromě podezření na chirurgické onemocnění i zásadní komorbiditu, jako je např. autismus, sebepoškozování, mentální anorexie, porucha pohlavního vývoje a podobně, kdy lékař uzná, že neví, jak přesně má s pacientem a jeho rodiči komunikovat. Zadáním promptu jako: „Jak se cítí 15letá pacientka s mentální anorexií a sebepoškozováním v chirurgické ambulanci, kde má být ošetřena pro nové řezné rány? Jak s ní mám jako dětský chirurg komunikovat?“
Většina dětských chirurgů neví téměř nic o emocionálním světě psychiatricky nemocných dospívajících dívek a nedokáže odhadnout, jak se cítí. Přitom je užitečné vědět, jestli prožívají stud, nebo ne, co se skrývá za jejich zdánlivým klidem a odevzdaností v ambulanci při ošetření nebo jaký je přesně psychopatologický mechanizmus sebepoškozování. Při dalším doptání se chatbota na obvyklé komunikační chyby lze i snadno pochopit, jak komunikovat lépe a čemu se v dobrém úmyslu pacientce pomoci vyvarovat (prohlášení jako „Naštěstí to není nic vážného,“ nebo „Proč jsi to vlastně udělala?“ a podobně). Součástí odpovědi chatbota jsou i odkazy na konkrétní pasáže odborných guidelines, na které lze kliknout a bleskově, byť velmi stručně, se zorientovat v neznámé problematice „za pochodu“ v ambulanci plné pacientů.
ChatGPT může pochopitelně navrhovat i komplexní odpovědi na pracovní, příliš dlouhé rodičovské e‑maily dotazující se na všeobecné postupy u jejich dítěte nebo dožadující se druhého názoru odborníka tam, kde existují všeobecně uznávaná doporučení. Pochopitelně je jednak nutná konečná kontrola e‑mailu a podpis lékaře před odesláním, jednak dodržování ochrany osobních údajů pacienta (general data protection regulation – GDPR). Do ChatGPT dialogového okna nelze vkládat jakýkoliv dokument nebo e‑mail, který obsahuje jméno, rodné číslo nebo bydliště pacienta či jeho rodičů. Firma OpenAI nikde negarantuje, že nesbírá data z dialogu s chatbotem. I tak ovšem nelze vyloučit, že ke sběru osobních dat dochází, a to sice o uživatelích chatbota, tedy o samotných lékařích.
AI konzultant lékařů v klinické praxi a rozhodování
Chatbot nemůže nahradit vzdělaného a zkušeného lékaře, ale existuje mnoho studií, které dokazují, že ChatGPT je schopen navrhovat diagnostický postup, diferenciální diagnózu a terapii lépe než lékaři. Podmínkou je, jako vždy, dostatečně obsažný a jasný prompt [24]. V multicentrické studii publikované v NPJ Digital Medicine (2023) byla analyzována výkonnost modelu ChatGPT (verze GPT-3.5 a GPT-4) při řešení klinických scénářů ze státnicového testu v Japonsku. Testovaný soubor tvořilo 119 případových otázek zaměřených na klinické uvažování, diagnostiku a léčbu. Model GPT-4 správně odpověděl na 82,6 % otázek, což výrazně převýšilo výsledek starší verze GPT-3.5 (50,4 %). Nejvyšší úspěšnosti GPT-4 dosáhl v otázkách typu „management“, kde správně odpověděl v 90 % případů. Studie tak potvrzuje, že GPT-4 je schopen řešit komplexní klinické problémy na úrovni absolventa medicíny, přičemž hlavním limitem zůstává jazykový a kulturní kontext, který může ovlivnit přesnost odpovědí [15].
Při podezření na diagnózu dětského pacienta mohou rezidenti v dětské chirurgii konzultovat ChatGPT např. kvůli nutným laboratorním vyšetřením, které nezřídka zaškrtávají po desítkách „jen pro jistotu“. Chatbot je schopen vygenerovat seznam indikovaných vyšetření na základě obrovského množství publikovaných dat, článků a doporučení, která školenec nemá při hektickém pracovním dni obvykle šanci dostatečně pročíst. ChatGPT je schopen ihned zjistit lékové interakce a nabídnout alternativu, což je dovednost, kterou používají hlavně dospělí specialisté, ale určitě je čas od času užitečná i v dětské chirurgii.
Psaní operačních protokolů a ambulantních zpráv
Ve Velké Británii nebo USA se všechny operační protokoly a ambulantní záznamy diktují do diktafonu a následně složitě přepisují. Celý tento časově náročný a placený proces, který slouží jenom k tomu, aby šetřil drahý chirurgův čas a zefektivnil jeho práci, umí ChatGPT-4o zadarmo a za zlomek času. Lze mu diktovat ambulantní záznam nebo operační protokol i mírně zmateně nebo pouze v bodech, skákat z jedné myšlenky na druhou nebo přemýšlet nahlas i o jiných věcech, jenom je třeba závěrem požádat chatbota, aby ambulantní zprávu nebo protokol vyčistil a upravil do náležité formy. Výsledkem je jasný a stručný protokol, který po sobě, resp. po chatbotovi lze přečíst, překopírovat do nemocničního softwaru, vytisknout a podepsat.
V České republice není zvykem diktovat ani ambulantní zápisy a z důvodu časové úspory pak někteří chirurgové píšou zprávy plné pacientovi nesrozumitelných zkratek v latině nebo angličtině na dva nebo tři řádky. Chce‑li si pak zprávu pacient nebo jeho rodina následně v klidu pročíst a zamyslet se, co všechno návštěva lékaře znamená pro jejich zdraví a rodinný život, musí googlovat nebo obvolávat své známé lékaře, aby si nechali ambulantní zápis přeložit do srozumitelného jazyka, protože v ambulanci v mírném stresu vnímali jen polovinu řečeného. Příliš stručnou ambulantní zprávu lze také samozřejmě vyfotit, oříznout všechna osobní data, vložit do dialogového okna chatbota a požádat ho o vysvětlení laickým jazykem, co ve zprávě stojí a proč. Vstřícnějším postupem ze strany lékařů by asi bylo psát obsáhlejší a srozumitelné zprávy – a k těm by AI mohla pomoci.
Potenciální využití chatbota ChatGPT-4o nebo jemu podobného modelu, které zatím není rutinně možné, je následující:
Efektivní administrativní asistent
Zakomponování chatbota do nemocničních softwarů (jako je např. UNIS) by teoreticky pomohlo generovat koncepty příjmových a propouštěcích zpráv, do kterých by lékař dopsal nezbytné minimum. Musel by to být ovšem Chatbot založený na off‑line volně přístupných nekomerčních LLM (jako je Mistral 7 B nebo LLaMA3) kvůli ochraně osobních údajů a prevenci sběru citlivých dat soukromými firmami (OpenAI, Google aj.). Teoreticky by mohl systém generovat zprávy i na základě odposlechu vstupního a propouštěcího pohovoru mezi lékařem a pacientem, resp. jeho rodiči. Musela by při tom být opět zachována ochrana osobních údajů a chatbot by pak mohl poskládat v náležité formě anamnézu, nynější onemocnění, všechna vstupní a výstupní vyšetření (laboratorní výsledky, zobrazovací metody, konziliární vyšetření), vybrat v nich to podstatné či patologické a na závěr sepsat v požadovaném formátu návrh ambulantní nebo nemocniční zprávy. Povinností lékaře by samozřejmě bylo celou zprávu projít a podepsat, event. spolu s podpisem vedoucího oddělení či kliniky, tak jak je zvykem.
V USA existují softwary, které se o něco podobného pokoušejí, a vžilo se pro ně označení „ambient scribe“ čili „klinický zapisovatel“ – nástroj AI, který pasivně, v bezprostředním okolí lékaře poslouchá a přepisuje jeho rozhovor s pacientem a následně vygeneruje lékařskou zprávu. Tyto nástroje se již testují a pilotně zavádějí [16]. Takto vygenerované ambulantní zprávy lez kombinovat s dalšími aplikacemi jako Doximity, což je nástroj pro americké zdravotníky, který kombinuje správu klinických informací pacienta a umožňuje sdílení všech klinických informací prostřednictvím telemedicíny s praktickým lékařem nebo dalšími specialisty v jiných nemocnicích. Vzniká tak kdekoliv a kdykoliv dostupná zdravotní složka pacienta, ze které může ošetřující lékař zkopírovat vše, co potřebuje, a zároveň se do ní automaticky dopisují aktuální informace [25]. Software Doximity přitom umí zaručit ochranu osobních údajů.
Pro lékaře působící v České republice nejsou tyto pilotní platformy běžně dostupné kvůli požadavku na americkou lékařskou licenci, ale i v České republice už vznikl pilotní projekt, který zkouší překročit bariéru nemocničních softwarů a zjednodušit administrativní zátěž lékařů pomocí AI, která by z hlasového pohovoru s pacientem rovnou psala zprávy. Startup Auris One je momentálně testován v paliativní péči a využití této aplikace podléhá souhlasu pacienta. Do aplikace lékař vloží lékařské zprávy, rozpis medikace a zvukový soubor rozhovoru s pacientem. Aplikace je z toho schopna vygenerovat zprávu, kterou pak lékař upraví. Cílem je, abych v budoucnu lékař dopsal jen drobnosti [26].
Jiná česká aplikace Medevio zjednodušuje komunikaci pacienta s lékařem a objednávání do ambulancí k praktickým lékařům i specialistům. Aplikace sice splňuje požadavky GDPR, ale v zásadě je jen chytřejším objednávacím systémem, který umožňuje pacientovi komunikovat s lékařem přes textové zprávy, vyměňovat online zdravotnické dokumenty nebo vystavovat eRecepty a žádanky. Neumožňuje vytvoření vždy a všude dostupné elektronické zdravotnické složky, jak se o to snaží Doximity [27].
Intraoperativní asistent a konzultant
Inovativní AI modely, jako je ChatGPT-4o ve spojení s kamerovým systémem na operačním sále, by mohly v budoucnu sloužit jako intraoperační konzultanti – poskytující operujícím chirurgům hlasovou podporu, nabízející rozhodovací algoritmy a vizuální detekci rizikových anatomických struktur. Tato technologie vyžaduje napojení na videozdroj a hlasový vstup a její využití by teoreticky mohlo významně zvýšit bezpečnost i standardizaci chirurgických výkonů.
Diskuze
Samotný ChatGPT se dále velmi rychle vyvíjí a zlepšuje. Jestliže autoři článku o využití ChatGPT v medicínském vzdělávání uváděli v srpnu 2023 jako jeho největší slabinu neschopnost konverzovat na lidské úrovni [14], pak v květnu 2025 placený model ChatGPT-4o Plus už tuto schopnost má a v odborných otázkách konverzuje klidněji a přesněji než řada učitelů na lékařských fakultách. Lze mu, zatím, snad vytknout to, že nemá dostatečný smysl pro humor. Nicméně ChatGPT-4o Plus již dokáže na požádání vymýšlet poměrně humorné vtipy (obr. 1), což tvůrci AI uvádějí jako doklad jeho tvůrčího potenciálu. To, že se chatbot časem dokáže přizpůsobit i naladění jednotlivých uživatelů na míru, se nabízí jako další logický krok jeho vývoje. V srpnu 2025 byla společností AI zveřejněna nejnovější verze ChatGPT-5, která je více personalizovaná a opět mírně převyšuje schopnosti všech předchozích modelů, zejména ve schopnosti porozumět i nepřesně formulovanému zadání [28].
Image 1. Fig. 1.
Prompt: Vytvoř vtip o doktorech!
Prompt: Create a joke about doctors!Mezi největší slabiny chatbota ChatGPT patří možnost halucinace v některých odpovědích. Halucinace v odpovědích modelu ChatGPT je smyšlená a fakticky nepodložená odpověď. Vznikne, jestliže model nemá a nenajde na internetu dostatek relevantních nebo přesných dat, a na základě pravděpodobnosti kombinace slov „doplňuje“ chybějící informace, aby vytvořil plynulý a logicky působící text. Novější modely ChatGPT-4o ovšem z naší zkušenosti v odborné debatě halucinují minimálně a vysoce kvalitní strukturované odpovědi převažují. Horší jsou časté halucinace ve vytváření neexistujících citací a odkazů při psaní článků nebo číselné halucinace při vytváření grafů, kdy je třeba si vše ověřovat a nadále považovat chatbota pouze za pomocný a ne zcela spolehlivý nástroj [14].
S užíváním chatbota je spojena i řada etických otázek. Hlavní etický problém při využívání ChatGPT (nebo jiných generativních AI nástrojů) v akademickém psaní spočívá v otázce autorství, transparentnosti a zodpovědnosti za obsah. Zamlčení využití AI nástroje a přisvojení si výstupu jako výhradně vlastního díla je eticky sporné, protože autor není jediným tvůrcem textu, ale zároveň AI nemůže být právně ani eticky považována za spoluautora [29]. ChatGPT nemůže být uveden jako spoluautor, protože nemá vědomí, záměr ani odpovědnost. To je stanovisko všech významných vědeckých časopisů, vč. Nature, Science, JAMA aj. [30]. Odpovědnost za přesnost, originalitu, interpretaci dat i za možné chyby nese výhradně lidský autor.
Využití ChatGPT by mělo být přiznáno v metodice, poděkování nebo poznámce pod čarou (např. „Text byl částečně generován s využitím nástroje ChatGPT a následně upraven autorem.“) [31]. Nepřiznané využití může být považováno za porušení akademické integrity, podobně jako plagiátorství. AI modely mohou (byť velmi zřídka) generovat text podobný existujícím zdrojům, aniž by uvedly odkazy, což představuje riziko neúmyslného plagiátu [32]. Akademik má povinnost ověřit a případně přeformulovat obsah vytvořený AI a řádně citovat. Většina vědeckých periodik dnes zakazuje uvádět AI jako autora, vyžaduje přiznání použití AI nástrojů, někdy stanovuje, kde a jak může být AI použit (např. jen pro gramatické úpravy) [19,33].
Legislativní regulace nástrojů AI vč. LLM, jako je ChatGPT, se v Evropě teprve rozbíhá. V srpnu 2024 vstoupil v platnost EU AI Act. Tento právní rámec stanoví pravidla pro vývoj, uvedení na trh a užití AI v Evropské unii, a to vč. zdravotnictví, s cílem posílit bezpečnost a transparentnost AI. Pokud je AI součástí zdravotnického přístroje, podléhá tzv. Medical Device Regulation – nařízení (EU) 2017/745 o zdravotnických přístrojích – a je tak považována za vysoce rizikový (angl. high risk) nástroj s povinností uživatelského školení, používání dle návodu, logování uživatelů a hlášení incidentů [34]. Chatboti patří do kategorie nástrojů nízkorizikových (angl. low risk), a nevyžadují tak školení a přesnou dokumentaci jejich použití. V EU není výstup ChatGPT právně závazným klinickým rozhodnutím a právní režim se odvíjí od způsobu použití. Prakticky platí, že lze uvádět ChatGPT jen jako podpůrný nástroj a případně explicitně uvést, že finální rozhodnutí činí lékař [34].
Autoři tohoto přehledu se domnívají, že je nebezpečné a neetické spoléhat se plně na výstupy ChatGPT při klinickém rozhodování. Na druhou stranu ale lze stejně tak považovat za ne zcela etické i to, jestliže lékař nevyužije všechny dostupné nástroje k tomu, aby pacientovi efektivně a včas pomohl nebo se ujistil, že nic neopominul. Nástroje AI, jako je ChatGPT-4, jsou dostupné i zadarmo v každém moderním telefonu a mohou zásadně přispět ke včasnému stanovení diagnózy a upřesnění plánu vyšetření a péče. Domníváme se, na základě zkušenosti z vlastní praxe, že ChatGPT nebo jiný podobný AI nástroj může sloužit jako efektivní brainstorming před ranním hlášením nebo multioborovým setkáním, kde se pravidelně diskutují složitější pacienti. Lékař, který ve vybraných případech nejprve konzultuje ChatGPT, je na setkání s kolegy lépe připraven, a minimalizuje se tak riziko opomenutí možné diferenciální diagnózy, včasného a dobře koordinovaného vyšetření nebo riziko peroperačních a pooperačních komplikací. Příklady dvou takových pacientů vhodných ke konzultaci s ChatGPT-4o uvádíme v rámečku (Kazuistiky). Tato konzultace kazuistiky 1 byla provedena po debatě na ranním hlášení a přispěla vzápětí ke správné diagnóze a léčbě. Kazuistuika 2 je příkladem obtížně diagnostikovatelné a léčitelné pacientky v urologické ambulanci, se kterou si řada dětských (i dospělých) urologů neví přesně rady.
Závěr
Vedle zmíněných etických dilemat spojených s používáním nejnovějších verzí chatbota ChatGPT, jako je ochrana zdravotních a osobních dat pacientů, poskytování souhlasu pacientů nebo jejich zákonných zástupců s AI technologiemi, případně otázka autorství chatbotů, je podstatné zachování lidského přístupu v péči o dětské pacienty. Dítě je jako pacient mimořádně zranitelné, a technologie musí být používány výhradně v jeho nejlepším zájmu, s maximální transparentností a neustálou kontrolou výstupů umělé inteligence.
V záplavě AI nástrojů, jako je ChatGPT, a jejich rychle probíhající integrace do každodenního používání nejen v osobním, ale i profesním životě je zásadní udržet fyzický kontakt a lidský přístup v komunikaci jak s dětskými pacienty, tak s ostatními zdravotníky. V každodenní praxi je vzájemné sdílení svých zkušeností a znalostí s umělou inteligencí nenahraditelné. Zatím stále platí, že fyzické vyšetření pacienta a empaticky odebraná anamnéza je základním postupem lékařské praxe. AI se nicméně stává nevyhnutelným doplňkem naší každodenní praxe. Aby lékař dokázal poskytovat pacientům nejlepší možnou péči, měl by se nástroji AI alespoň minimálně uživatelsky zabývat a bezpečně je integrovat do své praxe.
Prohlášení
Při přípravě tohoto rukopisu byl jako pomocný nástroj využit jazykový model ChatGPT (placená verze GPT-4o Plus, OpenAI, 2025). Model byl použit k jazykovým úpravám a tvorbě návrhů některých odstavců. Veškerý obsah byl následně zkontrolován, upraven a doplněn autory. Dále byl ChatGPT-4o použit k demonstraci svých vlastních dovedností na konkrétních příkladech a hlasová konverzace s ChatGPT-4o Plus jako jeden ze zdrojů inspirace a myšlenek o umělé inteligenci ve zdravotnictví.
Konflikt zájmů
Autoři článku prohlašují, že nejsou v souvislosti se vznikem tohoto článku ve střetu zájmů a že tento článek nebyl publikován v žádném jiném časopise, s výjimkou kongresových abstrakt a doporučených postupů.
Sources
- Clusmann J, Kolbinger FR, Muti HS et al. The future landscape of large language models in medicine. Commun Med (Lond) 2023; 3(1): 141. doi: 10.1038/s43856-023-00370-1.
- Miyake Y, Retrosi G, Keijzer R. Artificial intelligence and pediatric surgery: where are we? Pediatr Surg Int 2024; 41(1): 19. doi: 10.1007/s00383-024-05921-8.
- González R, Poenaru D, Woo R et al. ChatGPT: what every pediatric surgeon should know about its potential uses and pitfalls. J Pediatr Surg 2024; 59(5): 941–947. doi: 10.1016/j.jpedsurg.2024.01.007.
- Data center map – colocation, cloud and connectivity. 2025 [online]. Available from: https://www.datacentermap.com/.
- Jiřík M, Moulisová V, Hlaváč M et al. Artificial neural networks and computer vision in medicine and surgery. Rozhl Chir 2022; 101(12): 564–570. doi: 10.33699/PIS.2022.101.12.564-570.
- Umělá inteligence pomáhá rozpoznat rakovinu. Dostupná je v 60 českých nemocnicích. FocusOn. 2025 [online]. Available from: https://www.focuson.cz/umela-inteligence-pomaha-rozpoznat-rakovinu-dostupna-je-v-60-ceskych-nemocnicich/.
- CSAIM – Česká společnost pro umělou inteligenci a inovativní digitální technologie v medicíně. 2025 [online]. Available from: https://csaim.cz/.
- Cottier B, Rahman R, Fattorini L et al. The rising costs of training frontier AI models. 2025 [online]. Available from: https://github.com/epoch-research/.
- Tech giants beat quarterly expectations as Trump’s tariffs hit the sector. Technology. The Guardian. 2025 [online]. Available from: https://www.theguardian.com/technology/2025/may/06/techscape-trump-tariffs-ai-musk-meta.
- The Most Used AI Chatbots in 2025: Global usage, trends, and platform comparisons of ChatGPT, Gemini, Copilot, and Claude. 2025 [online]. Available from: https://www.datastudios.org/post/the-most-used-ai-chatbots-in-2025-global-usage-trends-and-platform-comparisons-of-chatgpt-gemini?utm_source=chatgpt.com.%20The%20Guiradian:%20.
- Uppalapati VK, Nag DS. A comparative analysis of AI models in complex medical decision-making scenarios: evaluating ChatGPT, Claude AI, Bard, and Perplexity. Cureus 2024; 16(1): e52485. doi: 10.7759/cureus.52485.
- Gravina AG, Pellegrino R, Palladino G et al. Charting new AI education in gastroenterology: cross-sectional evaluation of ChatGPT and perplexity AI in medical residency exam. Dig Liver Dis 2024; 56(8): 1304–1311. doi: 10.1016/j.dld.2024.02.019.
- Best practices for prompt engineering with the OpenAI API. OpenAI Help Center. 2025 [online]. Available from: https://help.openai.com/en/articles/6654000-best-practices-for-prompt-engineering-with-the-openai-api.
- Lucas HC, Upperman JS, Robinson JR. A systematic review of large language models and their implications in medical education. Med Educ 2024; 58(11): 1276–1285. doi: 10.1111/medu.15402.
- Ishida K, Hanada E. ChatGPT (GPT-4o) performance on the healthcare information technologist examination in Japan. Cureus 2025; 17(1): e76775. doi: 10.7759/cureus.76775.
- Seth P, Carretas R, Rudzicz F. The utility and implications of ambient scribe in primary care. JMIR AI 2024; 3: e57673. doi: 10.2196/57673.
- Gigola F, Amato T, Del Riccio M et al. Artificial intelligence in clinical practice: a cross-sectional survey of paediatric surgery residents' perspectives. BMJ Health Care Inform 2025; 32(1): e101456. doi: 10.1136/bmjhci-2025-101456.
- Cheung BH, Lau GK, Wong GT et al. ChatGPT versus human in generating medical graduate exam multiple choice questions – a multinational prospective study (Hong Kong S.A.R., Singapore, Ireland, and the United Kingdom). PLoS One 2023; 18(8): e0290691. doi: 10.1371/journal.pone.0290691.
- Robinson JR, Stey A, Schneider DF et al. Generative artificial intelligence in academic surgery: ethical implications and transformative potential. J Surg Res 2025; 307 : 212–220. doi: 10.1016/j.jss.2024.12.059.
- Xiao D, Meyers P, Upperman JS et al. Revolutionizing healthcare with ChatGPT: an early exploration of an AI language model's impact on medicine at large and its role in pediatric surgery. J Pediatr Surg 2023; 58(12): 2410–2415. doi: 10.1016/j.jpedsurg.2023.07.008.
- Chutia T, Baruah N. A review on emotion detection by using deep learning techniques. Artif Intell Rev 2024; 57 : 203. doi: 10.1007/s10462-024-10831-1.
- Ayers JW, Poliak A, Dredze M et al. Comparing physician and artificial intelligence chatbot responses to patient questions posted to a public social media forum. JAMA Intern Med 2023; 183(6): 589–596. doi: 10.1001/jamainternmed.2023.1838.
- van Eerde AM, Teixeira A, Galletti F et al. Risks and benefits of ChatGPT in informing patients and families with rare kidney diseases: an explorative assessment by the European Rare Kidney Disease Reference Network (ERKNet). Pediatr Nephrol 2025; 40(9): 2899–2905. doi: 10.1007/s00467-025-06746-w.
- Zeltzer D, Herzog L, Pickman Y et al. Diagnostic accuracy of artificial intelligence in virtual primary care. Mayo Clin Proc Digit Health 2023; 1(4): 480–489. doi: 10.1016/j.mcpdig.2023.08.002.
- What is Doximity? – Help Center. 2025 [online]. Available from: https://support.doximity.com/hc/en-us/articles/360047806713-What-is-Doximity.
- Nový startup má lékaře zbavit papírování. Milion dolarů do něj dal bývalý šéf Avastu. Forbes. 2025 [online]. Available from: https://forbes.cz/novy-startup-ma-lekare-zbavit-papirovani-milionem-dolaru-ho-podporil-byvaly-sef-avastu/?bclid=IwY2xjawKoQQ1leHRuA2FlbQIxMABicmlkETExczJCR2tLUTJCMlVKSHNZAR60e_ztiLHw5r0I_d9TIjTQphB1Apq1zISsrGwX9TNGENqz1cp-LUwnctR2hA_aem_wyYsas1VUVk0nmSjIKZXAg.
- Pro kliniky. Medevio. 2025 [online]. Available from: https://www.medevio.cz/pro-kliniky.
- První dojmy z GPT-5: malý posun ve schopnostech, větší v jednoduchosti použití. AI začíná být pro každého – Deník N. 2025 [online]. Available from: https://denikn.cz/1805937/prvni-dojmy-z-gpt-5-maly-posun-ve-schopnostech-vetsi-v-jednoduchosti-pouziti-ai-zacina-byt-pro-kazdeho/?ref=list.
- Thorp HH. ChatGPT is fun, but not an author. Science 2023; 379(6630): 313. doi: 10.1126/science.adg7879.
- Tools such as ChatGPT threaten transparent science; here are our ground rules for their use. Nature 2023; 613(7945): 612. doi: 10.1038/d41586-023-00191-1.
- Resnik DB, Hosseini M. The ethics of using artificial intelligence in scientific research: new guidance needed for a new tool. AI Ethics 2025; 5(2): 1499–1521. doi: 10.1007/s43681-024-00493-8.
- Leung TI, de Azevedo Cardoso T, Mavragani A et al. Best practices for using AI tools as an author, peer reviewer, or editor. J Med Internet Res 2023; 25: e51584. doi: 10.2196/51584.
- Generative AI policies for journals. 2025 [online]. Available from: https://www.elsevier.com/about/policies-and-standards/generative-ai-policies-for-journals.
- van Kolfschooten H, van Oirschot J. The EU artificial intelligence act (2024): implications for healthcare. Health Policy 2024; 149 : 105152. doi: 10.1016/j.healthpol.2024.105152.
MUDr. Jan Trachta, FEAPU
Klinika dětské chirurgie
2. LF UK a FN Motol a Homolka
V Úvalu 84
150 06 Praha 5
Labels
Surgery Orthopaedics Trauma surgery
Article was published inPerspectives in Surgery
2026 Issue 1-
All articles in this issue
- Centralizace v chirurgii – jak to vidí okresní chirurg?
- Valgizační intertrochanterická osteotomie jako řešení posttraumatických pakloubů a deformit proximálního femuru
- Přehled zobrazovacích metod v jaterní chirurgii
- ChatGPT-4o v dětské chirurgii a urologii: současné možnosti a limity v každodenním použití v prostředí českých nemocnic
- Obřízka při hlubokém popálení penisu s fimózou
- Popáleninový MASCAL – souborná kazuistika
- Významné jubileum MUDr. Miroslavy Králové, Ph.D.
- Perspectives in Surgery
- Journal archive
- Current issue
- Online only
- About the journal
Most read in this issue- Centralizace v chirurgii – jak to vidí okresní chirurg?
- Valgizační intertrochanterická osteotomie jako řešení posttraumatických pakloubů a deformit proximálního femuru
- Přehled zobrazovacích metod v jaterní chirurgii
- ChatGPT-4o v dětské chirurgii a urologii: současné možnosti a limity v každodenním použití v prostředí českých nemocnic
Login#ADS_BOTTOM_SCRIPTS#Forgotten passwordEnter the email address that you registered with. We will send you instructions on how to set a new password.
- Career