„Sztuczna inteligencja nie jest wyrocznią”. Rozmowa z dr hab. n. med. Karolem Rawicz-Pruszyńskim o rozwoju AI w medycynie

„Sztuczna inteligencja nie jest wyrocznią”. Rozmowa z dr hab. n. med. Karolem Rawicz-Pruszyńskim o rozwoju AI w medycynie

Prof. Karol Rawicz-Pruszyński
Prof. Karol Rawicz-Pruszyński

Sztuczna inteligencja rozwija się w coraz szybszym tempie i znajduje zastosowanie w wielu dziedzinach, w tym w medycynie. O tym, jakie szanse i zagrożenia daje dziś AI, rozmawiamy z dr hab. n. med. Karolem Rawicz-Pruszyńskim, prof. Uczelni, prodziekanem Wydziału Lekarskiego Uniwersytetu Medycznego w Lublinie, Lekarzem Kierującym Oddziałem Chirurgii Onkologicznej Uniwersyteckiego Szpitala Klinicznego nr 1 i Przewodniczącym Zespołu ds. Uniwersyteckiego Centrum Robotyki i Sztucznej Inteligencji. 

BLASK: Na jakich etapach ścieżki pacjenta (np. przed wizytą, w trakcie leczenia, po zabiegu) sztuczna inteligencja może dziś realnie pomóc, nie wchodząc w kompetencje lekarza? Gdzie i kiedy taka pomoc jest faktycznie użyteczna, a gdzie zaczyna być niebezpieczna? 

Prof. Karol Rawicz-Pruszyński: W świetle tej wiedzy, którą obecnie posiadamy i lokalnymi możliwościami którymi dysponujemy, wydaje się, że etap diagnostyki jest tym najbardziej optymalnym, gdzie z punktu widzenia zarówno etycznego, ale też prawnego, AI faktycznie rzeczywiście „wspiera” nasze decyzje, np. radiologiczne. Pozwala też w sposób bardziej obiektywny przeanalizować pewne algorytmy, stwarzając udoskonalenie gromadzenia i interpretacji danych, które lekarz może wykorzystać do tego, by w porozumieniu z chorym podjąć optymalną ścieżkę leczenia. Znamy przypadki, gdzie bazy danych (w których zawierane są setki, tysiące, a nawet dziesiątki tysięcy obrazów radiologicznych) umożliwiają na podstawie tzw. uczenia maszynowego czy uczenia głębokiego, czyli złożonych procesów analitycznych, zidentyfikować wybrane artefakty, które w kolejnych badaniach kontrolnych przechodziły transformację w zmiany złośliwe, albo takie, które wymagały przynajmniej pogłębionej diagnostyki. W polskich realiach jest oczywiście jeszcze za wcześnie, by sztuczna inteligencja mogła za nas decydować o czymkolwiek, gdyż absolutnie nie jesteśmy do tego przygotowani ani indywidualnie, ani tym bardziej systemowo, natomiast w nawiązaniu do świeżo wyremontowanego lubelskiego dworca PKP - nie możemy odwracać głowy od pociągu „Sztuczna Inteligencja”, jeśli chcemy wziąć udział w tej globalnej podróży przyszłości. 

BLASK: Czy są obszary medycyny, w których AI ma obiektywną przewagę nad lekarzem? 

Prof. Karol Rawicz-Pruszyński: Niewątpliwie. Wszędzie tam, gdzie zasoby danych są duże, sztuczna inteligencja (na drodze chociażby wspomnianych technik uczenia maszynowego czy głębokiego) oczywiście szybciej i bardziej kompleksowo przeanalizuje duże zasoby danych niż lekarz. Natomiast w dalszym ciągu to na naszej głowie jest wyłapywanie pewnych niuansów i interpretacja danych klinicznych. Często bywa, że im bardziej złożony problem kliniczny, tym AI ma z nim większą zagwozdkę. Brniemy w kolejnych poleceniach, nierzadko frustrując się kolejnymi nielogicznymi wyskakującymi odpowiedziami. Poniekąd może być to również nasza wina, ponieważ nie zawsze umiemy w sposób ugruntowany i systemowy zadać jej odpowiednie polecenie do wykonania (tzw. prompt), bo często odbywa się to na zasadzie „proste pytanie – prosta odpowiedź”. Natomiast warto, aby środowiska akademickie oraz związane z ochroną zdrowia, uczyły się przede wszystkim wspomnianego dialogu z ChatemGPT czy innym dużym modelem językowym (tzw. Large Language Model, LLM), nie wspominając już o kwestii komunikacji między nami samymi, bo to czasami też niestety szwankuje. 

BLASK: A z perspektywy chirurga: w których elementach podczas procesu operacji, AI już dziś zmienia praktykę, a gdzie nadal jest „tylko” ciekawostką? 

Prof. Karol Rawicz-Pruszyński: Od kilku dni możemy cieszyć się oficjalną publikacją z zakresu wykorzystania uczenia maszynowego na podstawie materiału własnego. Chodzi o badanie MAGE (Multimodal AI-enhanced Gastrectomy Evaluation - projekt realizowany na Uniwersytecie Medycznym w Lublinie - przyp. red.), które analizuje możliwe powikłania po operacji u chorych na raka żołądka, w czterostopniowej skali Clavien-Dindo. Przykładowo, pierwszy stopień to powikłanie wymagające jedynie niewielkiej interwencji farmakologicznej, podczas gdy stopień czwarty oznacza konieczność reoperacji. Na podstawie bazy danych z Kliniki Chirurgii Onkologicznej, obejmujących blisko 400 chorych, byliśmy w stanie z czułością i dokładnością sięgającą ponad 90 procent w wybranych modelach uczenia maszynowego stworzyć kalkulator, który jest dostępny online i który pozwala przewidzieć potencjalne problemy pooperacyjne. Oczywiście wprowadzamy do niego dane kliniczne, które są zbierane przed operacją, więc jest to narzędzie, które można i należy dalej rozwijać. Bardzo chcielibyśmy zwalidować ten kalkulator w populacji zewnętrznej, dlatego obecnie włączamy do projektu inne jednostki, które wykonują znaczną ilość operacji żołądka u chorych onkologicznych – nie tylko w Polsce czy Europie, ale na całym świecie – po to, żeby móc dalej rozwijać tę technologię. To co jest wspaniałe w sztucznej inteligencji, to fakt, że cały czas możemy ją usprawniać i rozwijać.

BLASK: Teraz zerknijmy na AI z tej „drugiej strony”. Czy mógłby Pan Profesor wskazać, jakie są najczęstsze ryzyka związane z korzystaniem przez pacjentów z narzędzi opartych o sztuczną inteligencję i które grupy pacjentów są na nie najbardziej narażone? Czy faktycznie możemy obawiać się tego, że ludzie, zamiast zgłosić się do lekarza, będą polegać jedynie na AI i na przykład opóźniać wizyty? 

Prof. Karol Rawicz-Pruszyński: Z naszych własnych codziennych obserwacji wynika, iż niemal każdy pacjent sięga do internetu – niegdyś Dr Google, obecnie Docenta GPT - jeszcze przed wizytą u lekarza. Dzieje się tak na przykład w momencie, w którym widzi u siebie (lub u kogoś bliskiego) objawy, mogące w pewnym stopniu świadczyć o nowotworze. AI jest w stanie przekazać pewne podstawowe fakty na temat każdej choroby, jednak problem polega na tym, że – po raz kolejny – systemowo nie jesteśmy jeszcze w pełni świadomi tego, iż sztuczna inteligencja nie jest wyrocznią – jest narzędziem. Do wszelkiego rodzaju informacji przez nią wygenerowanych zarówno lekarz prowadzący, jak i pacjent, powinien podejść z odpowiednim dystansem. Nierzadko prosimy pacjentów, aby pokazali nam, co dokładnie wpisali w ChatGPT i jaką odpowiedź od niego otrzymali, po czym odnosimy się do i wyjaśniamy treści, które zostały wygenerowane. Im temat jest bardziej zagmatwany, tym bardziej jesteśmy w stanie pokazać pacjentowi niedoskonałość sztucznej inteligencji w sprawach stricte klinicznych i „życiowych”. Należy pamiętać, iż GPT nie jest mistrzem świata w wyszukiwaniu wysublimowanych dowodów naukowych opartych na EBM – te nie zawsze są dostępne w internecie w formie tzw. open access. Dlatego powinniśmy z naszymi chorymi rozmawiać jeszcze więcej niż do tej pory – również w obliczu wszelkich nowinek technologicznych. Z drugiej strony, jeśli pacjent już posiada podstawową wiedzę na temat swojego rozpoznania, to nierzadko ta rozmowa toczy się innym, płynnym tokiem, bo nie ma konieczności tłumaczenia wszystkiego od zupełnych podstaw, za to można precyzyjnie omawiać dalszą ścieżkę diagnostyczno-terapeutyczną.


WYDARZYŁO SIĘ

Wydarzyło się

Badaczki UMLub i prorektor

Wyróżnienia dla Badaczek UMLUB z okazji Światowego Dnia Kobiet i Dziewcząt w Nauce

2026-02-11 12:10:16

Z okazji Światowego Dnia Kobiet i Dziewcząt w Nauce, trzy badaczki z Uniwersytetu Medycznego w Lublinie otrzymały wyróżnienia za największy dorobek w zakresie ochrony własności intelektualnej. W gronie tym znalazły się: prof. dr hab. n. farm. Anna Bogucka-Kocka z Katedry i Zakładu Biologii z Genetyką, prof. dr hab. n. farm. Agata Przekora-Kuśmierz z Zakładu Inżynierii Tkankowej i Medycyny Regeneracyjnej oraz…

Uniwersytet Medyczny w Lublinie na międzynarodowych targach edukacyjnych w Norwegii

UMLUB promuje swoją ofertę edukacyjną na prestiżowych targach w Norwegii

2026-02-11 11:40:40

Uniwersytet Medyczny w Lublinie bierze udział w prestiżowych międzynarodowych targach kariery i edukacji „Student Fair”, które w dniach 11-12.02 odbywają się w Norwegii. Wydarzenie to stanowi jedną z najważniejszych platform prezentacji oferty edukacyjnej oraz budowania międzynarodowej współpracy akademickiej.

 

wręczenie nominacji dla prof. Anny Boguckiej-Kockiej

Prof. dr hab. n. farm. Anna Bogucka-Kocka powołana w skład Rady Naukowej PIWet-PIB

2026-02-11 10:55:49

Z ogromną dumą i satysfakcją informujemy, że Pani prof. dr hab. n. farm. Anna Bogucka-Kocka z Katedry i Zakładu Biologii z Genetyką została powołana przez Ministra Rolnictwa i Rozwoju Wsi w skład Rady Naukowej Państwowego Instytutu Weterynaryjnego – Państwowego Instytutu Badawczego (PIWet-PIB) na kadencję 2025–2029.

Prof. Karol Rawicz-Pruszyński

„Sztuczna inteligencja nie jest wyrocznią”. Rozmowa z dr hab. n. med. Karolem Rawicz-Pruszyńskim o rozwoju AI w medycynie

2026-02-11 08:29:25

Sztuczna inteligencja rozwija się w coraz szybszym tempie i znajduje zastosowanie w wielu dziedzinach, w tym w medycynie. O tym, jakie szanse i zagrożenia daje dziś AI, rozmawiamy z dr hab. n. med. Karolem Rawicz-Pruszyńskim, prof. Uczelni, prodziekanem Wydziału Lekarskiego Uniwersytetu Medycznego w Lublinie, Lekarzem Kierującym Oddziałem Chirurgii Onkologicznej Uniwersyteckiego Szpitala Klinicznego nr 1 i Przewodniczącym Zespołu ds. Uniwersyteckiego Centrum…

Profesor Uniwersytetu Medycznego w Lublinie – dr hab. n. med. Marzena Samardakiewicz

Między nadzieją a prawdą. Jak bliscy powinni rozmawiać z osobą chorą? – wywiad z profesor Marzeną Samardakiewicz

2026-02-11 08:26:45

Czasem najbardziej ranią słowa wypowiadane w dobrej wierze. „Będzie dobrze”, „musisz być silny”, „nie płacz” – zamiast wspierać, mogą pogłębiać samotność osoby chorej i jej bliskich. Jak rozmawiać, kiedy choroba nowotworowa wchodzi do rodziny? Gdzie przebiega granica między nadzieją a prawdą, między mówieniem a milczeniem? O emocjach, które towarzyszą diagnozie, o najczęstszych błędach popełnianych przez bliskich i o tym, dlaczego…