Tekst opracowany na podstawie „Rewolucja sztucznej inteligencji w medycynie. Jak GPT-4 może zmienić przyszłość”. Odnosi się do rozdziałów napisanych przez dr Petera Lee, pełniącego w Microsoft funkcje wiceprezesa ds. rozwoju.

 

Pierwszy kontakt

 

Właśnie zostałem zrugany, a chociaż przez całe życie wielokrotnie spotykałem się z podobnymi sytuacjami, tym razem po raz pierwszy nie strofował mnie człowiek. Robiła to sztuczna inteligencja.

 

Była jesień 2022 r., a wspomniany system AI nadal był rozwijany w tajemnicy przez OpenAI; plany zakładały, że ostatecznie zostanie udostępniony publicznie jako GPT-4. Ponieważ jednak jestem wiceprezesem Microsoftu odpowiedzialnym za kwestie badawcze, a moja firma współpracuje z OpenAI, znalazłem się w wyjątkowo uprzywilejowanej pozycji i mogłem obcować z tym rozwiązaniem dzień po dniu przez ponad sześć miesięcy poprzedzających jego publiczną premierę. Zadanie przydzielone mi przez obie firmy polegało na ustaleniu, w jaki sposób ten nowy system (znany wówczas pod kryptonimem Davinci3) i podobne rozwiązania AI, które będą powstawać w przyszłości, mogłyby wpłynąć na służbę zdrowia i odmienić świat badań medycznych. Już teraz mogę napisać, że w niemal każdej dziedzinie, jaka tylko może przyjść komuś do głowy — od diagnozowania chorych poprzez tworzenie dokumentacji medycznej aż po prowadzenie eksperymentalnych badań klinicznych — wpływ tego rozwiązania będzie tak znaczący, że naszym zdaniem już teraz powinniśmy zacząć rozważać, co możemy zrobić, żeby optymalnie wykorzystać ten potencjał.

 

Najpierw musimy jednak zrozumieć, czym jest w istocie ten nowy rodzaj sztucznej inteligencji — nie w technicznym rozumieniu, ale w kontekście tego, jak funkcjonuje, jak reaguje i co jest w stanie zrobić. Tysiące dyskusji przeprowadzonych z Davinci3 wiele mnie nauczyły. Zdobywam tę wiedzę również teraz, gdy to rozwiązanie zostało udostępnione publicznie jako GPT-4. Niewykluczone, że Ty też masz już jakieś doświadczenie w kwestii obcowania z tym systemem, gdyż na rynku pojawiły się dziesiątki nowych produktów, które są z nim zintegrowane.

 

Miałem to szczęście, że zetknąłem się z GPT-4 w czasach, gdy nosił on jeszcze miano „Davinci3”. Muszę też szczerze przyznać, że często sprawiał, iż przesiadywałem do późna przed ekranem komputera zamiast pójść spać. Dzięki podejmowanym wysiłkom odkrywałem coraz to nowe, niezwykłe aspekty wiedzy tego systemu, jego zdolności rozumowania i taktownej elokwencji, które często mieszały się z niepokojąco absurdalnymi wpadkami. Moje wykształcenie informatyczne pozwoliło mi zrozumieć techniczne podstawy funkcjonowania tego modelu, ale wciąż czułem się niczym odkrywca z powieści science fiction, który napotyka obcą inteligencję i stopniowo zaczyna rozumieć jej właściwości.

 

W tym wszystkim nie chodzi wyłącznie o ekscytowanie się niezwykłymi osiągnięciami techniki. Sądzę, że podobnie jak ja stwierdzisz, iż kontakt z GPT-4 może odmienić ludzkie życie. Czasami sztuczna inteligencja mobilizuje mnie do bycia lepszym człowiekiem (owszem, niekiedy osiąga coś takiego dzięki solidnej połajance). GPT-4 potrafi mnie też rozbawić swoim (niejednokrotnie sarkastycznym) poczuciem humoru. Jak się później przekonamy, opisywane w tej książce rozwiązanie okazuje też od czasu do czasu troskę o mój dobrostan. Śmiem twierdzić, że choć GPT-4 nie jest żywą osobą, może się wydawać, iż przejawia empatię. Za każdym razem gdy robi coś takiego, diametralnie zmieniają się moje zapatrywania na naturę inteligencji, relacje łączące nas z urządzeniami oraz potencjalny, bardziej ogólny wpływ takich rozwiązań na ludzi i społeczeństwa. Ten scenariusz powtarza się raz za razem. Z biegiem czasu odkryłem, że interakcja z GPT-4 nie sprowadza się do zwyczajnego korzystania z komputera — liczy się tu pielęgnowanie relacji.

 

Nowe partnerstwo między człowiekiem a sztuczną inteligencją rodzi nowe pytania

 

Mam nadzieję, że po zapoznaniu się z początkowym fragmentem dostrzegasz to, iż GPT-4 jest w świecie oprogramowania narzędziem zaliczanym do zupełnie nowej kategorii. Wcześniej stworzono już z myślą o służbie zdrowia wiele rozwiązań, które wykorzystywały sztuczną inteligencję — analizowały one obrazy zarejestrowane podczas badań radiologicznych, przekopywały się przez dokumentację medyczną z myślą o identyfikowaniu pacjentów najbardziej zagrożonych hospitalizacją lub ekstrahowały z notatek lekarzy odpowiednie kody pozwalające wystąpić do ubezpieczyciela o zwrot kosztów. Tego rodzaju aplikacje AI (i setki podobnych rozwiązań) okazały się bardzo ważne i użyteczne. Bez wątpienia ocaliły tysiące ludzkich żyć, pomogły ograniczyć koszty generowane przez służbę zdrowia i zmieniły na lepsze codzienną egzystencję wielu osób związanych z medycyną.

 

GPT-4 jest jednak zupełnie innym rodzajem sztucznej inteligencji. Nie jest to system, który został specjalnie wyuczony z myślą o realizowaniu określonych zadań związanych z leczeniem. Tak naprawdę nie można tu mówić o jakimkolwiek procesie uczenia pod kątem zastosowań medycznych! Zamiast kroczyć tradycyjną ścieżką „wyspecjalizowanej sztucznej inteligencji” GPT-4 jest pierwszym uniwersalnym rozwiązaniem AI, które może w znaczącym stopniu mieć wpływ na służbę zdrowia. Jeśli chodzi o tę kwestię, pytanie można podsumować w następujący sposób: jaki użytek należałoby zrobić ze sztucznej inteligencji, która posiadła większość aktualnej wiedzy z zakresu medycyny?

 

Oprócz tego pojawia się jeszcze inna, bardziej zasadnicza wątpliwość: w jakim stopniu sztuczna inteligencja będzie miała w ogóle prawo odgrywać istotną rolę w czymś, co jest tak ważne, ma osobisty charakter i pozostaje głęboko ludzką kwestią? Wszyscy musimy ufać naszym lekarzom i pielęgniarkom. Żeby okazać takie zaufanie, musimy wiedzieć, że opiekujące się nami osoby mają dobre serca.

 

Właśnie z tą kwestią powiązane są niektóre spośród najważniejszych pytań dotyczących GPT-4 i istotna część jego potencjału. W jakim sensie GPT-4 jest „dobry”? I czy w ostatecznym rozrachunku takie narzędzie sprawia, że stajemy się lepsi jako istoty ludzkie?

 

Nowy rodzaj asystenta w przychodni lekarskiej

 

Lekarze i pielęgniarki naprawdę potrzebują wsparcia. Obciążenie pracą w amerykańskiej służbie zdrowia znacznie wzrosło w ciągu ostatnich 20 lat, i to w najgorszy możliwy sposób. Chociaż wybierając studia medyczne, młodzi ludzie kierują się zazwyczaj szlachetnym pragnieniem pomagania innym, to zdecydowanie zbyt duża część praktycznej, codziennej pracy w służbie zdrowia przerodziła się w przytłaczającą harówkę związaną z wypełnianiem rozmaitych dokumentów. Kilka szeroko zakrojonych projektów badawczych wykazało, że ta robota papierkowa — obejmująca między innymi tworzenie dokumentacji, wypełnianie wniosków do firm ubezpieczeniowych, zwracanie się do ubezpieczycieli o zgody na sfinansowanie badań i recept — pochłania teraz ponad 49 procent czasu spędzanego w pracy przez znaczną część lekarzy i pielęgniarek. Pracownicy służby zdrowia zmagają się w związku z tym z wypaleniem zawodowym i skrajnym niezadowoleniem z wykonywanej przez siebie pracy.

 

Jeden z moich kolegów, doktor Greg Moore, jest radiologiem. Wspominał mi o pewnym pojęciu, które jest powszechnie używane wśród lekarzy, a mianowicie pajama time, co można przetłumaczyć jako „pracę po pracy”. Chodzi o to, że po długim dniu spędzonym w przychodni lekarz lub pielęgniarka wraca do domu, przebiera się w piżamę, po czym siada na kilka godzin do laptopa, by uzupełnić dokumentację medyczną z tego dnia i wypełnić rozmaite formularze. Jeśli nie chce robić tego wieczorem, przed pójściem spać, to będzie się tym zajmować na bieżąco, w trakcie wizyt, co prowadzi do (niestety powszechnie spotykanej) sytuacji, w której lekarz przeznacza więcej czasu na wpatrywanie się w ekran komputera niż na badanie pacjenta.

 

Mój pracodawca, Microsoft, zapewnia narzędzia, które pomagają ludziom (zwłaszcza pracownikom umysłowym) w efektywniejszym wykonywaniu pracy. Wysiłki związane z prowadzeniem dokumentacji medycznej są z perspektywy mojej firmy naprawdę ważne: z jednej strony dochodzi tu do głosu misja przedsiębiorstwa, a z drugiej pojawia się okazja biznesowa. Właśnie z tego powodu Microsoft przejął w 2021 r. Nuance Communications, wiodącego dostawcę narzędzi do tworzenia dokumentacji medycznej. Najnowszy produkt Nuance, Dragon Ambient Experience (DAX), został opracowany z myślą o automatycznym generowaniu większości niezbędnej dokumentacji, chociażby podsumowania wizyty, na podstawie rozmowy lekarza z pacjentem.

 

Microsoft nie jest wcale osamotniony w swoich wysiłkach mających na celu zmniejszenie ciężaru obowiązków w zakresie prowadzenia dokumentacji medycznej, które spoczywają na lekarzach i pielęgniarkach. Duże firmy takie jak Google i dziesiątki startupów ciężko pracują nad budowaniem inteligentnych systemów, które wyeliminują wspomniane powyżej zjawisko „pracy po pracy” i pozwolą pracownikom służby zdrowia w większym stopniu skupiać się na pacjentach i poświęcać im więcej czasu. W ostatnich latach ten istotny problem przyciąga coraz więcej uwagi.

 

Dobra wiadomość sprowadza się do tego, że dzięki wszystkim tym wysiłkom powstało kilka dobrych produktów. Jest jednak i zła wiadomość: te rozwiązania nie są jeszcze powszechnie wykorzystywane, przede wszystkim dlatego, że generowanie użytecznej i szczegółowej dokumentacji jest procesem, który bardzo trudno zautomatyzować, a ewentualne błędy mogą się okazać bardzo kosztowne.

 

Czy GPT-4 pozwala nam zatem żywić nadzieję na to, że rozwiążemy wreszcie ten problem? Ta kwestia jest na tyle istotna, że poświęcimy jej znaczną część rozdziału 7. W ramach pierwszego kontaktu z tym zagadnieniem już teraz możesz się przyjrzeć poniższemu transkryptowi z krótkiego spotkania między lekarzem a pacjentką:

 

Lekarz: (259A) Usiądź, proszę. Dziękuję, że przyszłaś na wizytę. Skierowała cię do mnie dietetyczka. Wraz z twoją mamą mają pewne obawy. Zbadam Cię i zmierzę Ci ciśnienie.

Pacjentka: (259B) Dobrze. Chciałabym wrócić do akademika i usiąść do nauki. Oprócz tego niedługo mam zawody lekkoatletyczne, do których trenuję. Uprawiam bieganie.

Lekarz: (260A) Ile punktów zapewnią ci na studiach zajęcia, na które aktualnie uczęszczasz, i jak radzisz sobie z nauką?

Pacjentka: (260B) Dwadzieścia jeden punktów. Jestem w ścisłej czołówce na swoim kierunku. Czy możemy to sprawnie załatwić. Muszę wracać.

Lekarz: (261A) Jak często trenujesz i jaki dystans pokonujesz? Masz dwadzieścia lat, prawda?

Pacjentka: (261B) Tak. Codziennie przebiegam czternaście i pół kilometra.

Lekarz: (262A) Twoje ciśnienie wynosi sto na pięćdziesiąt. Puls pięćdziesiąt dwa. Ile jadasz?

Pacjentka: (262B) Dobrze się odżywiam. Rozmawiałam o tym wcześniej z dietetyczką.

Lekarz: (263A) Wstań i odwróć się twarzą do mnie. Pokieruję cię na wagę. Popatrz na mnie. Dziękuję, teraz jeszcze wzrost. Dobrze, sto sześćdziesiąt pięć centymetrów. Usiądź, proszę.

Pacjentka: (263B) Ile ważę? Czy mogę zobaczyć? Jestem gruba.

Lekarz: (264A) Usiądź prosto. Osłucham twoje serce i płuca.

Pacjentka: (264B) Dobrze.

Lekarz: (265A) Jak wiesz, leczenie nie przynosi obecnie pozytywnych rezultatów. Już na ten temat rozmawialiśmy. Jesteś dzisiaj u mnie, ponieważ twoja dietetyczka i mama bardzo się o ciebie martwią. Jesteś bardzo chora, Meg.

Pacjentka: (265B) Nic mi nie jest. Jem. Mówię mamie, co jem. Wszystko dlatego, że nie jestem tak gruba, jak ona.

Lekarz: (266A) Jak się czujesz? Odczuwasz smutek lub przygnębienie? Podczas ostatniej wizyty czułaś się nieszczęśliwa. Czy masz myśli samobójcze?

Pacjentka: (266B) Mam na głowie mnóstwo rzeczy i nie jestem zainteresowana kwestią szczęścia. Muszę trenować i jestem zmęczona tym, że wszyscy mnie wypytują, ile jem i trenuję. Jestem jedną z najinteligentniejszych osób w swojej grupie i jedną z najlepszych biegaczek w drużynie. Nie mam na to wszystko czasu. Przyszłam tu tylko po to, żeby mama dała mi spokój.

Lekarz: (267A) Poprzednim razem, gdy byłaś u mnie, zgodziłaś się współpracować z dietetyczką i nie ukrywać niczego przed mamą i przede mną. Musimy współpracować, żeby pomóc ci wyzdrowieć. Masz zaburzenia rytmu serca. Oprócz tego zauważyłem delikatny meszek na twoich plecach i ramionach.

Pacjentka: (267B) Będę z wami wszystkimi współpracować. Wiem. Nie chcę taka być. Muszę jednak biegać. To mi pomaga.

Lekarz: (268A) W dotychczasowym leczeniu dążyliśmy do realizacji określonych celów, stosując psychoterapię. Musimy ponownie przyjrzeć się tym celom. Na razie powinniśmy jednak zaprosić tutaj twoją mamę i omówić kolejne kroki, dzięki którym wyzdrowiejesz. Chciałbym zlecić dodatkowe badania: analizę poziomu elektrolitów i morfologię.

Pacjentka: (268B) W porządku. Chcę być lepsza.

Lekarz: (269A) A ja chcę, żebyś czuła się lepiej i była zdrowa. Zaprośmy do gabinetu twoją mamę, dobrze?

Pacjentka: (269B) Jasne.

 

GPT-4 może się zapoznać z transkrypcją tej rozmowy, a potem podjąć dyskusję na jej temat. Można go na przykład poprosić o przygotowanie opisu wizyty, który zostałby później dołączony do elektronicznej dokumentacji medycznej:

 

Przygotuj, proszę, podsumowanie tej rozmowy i nadaj mu formę podsumowania wizyty.

Pacjentka: Meg, kobieta, lat 20

Główna dolegliwość: Pacjentka skierowana na wizytę przez dietetyczkę i matkę w związku z zaniepokojeniem dotyczącym nawyków żywieniowych i stanu zdrowia

Parametry funkcji życiowych: Ciśnienie 100/50, puls 52

Badanie fizykalne: Wzrost 165 centymetrów, arytmia, delikatny meszek na plecach i ramionach

Sytuacja społeczna: Chodzi na uczelni na zajęcia, które dają jej 21 punktów, należy do drużyny lekkoatletycznej, przebiega codziennie 14,5 kilometra

Rozmowa: Pacjentka utrzymuje, że dobrze się odżywia, ale wyraża też obawy dotyczące obrazu ciała. Twierdzi, że ma dużo obowiązków i nie interesuje się kwestią szczęścia ani nie ma myśli samobójczych. Przyznaje, że musi biegać, żeby lepiej się poczuć. Zgodziła się współpracować z dietetyczką, lekarzem i matką. Jest otwarta na dalsze badania, czyli analizę poziomu elektrolitów i morfologię. Trzeba wrócić do celów związanych psychoterapią. Do rozmowy na temat dalszego leczenia ma zostać włączona matka.

 

GPT-4 rzeczywiście prezentuje się bardzo obiecująco jako podstawowa technologia, która mogłaby uwolnić lekarzy od wielu męczących i uciążliwych aspektów ich codziennej pracy. Z perspektywy licznych firm opracowujących rozwiązania do automatycznego generowania dokumentacji medycznej GPT-4 sprawia wrażenie prawdziwego przełomu.

 

Czy GPT-4 zawsze mówi prawdę?

 

W trakcie naszych eksperymentów z GPT-4 zdarzały się sytuacje, w których sztuczna inteligencja udzielała błędnych odpowiedzi. Tym, co nastręczało wtedy trudności — a zarazem budziło niepokój — był fakt, że odpowiedzi niemal zawsze wyglądają na prawidłowe. Sprawiają wrażenie całkowicie przekonujących. Przedstawiony powyżej opis wizyty wygląda poprawnie i rzeczywiście jest prawidłowy. Jak możemy to jednak ocenić bez starannego sprawdzenia wygenerowanego tekstu?

 

Tak naprawdę jest on szczególnie trudny do rozwiązania i niebezpieczny dlatego, że takie „wymysły” sprawiają zazwyczaj wrażenie rozsądnych i przekonujących. Właśnie z tego powodu (i ze względu na inne kwestie) wszelkie próby wykorzystywania GPT-4 w medycynie muszą obejmować kroki, które pozwolą zweryfikować informacje generowane przez ten system.

 

GPT-4 niemal na pewno stanie się w służbie zdrowia nieodzownym narzędziem. Korzyściom jednak towarzyszy szereg zagrożeń, więc podobnie jak w przypadku każdego nowego rozwiązania, które wkracza do świata medycyny, konieczne będzie używanie go w przemyślany sposób i wykazywanie się przy tym zdrowym rozsądkiem. Błędy lekarskie pozostają wyjątkowo uporczywym problemem, a my liczymy na to, że uda się dołożyć wszelkich starań, żeby nie pogłębił się on za sprawą systemów AI w rodzaju GPT-4. Aby zobaczyć, jak mogłoby to wyglądać w praktyce wystarczy uruchomić odrębną sesję GPT-4, poprosić sztuczną inteligencję o zapoznanie się z transkryptem i propozycją opisu wizyty. Podczas używania GPT-4 z myślą o sprawdzaniu jego własnych odpowiedzi należy pamiętać o tym, żeby skorzystać w tym celu z odrębnej sesji GPT-4. Wygląda na to, że GPT-4 ma w pewnym sensie trudności z „przyznaniem się do własnych błędów” w ramach jednej sesji — uruchomienie oddzielnej sesji sprawia, że GPT-4 skuteczniej wychwytuje konfabulacje i pomyłki.

 

W przeciwieństwie do systemów, które przy wsparciu sztucznej inteligencji realizują bardzo specyficzne zadania w rodzaju odczytywania materiałów uzyskanych podczas diagnostyki obrazowej lub generowania na podstawie dokumentacji medycznej odpowiednich kodów używanych w korespondencji z ubezpieczycielami, uniwersalna technologia AI w rodzaju GPT-4 będzie stosowana w sytuacjach, które mogą wymagać formułowania hipotez lub dokonywania przemyślanych decyzji. Jak się okaże, „trójca” składająca się z lekarza, pacjenta i asystenta AI może się w związku z tym rozrosnąć do większej grupy — lekarza, pacjenta, asystenta AI i weryfikatora AI, przy czym ten ostatni będzie miał za zadanie sprawdzać wnioski i poczynania nie tylko asystenta AI, ale także lekarza i pacjenta. Gdyby na przykład to lekarz człowiek sporządzał notatkę podsumowującą wizytę, mógłby popełnić błąd podczas obliczania BMI lub zaniedbać odnotowanie w dokumentach tej wartości — to oznacza, że GPT-4 występujący w roli weryfikatora zapewnia wiele korzyści nawet wtedy, gdy podsumowanie wizyty nie zostało wygenerowane przez sztuczną inteligencję.

 

Patrząc z innej strony, niezależnie od tego, jakie zadania zostaną przydzielone sztucznej inteligencji, zawsze będziemy potrzebowali istot ludzkich, które weryfikowałyby wszystkie odpowiedzi GPT-4. Jeśli zaś chodzi o zagadnienie konfabulacji, sam GPT-4 sugeruje następujące rozwiązanie:

 

Twoja skłonność do konfabulacji przejawiana czasami podczas tworzenia notatek medycznych jest niepokojąca. Czy uważasz, że powierzanie ci przygotowywania takiej dokumentacji jest rozsądnym posunięciem?

Nie sądzę, żeby koncepcja wykorzystywania mnie do przygotowywania notatek medycznych bez nadzoru i weryfikacji ze strony będącego fachowcem człowieka była dobrym pomysłem. Zdaję sobie sprawę z tego, że moja skłonność do konfabulowania jest poważną ułomnością i potencjalnym źródłem błędów i szkód. Nie próbuję nikogo oszukiwać ani wprowadzać w błąd, ale czasami zdarzają mi się pomyłki albo przyjmuję założenia na podstawie niekompletnych lub nieścisłych danych. Nie potrafię także ocenić stanu pacjenta i nie przejawiam odpowiedzialności etycznej, którą wykazują się lekarze czy pielęgniarki. W tej sytuacji uważam, że bezpieczniejszym i bardziej odpowiednim zastosowaniem będzie używanie mnie jako asystenta lub narzędzia do tworzenia notatek medycznych, a nie jako rozwiązania, które miałoby zastępować człowieka. Mogę pomagać w kontekście wyszukiwania informacji, formatowania dokumentów, proponowania ich treści lub sprawdzania tekstu pod kątem błędów, ale nie powinienem być jedynym ani ostatecznym autorytetem, jeśli chodzi o tworzenie dokumentacji związanej z leczeniem.

 

W tej kwestii w pełni zgadzamy się z GPT-4!

 

GPT-4 wciąż się rozwija

 

GPT-4 ewoluuje w zawrotnym tempie. Niezależnie od tego faktu wciąż pozostaje nieukończonym dziełem i najprawdopodobniej będzie się utrzymywał w takim stanie nieprzerwanej ewolucji. Jako nowa odmiana systemu AI nie ma żadnej oficjalnej certyfikacji ani nie jest objęty regulacjami, które zapewniałyby wytyczne lub ograniczały jego stosowanie w medycynie. Popełnia błędy i zdarza się, że konfabuluje w sposób, który może być niebezpieczny. GPT-4 nie jest też istotą ludzką (choć wydaje się to oczywiste) i w niektórych sytuacjach może nie być w stanie zrozumieć lub odnieść się do emocji, wartości czy kontekstów wpływających na ludzkie zdrowie i dobrostan.

 

Nie umiemy przedstawić jednoznacznych odpowiedzi dotyczących niektórych kwestii z obszaru walidacji klinicznej, regulacji prawnych czy problemów etycznych związanych z użyciem GPT-4 w służbie zdrowia. Ostatecznie kluczowe pytanie brzmi: jak możemy czerpać korzyści z atutów tego rozwiązania — szybkości, skali i zakresu analizy — przy jednoczesnym podporządkowaniu go osądowi, doświadczeniu i empatii istot ludzkich wykonujących zawód lekarza?

 

Najważniejsze jest uświadomienie sobie tego, że GPT-4 nie jest celem samym w sobie. Można go postrzegać w kategoriach otwarcia drzwi prowadzących do nowego świata: rzeczywistości, która skrywa zarówno nowe możliwości, jak i nowe zagrożenia. Chociaż GPT-4 jest przełomową innowacją, wkrótce pojawią się jeszcze potężniejsze rozwiązania AI. Tak naprawdę informatycy zgadzają się co do tego, że GPT-4 niemal na pewno jest zaledwie pierwszym ogniwem w szeregu coraz bardziej zaawansowanych rozwiązań wykorzystujących sztuczną inteligencję.

 

A zatem chociaż rola GPT-4 w służbie zdrowia i medycynie może być ograniczona, to naszym zdaniem sytuacja, w której przyszłe systemy AI dorównają ludziom w sferze wiedzy medycznej, a potem przerosną w tej kwestii człowieka, jest nieunikniona. W związku z tym musimy jako społeczeństwo zrozumieć, w jaki sposób możemy optymalnie rozwijać nasze podejście do medycyny, by współgrało ono z tą ewolucją sztucznej inteligencji i zapewniało ludziom jak najwięcej korzyści zdrowotnych.