Sztuczna inteligencja zaczęła mocniej zmieniać nasze życie pod koniec 2022 roku. Z pomocą AI uczniowie piszą wypracowania, studenci przygotowują się do egzaminów, a pracownicy znajdują rozwiązania problemów zawodowych. Równocześnie na rynku zaczęły pojawiać się aplikacje wykorzystujące AI do grafiki, filmów, imitacji głosów, a także do stawiania diagnoz medycznych. To ostatnie budzi jednak wiele kontrowersji i pytań o granice jej wykorzystania.
Medycy podejmują więc próby ustalenia zasad korzystania z tej technologii w leczeniu ludzi.
Chociaż AI potrafi zaskoczyć precyzją, często popełnia błędy
Sztuczna inteligencja popełnia błędy, a wynika to z jej działania – opiera się na informacjach dostępnych w internecie, gdzie mogą znajdować się nieścisłości. Brak zdolności do przyznania „nie wiem” skutkuje tym, że AI czasem wymyśla odpowiedzi. O ile pomyłka w szkolnym wypracowaniu nie jest poważnym problemem, to już błąd w diagnozie medycznej może mieć tragiczne skutki.
Badania opublikowane w czasopiśmie „Radiology” wykazały, że AI potrafi zwiększać trafność diagnoz do 92,8 proc., proponując odpowiednie sugestie. Jednak wskazania AI prowadzą również do błędów lekarzy w 23,6 proc. przypadków. Taki poziom ryzyka sprawił, że polscy lekarze postanowili uregulować jej stosowanie w codziennej praktyce.
Lekarz powie, że korzysta z AI
Od 1 stycznia 2025 roku wejdą w życie nowe zasady, które mają ujednolicić sposób korzystania z AI w medycynie.
Zgodnie z informacjami „Rynku Zdrowia” lekarze będą musieli informować pacjentów o tym, że diagnoza lub proces leczenia opierają się na wykorzystaniu sztucznej inteligencji. Podstawowym wymogiem będzie uzyskanie świadomej zgody pacjenta na takie działanie.
Kodeks etyki lekarskiej wskazuje, że:
- Medycy mogą korzystać jedynie z certyfikowanych algorytmów dopuszczonych do użytku medycznego.
- Narzędzia muszą posiadać status wyrobu medycznego.
- Decyzja o wykorzystaniu AI w diagnostyce należy zawsze do lekarza.