Światowa Organizacja Zdrowia (WHO) zasugerowała w niedawnej analizie, że narzędzia do modelowania języka oparte na sztucznej inteligencji (AI) powinny być opracowywane i weryfikowane “z ostrożnością”. Należy też zwrócić uwagę na etykę, bezpieczeństwo i skuteczność.
Według WHO, ChatGPT, Bard i Bert, a także wiele innych AI, które przyjmują ludzkie zachowania, należy dokładnie zbadać. Zasugerowano, aby zaprojektować je w celu ułatwienia dostępu do opieki zdrowotnej, narzędzi wspomagających podejmowanie decyzji lub poprawy zdolności diagnostycznych. W raporcie czytamy:
“Światowa Organizacja Zdrowia (WHO) wzywa do ostrożności przy korzystaniu z narzędzi sztucznej inteligencji (AI) generowanych przez duże modele językowe (LLM). Celem jest ochrona i promowanie dobrostanu ludzi, ich bezpieczeństwa i autonomii oraz ochrona zdrowia publicznego.”
WHO wyjaśnia, że jest podekscytowana pojawieniem się ChatGPT i Bard oraz ich przydatnością w branżach takich jak opieka zdrowotna. Jednak przyznaje, że zaczyna mieć obawy co do wykładniczego wzrostu sztucznej inteligencji, widząc, że “nie jest ona wykorzystywana w spójny sposób”. Dalej pisze:
“Powszechne przestrzeganie kluczowych wartości przejrzystości, inkluzywności, udziału społeczeństwa, nadzoru ekspertów i rygorystycznej oceny nie jest konsekwentnie realizowane.”
Kilka tygodni temu Organizacja Narodów Zjednoczonych (ONZ) zauważyła w analizie, że rozwój sztucznej inteligencji wymaga etycznej analizy. Zwracanie uwagi wyłącznie na technologiczne implikacj tylko zwiększa istniejące nierówności.
BeInCrypto poinformowało, że asystentka dyrektora generalnego UNESCO ds. nauk społecznych i humanistycznych, Gabriela Ramos, argumentowała, że należy uregulować sztuczną inteligencję. Zaleciła stworzenie modelu zarządzania dla cyfrowego świata. Co więcej, przyznała, że oficjalna narracja skupia się wyłącznie na debacie technologicznej.
WHO chce regulacji sztucznej inteligencji, takiej jak ChatGPT i Bard
Przy tej okazji WHO nazwała sztuczną inteligencję “pochopną adopcją” z niesprawdzonymi systemami. Może to prowadzić do błędów pracowników służby zdrowia, powodując szkody dla pacjentów. Ponadto może pojawić się erozji zaufania do sztucznej inteligencji i “podważenia korzyści” w przyszłości. Czytamy:
“Dane wykorzystywane do szkolenia sztucznej inteligencji mogą być stronnicze. Mogą generować wprowadzające w błąd lub niedokładne informacje, które potencjalnie będą stanowić zagrożenie dla zdrowia, równości i integracji. Mogą one generować odpowiedzi, które mogą wydawać się autorytatywne i wiarygodne dla użytkownika końcowego. Jednak odpowiedzi te mogą być całkowicie niepoprawne lub zawierać poważne błędy.”
WHO przyznała, że sztuczna inteligencja może być wykorzystywana do globalnych kampanii dezinformacyjnych. Może to dziać się w przekonujący sposób: w formie tekstu, audio lub wideo. Takie prezentacje utrudniłyby rozróżnienie ich prawdziwości. Dlatego niezbędna jest polityka publiczna mająca na celu ich regulację.
“WHO proponuje, aby zająć się tymi obawami. Należy zmierzyć wyraźne dowody korzyści przed powszechnym zastosowaniem AI w opiece zdrowotnej i rutynowej medycynie. Dotyczy to zarówno osób fizycznych, świadczeniodawców, jak i administratorów systemów opieki zdrowotnej i decydentów.”
Wyjaśnienie
Wszystkie informacje zawarte na naszej stronie internetowej są publikowane w dobrej wierze i wyłącznie w ogólnych celach informacyjnych. Wszelkie działania podejmowane przez czytelnika w związku z informacjami znajdującymi się na naszej stronie internetowej odbywają się wyłącznie na jego własne ryzyko.