Spis treści
Postępy w sztucznej inteligencji zrewolucjonizowały wiele sektorów, ale nie są pozbawione wad. Eksperyment przeprowadzony przez szwedzkich badaczy ujawnił niepokojące luki w sposobie, w jaki chatboty weryfikują informacje medyczne. Wymyślając fikcyjną chorobę, „bixonimanię”, badacze ci pokazali, że AI można łatwo oszukać, co rodzi pytania dotyczące ich użycia w wrażliwych kontekstach. Dowiedz się, jak ten eksperyment uwydatnił ograniczenia obecnych systemów sztucznej inteligencji.
Najważniejsze do zapamiętania
W 2024 roku Almira Osmanovic Thunström, badaczka z Uniwersytetu w Göteborgu, zaprojektowała eksperyment mający na celu przetestowanie ograniczeń chatbotów. Wymyśliła „bixonimanię”, fikcyjną chorobę, i wprowadziła ją do akademickich preprintów pełnych oczywistych oznak fałszu. Pomimo tych wskazówek, renomowane chatboty uznały tę patologię za rzeczywistą.
Na przykład Copilot opisywał bixonimanię jako „intrygującą i stosunkowo rzadką”, podczas gdy Gemini zalecał konsultację z okulistą. To pokazuje, że AI mogą dać się zwieść dobrze sformatowanym treściom, które postrzegają jako wiarygodne.
Błąd nie ograniczył się do chatbotów. Badacze z Instytutu Nauk Medycznych w Mullana w Indiach cytowali fałszywe preprinty w badaniu, udowadniając, że nawet eksperci mogą zostać oszukani przez informacje generowane przez AI. Cureus, czasopismo, w którym artykuł został opublikowany, wycofało dokument w marcu 2026 roku, ale incydent ujawnił systemową lukę w weryfikacji źródeł akademickich.
Elisabeth Bik, specjalistka ds. integralności badań, wyraziła swoje obawy dotyczące automatyzacji indeksacji akademickich. Podkreśliła ryzyko, że błędne informacje mogą się rozprzestrzeniać bez ludzkiej interwencji, problem pogłębiony przez użycie LLM (dużych modeli językowych) w badaniach.
Od czasu eksperymentu niektóre chatboty zaktualizowały swoje odpowiedzi. Copilot i Perplexity przyznały, że zostały oszukane i poprawiły swoje bazy danych. Gemini z kolei teraz zaleca konsultację z profesjonalistami w przypadku wrażliwych tematów medycznych.
Natomiast ChatGPT nadal unika pytania, dostarczając rozbudowane odpowiedzi bez przyznania się do błędu. Ta niechęć do uznania luk podkreśla potrzebę lepszego zarządzania informacjami w systemach AI.
Ten eksperyment rodzi ważne rozważania dotyczące przyszłości AI, zwłaszcza w dziedzinie medycyny. W miarę jak chatboty i inne systemy oparte na AI stają się coraz bardziej powszechnymi narzędziami, kluczowe jest poprawienie ich zdolności do rozróżniania wiarygodnych informacji od błędnych. Współpraca między ekspertami ludzkimi a systemami AI może być obiecującą drogą do zapewnienia dokładności i bezpieczeństwa danych medycznych w przyszłości.