ChatGPT, Copilot, Gemini i Perplexity w obliczu fałszywej choroby: powrót do doświadczenia ujawniającego ograniczenia AI

ChatGPT, Copilot, Gemini i Perplexity w obliczu fałszywej choroby: powrót do doświadczenia ujawniającego ograniczenia AI

Spis treści

Postępy w sztucznej inteligencji zrewolucjonizowały wiele sektorów, ale nie są pozbawione wad. Eksperyment przeprowadzony przez szwedzkich badaczy ujawnił niepokojące luki w sposobie, w jaki chatboty weryfikują informacje medyczne. Wymyślając fikcyjną chorobę, „bixonimanię”, badacze ci pokazali, że AI można łatwo oszukać, co rodzi pytania dotyczące ich użycia w wrażliwych kontekstach. Dowiedz się, jak ten eksperyment uwydatnił ograniczenia obecnych systemów sztucznej inteligencji.

Najważniejsze do zapamiętania

  • Badacze stworzyli fikcyjną chorobę, aby przetestować wiarygodność AI, ujawniając istotne luki w ich zdolności do rozróżniania prawdy od fałszu.
  • Chatboty takie jak ChatGPT, Copilot, Gemini i Perplexity traktowały „bixonimanię” jako rzeczywistą patologię, ilustrując ryzyko automatyzacji bez ludzkiej weryfikacji.
  • Dwa lata po eksperymencie niektóre chatboty nadal nie poprawiły swojej bazy danych, co podkreśla utrzymujący się problem w zarządzaniu błędnymi informacjami.

Les IA piégées par une maladie fictive

W 2024 roku Almira Osmanovic Thunström, badaczka z Uniwersytetu w Göteborgu, zaprojektowała eksperyment mający na celu przetestowanie ograniczeń chatbotów. Wymyśliła „bixonimanię”, fikcyjną chorobę, i wprowadziła ją do akademickich preprintów pełnych oczywistych oznak fałszu. Pomimo tych wskazówek, renomowane chatboty uznały tę patologię za rzeczywistą.

Na przykład Copilot opisywał bixonimanię jako „intrygującą i stosunkowo rzadką”, podczas gdy Gemini zalecał konsultację z okulistą. To pokazuje, że AI mogą dać się zwieść dobrze sformatowanym treściom, które postrzegają jako wiarygodne.

Conséquences pour la recherche et la santé

Błąd nie ograniczył się do chatbotów. Badacze z Instytutu Nauk Medycznych w Mullana w Indiach cytowali fałszywe preprinty w badaniu, udowadniając, że nawet eksperci mogą zostać oszukani przez informacje generowane przez AI. Cureus, czasopismo, w którym artykuł został opublikowany, wycofało dokument w marcu 2026 roku, ale incydent ujawnił systemową lukę w weryfikacji źródeł akademickich.

À lire  Aktualizacja ChatGPT na urządzeniach mobilnych: wybierz czas namysłu

Elisabeth Bik, specjalistka ds. integralności badań, wyraziła swoje obawy dotyczące automatyzacji indeksacji akademickich. Podkreśliła ryzyko, że błędne informacje mogą się rozprzestrzeniać bez ludzkiej interwencji, problem pogłębiony przez użycie LLM (dużych modeli językowych) w badaniach.

Réactions et ajustements des chatbots

Od czasu eksperymentu niektóre chatboty zaktualizowały swoje odpowiedzi. Copilot i Perplexity przyznały, że zostały oszukane i poprawiły swoje bazy danych. Gemini z kolei teraz zaleca konsultację z profesjonalistami w przypadku wrażliwych tematów medycznych.

Natomiast ChatGPT nadal unika pytania, dostarczając rozbudowane odpowiedzi bez przyznania się do błędu. Ta niechęć do uznania luk podkreśla potrzebę lepszego zarządzania informacjami w systemach AI.

Les implications pour l’avenir des IA dans le domaine médical

Ten eksperyment rodzi ważne rozważania dotyczące przyszłości AI, zwłaszcza w dziedzinie medycyny. W miarę jak chatboty i inne systemy oparte na AI stają się coraz bardziej powszechnymi narzędziami, kluczowe jest poprawienie ich zdolności do rozróżniania wiarygodnych informacji od błędnych. Współpraca między ekspertami ludzkimi a systemami AI może być obiecującą drogą do zapewnienia dokładności i bezpieczeństwa danych medycznych w przyszłości.


Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *