Det går inte att lita på svaren från Chat GPT. Det står klart efter en amerikansk studie där chatboten ofta svarar fel om läkemedel.
Det är apotekare vid Long Island University (LUI) i USA som har ställt frågor om läkemedel till gratisversionen av chattboten Chat GPT och fått fel eller ofullständiga svar.
Enligt studien svarade chattboten bara “tillfredsställande” 10 av 39 gånger (25,6 %), vilket betyder att 29 gånger (74,4 %) var svaren felaktiga, ofullständiga eller inte direkt relaterade till den ställda frågan.
Undersökningen gjordes i maj i år (2023) och forskarna använde sig av riktiga frågor som ställts till universitetets College of Pharmacys läkemedelsinformation från januari 2022 till april 2023.
Forskarna bakom studien menar att både sjukvårdspersonal och patienter bör vara försiktiga med att använda Chat GPT som en auktoritativ källa för läkemedelsinformation.
Bolaget bakom Chat GPT, Open AI, menar att de vägleder chattboten så att den informerar användaren om att inte använda svaren som substitut för traditionell vård eller professionell medicinsk rådgivning. Chat GPT i gratisversionen har också bara data till och med september 2021.
Källa: Svensk Farmaci.
LÄS MER
Legitimerad apotekare (Uppsala universitet) och medicinjournalist (Stockholms universitet).
Fredrik besvarar frågor här på Fråga Apotekaren, vid sidan av sitt arbete som redaktör och medicinjournalist för olika fack- och patienttidningar; ILCO-magasinet och OsteoporosNytt.
Tidigare har Fredrik varit redaktör för Allt om Diabetes, Reumatikervärlden, Läkemedelsvärlden, Evidens och Tidningen Apoteket. Fredrik är ofta anlitad som moderator, bland annat i Almedalen.