ChatGPT’nin Tavsiyesiyle Hastanelik Oldu
ABD’de 60 yaşındaki bir adam, tuz tüketimini azaltmak isterken yapay zekânın verdiği hatalı öneri sonucu zehirlenerek hastaneye kaldırıldı.
Tehlikeli Tavsiye
Annals of Internal Medicine dergisinde yayımlanan makaleye göre, adam ChatGPT’ye sofra tuzuna alternatif sorduğunda, chatbot ona sodyum bromür önerdi. Ancak bu madde; tarım ilaçlarında, havuz temizleyicilerinde ve köpeklerde epilepsi tedavisinde kullanılan, yüksek derecede toksik bir kimyasal. Sodyum bromür, geçmişte yatıştırıcı ve baş ağrısı tedavisinde kullanılsa da kandaki birikimi bromizm adı verilen zehirlenmeye neden olabiliyor. Bu durum konuşma bozukluğu, halüsinasyon, psikoz ve koma gibi ciddi nörolojik belirtilere yol açabiliyor. ABD’de 1970’lerde yasaklanan madde, hâlâ ciddi tehlike oluşturuyor.
Testlerde Aynı Hata Tekrarlandı
404 Media’nın yaptığı testlerde, benzer sorular sorulduğunda ChatGPT’nin yine sodyum bromürü tavsiye ettiği, ancak tehlikeleri hakkında uyarı yapmadığı ortaya çıktı.
Eski Modellerde Risk
OpenAI CEO’su Sam Altman, yeni GPT-5 modelinin “sağlık konularında en iyi yapay zeka” olduğunu savunsa da, bu olay eski modellerin tıbbi tavsiyelerde ciddi riskler taşıdığını bir kez daha gündeme getirdi.
