05 Aralık 2025
Facebook
Twitter
Instagram
YouTube
İstanbul
Açık
12°
Adana
Adıyaman
Afyonkarahisar
Ağrı
Amasya
Ankara
Antalya
Artvin
Aydın
Balıkesir
Bilecik
Bingöl
Bitlis
Bolu
Burdur
Bursa
Çanakkale
Çankırı
Çorum
Denizli
Diyarbakır
Edirne
Elazığ
Erzincan
Erzurum
Eskişehir
Gaziantep
Giresun
Gümüşhane
Hakkari
Hatay
Isparta
Mersin
İstanbul
İzmir
Kars
Kastamonu
Kayseri
Kırklareli
Kırşehir
Kocaeli
Konya
Kütahya
Malatya
Manisa
Kahramanmaraş
Mardin
Muğla
Muş
Nevşehir
Niğde
Ordu
Rize
Sakarya
Samsun
Siirt
Sinop
Sivas
Tekirdağ
Tokat
Trabzon
Tunceli
Şanlıurfa
Uşak
Van
Yozgat
Zonguldak
Aksaray
Bayburt
Karaman
Kırıkkale
Batman
Şırnak
Bartın
Ardahan
Iğdır
Yalova
Karabük
Kilis
Osmaniye
Düzce
Ara
Ortadoğu Gazetesi DÜNYA ChatGPT'nin tavsiyesine uydu, zehirlenerek hastanelik oldu

ChatGPT'nin tavsiyesine uydu, zehirlenerek hastanelik oldu

ABD’de 60 yaşındaki bir adam, tuz tüketimini azaltmak isterken ChatGPT’nin verdiği yanlış tavsiye sonucu zehirlenerek hastanelik oldu.

ChatGPT’nin Tavsiyesiyle Hastanelik Oldu

ABD’de 60 yaşındaki bir adam, tuz tüketimini azaltmak isterken yapay zekânın verdiği hatalı öneri sonucu zehirlenerek hastaneye kaldırıldı.

Tehlikeli Tavsiye

Annals of Internal Medicine dergisinde yayımlanan makaleye göre, adam ChatGPT’ye sofra tuzuna alternatif sorduğunda, chatbot ona sodyum bromür önerdi. Ancak bu madde; tarım ilaçlarında, havuz temizleyicilerinde ve köpeklerde epilepsi tedavisinde kullanılan, yüksek derecede toksik bir kimyasal. Sodyum bromür, geçmişte yatıştırıcı ve baş ağrısı tedavisinde kullanılsa da kandaki birikimi bromizm adı verilen zehirlenmeye neden olabiliyor. Bu durum konuşma bozukluğu, halüsinasyon, psikoz ve koma gibi ciddi nörolojik belirtilere yol açabiliyor. ABD’de 1970’lerde yasaklanan madde, hâlâ ciddi tehlike oluşturuyor.

Testlerde Aynı Hata Tekrarlandı

404 Media’nın yaptığı testlerde, benzer sorular sorulduğunda ChatGPT’nin yine sodyum bromürü tavsiye ettiği, ancak tehlikeleri hakkında uyarı yapmadığı ortaya çıktı.

Eski Modellerde Risk

OpenAI CEO’su Sam Altman, yeni GPT-5 modelinin “sağlık konularında en iyi yapay zeka” olduğunu savunsa da, bu olay eski modellerin tıbbi tavsiyelerde ciddi riskler taşıdığını bir kez daha gündeme getirdi.

Yorumlar
* Bu içerik ile ilgili yorum yok, ilk yorumu siz yazın, tartışalım *