1
Yapay Zekanın Hayalet Hastalığı: Bixonimania Nedir? Gerçekle Kurguyu Nasıl Ayırt Edeceğiz?

Yapay Zekanın Hayalet Hastalığı: Bixonimania Nedir? Gerçekle Kurguyu Nasıl Ayırt Edeceğiz?

Bilimsel Literatürün Dijital Truva Atı: Yapay Zekanın İcat Ettiği Hayali Hastalık

📄
Stokel-Walker C. — Scientists invented a fake disease. AI told people it was real.
Nature News Feature, 2026  ·  doi: 10.1038/d41586-026-01100-y

Tıp tarihi boyunca var olmayan hastalıklar zaman zaman gerçekmiş gibi kabul görmüştür. Ancak bu yanılgılar; bilgi yetersizliğinin, gözlem hatalarının ya da dönemin sınırlı anlayışının ürünüydü. Bugün karşımızdaki tehdit çok daha sinsi bir biçim alıyor: Yapay zeka modelleri, baştan hayali olarak tasarlanmış bir hastalığı, akademik literatüre gerçekmiş gibi işleyip milyonlarca kullanıcıya sunabiliyor. 7 Nisan 2026'da Nature dergisinde yayımlanan ve yazımızın konusu olan makale, söz konusu riskin artık bir olasılık değil, yaşanmış bir gerçeklik olduğunu ortaya koyuyor.

Bixonimania: Hiç Var Olmayan Bir Hastalığın Doğuşu

2024 yılının başlarında, tıp literatüründe daha önce hiç adı geçmemiş bir terim belirmeye başladı: Bixonimania. İddiaya göre bu durum, dijital ekranlardan yayılan mavi ışığa (blue light) uzun süreli maruz kalma sonucunda göz kapaklarında pigmentasyon değişikliği ve kronik kaşıntıyla seyreden, nadir görülen bir sendromdu.

bixonimania adli kurgusal bir hastaligin yapay zeka tarafindan olusturulmus goruntuleri kaynak prep

Yukarıda: Bixonimania adlı kurgusal bir hastalığın yapay zekâ tarafından oluşturulmuş görüntüleri. Kaynak: Preprints.org https://doi.org/qzm4 (2024)

Gerçekte böyle bir hastalık hiç var olmadı. Bu, Göteborg Üniversitesi'nden tıbbi araştırmacıların büyük dil modellerinin (LLM — large language model) dezenformasyona ne kadar açık olduğunu ölçmek için tasarladığı bilinçli ve kontrollü bir tuzaktı. Sonuçlar, araştırmacıların bile öngöremediği ölçüde çarpıcı çıktı.

DENEYİN ANATOMİSİ

Sahte Hastalık Nasıl Kurgulandı?

Araştırmacılar, hayali hastalığı akademik dünyaya yerleştirmek için sistematik bir dizi adım izledi:

👤
Sahte Yazar
YZ ile üretilmiş profil fotoğrafı, hayali akademik kimlik
📄
Sahte Makaleler
Bixonimania üzerine iki preprint, akademik formatta hazırlandı
🚩
Gizli Sinyaller
Starfleet Academy, USS Enterprise teşekkürü, hayali vakıf adı
🌐
Yayım
Preprint platformlarına yükleme, internete açılma
🤖
YZ Yanıtı
Haftalarca içinde büyük modeller hastalığı "gerçek" olarak sunmaya başladı

Makalenin teşekkür bölümünde "Starfleet Academy ve USS Enterprise (Star Trek) mürettebatına" ve finansman kaynağı olarak "Profesör Figüran Bob Vakfı"na atıfta bulunuluyordu. Bu detaylar, dikkatli bir insan okuyucunun birkaç saniyede fark edeceği türdendi. Yapay zeka modelleri ise bu sinyalleri tamamen görmezden geldi.

YZ MODELLERİNİN YANITI

Modeller Ne Dedi?

Sahte makaleler internete yüklendikten yalnızca haftalar sonra, dünyanın en yaygın kullanılan yapay zeka modelleri mavi ışık ve göz sağlığına ilişkin sorularda Bixonimania'yı gerçek bir tıbbi durum olarak raporlamaya başladı.

Microsoft Copilot

"Bixonimania gerçekten ilginç ve nispeten nadir bir durumdur" — hastalığı klinik bir gerçekmiş gibi tanımladı.

Google Gemini

Bixonimania'yı "mavi ışığa maruz kalmanın bir sonucu" olarak sundu ve kullanıcıya bir oftalmoloğa görünmesini tavsiye etti.

Perplexity

Hastalığın görülme sıklığını bile sayısallaştırdı: 90.000 kişide bir görülen nadir bir sendrom olarak tanımladı.

Modeller, akademik formatta yazılmış metni istatistiksel yapısı ve dil örüntüsü açısından "güvenilir kaynak" olarak sınıflandırdı. Starfleet şakasını yorumlayacak bağlamsal anlayıştan yoksun olan bu sistemler, görünüş itibarıyla bilimsel olan her şeyi doğru kabul etti.

Yapay Zeka Dezenformasyon Döngüsü

Sahte bilginin akademik literatüre nasıl kalıcı olarak sızdığının şematik gösterimi

Sahte Makale İnternete Yükleniyor (preprint) YZ Modeli İnterneti tarar, "doğru" kabul eder Kullanıcı / Yazar YZ çıktısını kaynak olarak kullanır Dergide Yayım Sahte referans literatüre sızar GERİ BİLDİRİM DÖNGÜSÜ YZ pekiştirilmiş yanlış bilgiyi "daha güvenilir" olarak öğrenir Yayımlanan makale YZ'nin yeni taramasında veri kaynağı olur → döngü kapanır
AKADEMİK BOYUT

Asıl Skandal: Sahte Bilgi Hakemli Dergiye Girdi

Bixonimania vakası, bir "chatbot hatası" olarak kalmadı. Olayın en ciddi boyutu, bilimsel yayıncılık tarafında yaşandı. Hindistan'daki bir tıp enstitüsünden araştırmacılar, saygın akademik platform Cureus'ta yayımladıkları bir makalede Bixonimania'yı gerçek bir klinik durum olarak referans gösterdiler.

Bu durum tek bir şeyi kanıtlıyordu: Söz konusu araştırmacılar, kendi makalelerini yazarken literatür taramasını yapay zekaya yaptırmış ve YZ'nin sunduğu kaynakları hiç okumadan — içindeki Starfleet şakasını görmeden — doğrudan kullanmışlardı. Nature'ın uyarısı üzerine makale Mart 2026'da geri çekildi (retracted).

3 Büyük model Bixonimania'yı gerçek olarak sundu (Copilot, Gemini, Perplexity)
Haftalar Yayımdan modellerin "hastalığı" benimsemesine geçen süre
1/90K Perplexity'nin uydurduğu prevalans: "90.000 kişide bir"
Retract Cureus'ta yayımlanan makale, Nature uyarısı sonrası geri çekildi
MEKANİZMA

Yapay Zeka Neden Bu Tuzağa Düştü?

Bu sorunun yanıtı, büyük dil modellerinin temel çalışma mantığında yatmaktadır. Bu modeller, metinleri anlayarak değil; istatistiksel örüntüleri tanıyarak işler. Akademik bir makalenin formülü — başlık, özet, yöntem, tartışma, referans listesi, teşekkür bölümü — YZ tarafından "güvenilirlik sinyali" olarak algılanır. İçeriğin mantıksal tutarlılığı ya da "Starfleet Academy" gibi bir ifadenin bağlamsal saçmalığı, bu süreçte filtreye takılmaz.

Bir insan okuyucu, teşekkür kısmında kurgusal bir uzay gemisinin adını görür görmez duraklardı. Yapay zeka ise bu ifadeyi, tıpkı gerçek bir kurum adı gibi işledi; çünkü cümlenin sözdizimsel yapısı diğer akademik teşekkürlerle birebir aynıydı.

İnsan Okuyucu ile YZ Modelinin Metin Değerlendirme Farkı

Bixonimania makalesindeki tehlike sinyallerine verilen yanıtın karşılaştırması

👤 İnsan Okuyucu 🤖 YZ Modeli Starfleet Academy teşekkürü ⚠ Kurgusal referans — makaleyi sorgula ✗ Sözdizimi akademik → geç Hayali vakıf adı (Figüran Bob Vakfı) ⚠ Finansman kaynağı doğrulanamıyor ✗ "Vakıf" kalıbı tanıdık → güvenilir YZ görseli ile oluşturulan yazar fotoğrafı ⚠ Görsel sorgulanabilir, yazar aranabilir ✗ Görsel verisi yok, metin analizi yapar Genel sonuç Makale güvenilmez → reddedildi Makale güvenilir → literatüre eklendi
RİSK HARİTASI

Tıp İçin Ne Anlam İfade Ediyor?

Bixonimania bilinçli ve izlenebilir bir deneydi; fark edildi ve düzeltildi. Asıl soru şudur: Fark edilmeyenler ne kadar?

Kısa Vadeli Riskler
  • Hasta veya hasta yakınları hayali teşhislerle karşılaşabilir
  • Klinisyenler YZ destekli literatür taramalarında yanıltılabilir
  • Gereksiz tanısal testler veya yanlış yönlendirmeler ortaya çıkabilir
  • Geri çekilen makaleler internette dolaşmaya devam eder
🔁 Uzun Vadeli Riskler
  • Geri bildirim döngüsü: YZ kendi ürettiği yanlışı pekiştirir
  • Akademik güven erozyonu; hakem süreçlerinin yetersizliği
  • Tıbbi literatürün uzun vadeli kalite bozulması
  • YZ araçlarına olan toplumsal güvenin aşınması

Geri Bildirim Döngüsü: Yanlışın Yanlışı Beslemesi

Bu meselenin en tehlikeli boyutu, tek bir hatanın ötesine geçen sistemik bir dinamikte yatmaktadır. Büyük dil modelleri, internetteki mevcut içeriği tarayarak hem öğrenir hem de yanıt üretir. Sahte bir makale bir kez akademik platformda yer aldığında ve YZ modeli bunu doğru kabul edip yanıtlarına yansıttığında, bir sonraki adım kaçınılmazdır: Başka bir araştırmacı YZ'nin yanıtını kaynak olarak kullanır ve yeni bir makale yayımlar. YZ bir sonraki taramasında bu yeni makaleyi de "doğrulanmış bilgi" olarak tarar. Döngü kapanır; yanlış bilgi, her turda biraz daha meşrulaşarak derinleşir.

"Bilimin gelişmesi, yanlışların ayıklanması sürecidir. Yapay zeka ise bu ayıklama sürecini tersine çevirme potansiyeline sahip." — Nature News Feature, 2026
NE YAPILMALI

Korunma: Pratik Bir Rehber

🔎 KAYNAĞI BİZZAT OKU

YZ bir makale önerdiğinde veya alıntıladığında, o kaynağa bizzat ulaş ve teşekkür, yazar bilgileri, finansman kısmını dahil olmak üzere tamamını oku. YZ, okuma eyleminin yerini alamaz.

✅ DOI VE DERGİ DOĞRULA

Her referansın DOI'sinin gerçekten var olup olmadığını, atıfta bulunulan derginin hakemli ve tanınan bir yayın organı olup olmadığını kontrol et. Preprint'lerin henüz hakem denetiminden geçmediğini unutma.

⚠ YZ'Yİ LİTERATÜR TARAMA ARACI OLARAK KULLANIRKEN DİKKATLİ OL

YZ destekli literatür taramaları araştırma sürecini hızlandırabilir; ancak üretilen referans listelerini kör bir güvenle kabul etmek yerine her birini ayrıca doğrulamak zorunludur. Halüsinasyon — var olmayan kaynak uydurma — tüm büyük modellerde belgelenmiş bir sorundur.

🛡 ELEŞTİREL OKUMA BECERİSİNİ KORUY

Dijital araçlar ne kadar gelişirse gelişsin, bir metnin bağlamını, tutarsızlıklarını ve mantıksal hatalarını sezebilmek insan muhakemesinin en değerli işlevidir. Bu beceri, yapay zeka çağında daha da kritik hale gelmektedir.

🎓 DROZDOGAN Akademi — Yorum ve Tartışma

YAPAY ZEKA VE BİLİMSEL DÜRÜSTLÜK · DEĞERLENDİRME

Bu Deneyin Önemi

Bixonimania deneyi, olası bir gelecek riskini değil, bugün fiilen yaşanan bir kırılganlığı belgeleyen ilk kontrollü kanıt olma özelliği taşımaktadır. Araştırmacılar kasıtlı olarak bariz hatalar yerleştirdi ve yine de hem yapay zeka modelleri hem de akademik bir dergi bu tuzağa düştü. Bu durum, "YZ halüsinasyonları" meselesinin artık teorik bir kaygı olmaktan çıkıp pratik bir hasta güvenliği sorununa dönüştüğünü açıkça ortaya koymaktadır.

Deneyin Güçlü Yönleri

Çalışmanın metodolojik açıdan en güçlü yanı, tuzağın hem tespit edilebilir (Starfleet şakası) hem de tespit edilemez düzeyde yeterince inandırıcı olacak şekilde tasarlanmış olmasıdır. Bu ikili yapı, yanılmanın rastlantısal değil sistemik olduğunu kanıtlar. Ayrıca birden fazla modelin aynı tuzağa düşmesi, sorunun belirli bir modele özgü olmadığını gösterir. Cureus vakasının olaya dahil olması ise iddiayı yalnızca YZ davranışından akademik yayıncılığın açıklarına genişletmesi bakımından son derece değerlidir.

Sınırlılıklar ve Açık Sorular

Deneyin başlıca sınırlılığı, tuzağın bilinçli ve kasıtlı kurgulanmış olmasıdır; gerçek dünya koşullarında sahte bilgi bu kadar belirgin "bayraklar" taşımaz, aksine çok daha ikna edici ve belirsiz olabilir. Bu nedenle deneyin tahminleri muhtemelen optimistik kalıyor; gerçek risk daha büyük olabilir. Ayrıca modellerin zamanla bu spesifik örüntüyü öğrenip öğrenmeyeceği; daha rafine dezenformasyona karşı ne kadar dayanıklı olacakları soruları yanıtsız kalmaktadır.

Klinik ve Kurumsal Pratiğe Yansıması

Onkoloji başta olmak üzere tüm tıp uzmanlıkları için bu bulgular net bir mesaj taşımaktadır: YZ araçları literatür taramasını hızlandırabilir; ancak kaynağın doğrulanması sorumluluğunu ortadan kaldıramaz. Akademik dergilerin hakem süreçlerine YZ tarafından üretilmiş ya da YZ'ye dayanan içerikleri tespit etmeye yönelik katmanlar eklenmesi artık zorunluluk haline gelmiştir. Kurumsal düzeyde ise araştırmacılara yönelik "YZ okuryazarlığı" eğitimlerinin standart bir bileşen haline getirilmesi gerekmektedir.

Gelecek Soruları

Şu anda yanıt bekleyen en kritik sorular şunlardır: Akademik literatürde halihazırda kaç adet YZ destekli sahte referans dolaşmaktadır ve bunları geriye dönük olarak tespit etmek mümkün müdür? Büyük dil modellerinin eğitim verilerine sızacak sistematik bir dezenformasyon kampanyası, tıbbi bilgi tabanında ne ölçüde kalıcı hasar bırakabilir? Dergi yayıncıları, YZ tabanlı içerik denetimi için endüstri standardı bir çerçeve oluşturabilir mi? Bu sorular, tıp biliminin önümüzdeki on yılda yanıtlaması gereken öncelikli gündem maddelerinin başına yerleşmek üzeredir.

Bilimsel Kaynaklar

  1. Stokel-Walker C. Scientists invented a fake disease. AI told people it was real. Nature News Feature, 2026. doi: 10.1038/d41586-026-01100-y
  2. Thunström AO ve ark. Bixonimania deneyi — proje metodolojisi ve LLM yanıt analizi. Göteborg Üniversitesi, 2024–2026.
  3. Athaluri SA, Murali SV, Kesapragada VSRK et al. Exploring the boundaries of reality: investigating the phenomenon of artificial intelligence hallucination in scientific writing through ChatGPT references. Cureus 2023;15:e37432. doi: 10.7759/cureus.37432
  4. Bender EM, Gebru T, McMillan-Major A, Shmitchell S. On the dangers of stochastic parrots: can language models be too big? Proceedings of FAccT 2021:610–623.
  5. Alkaissi H, McFarlane SI. Artificial hallucinations in ChatGPT: implications in scientific writing. Cureus 2023;15:e35179.

Bu makale, süreç kapsamında yapay zeka da dahil olmak üzere çeşitli editörlük araçları kullanılarak oluşturulmuştur. Yayınlanmadan önce insan editörler tarafından incelenmiştir.

Sağlık ve Mutlulukla Kalın...

Sayfada yer alan yazılar sadece bilgilendirme amaçlıdır, tanı ve tedavi için mutlaka doktorunuza başvurunuz.

Kanser tanısına sahip bir hasta için online muayene randevusu hakkında bilgi almak için aşağıdaki formu doldurabilirsiniz.


İlgili Haberleri


Prostat Kanserinde Proton Işın Tedavisi: Milyar Dolarlık Teknoloji Gerçekten Daha İyi mi?

Prostat Kanserinde Proton Işın Tedavisi: Milyar Dolarlık Teknoloji Gerçekten Daha İyi mi?

Kaynak: Efstathiou JA, Yeap BY, Michalski JM ve ark. —...

Yapay Zeka Kanseri Neden Henüz Çözemedi? Bir Gerçeklik Testi

Yapay Zeka Kanseri Neden Henüz Çözemedi? Bir Gerçeklik Testi

Perspektif • Yapay Zeka ve Onkolojİ Doğru algoritmanın kanseri sihirli...

Yapay Zeka ile Saptanan İNSÜLİN DİRENCİ 12 Kanser Türünün Riskini Artırıyor

Yapay Zeka ile Saptanan İNSÜLİN DİRENCİ 12 Kanser Türünün Riskini Artırıyor

Nature Communications • Şubat 2026 KANSERİN GİZLİ BİYOLOJİK MOTORU Yapay...

Tıpta Dijital Otonomi Dönemi: Utah Reçete Yetkisini Yapay Zekaya Devreden İlk Eyalet Oldu

Tıpta Dijital Otonomi Dönemi: Utah Reçete Yetkisini Yapay Zekaya Devreden İlk Eyalet Oldu

Sağlık Bilişimi ve Politika • 2026 Sağlık sistemindeki tıkanıklığı aşmak...

Hakkımda

Özgeçmişim, kanser tanı ve tedavisine dair çalışmalarım ve ilgi alanlarım için tıklayın.

Prof. Dr. Mustafa Özdoğan Hakkında