
Yapay Zekanın Hayalet Hastalığı: Bixonimania Nedir? Gerçekle Kurguyu Nasıl Ayırt Edeceğiz?
Bilimsel Literatürün Dijital Truva Atı: Yapay Zekanın İcat Ettiği Hayali Hastalık
Nature News Feature, 2026 · doi: 10.1038/d41586-026-01100-y
Tıp tarihi boyunca var olmayan hastalıklar zaman zaman gerçekmiş gibi kabul görmüştür. Ancak bu yanılgılar; bilgi yetersizliğinin, gözlem hatalarının ya da dönemin sınırlı anlayışının ürünüydü. Bugün karşımızdaki tehdit çok daha sinsi bir biçim alıyor: Yapay zeka modelleri, baştan hayali olarak tasarlanmış bir hastalığı, akademik literatüre gerçekmiş gibi işleyip milyonlarca kullanıcıya sunabiliyor. 7 Nisan 2026'da Nature dergisinde yayımlanan ve yazımızın konusu olan makale, söz konusu riskin artık bir olasılık değil, yaşanmış bir gerçeklik olduğunu ortaya koyuyor.
Bixonimania: Hiç Var Olmayan Bir Hastalığın Doğuşu
2024 yılının başlarında, tıp literatüründe daha önce hiç adı geçmemiş bir terim belirmeye başladı: Bixonimania. İddiaya göre bu durum, dijital ekranlardan yayılan mavi ışığa (blue light) uzun süreli maruz kalma sonucunda göz kapaklarında pigmentasyon değişikliği ve kronik kaşıntıyla seyreden, nadir görülen bir sendromdu.

Yukarıda: Bixonimania adlı kurgusal bir hastalığın yapay zekâ tarafından oluşturulmuş görüntüleri. Kaynak: Preprints.org https://doi.org/qzm4 (2024)
Gerçekte böyle bir hastalık hiç var olmadı. Bu, Göteborg Üniversitesi'nden tıbbi araştırmacıların büyük dil modellerinin (LLM — large language model) dezenformasyona ne kadar açık olduğunu ölçmek için tasarladığı bilinçli ve kontrollü bir tuzaktı. Sonuçlar, araştırmacıların bile öngöremediği ölçüde çarpıcı çıktı.
Sahte Hastalık Nasıl Kurgulandı?
Araştırmacılar, hayali hastalığı akademik dünyaya yerleştirmek için sistematik bir dizi adım izledi:
Makalenin teşekkür bölümünde "Starfleet Academy ve USS Enterprise (Star Trek) mürettebatına" ve finansman kaynağı olarak "Profesör Figüran Bob Vakfı"na atıfta bulunuluyordu. Bu detaylar, dikkatli bir insan okuyucunun birkaç saniyede fark edeceği türdendi. Yapay zeka modelleri ise bu sinyalleri tamamen görmezden geldi.
Modeller Ne Dedi?
Sahte makaleler internete yüklendikten yalnızca haftalar sonra, dünyanın en yaygın kullanılan yapay zeka modelleri mavi ışık ve göz sağlığına ilişkin sorularda Bixonimania'yı gerçek bir tıbbi durum olarak raporlamaya başladı.
"Bixonimania gerçekten ilginç ve nispeten nadir bir durumdur" — hastalığı klinik bir gerçekmiş gibi tanımladı.
Bixonimania'yı "mavi ışığa maruz kalmanın bir sonucu" olarak sundu ve kullanıcıya bir oftalmoloğa görünmesini tavsiye etti.
Hastalığın görülme sıklığını bile sayısallaştırdı: 90.000 kişide bir görülen nadir bir sendrom olarak tanımladı.
Modeller, akademik formatta yazılmış metni istatistiksel yapısı ve dil örüntüsü açısından "güvenilir kaynak" olarak sınıflandırdı. Starfleet şakasını yorumlayacak bağlamsal anlayıştan yoksun olan bu sistemler, görünüş itibarıyla bilimsel olan her şeyi doğru kabul etti.
Sahte bilginin akademik literatüre nasıl kalıcı olarak sızdığının şematik gösterimi
Asıl Skandal: Sahte Bilgi Hakemli Dergiye Girdi
Bixonimania vakası, bir "chatbot hatası" olarak kalmadı. Olayın en ciddi boyutu, bilimsel yayıncılık tarafında yaşandı. Hindistan'daki bir tıp enstitüsünden araştırmacılar, saygın akademik platform Cureus'ta yayımladıkları bir makalede Bixonimania'yı gerçek bir klinik durum olarak referans gösterdiler.
Bu durum tek bir şeyi kanıtlıyordu: Söz konusu araştırmacılar, kendi makalelerini yazarken literatür taramasını yapay zekaya yaptırmış ve YZ'nin sunduğu kaynakları hiç okumadan — içindeki Starfleet şakasını görmeden — doğrudan kullanmışlardı. Nature'ın uyarısı üzerine makale Mart 2026'da geri çekildi (retracted).
Yapay Zeka Neden Bu Tuzağa Düştü?
Bu sorunun yanıtı, büyük dil modellerinin temel çalışma mantığında yatmaktadır. Bu modeller, metinleri anlayarak değil; istatistiksel örüntüleri tanıyarak işler. Akademik bir makalenin formülü — başlık, özet, yöntem, tartışma, referans listesi, teşekkür bölümü — YZ tarafından "güvenilirlik sinyali" olarak algılanır. İçeriğin mantıksal tutarlılığı ya da "Starfleet Academy" gibi bir ifadenin bağlamsal saçmalığı, bu süreçte filtreye takılmaz.
Bir insan okuyucu, teşekkür kısmında kurgusal bir uzay gemisinin adını görür görmez duraklardı. Yapay zeka ise bu ifadeyi, tıpkı gerçek bir kurum adı gibi işledi; çünkü cümlenin sözdizimsel yapısı diğer akademik teşekkürlerle birebir aynıydı.
Bixonimania makalesindeki tehlike sinyallerine verilen yanıtın karşılaştırması
Tıp İçin Ne Anlam İfade Ediyor?
Bixonimania bilinçli ve izlenebilir bir deneydi; fark edildi ve düzeltildi. Asıl soru şudur: Fark edilmeyenler ne kadar?
- Hasta veya hasta yakınları hayali teşhislerle karşılaşabilir
- Klinisyenler YZ destekli literatür taramalarında yanıltılabilir
- Gereksiz tanısal testler veya yanlış yönlendirmeler ortaya çıkabilir
- Geri çekilen makaleler internette dolaşmaya devam eder
- Geri bildirim döngüsü: YZ kendi ürettiği yanlışı pekiştirir
- Akademik güven erozyonu; hakem süreçlerinin yetersizliği
- Tıbbi literatürün uzun vadeli kalite bozulması
- YZ araçlarına olan toplumsal güvenin aşınması
Geri Bildirim Döngüsü: Yanlışın Yanlışı Beslemesi
Bu meselenin en tehlikeli boyutu, tek bir hatanın ötesine geçen sistemik bir dinamikte yatmaktadır. Büyük dil modelleri, internetteki mevcut içeriği tarayarak hem öğrenir hem de yanıt üretir. Sahte bir makale bir kez akademik platformda yer aldığında ve YZ modeli bunu doğru kabul edip yanıtlarına yansıttığında, bir sonraki adım kaçınılmazdır: Başka bir araştırmacı YZ'nin yanıtını kaynak olarak kullanır ve yeni bir makale yayımlar. YZ bir sonraki taramasında bu yeni makaleyi de "doğrulanmış bilgi" olarak tarar. Döngü kapanır; yanlış bilgi, her turda biraz daha meşrulaşarak derinleşir.
Korunma: Pratik Bir Rehber
🔎 KAYNAĞI BİZZAT OKU
YZ bir makale önerdiğinde veya alıntıladığında, o kaynağa bizzat ulaş ve teşekkür, yazar bilgileri, finansman kısmını dahil olmak üzere tamamını oku. YZ, okuma eyleminin yerini alamaz.
✅ DOI VE DERGİ DOĞRULA
Her referansın DOI'sinin gerçekten var olup olmadığını, atıfta bulunulan derginin hakemli ve tanınan bir yayın organı olup olmadığını kontrol et. Preprint'lerin henüz hakem denetiminden geçmediğini unutma.
⚠ YZ'Yİ LİTERATÜR TARAMA ARACI OLARAK KULLANIRKEN DİKKATLİ OL
YZ destekli literatür taramaları araştırma sürecini hızlandırabilir; ancak üretilen referans listelerini kör bir güvenle kabul etmek yerine her birini ayrıca doğrulamak zorunludur. Halüsinasyon — var olmayan kaynak uydurma — tüm büyük modellerde belgelenmiş bir sorundur.
🛡 ELEŞTİREL OKUMA BECERİSİNİ KORUY
Dijital araçlar ne kadar gelişirse gelişsin, bir metnin bağlamını, tutarsızlıklarını ve mantıksal hatalarını sezebilmek insan muhakemesinin en değerli işlevidir. Bu beceri, yapay zeka çağında daha da kritik hale gelmektedir.
🎓 DROZDOGAN Akademi — Yorum ve Tartışma
YAPAY ZEKA VE BİLİMSEL DÜRÜSTLÜK · DEĞERLENDİRME
Bu Deneyin Önemi
Bixonimania deneyi, olası bir gelecek riskini değil, bugün fiilen yaşanan bir kırılganlığı belgeleyen ilk kontrollü kanıt olma özelliği taşımaktadır. Araştırmacılar kasıtlı olarak bariz hatalar yerleştirdi ve yine de hem yapay zeka modelleri hem de akademik bir dergi bu tuzağa düştü. Bu durum, "YZ halüsinasyonları" meselesinin artık teorik bir kaygı olmaktan çıkıp pratik bir hasta güvenliği sorununa dönüştüğünü açıkça ortaya koymaktadır.
Deneyin Güçlü Yönleri
Çalışmanın metodolojik açıdan en güçlü yanı, tuzağın hem tespit edilebilir (Starfleet şakası) hem de tespit edilemez düzeyde yeterince inandırıcı olacak şekilde tasarlanmış olmasıdır. Bu ikili yapı, yanılmanın rastlantısal değil sistemik olduğunu kanıtlar. Ayrıca birden fazla modelin aynı tuzağa düşmesi, sorunun belirli bir modele özgü olmadığını gösterir. Cureus vakasının olaya dahil olması ise iddiayı yalnızca YZ davranışından akademik yayıncılığın açıklarına genişletmesi bakımından son derece değerlidir.
Sınırlılıklar ve Açık Sorular
Deneyin başlıca sınırlılığı, tuzağın bilinçli ve kasıtlı kurgulanmış olmasıdır; gerçek dünya koşullarında sahte bilgi bu kadar belirgin "bayraklar" taşımaz, aksine çok daha ikna edici ve belirsiz olabilir. Bu nedenle deneyin tahminleri muhtemelen optimistik kalıyor; gerçek risk daha büyük olabilir. Ayrıca modellerin zamanla bu spesifik örüntüyü öğrenip öğrenmeyeceği; daha rafine dezenformasyona karşı ne kadar dayanıklı olacakları soruları yanıtsız kalmaktadır.
Klinik ve Kurumsal Pratiğe Yansıması
Onkoloji başta olmak üzere tüm tıp uzmanlıkları için bu bulgular net bir mesaj taşımaktadır: YZ araçları literatür taramasını hızlandırabilir; ancak kaynağın doğrulanması sorumluluğunu ortadan kaldıramaz. Akademik dergilerin hakem süreçlerine YZ tarafından üretilmiş ya da YZ'ye dayanan içerikleri tespit etmeye yönelik katmanlar eklenmesi artık zorunluluk haline gelmiştir. Kurumsal düzeyde ise araştırmacılara yönelik "YZ okuryazarlığı" eğitimlerinin standart bir bileşen haline getirilmesi gerekmektedir.
Gelecek Soruları
Şu anda yanıt bekleyen en kritik sorular şunlardır: Akademik literatürde halihazırda kaç adet YZ destekli sahte referans dolaşmaktadır ve bunları geriye dönük olarak tespit etmek mümkün müdür? Büyük dil modellerinin eğitim verilerine sızacak sistematik bir dezenformasyon kampanyası, tıbbi bilgi tabanında ne ölçüde kalıcı hasar bırakabilir? Dergi yayıncıları, YZ tabanlı içerik denetimi için endüstri standardı bir çerçeve oluşturabilir mi? Bu sorular, tıp biliminin önümüzdeki on yılda yanıtlaması gereken öncelikli gündem maddelerinin başına yerleşmek üzeredir.
Bilimsel Kaynaklar
- Stokel-Walker C. Scientists invented a fake disease. AI told people it was real. Nature News Feature, 2026. doi: 10.1038/d41586-026-01100-y
- Thunström AO ve ark. Bixonimania deneyi — proje metodolojisi ve LLM yanıt analizi. Göteborg Üniversitesi, 2024–2026.
- Athaluri SA, Murali SV, Kesapragada VSRK et al. Exploring the boundaries of reality: investigating the phenomenon of artificial intelligence hallucination in scientific writing through ChatGPT references. Cureus 2023;15:e37432. doi: 10.7759/cureus.37432
- Bender EM, Gebru T, McMillan-Major A, Shmitchell S. On the dangers of stochastic parrots: can language models be too big? Proceedings of FAccT 2021:610–623.
- Alkaissi H, McFarlane SI. Artificial hallucinations in ChatGPT: implications in scientific writing. Cureus 2023;15:e35179.
Bu makale, süreç kapsamında yapay zeka da dahil olmak üzere çeşitli editörlük araçları kullanılarak oluşturulmuştur. Yayınlanmadan önce insan editörler tarafından incelenmiştir.



