Tıp, Yapay Zekâ ve Karar: Kötü Veriler, Yeni Teknolojiyi Baltalayacak mı?

Tıp, Yapay Zekâ ve Karar: Kötü Veriler, Yeni Teknolojiyi Baltalayacak mı?

Milyonlarca kitabın olduğu bir kütüphanede yürüdüğünüzü ve görevinizin onların hepsini okumak olduğunu hayal edin. İmkânsız, değil mi? Her bir kitabın her bir kelimesini okusanız bile hepsini aklınızda tutamaz veya kavrayamazsınız – tüm yaşamınızı buna adasanız bile.

Hadi diyelim ki her nasılsa tüm bu bilgileri okuyabilme ve hepsini anlayabilme yeteneğine sahip süper güçlü bir beyniniz var. Ama yine de bir sorununuz var. Bu kitapların neyi kapsamadığı bilmiyorsunuz – hangi sorulara yanıt veremediklerini, kimin deneyimlerini içermediklerini bilmiyorsunuz.

Benzer şekilde bugünün doktorlarının da kapsamlı bir şekilde ince eleyip sık dokuması gereken sersemletici miktardaki veri var. Ücretsiz bir biyomedikal veritabanı olan Pubmed’de 34 milyondan fazla bilimsel makale vardır ve bunlar sadece hakemli dergilerde yayımlanan makalelerdir. Hastaların kan sonuçlarının, tıbbi ve aile geçmişlerinin, genetik durumların ve sosyoekonomik özelliklerinin onları nasıl etkilediğini içeren kayda geçmemiş milyarlarca daha fazla veri bulunmaktadır.

Büyük Sağlık Verisi için Yapay Zekâ

Yapay zekâ (Artificial Intelligence – AI), bu tıbbi veri yığınının hepsinin daha iyi ve etkili kullanılmasına olanak sağlayabilir. Yakın zamanda ortaya çıkan yapay zekâ modelleri, hızlı ve doğru bir şekilde devasa çokluktaki verileri birleştirebilir, potansiyel hasta sonuçlarını tahmin edebilir, tedaviler ve önleyici yaklaşımlar hakkında araştırma yapmaları konusunda doktorlara yardımcı olabilir.

Tahmin algoritmaları, mükemmellikler vadediyor. Bazıları, patologlardan daha yüksek oranda doğruluk ile meme kanseri tanısı koyabiliyor (bakınız Dijital meme tomosentezi için yapay zeka teknolojisi, FDA onayı aldı). Doktorların hastaların tıbbi geçmişlerine daha hızlı bakabilmesini sağlayan veya radyoloji görüntülerini analiz etmelerini geliştiren başka yapay zekâ (YZ) araçları zaten tıbbi alanlarda kullanımda.

Ancak tıpta yapay zekâ alanındaki bazı uzmanlar, faydaları açık olsa da daha az farkında olduğumuz, doktorların karar verme sürecinde yapay zekâdan (olumsuz) etkilenmesinin bu teknolojileri baltalayabileceğini ileri sürüyor. Aslında etkilenen bu tıbbi kararlar hasta bakımında etkili olmayan ve hatta tehlikeli olabilecek kararlar verilmesine yol açabilir.

Bir Hasta Grubunda Test Edilen Yapay Zekâ Modeli, Başka Bir Hasta Grubu için Doğru Tahminde Bulunabilir mi?

Çoğu kişi "etkilenen tıbbi kararları" kişisel, etnik ya da ırksal önyargı ile ilişkilendirirken, kabaca tanımlandığında etkilenmiş karar, özellikle bir şeyin lehine veya aleyhine olmak üzere belirli bir yöne dayanma eğilimidir. Aslında bu duruma bilimde bias (önyargı, eğilim, sapma) diyoruz.

İstatiksel anlamda bias, verilerin tam olarak ya da doğru bir şekilde hedeflenen popülasyona (gruba) modellenmesi temsil edilmediğinde ortaya çıkar. Bu, başlangıçta zayıf verilere sahip olunduğunda olabilir ya da bir popülasyondan elde edilen verilerin hatalı olarak bir başka popülasyona uygulanması sonucu ortaya çıkabilir.

Her iki türlü de bias – istatiksel ve ırksal/etnik – tıbbi literatürde vardır. Bazı hasta grupları üzerine daha fazla araştırma varken, bazıları üzerinde çalışmalar yetersiz kalmıştır. Bu da şu soruyu gündeme getiriyor: Eğer var olan bilgilerden yapay zekâ modelleri yaratırsak, eski sorunları yeni teknolojiye aktarabilir miyiz?

Bu konu üzerine Tufts Tıp Merkezinden Tahmin Analitikleri ve Etkinlik Karşılaştırma Merkezi Başkanı David M. Kent, “Pekâlâ, bu tam anlamıyla endişe verici” diyor.

Kent ve bir ekibin kardiyovasküler hastalıklar için yaptığı bir derleme çalışmasında araştırmacılar, 104 klinik tahmin modelini analiz etti. Bu modeller, kardiyovasküler hastalık tahmininde klinik kararın verilmesine rehber olacak şekilde tasarlandı. Araştırmacılar, daha önce doğru bir şekilde çalıştırılan modellerin yeni hasta veri seti üzerinde test edildiğinde de aynı şekilde doğru çalışıp çalışmadığını bilmek istiyordu.

Şaşırtıcı

Kent, modellerin “insanların beklediğinden daha kötü” olduğunu söylüyor. Düşük riskli hastalardan yüksek riskli hastaları ayırt edebilme yetenekleri her zaman yok. Zaman zaman bu araçlar, hastaların hastalık riskinin üzerinde ya da tahmin edilenin altında bulundu. Endişe verici bir şekilde çoğu model, gerçek bir klinik alanda kullanılırsa, zarara sebep olabilecek potansiyele sahipti.

Performanslarda zamanla artan bu tür farklılıklar neden var?

Kent, “tahmin modellerinin genellemeleri insanların düşündüğü kadar yoktur” diyor. Bir model bir veri tabanından bir başkasına geçirildiğinde ya da bir şeyler veya alan (bir şehir gibi) zamanla (10 yıldan 10 yıla) değiştiğinde, bu farklılıkları yakalamakta başarısız olur.

Bu, istatiksel olarak etkilenmiş kararları / biası oluşturur. Sonuç olarak bu model, yeni bir hasta popülasyonu ile daha fazla çalışamaz.

Kent, bunun tabii ki de yapay zekânın sağlık alanında kullanılmaması gerektiği anlamına gelmediğini söylüyor. Ancak bu, neden insan görüşünün oldukça önemli olduğunu göstermektedir. “Bu çalışma, bu modellerin özellikle kötü olduklarını göstermez. Kesin riski tahmin etmeyi deneyen modellerin genel bir değerlendirmesini vurgular. Modellerin daha iyi denetlenmesi ve güncellenmesinin gerekliliğini gösterir.”

Yine de araştırmacıların standardize edilmiş bir sürecin faydası üzerine bir tartışma olan yeni bir makalede uyardıkları gibi, insan gözetimlerinin bile sınırları vardır. Araştırmacılar, bir tür sınır olmadan yalnızca araştırmayı düşündüğümüz etkilenen kararı bulabileceğimizi belirtiyor. Yine, yeniden, ne bildiğimizi bilmiyoruz.

Kara Kutudaki Bias

Irk, fiziksel, davranışsal ve kültürel sembollerin bir karışımıdır. Sağlıktaki esas değişkendir. Ancak ırk, karmaşık bir kavramdır ve tahmin algoritmalarında kullanıldığında problemler doğurabilir. Irksal olarak gruplar arasında sağlık açısından farklılıklar varken, bir grup içindeki tüm insanlar, aynı sağlık sonucuna sahip olacak gibi değerlendirilemez.

Harvard Üniversitesi kültür ve tıp profesörü ve Hidden in Plain Sight – Reconsidering the Use of Race Correction in Algorithms ortak yazarı David S. Jones, “bu araçların birçoğu (analog algoritmalar) sağlık kaynaklarını beyaz insanlara yönlendiriyor gibi gözüküyor” dedi. Aynı zamanlarda, araştırmacı Ziad Obermeyer ve Eric Topol tarafından YZ araçlarındaki benzer etkilenmiş kararlar tespit edildi.

Hasta tedavisini etkileyen klinik çalışmalardaki çeşitlilik eksikliği uzun süredir endişe vericidir. Jones, şu anda başka bir endişenin de bu çalışmaların tahmin modelleri oluşturmak için kullanılmasının, bu etkilenmiş kararları devam ettirmekle kalmayıp aynı zamanda daha belirsiz ve tespit edilmesini zor hale getirmiş olduğunu söylüyor.

Yapay zekanın doğuşundan önce analog algoritmalar tek klinik seçeneklerdi. Bu tür tahmin modelleri otomatik yerine kural tabanlı hesaplama yapmaktadır.

“Analog modeller kullanıldığında kişi bilgilere kolayca bakabilir ve ırk gibi hangi hasta bilgilerinin dahil edilip edilmediğini tam olarak görebilir.”

Şimdi, makine öğrenme araçları ile algoritmalar şahsi olabilir – yani veriler kullanıcıdan gizlenebilir ve değiştirilemez. Bir kara kutu. Sağlık çalışanı olan bir kullanıcı, hangi hasta bilgilerini içerdiğini veya bu bilgilerin yapay zekanın önerilerini nasıl etkileyebileceğini bilemeyebilir.

Jones, “Tıpta ırkı kullanıyorsak, kullanımının uygun olup olmadığını anlayabilmemiz ve mantıklı kararlar verebilmemiz için tamamen şeffaf olunması gerekiyor. Cevaplanması gereken sorular: zarar vermeden faydalı olmak için ırk etiketleri nasıl ve nerede kullanılmalıdır?” diyor.

Tedavi Kararları için Yapay Zekandan Endişelenmeli miyiz?

Yapay zeka araştırmalarında adeta patlama yaşanmasına rağmen, klinik karar için geliştirilen çoğu yapay zeka modeli henüz gerçek yaşama uyarlanamamıştır.

Sağlıkta, özellikle yapay zekanın tıbbi kararlara destek olması konusunda problemlerin var olduğu ve bu karar destek araçlarının yaygın bir şekilde kullanıma sunulmadan önce ele alınması gerektiği konuşunda uzmanlar hem fikirdir.

Gerçek tehlike, iyi bir yatırım getirisi için baskı altında olan tahmin modelleri oluşturan yeni şirketlere tonlarca paranın dökülmesidir. Bu, hazır olmayan veya yeterince test edilmemiş modelleri yaymak için çatışmalar yaratabilir ve bu da tedavi kalitesini daha iyi yerine daha da kötüleştirebilir. IBM Watson'un başarısızlığı buna en iyi örneklerden biridir (bakınız DİJİTAL SAĞLIK neden bir HAYAL KIRIKLIĞI oldu ve bu nasıl düzeltilir?)

Sonuç olarak yapay zekânın modellerinin / araçlarının sağlıkta kullanımı için standardizasyon ve gözetim oluşturulmalı ve hasta tedavisi yapan kurumlar arasındaki iletişim iyileştirilmeli. Ama tüm bunların nasıl yapılması gerektiği hala tartışmaya açıktır.

1. Medicine, AI, and Bias: Will Bad Data Undermine Good Tech? - Medscape - May 18, 2022.

2. David M. Kent, MD, CM, MS, director of the Predictive Analytics and Comparative Effectiveness Center at Tufts Medical Center

3. David S. Jones, M.D., Ph.D., professor of Culture and Medicine at Harvard University

4. JAMA. (2017). Diagnostic assessment of deep learning algorithms for detection of lymph node metastases in women with breast cancer. doi:10.1001/jama.2017.14585

5. Circulation: Cardiovascular Quality and Outcomes (2022). Generalizability of cardiovascular disease clinical prediction models: 158 independent external validations of 104 unique models. https://doi.org/10.1161/CIRCOUTCOMES.121.008487

6. ACM Digital Library (2021). MedKnowts: Unified documentation and information retrieval for electronic health records. https://doi.org/10.1145/3472749.3474814

7. Lancet (2021). Artificial intelligence, bias, and patients' perspectives. https://doi.org/10.1016/S0140-6736(21)01152-1

8. The Lancet Digital Health (2020). Artificial intelligence in medical imaging: switching form radiographic pathological data to clinically meaningful endpoints. https://doi.org/10.1016/S2589-7500(20)30160-6

9. The New England Journal of Medicine (2020). Hidden in plain sight-reconsidering the use of race correction in clinical algorithms. DOI: 10.1056/NEJMms2004740

Sağlık ve Mutlulukla Kalın...

Sayfada yer alan yazılar sadece bilgilendirme amaçlıdır, tanı ve tedavi için mutlaka doktorunuza başvurunuz.

Kanser tanısına sahip bir hasta için online muayene randevusu hakkında bilgi almak için aşağıdaki formu doldurabilirsiniz.


İlgili Haberleri


Yapay Zeka Destekli Tiroid Ultrason Analiz Yazılımına FDA İzni – Radyolojide Yeni Dönem

Yapay Zeka Destekli Tiroid Ultrason Analiz Yazılımına FDA İzni – Radyolojide Yeni Dönem

Yapay Zeka "Yazılımına" FDA Pazarlama İzni Tiroid nodüllerinin tespit ve değerlendirilmesinde yapay zekanın (YZ) gücünü yansıtan önemli...

Revolution in Cancer Rehabilitation – Innovative Treatment Methods with Virtual Reality

Revolution in Cancer Rehabilitation – Innovative Treatment Methods with Virtual Reality

The side effects caused by cancer and its treatments, such as pain, anxiety, nausea, or neuropathy,...

Kanser Rehabilitasyonunda Devrim – Sanal Gerçeklik (VR) ile Yenilikçi Tedavi Yöntemleri

Kanser Rehabilitasyonunda Devrim – Sanal Gerçeklik (VR) ile Yenilikçi Tedavi Yöntemleri

Kanser ve tedavilerinin neden olduğu ağrı, kaygı, bulantı veya nöropati gibi yan etkiler, hastaların günlük aktivitelerini...

Kanser Hakkında Soruları Cevaplamakta Chatbotlar En İyi Onkologlardan Daha İyi

Kanser Hakkında Soruları Cevaplamakta Chatbotlar En İyi Onkologlardan Daha İyi

Kanser hastalarının sorularına doğru, empatik ve anlaşılır yanıtlar vermek, tedavi sürecinde büyük önem taşır. Bu bağlamda,...

Hakkımda

Özgeçmişim, kanser tanı ve tedavisine dair çalışmalarım ve ilgi alanlarım için tıklayın.

Prof. Dr. Mustafa Özdoğan Hakkında