Single Blog Title

This is a single blog caption

Yapay Zekâ Destekli İlaç Keşfi ve Klinik Denemelerde Algoritmik Hataların Hukuki Sorumluluğu

Giriş

Günümüzde yapay zekâ (YZ) teknolojileri, ilaç geliştirme süreçlerinde devrim yaratacak düzeyde bir dönüşüm sağlamaktadır. Özellikle ilaç molekülü tasarımı, yan etki öngörüsü, klinik deneme planlaması ve hasta verisi analizigibi alanlarda kullanılan makine öğrenimi algoritmaları, araştırma süreçlerini hızlandırmakta ve maliyetleri önemli ölçüde azaltmaktadır.

Ancak YZ tabanlı sistemlerin öngörü hataları, yanıltıcı analizleri veya veri yanlılığı gibi nedenlerle klinik denemelerde hatalı sonuçlara yol açması, ilacın güvenliği ve etkililiği hakkında yanlış kanaatler oluşturabilir. Bu da beraberinde, hukuki sorumluluğun kimde olduğu, algoritmik kararların öznelliği, zararın tazmini, ve etik denetimin sınırları gibi soruları gündeme getirir.


1. Yapay Zekânın İlaç Keşfindeki Rolü

Yapay zekâ sistemleri ilaç keşfi sürecinde şu alanlarda kullanılmaktadır:

  • Moleküler hedef belirleme (target prediction),

  • Yeni bileşik tasarımı (de novo drug design),

  • Klinik adayların önceliklendirilmesi,

  • Hasta alt gruplarının analizi (subgroup stratification),

  • Yan etki ve toksisite öngörüsü.

Bu sistemler genellikle büyük hacimli biyomedikal verilerle eğitilmiş derin öğrenme algoritmaları kullanır. Ancak bu modellerin şeffaflığı düşüktür (black-box systems) ve karar mekanizmaları genellikle izlenebilir değildir.


2. Klinik Denemelerde Algoritmik Hatalar: Olası Senaryolar

Yapay zekâ destekli klinik karar destek sistemleri veya veri analiz platformları, aşağıdaki türde hatalara yol açabilir:

  • Yanıltıcı hasta seçim algoritmaları: Yetersiz veri ile eğitilen model, yanlış risk gruplarını seçebilir.

  • Dozaj tahmin hatası: Modelin toksisite eşiğini yanlış belirlemesi, ciddi yan etkilere neden olabilir.

  • Farklı veri kaynaklarından gelen önyargılar (bias): Bazı hasta gruplarının dışlanması ya da istatistiksel olarak bastırılması.

  • Faz verilerinin yanlış sınıflandırılması: Klinik faydanın olduğundan fazla veya az gösterilmesi.

Bu durumlar, araştırma sonuçlarının yanıltıcı olmasına, ilacın onay sürecinde hatalı değerlendirilmesine veya gönüllülerin zarar görmesine yol açabilir.


3. Hukuki Sorumluluk: Kim, Ne Kadar Sorumlu?

Yapay zekâ kaynaklı bir algoritmik hata durumunda hukuki sorumluluk kimin üzerinde olur?

⚖️ Olası sorumlular:

  • İlaç şirketi (sponsor): Klinik denemenin genel sorumlusu olduğu için nihai sorumluluğa sahiptir.

  • Yapay zekâ sisteminin geliştiricisi: Yazılımda algoritmik hata varsa, ürün sorumluluğu veya yazılım kusuru gündeme gelebilir.

  • Araştırma merkezi veya hekim: Kararı sorgulamadan uyguladıysa, mesleki özen yükümlülüğü kapsamında sorumluluk doğabilir.

  • Etik kurul: Yetersiz değerlendirme yaparak riski öngörememişse dolaylı sorumluluğu olabilir.

Bu noktada, sorumluluk rejimi şunlara göre şekillenir:

  • Sözleşmesel sorumluluk (sponsor-yazılım sağlayıcısı arasında),

  • Haksız fiil sorumluluğu (gönüllüye verilen zarar nedeniyle),

  • Tıbbi uygulama hatası (hekim ve araştırma merkezi açısından),

  • Ürün sorumluluğu (kusurlu yazılım veya algoritma sonucu doğan zararda).


4. Mevzuat ve Düzenleyici Çerçeve

Türkiye’de:

  • Klinik Araştırmalar Hakkında Yönetmelik, klinik denemelerde tüm süreçten sponsoru sorumlu tutar.

  • KVKK, yapay zekâ sistemleri tarafından işlenen hasta verilerinin hukuka uygun işlenmesini zorunlu kılar.

  • İlaç ve Tıbbi Cihaz Kurumu (TİTCK), YZ tabanlı klinik araçların güvenliğini değerlendirme yetkisine sahiptir.

Uluslararası düzeyde:

  • EU AI Act (Yapay Zekâ Düzenlemesi), tıbbi cihazlarda kullanılan YZ sistemlerini “yüksek riskli” olarak tanımlar.

  • FDA (ABD), YZ tabanlı sağlık yazılımlarının SaMD (Software as a Medical Device) kapsamında ruhsatlandırılmasını zorunlu tutar.


5. Etik Kurallar ve Algoritmik Şeffaflık

Algoritmik kararların öngörülemezliği nedeniyle, etik kurulların sorumluluğu da artmaktadır. Klinik çalışmalarda kullanılan YZ sistemlerinin:

  • Algoritma mimarisi,

  • Eğitim verisi kaynakları,

  • Model doğrulama ve test süreçleri,
    etik kurul tarafından şeffaflık ilkesine uygun biçimde denetlenmelidir.

Black-box modeller ile karar alınması, gönüllünün rızasının bilgilendirilmiş olup olmadığını da tartışmalı hale getirir. Bu durumda, “bilgilendirilmiş onam” metni yeterli midir sorusu gündeme gelir.


Sonuç

Yapay zekâ destekli ilaç keşfi ve klinik araştırmalar, tıp biliminde büyük bir devrimi temsil etmektedir. Ancak bu dönüşüm, sadece teknolojik değil; hukuki ve etik altyapının da aynı hızla gelişmesini zorunlu kılmaktadır.

Algoritmik hatalar:

  • Gönüllülere zarar verebilir,

  • Klinik deneme sonuçlarını geçersiz kılabilir,

  • Piyasaya güvenliği tartışmalı ilaçların girmesine neden olabilir.

Bu nedenle;

🔹 Sorumluluk zinciri net tanımlanmalı,
🔹 Yazılım sağlayıcıları ile sponsorlara özel sözleşmeler yapılmalı,
🔹 Etik kurullar algoritmik sistemleri değerlendirme kapasitesine kavuşturulmalı,
🔹 Yapay zekâ sistemleri, yalnızca teknik değil, hukuki uygunluk açısından da sertifikalandırılmalıdır.

Leave a Reply

Open chat
Avukata İhtiyacım var
Merhaba
Hukuki Sorunuz nedir ?
Call Now Button