EVRİN GÜVENDİK/ANKARA- Cumhurbaşkanlığı Dijital Dönüşüm Ofisi Başkanvekili Yusuf Tancan, Meclis Yapay Zekâ Araştırma Komisyonu’ndaki sunumunda, yapay zekâda yaşanabilecek sorun ve riskleri anlattı.
Tancan, 2024 yılı sonunda Yapay Zekâ Strateji Belgesi’ni güncellediklerini ve firmaların yapay zekâ kullanımını teşvik etme, insan kaynağını geliştirme, üretken yapay zekâyı geliştirmeye yönelik çalışmaların da aralarında olduğu 71 adet yeni eylem planı belirlediklerini kaydetti. Cumhurbaşkanlığı Dijital Dönüşüm Ofisi olarak güvenilir ve sorumlu yapay zekâ ekosistemi oluşturmayı hedeflediklerini, çalışmalarını da bu kapsamda sürdürdüklerini söyleyen Tancan, Sanayi ve Teknoloji Bakanlığı, Türk Standartları Enstitüsü (TSE) ve TÜBİTAK Yapay Zekâ Enstitüsünün çalışmalarına destek verdiklerini bildirdi. Tancan, yapılan çalışmaların temel hedefini, “uluslararası düzenlemelere de uyum sağlanarak Türkiye’de yapay zekânın güvenli ve sorumlu kullanımını temin edecek standartlar, mevzuat, rehberler ve denetim araçlarını kapsayan bir yapı oluşturulması” şeklinde anlattı. Tancan, bu yapıyla da hem vatandaş haklarının olası ihlal ve risklere karşı korunacağını hem de yerli ve milli yapay zekâ teknolojilerinin geliştirilmesi için bir zemin oluşturulacağını ifade etti.
Kamu Veri Platformu
Tancan, Kamu Veri Alanı Projesini de anlattığı sunumunda, bu projeyle AB’nin veri uzayları konseptinin Türkiye’ye uyarlandığını söyledi. Tancan, “Bu kapsamda kamu kurumlarının elindeki verilerin veri analitiği amacıyla işlenmesini sağlayacak bir teknik altyapı ve platform oluşturuyor olacağız. Proje, Başkanlığımızla TÜİK iş birliğinde yürütülüyor, pilot uygulama süreci devam ediyor. Proje tamamlandığında örneğin Tarım ve Orman Bakanlığı ile Meteoroloji Genel Müdürlüğü ve Devlet Su işleri Genel Müdürlüğünün elindeki dijital veriler tek bir platformda birleştirilerek ülkemizdeki tarımsal üretime yönelik çok daha detaylı analizler yapılması mümkün olacak” diye konuştu.
‘Veri zehirlenmesi’ tehlikesi
“Yapay zekânın bazı durumlarda önceden öngörülemeyen kararlar vermesi mümkün. Bu kararlar bazen bir işçi seçiminde taraflı davranmasına sebep olabileceği gibi, bazı durumlarda da insan hayatını tehlikeye sokan kazaların ortaya çıkmasına yol açabiliyor” diyen Tancan, yapay zeka tarafından kontrol edilen Uber’in otonom aracının bir bisikletliye çarptığı kaza ile Belçikalı bir gencin iklim değişikliği konusunda ChatGPT’yle yaptığı sohbette karamsarlığa düşerek intihar etmesi örneklerine dikkati çekti. Tancan, şöyle devam etti:
Cevap bekleyen sorular
“Verdiğim örneklerdeki sorunlar çok çeşitli sebeplerle ortaya çıkmış olabilir. Kullanılan yapay zeka modeli yetersiz olabilir veya modeli eğitmek için kullanılan veriler yanlı veya yanlış olabilir, algoritmalar eğitim aldıkları verilerdeki önyargıları tekrarlıyor olabilir veya dış müdahaleyle veri zehirlemesi olarak tabir edilen bir saldırıya maruz kalmış olabilir. Bu örnekler, yapay zekânın kullanımı konusunda hukuki ve ahlaki soruları da gündeme getiriyor. Bu gibi bir kaza olduğunda sorumlu kim; şoför koltuğunda oturan ama yola dikkat etmeyen sürücü mü, yoksa aracı kontrol eden yapay zekâ modülünü geliştiren firma mı? Bunlar daha önce güvenlik açısından denetlendi mi ve denetimi yapanların sorumluluğu ne? gibi sorular cevap bulmayı bekliyor. Yapay zekânın sorumlu ve etik kullanımı hâlihazırda uluslararası platformlarda da yoğun bir şekilde tartışılıyor; buna yönelik ilke ve standartlar geliştirilmeye çalışılıyor.”
More Stories
Bağcılar’da Park Halindeki Otomobilde Yangın Çıktı
Netanyahu’dan Trump’ın planına övgü: Devrimci ve yaratıcı
CHP Lideri Özgür Özel ve Büyükşehir Belediye Başkanları Bir Araya Geldi