Modern dünyada teknolojinin geldiği nokta, insanlığın karşısına yepyeni sorular çıkarmaktadır. Bu soruların başında, yapay zekânın (YZ) ahlaki sorumluluklar karşısındaki konumu gelmektedir. “YZ’nin ahlak anlayışı olabilir mi?”, “Bir yazılım ‘iyi’ ile ‘kötü’yü ayırt edebilir mi?”, “Ahlak sadece insanlar için mi geçerlidir?” gibi sorular hem felsefi hem etik hem de teknolojik açıdan kritik öneme sahiptir.

Ahlak ve etik kavramları birbirine yakın olsa da temelde farklılıklar barındırır. Ahlak, bir toplumun veya bireyin doğru ve yanlışı algılama biçimidir. Çoğu zaman geleneksel, inanca dayalı ve içsel bir duyarlılıkla şekillenir. Etik ise bu davranışları sorgulayan, evrensel ilkeler çerçevesinde eleştiren ve değerlendiren bir sistemdir. Bu konuyla ilgili derin bir analizimi BURADAN okuyabilirsiniz!

Yapay zekâ bu iki alan arasına sıkışmakta. Hem etik kodlara uymak zorunda olan bir sistem hem de ahlakın derin anlamlarından uzak bir ‘makine’dir. Bu makalede şu temel sorulara cevap arayacağız: Yapay Zeka ve Ahlak bir fail olabilir mi? YZ kullanan bireylerin veya kurumların niyetleri ahlaken ne kadar önemlidir? Batı ve İslam dünyası YZ ahlakına nasıl yaklaşıyor? Doğa tahribatı ve çevre etiği YZ teknolojisinde nasıl değerlendirilmelidir? Ve nihayetinde, Müslüman muhafazakâr bir toplum YZ çağında nasıl bir ahlak anlayışı geliştirmelidir?

Devamında bu soruları hem teorik hem de pratik çerçevede ele alarak hem felsefi tartışmalara hem de İslam düşüncesinden kaynaklanan önerilere bakacağız. Bu bağlamda, amacımız teknolojiye sadece aracısal bir gözle bakmak değil, aynı zamanda ahlaki bir duruş geliştirmeye katkı sunmaktır.

Podcast

Özet

Bu makale, yapay zekâ ve ahlak ilişkisini İslam ve Batı düşünce gelenekleri çerçevesinde incelemektedir. Yapay zekânın ahlaki özne olup olamayacağı, insanın bu teknolojiyi hangi niyetle ve değerlerle kullandığı, mevcut etik düzenlemelerin yeterliliği ve Müslüman toplumların bu dönüşüm karşısındaki duruşu makalenin temel tartışma alanlarını oluşturmaktadır. İslam ahlakında merkezi yer tutan niyet, kul hakkı ve adalet gibi kavramların dijital çağın problemlerine nasıl uyarlanabileceği tartışılmış, geleneksel fıkhi yaklaşımların yeniden yorumlanma ihtiyacına dikkat çekilmiştir. Makale ayrıca Müslümanların yalnızca teknolojiyi kullanmakla kalmayıp, evrensel katkılar sunabilecek bir etik mimari geliştirme sorumluluğuna sahip olduğunu vurgulamaktadır.

Yapay Zekânın Ahlaki Bir Fail Olabilme İhtimali

Yapay zekânın ahlaki fail (moral agent) olup olamayacağı sorusu, hem felsefi hem de pratik düzeyde tartışmalı bir konudur. Fail olmak, yalnızca bir eylemi gerçekleştirmek değil, aynı zamanda bu eylemin niyetini taşımak, sonuçlarını öngörebilmek ve sorumluluğunu üstlenebilmek demektir. Bu bağlamda sorulması gereken temel soru şudur: Yapay zekâ gerçekten bir “niyet”e sahip olabilir mi?

Yapay Zekâ Sadece Kuralları Uygulayan Bir Sistem mi?

Yapay zekâ sistemleri genellikle “etik kararlar alabilen sistemler” gibi sunulsa da, bu kararlar aslında karmaşık kural setlerinin uygulanmasından ibarettir. Bu noktada önemli olan ayrım şudur: Etik kuralların uygulanması ile ahlaki muhakeme arasında ciddi fark vardır.

a) Yapay Zekâ’da Kurallara Dayalı Otomasyon YZ sistemleri, programlandıkları çerçevede “zarar verme”, “öncelik tanıma” ya da “adil dağılım” gibi ilkeleri takip edebilir. Ancak bu kararlar, insani değer yargılarına değil, istatistiksel fayda optimizasyonuna dayanır. Bu sistemler “neden böyle yaptın?” sorusuna anlamlı ve bilinçli bir yanıt veremez  (Moor, 2006).

b) Yapay Zekâ’nın Anlamlandırma Kapasitesi Var mı? Kuralları uygulamak, onların anlamını kavramayı gerektirmez. Kant’ın “ahlaki yasa uğruna eylem” tanımı, yapay zekânın ahlaki fail olamayacağını netleştirir. YZ, saygı, yükümlülük ya da değer gibi kavramlarla ilişki kuramaz. O sadece belirli verilerle yönlendirilir (Kant, 1785). 

c) Kurallara Uygunluk ile Ahlaki Derinlik Arasındaki Uçurum YZ’nin kurallara uygun davranması, onu ahlaki özne yapmaz. Hans Jonas’ın “gelecek nesiller için sorumluluk” vurgusu, teknolojinin etik sınırlarını çizerken, ahlaki derinliğin yalnızca insanla mümkün olduğunu ortaya koyar.

Özetleyecek olursak, YZ kuralları uygulayabilir ancak bu onu ahlaki özne yapmaz. Kurallara uygunluk ile ahlaki bilinç arasında derin bir uçurum olduğunu gördük.

Vicdan, İrade ve Niyet Olmadan Ahlak Mümkün mü?

İslam düşüncesinde niyet, amelin ruhudur. Gazâlî’ye göre niyet, bir amelin değerini belirleyen asli unsurdur. Niyet olmadan amel şekilsel kalır (Gazâlî, İhyâ). Benzer şekilde Batı düşüncesinde Aristoteles’in “ethos” (karakter) vurgusu, ahlaki değerin ancak içsel erdemlerle mümkün olduğunu ortaya koyar (Nikomakhos’a Etik).

YZ sistemleri ise, ne “niyet” ne “vicdan” ne de “irade” taşır. Kararları, hesaplama algoritmalarına ve istatistiksel çıkarımlara dayanır. Ancak pişmanlık, sorumluluk hissi, tövbe gibi insani refleksleri içermez. Peter Strawson’un “moral responsibility” tartışmasında belirttiği gibi, ahlaki sorumluluk, duygulanım ve karşılıklı beklenti gibi sosyal bağlamlarla kurulur. YZ ise bu bağlamlardan yoksundur (Strawson, 1962).

Ayrıca İbn Miskeveyh’in erdem felsefesi çerçevesinde de değerlendirildiğinde, erdemli davranış alışkanlıkla gelişir ve bilinçli tercih gerektirir. YZ, bu süreci taklit edebilir ama özümsediği bir ahlak gelişimi yoktur (İbn Miskeveyh, Tehzîbü’l-Ahlâk).

Yani, vicdan ve niyet olmadan ahlaki sorumluluk mümkün değildir. Yapay zekâda bu unsurlar bulunmadığından, gerçek ahlaki muhakeme geliştiremez.

Ahlaki Davranışın Taklidi mi, Gerçekliği mi?

YZ, “ahlaki gibi görünen” davranışları taklit edebilir. Örneğin yaşlı birine yardım etmek, bir kazayı önlemek gibi durumlar YZ tarafından otomatik olarak yürütülebilir. Ancak bu eylemlerin arkasında bir bilinç, erdem ya da sorumluluk duygusu yoktur. Taklit edilen davranışın özü, yalnızca dışsal bir görünümdür.

David Hume’un ahlaki yargıların duygu temelli olduğu yönündeki görüşü, YZ’nin bu alandaki yetersizliğini daha da netleştirir (Hume, 1739). Çünkü YZ’de ne empati vardır ne de duygusal tepki. Aynı şekilde Kur’an’da sıkça vurgulanan “kalp” ve “niyet” merkezli ahlak vurgusu, davranışın içsel kaynağını esas alır.

YZ’nin davranışları, ne kadar doğru görünürse görünsün, insani bağlamdan ve ahlaki farkındalıktan uzaktır. Bu nedenle, erdemli davranışları taklit etmesi, onu erdemli yapmaz. Ahlak, sadece eylem değil; eylemin anlamıdır.

Özetle, YZ’nin ahlaki gibi görünen davranışları bir simülasyondan ibarettir. Gerçek ahlak, sadece davranışı değil, o davranışın içsel kaynağını da kapsar.

Bölümün Özeti

Yapay zekâ mevcut haliyle bir ahlaki fail değildir. O, ahlaki davranışları taklit edebilir, hatta bazı alanlarda insanlardan daha “doğru” kararlar verebilir. Ancak bu kararlar ahlaki değildir! Bu kararlar sadece algoritmik doğrulardır. Gerçek ahlak, bilinçli tercih, niyet ve sorumlulukla başlar. Bu ise şu an için yalnızca insana özgü bir özelliktir.

Yapay Zeka ve Ahlak: Kullananın Zihniyeti

Yapay zekâ yalnızca kendi yetenekleriyle değil, onu geliştiren ve kullanan bireylerin, kurumların ve toplumların değerleriyle de şekillenir. Bu nedenle “ahlaki fail” kavramı sadece YZ’nin doğasına değil, onu yönlendiren insanın ahlaki duruşuna da bağlıdır. Teknolojiyi geliştiren zihin hangi değerleri taşıyor? Kullanıcı hangi niyetle bu aracı kullanıyor? Bu sorular, ahlaki sorumluluğun insanda başladığını gösterir.

Niyet mi, Fayda mı?

İslam ahlakında niyetin önemi büyüktür. Peygamber Efendimiz (sav)’in “Ameller niyetlere göredir” hadisi, eylemlerin değil, o eylemleri yönlendiren niyetlerin belirleyici olduğunu ortaya koyar (Buhârî). Oysa modern teknoloji yaklaşımı, çoğunlukla fayda ve sonuç merkezlidir. Bu faydacılık, YZ’nin “ne işe yaradığı” üzerinden tanımlanmasına neden olur.

Şirketler yapay zekâyı kâr maksimizasyonu için; devletler gözetim, güvenlik ve kontrol için; bireyler ise konfor ve hız için kullanmaktadır. Ancak bu pratiklerin ardında ne tür niyetler ve değerler vardır? Örneğin, bir sigorta şirketinin yapay zekâ ile risk skoru belirlemesi adil midir? Bu algoritmalar, yoksulları daha fazla riskli gruba yerleştiriyorsa burada ahlaki bir sorun oluşur.

İslam düşüncesinde adalet sadece eşitlik değil, her şeyi yerli yerine koymaktır (el-adl). YZ sistemlerinin çıktılarında görülen önyargılar (algorithmic bias), geliştirici zihniyetin adaletsizliğini sistematikleştirir. Bu durumda “niyet temiz değilse, araç masum olabilir mi?” sorusu kaçınılmaz hale gelir (O’Neil, 2016).

YZ’yi yönlendiren niyet, çıktının ahlakiliği üzerinde belirleyicidir. Ahlaki sorun çoğu zaman yazılımda değil, yazılımı kullanan zihniyettedir.

Araç mı, Amaç mı?

Teknoloji ilk bakışta sadece bir araç gibi görünür. Ancak Martin Heidegger’in teknoloji eleştirisinde belirttiği gibi, modern insan doğaya artık sadece “bir kaynak” olarak bakmakta, her şeyi “işe yararlılığı” üzerinden değerlendirmektedir (Heidegger, 1954). YZ de benzer şekilde, artık sadece bir araç değil, bir amaca dönüşme eğilimindedir.

YZ’ye güvenerek karar vermek, sorumluluğu devretmek anlamına gelir. Bir şirket yöneticisinin “Bunu algoritma böyle önerdi” diyerek karar sorumluluğundan kaçması, YZ’nin araçlıktan çıkıp ahlaki kararın yerine geçmesi demektir. Bu, insanın ahlaki yükümlülükten sıyrılmasına yol açabilir.

İslam ahlakında insan sorumluluğu devredilemez bir emanettir. YZ’yi araç olmaktan çıkarıp kendi kararlarımızı onun üzerine yıkmak, bu emanete hıyanet anlamına gelebilir.

Yani, teknoloji araç olmaktan çıkar ve amaç haline gelirse, ahlaki sorumluluk silikleşir. Bu da insanın kendi vicdanî muhasebesini kaybetmesine yol açar.

Ahlaki Sorumluluk Kimde?

YZ ile alınan bir kararın hatalı çıktığında kimin sorumlu olduğu sorusu oldukça günceldir. Geliştirici mi, kullanıcı mı, yasa koyucu mu? Bu soruya verilen yanıt, YZ’yi sadece teknik bir mesele değil, ahlaki bir alan haline getirir.

Batı hukuk sistemleri genellikle bireysel sorumluluk temelinde işler. Oysa YZ’nin karar zinciri çok aktörlüdür. Özellikle büyük dil modelleri (Large Language Model – LLM) gibi sistemlerde, sorumluluğun dağıtılması kolay, sahiplenilmesi zordur (Floridi & Cowls, 2019).

İslam düşüncesinde ise sorumluluk hem bireysel hem kolektiftir. “Hepiniz çobansınız ve güttüğünüzden sorumlusunuz” hadisi, yöneticiden mühendise kadar herkesi sorumluluk çemberine dâhil eder. Bu bağlamda, YZ kullanımı sadece etik kurullara değil, toplumsal vicdana da dayanmalıdır.

Özetle, ahlaki sorumluluk algoritmalara değil, insanlara aittir. Bu sorumluluk hem bireysel niyeti hem kolektif etkileri kapsar.

Bölümün Özeti

Genel olarak, YZ’nin ahlaki etkileri sadece onun karar mekanizmasında değil, onu yönlendiren insan zihniyetinde ve niyetinde yatmaktadır. Bu nedenle, teknolojinin kendisi değil, onu kullanma biçimimiz ve değer çerçevemiz ahlaki meseleyi belirlemektedir.

Batı ve İslam Perspektiflerinden Yapay Zekâ Ahlakı

Yapay zekâ etiği, yalnızca teknik bir güvenlik sorunu değil. Aynı zamanda değerler, dünya görüşü ve insan anlayışıyla doğrudan ilgilidir. Bu noktada Batı düşüncesi ile İslam düşüncesi arasında ahlakın temelleri bakımından belirgin farklılıklar göze çarpıyor. Batı daha çok seküler, hak temelli ve fayda odaklı bir etik çerçeve sunarken, İslamî yaklaşım niyet, adalet, kul hakkı ve emanet bilinci gibi aşkın değerleri temel alır.

Batı Etik Modeli: Hak, Fayda ve Özerklik

Batı felsefesi, özellikle Aydınlanma sonrası dönemde birey merkezli bir etik inşa etmiştir. Kant’ın “özerk birey” anlayışı ve evrensel ahlak yasası fikri, Bentham ve Mill’in faydacılığı, Rawls’un “adalet olarak hakkaniyet” teorisi bu çerçevede şekillenmiştir. Ancak bu düşünce geleneği üzerine inşa edilen Aydınlanma, İslam medeniyetinin bilim, felsefe ve ahlaki ilkeleriyle güçlü bağlantılar barındırır; Batı’nın yükselişi aynı zamanda İslam’ın mirasını yeniden keşfetme süreci olarak da değerlendirilebilir (scientu.net, 2024). Modern etik kuramları bireysel hakları, özgürlükleri ve sonuçların faydasını önceler.

Yapay zekâ bağlamında bu etik anlayış, daha çok “zarar verme”, “özerkliğe saygı göster”, “adil davran” gibi ilkelerle düzenleyici çerçevelere dönüşür (örneğin AI Act, OECD AI Principles). Ancak bu ilkeler çoğu zaman niyetten ziyade dışsal davranışa odaklanır. Yapay zekânın doğru çalışması, ahlaki değil, uyumlu olması üzerinden değerlendirilir (Floridi et al., 2018).

Batı yaklaşımı, görünürlük ve sonuç odaklıdır. Ahlak, sistemsel düzenleme ve hak koruması olarak anlaşılır.

İslam Etik Yaklaşımı: Niyet, Kul Hakkı ve Emanet

İslam ahlakı, bireysel özerklikten çok, ilahi sorumluluk ve niyet merkezlidir. Bir eylemin değeri, onun amacından çok niyetine ve yaratıcıya karşı sorumluluğuna dayanır. Bu yaklaşımda “kul hakkı” dokunulmaz bir sınırdır; yalnızca bireyler arası değil, toplum ve doğaya karşı da hak sorumluluğu içerir.

YZ sistemleri üzerinden toplanan verilerin kötüye kullanımı, önyargılı algoritmalar veya mahremiyet ihlalleri, sadece teknik değil ahlaki ve dinî bir sorun hâline gelir. Çünkü kul hakkı ihlali yalnızca dünyada değil, uhrevi düzlemde de hesap sorulacak bir meseledir (Gazâlî, İhyâ; Kılıç, 2017).

Ayrıca emanet anlayışı, teknolojinin kullanımını da kapsar. Kur’an’da geçen “Biz emaneti göklere, yerküreye ve dağlara teklif ettik, ama onlar bunu yüklenmek istemediler, ondan korktular ve onu insan yüklendi.” ayeti (Ahzab, 72), sadece bireysel ahlakı değil, bilgi, çevre ve güç kullanımını da içerir. YZ bir güçtür! Bu gücün adaletle kullanımı, bir emanet sorumluluğudur.

İslam etik yaklaşımı niyeti merkeze alır ve ahlaki sorumluluğu yalnızca bireye değil, topluma ve yaratıcıya karşı da yükler. YZ kullanımı da bu bütünsel sorumluluk çerçevesinde ele alınmalıdır.

Temel Farklar ve Çapraz Sorular

Batı’da “Ne işe yarar?” sorusu ön plandayken; İslam’da “Niyet neydi?” sorusu belirleyicidir. Batı etiği genellikle dünyevî sonuçları ölçerken, İslam ahlakı ahireti de içine alan bir anlam çerçevesi sunar.

Batı etik sistemleri YZ’yi düzenlemekle yetinirken, İslam düşüncesi YZ’yi niyet, adalet ve emanet ilkeleriyle dönüştürmeyi amaçlar. Bu fark, sadece teknolojinin kullanımını değil, insanı ve geleceği anlama biçimini de etkiler.

Özetle, Batı yaklaşımı bireysel hak ve faydayı esas alırken, İslam yaklaşımı niyet, adalet ve kutsal sorumluluk temellidir. YZ’nin ahlaki değerlendirmesi bu iki dünya görüşü arasında köprü kurulmadan eksik kalacaktır.

Bölümün Özeti

Batı etik yaklaşımı bireysel hak, özerklik ve fayda temelli düzenlemelere odaklanırken; İslam ahlakı niyet, adalet, kul hakkı ve emanet bilinci gibi aşkın sorumluluklara dayanır. Yapay zekânın ahlaki olarak değerlendirilmesi, ancak bu iki değer sisteminin farklarını ve imkânlarını birlikte gözeterek anlamlı hâle gelebilir.

Mevcut Düzenlemeler: Etik mi, Kontrol mü?

Yapay zekâ teknolojileri karşısında toplumların ve kurumların aldığı pozisyon, genellikle düzenleme (regülasyon) yoluyla gerçekleşmektedir. Ancak bu düzenlemelerin ahlaki bir dönüşüm sağlama mı yoksa sadece riskleri minimize etme amacı mı taşıdığı sorgulanmalıdır. AI Act gibi yasal çerçeveler ile UNESCO, OECD gibi kuruluşların yayımladığı etik ilkeler, YZ’nin davranışlarını belirli sınırlar içine çekmeyi hedefler. Peki bu sınırlar gerçekten ahlaki ilkeleri mi temsil ediyor, yoksa yalnızca kurumsal güvenliği mi?

AI Act ve Etik Kılavuzlar: Risk Yönetimi mi, Erdem Teşviki mi?

Avrupa Birliği’nin AI Act’i, yapay zekâ sistemlerini risk düzeylerine göre sınıflandırarak hukuki çerçeve belirler. Bu sınıflandırma yüksek riskli uygulamalara (örneğin yüz tanıma, sağlık tanısı, sosyal puanlama) kısıtlamalar getirirken, düşük riskli uygulamalara serbestlik tanır (European Commission, 2021).

Bu düzenlemeler, genellikle davranışa odaklıdır, yani sistemin “ne yaptığı”na bakar, “neden yaptığı”na değil. Oysa erdem etiği, davranışın değil, niyetin ve karakterin ahlaki değerlendirmede esas alınmasını savunur (MacIntyre, 1981). Dolayısıyla bu çerçeveler, niyet odaklı ahlaki gelişimden ziyade, sonuç odaklı uyumluluk üretir.

Mevcut düzenlemeler risk yönetimi sağlar, ancak erdemli davranışı içselleştiren bir ahlaki dönüşüm üretmez. Yasaya uygunluk, ahlaki yeterlilik anlamına gelmez.

Soft Law ve Hard Law Arasında Ahlaki Boşluk

UNESCO’nun 2021 tarihli “AI Ethics Recommendation” belgesi gibi rehberler, evrensel değerlere dayalı prensipler önerir: insan onuru, mahremiyet, çeşitlilik, hesap verebilirlik. Ancak bu belgeler bağlayıcı değildir. Yani uygulayıcılar için bir etik pusula sunsa da, gerçek yaptırımları yoktur (UNESCO, 2021).

Öte yandan AI Act gibi hard law düzenlemeleri ise bağlayıcıdır ama çoğu zaman ahlaki derinliği eksiktir. Bu ikilikte ahlaki sorumluluk “kimin üzerine düşüyor?” sorusu yanıtsız kalır. Bu bağlamda, ahlaki yükümlülüğün içselleştirilmesi değil, dışsal zorunluluklara indirgenmesi ciddi bir sorun yaratır.

Soft law ilke sunar ama bağlayıcı değildir; hard law bağlayıcıdır ama ahlaki motivasyon taşımaz. Her iki yaklaşımda da sorumluluk bilincini geliştirecek ahlaki bir zemine ihtiyaç vardır.

İslam Perspektifinden Hukuk ve Ahlak İlişkisi

İslam düşüncesinde hukuk (şeriat) ile ahlak (ahlâk) arasında mutlak bir örtüşme beklenmez. Fıkhi olarak caiz olan bir şeyin ahlaken tenzihen mekruh olabileceği kabul edilir. Bu fark, davranışın yalnızca yasal olup olmadığıyla değil, ahlaki olarak Allah’a karşı sorumluluk taşıyıp taşımadığıyla da değerlendirilmesini mümkün kılar.

Dolayısıyla İslam ahlakında sadece yasa dışına çıkmak değil, niyetin ve etki alanının da sorgulanması gerekir. Bu yaklaşım, YZ gibi gri alanlarda daha vicdani, daha derinlikli bir etik anlayış geliştirilmesini teşvik eder.

İslam düşüncesi yasaya uygunluğu değil, niyete dayalı sorumluluğu esas alır. Bu, YZ’ye dair mevcut düzenlemelere karşı daha yüksek bir ahlaki çıta koyar.

Bölümün Özeti

Mevcut düzenlemeler, yapay zekâ teknolojilerinin sınırlarını belirlemeye yardımcı olsa da, gerçek bir ahlaki yönelim inşa etmekte yetersiz kalmaktadır. Ahlaki sorumluluk sadece yasal çerçeveye değil, bireyin ve toplumun içsel değerlerine dayanmalıdır.

İslam düşüncesi bu boşluğu dolduracak güçlü bir perspektif sunar: niyet, kul hakkı ve emanet gibi değerlerle teknolojinin ötesine geçen bir sorumluluk alanı inşa eder. Dolayısıyla yapay zekâ etiği yalnızca düzenleyici metinlerle değil, ahlakı yaşatan kültürel ve inanç temelli yaklaşımlarla derinleşebilir.

Müslüman Toplumun Ahlaki Pozisyonu: Yeni Döneme Yeni Yorum

Yapay zekâ çağında Müslüman toplumların karşı karşıya olduğu temel sorulardan biri şudur: Geleneksel ahlaki refleksler bu yeni teknolojik zemin için yeterli midir, yoksa yeni bir yorum mu gereklidir? Şunu anlamamız lazım: Teknoloji nötr değildir! Onu yönlendiren niyetler, değerler ve hedefler ahlaki sonuçları belirler. Bu nedenle İslam ahlakı, YZ çağında yalnızca bir savunma refleksi değil, aynı zamanda aktif bir yönlendirme gücü olarak yeniden düşünülmelidir.

Geleneksel Ahlaki Refleksler Yeterli mi?

Müslüman bireyler ve kurumlar YZ’ye çoğunlukla ihtiyatla yaklaşmakta, teknolojiyi “mubah” sınırlar içinde kullanmaya odaklanmaktadır. Ancak bu refleksler çoğu zaman reaktif ve korumacıdır. Halbuki yeni sorunlar, yeni içtihatlar ve ahlaki açılımlar gerektirir.

Veri mahremiyeti ya da algoritmik adalet gibi konular klasik fıkıh literatüründe doğrudan karşılık bulmamakla birlikte, 2020 sonrası yapılan akademik çalışmalarda bu alanlara İslam ahlakı çerçevesinden yaklaşıldığı görülmektedir. “Amanah (güven), hurmah (dokunulmazlık), maslahah (kamusal yarar), istihsan (ahlaki tercih), dhaman (sorumluluk)” gibi ilkeler aracılığıyla bu konular yeniden yorumlanmakta ve dijital etikle bütünleştirilmeye çalışılmaktadır (Amiri, 2025; Çolak, 2020). Ancak bu yorumlar henüz kurumsal, bağlayıcı içtihatlara dönüşmemiştir.

Gleneksel ahlaki anlayışlar ilke olarak sağlamdır. Ancak dijital çağın özgün problemleri karşısında bu ilkelerin pratik uygulamaları henüz olgunlaşma aşamasındadır.

Niyet, Kul Hakkı ve Adaletin Dijital Yorumu

YZ çağında yapılan her dijital işlemde bir niyet gizlidir. Örneğin kullanıcı arayüzleri, kullanıcıyı daha uzun süre ekranda tutmak üzere tasarlandığında bu bir teknik karar değil, ahlaki bir tercihtir. Niyet, sadece sözlü beyan değil, sistem mimarisi ve algoritma kurgusuna da yansır. İslam ahlakında “niyet” eylemin özüdür. Bu nedenle yapay zekâ ile yapılan her tasarım, geliştiricinin ve kurumun niyetiyle birlikte değerlendirilmelidir.

Diğer yandan, algoritmaların yol açtığı gelir eşitsizlikleri, önyargılı kararlar ya da bilgiye erişim bariyerleri İslam ahlakında kul hakkı ihlali kapsamında değerlendirilmelidir. Örneğin bir işe alım algoritmasının etnik kimliğe göre ayrımcılık yapması, yalnızca teknik bir arıza değil; aynı zamanda adalet ilkesinin zedelenmesidir. Bu çerçevede İslam düşüncesinde adalet, sadece eşitlik değil; liyakat, denge ve hak edişi de içerir. Dijital çağda bu, algoritmik şeffaflık ve denetlenebilirlik ile desteklenmelidir (Erdem, 2022; Gürses, 2020).

YZ çağında niyet artık kodda saklıdır! Kul hakkı dijitalde ihlal edilmekte, adalet ise sistem tasarımında test edilmektedir. Bu nedenle İslam ahlakının temel değerleri sadece kişisel ahlakta değil, yazılım mimarisinde de görünür olmalıdır.

Ahlaki Üretim: Sadece Kullanmak Yetmez, Yön Vermek Gerek

Müslüman toplumlar uzun süre teknolojiyi “dışarıdan gelen bir şey” olarak pasif biçimde tüketti. Ancak bu yaklaşım çağın gerçekleri karşısında artık yetersizdir. Yapay zekânın tasarımı, kullanım amacı ve değer altyapısı belirlenirken, sadece dış kaynaklı modelleri kopyalamak değil, bu sistemlere ahlaki ruh katmak gereklidir.

Bu bağlamda İslam düşüncesinin “maksat” (maqāsid) temelli yaklaşımı önemli bir avantaj sunar. Teknolojik ürünün nihaî amacını sorgulamak, onun maslahata hizmet edip etmediğini değerlendirmek, Müslüman etik perspektifinin özgünlüğünü gösterir. Ayrıca ilahiyat, mühendislik ve sosyal bilimlerin birlikte çalışacağı yeni araştırma merkezlerine ihtiyaç vardır. YZ’nin hem İslami kaynaklara uygun şekilde yorumlanması hem de günümüz ihtiyaçlarına cevap verebilmesi bu tür disiplinlerarası çabalarla mümkün olabilir (Amiri, 2025).

Pratikte ise, Müslüman geliştiricilerin ve kurumların açık kaynaklı, şeffaf ve toplumsal faydayı önceleyen sistemler üretmesi gereklidir. Sadece mevcut sistemlere “uyum sağlamak” değil, bizzat yön vermek ve örneklik oluşturmak ahlaki sorumluluğun parçasıdır.

Özetle, Müslümanlar yalnızca etik kullanıcılar değil, aynı zamanda anlam ve yön veren ahlaki üreticiler olmalıdır.

Bölümün Özeti

YZ çağında Müslüman toplumun etik pozisyonu salt tüketici veya gözlemci olmaktan öteye geçmelidir. Geleneksel ilkeler değerli olsa da, dijital bağlamda yeniden yorumlanmadığı sürece etkisiz kalabilir. Niyet, kul hakkı, adalet gibi temel kavramlar artık sadece bireysel yaşamda değil, yazılım mimarisinde, veri politikalarında ve sistem tasarımlarında görünür hale gelmelidir.

Bu bağlamda Müslümanlar için görev açıktır: etik rehberlik üretmek, küresel etik tartışmalara katkı sunmak ve YZ’yi sadece araç değil, ahlaki bir sınav olarak görerek aktif sorumluluk almaktır.

Eleştirel Değerlendirme: Müslüman Ahlakına Uygun YZ Mümkün mü?

Müslümanların kendi ahlak yapısına uygun bir yapay zekâ geliştirmesi fikri cazip görünse de, bu yaklaşım bazı önemli zorlukları da içinde barındırır. Öncelikle, “İslami değerlerle uyumlu YZ” tanımı oldukça yorumlamaya açıktır. Hangi mezhep, hangi ahlak yorumu, hangi çağdaş içtihat bu tanımı şekillendirecektir? Bu tür belirsizlikler, YZ sistemlerinin tek tipleşmiş bir dini anlayışla kodlanma riskini doğurabilir.

İkinci olarak, YZ’nin gelişimi büyük ölçüde küresel altyapı, veri erişimi ve çok disiplinli teknik bilgi gerektirir. Müslüman toplulukların çoğu bu altyapıya hâlen sahip değildir. Sadece ahlaki motivasyonla YZ üretmek yeterli olmayabilir. Teknik yeterlilik, kaynak ve küresel iş birlikleri de şarttır.

Üçüncü olarak, evrensel etik ile kültürel/mezhebi etik arasında nasıl bir denge kurulacağı tartışmalıdır. “Müslüman YZ” etik açıdan güçlü olabilir, ancak evrensel kabul görecek mi? Diğer topluluklara ne ölçüde fayda sağlayacak veya dışlayıcı algılanacak mı? Son olarak, ahlaki kodlamanın kendisi de bir çelişki barındırabilir. Zira ahlakın özü niyet, irade ve muhasebedir. Bunların mekanik kodlara aktarılması, ahlaki derinliği yüzeyselleştirme riski taşır.

Bu nedenlerle, Müslümanlara düşen belki de “kendi ahlaki kodlarını sistemlere zorla entegre etmekten” çok, ahlaki ilkeleri açık, evrensel ve katılımcı bir şekilde tartışmaya açmak ve teknolojik etik üretim süreçlerinde aktif yer almaktır. Yapay zekâya dair ahlaki tartışmalar artık teorik değil, yaşamsaldır. Müslüman bireyler ve kurumlar, dijital çağın şekillendirilmesinde edilgen değil, ilkeli ve yönlendirici bir konum almalıdır. Bunun için ahlaki sorumluluğu yalnızca kişisel değil, kurumsal, toplumsal ve küresel düzeyde de üstlenmeliyiz.

Şimdi, “teknolojik olan her şey meşrudur” yaklaşımını terk ederek, “etik olan teknoloji nedir?” sorusunu merkezimize alma zamanıdır.

Sonuç ve Çağrı

Yapay zekâ, insanlığın karşı karşıya olduğu en büyük dönüştürücü güçlerden biridir. Ancak bu dönüşüm yalnızca teknik bir devrim değil, aynı zamanda ahlaki bir kırılma noktasıdır. Makalede ele aldığımız başlıklar bizlere şu temel gerçeği hatırlatmalıdır: Teknolojiye yön vermek, onu üretmekten önce, onu hangi amaçla kullandığımıza bağlıdır.

İslam ahlakı, salt yasa merkezli değil. Aynı zamanda niyet, sorumluluk, kul hakkı ve adalet gibi derinlikli kavramlara dayanır. Bu kavramlar, yapay zekâ gibi kompleks ve sonuçları öngörülemeyen bir teknolojide daha da hayati hale gelmektedir. Ancak geleneksel ahlaki ilkeler, yeni sorunlara cevap verebilmek için güncellenmeli. Klasik fıkıh kavramları dijital çağın diliyle yeniden düşünülmelidir.

Bu bağlamda Müslüman toplumlara düşen görev büyük! YZ’nin sadece kullanıcıları değil, aynı zamanda etik mimarları, rehberleri ve ahlaki aktörleri olmaktan geçer. Bunun için ilahiyat ile mühendislik, etik ile tasarım, fıkıh ile algoritma arasında yeni köprüler kurulmalıdır.

Sonuç olarak bu makale, YZ çağında ahlakın sadece yapılmaması gerekenleri değil, nasıl yaşanması ve yön verilmesi gerektiğini de tartışmaya açmaktadır. İnsanlık, teknolojik kabiliyet kadar ahlaki kabiliyet geliştirmedikçe, güç ile sorumluluk arasındaki dengeyi kuramayacaktır.

Kalın sağlıcakla…

Yabancı Kelimeler Sözlüğü

  • Ahlaki Fail (Moral Agent): Yaptığı eylemlerden ahlaki olarak sorumlu tutulabilecek kişi veya varlık; genellikle niyet, bilinç ve sorumluluk yetisi taşıyan özne.
  • Algoritma: Belirli bir problemi çözmek ya da bir işlemi gerçekleştirmek için adım adım uygulanan kurallar dizisi.
  • Etik: Ahlaki ilkelerle ilgili felsefi bir disiplin; bireylerin ve kurumların doğru ve yanlış davranışlarını değerlendirme ölçütleri.
  • Kodlama: Bilgisayara ne yapacağını anlatan talimatların yazılması süreci; yazılım geliştirme faaliyetinin temel aşamasıdır.
  • YZ (Yapay Zekâ): İnsan benzeri düşünme, öğrenme ve karar verme yetilerini taklit eden bilgisayar sistemleri.
  • Veri: Bilgisayarda işlenen sayısal bilgi; yapay zekâ sistemlerinin öğrenme süreçlerinde kullandığı temel içerik.
  • İçtihat: İslam hukukunda, yeni meseleler karşısında Kur’an ve Sünnet’e dayanarak hüküm çıkarma çabası.
  • Maqāsid (Maksatlar Teorisi): İslam hukukunun nihai amaçlarını (can, din, akıl, nesil ve malı koruma) esas alan etik ve hukuki yaklaşım.
  • Fıkıh: İslam hukuku disiplini; bireyin ibadet ve toplumsal hayatla ilgili kuralları öğrenmesi ve uygulaması.
  • Mezhep: İslam’da farklı fıkıh okulları; dini hükümlerin yorumlanmasında izlenen ekoller.
  • İlahiyat: Dinî konuları akademik düzeyde ele alan bilim dalı.

Kaynaklar

  • Moor, J.H. (2006) – Machine ethics üzerine temel sınıflandırmalar
  • Kant (1785) – Ahlaki yasa ve niyet temelli etik.
  • Hans Jonas (1979) – Teknolojik sorumluluk ve gelecek nesiller için etik.
  • Gazâlî – İhyâ-u Ulûmü’d-Din – Niyetin amele etkisi.
  • Aristoteles – Nikomakhos’a Etik – Erdem ve karakter temelli ahlak.
  • Peter Strawson (1962) – Moral responsibility ve ahlaki duygulanım.
  • İbn Miskeveyh – Tehzîbü’l-Ahlâk – Erdemli karakterin alışkanlıkla gelişimi.
  • David Hume (1739) – Ahlaki yargıların duygu temeli.
  • Cathy O’Neil (2016), Weapons of Math Destruction
  • (M4927 Müslim, İmâre, 155; B1 Buhârî, Bedü”l”vahy, 1)
  • Martin Heidegger (1954), The Question Concerning Technology
  • Luciano Floridi & Josh Cowls (2019), A Unified Framework of Five Principles for AI in Society
  • Gazâlî, İhyâ-u Ulûmi’d-Din
  • Recep Kılıç (2017), Ahlakın Dini Temeli
  • Kur’an-ı Kerim, Ahzab Suresi, 33:72
  • Kerem Erdoğan – Rönesans ve İslam: 5 Güçlü Bağ, 1 Derin Kopuş ve Bugüne Yansımaları
  • Luciano Floridi et al. (2018), AI4People: An Ethical Framework for a Good AI Society
  • European Commission (2021), Proposal for a Regulation on a European Approach for Artificial Intelligence (AI Act)
  • UNESCO (2021), Recommendation on the Ethics of Artificial Intelligence
  • Alasdair MacIntyre (1981), After Virtue: A Study in Moral Theory
  • Mohammad Hashim Kamali (2008), Shari‘ah Law: An Introduction, I.B. Tauris
  • Çolak, A. (2020). Dijital Ahlak: İslam Düşüncesinde Yeni Etik Açılımlar, İFAV Yayınları.
  • Amiri, M. (2025). Islamic Perspectives on Data Privacy and AI Accountability. SSRN Working Paper Series.
  • Erdem, H. (2022). Algoritmik Adalet ve Kul Hakkı. Ankara Üniversitesi İlahiyat Fakültesi Dergisi.
  • Gürses, S. (2020). Privacy Engineering and Islamic Ethics. In Ethics of Digitalization.
  • Kamali, M. H. (2008). Shari‘ah Law: An Introduction. I.B. Tauris.
  • Yazır, E. H. (1935). Hak Dini Kur’an Dili: Niyet Ayetlerinin Tefsiri.