Yapay Zeka Bizim Sırdaşımız Olabilir mi?
01.08.2025 - 16:36 | Son Güncellenme: 26.08.2025 - 09:44
OpenAI CEO’su Sam Altman’ın “AI sohbetlerinde yasal gizlilik yok” uyarısı ne anlama geliyor?
Yirmi birinci yüzyılın en kapsamlı dijital dönüşümlerinden biri yapay zeka (YZ) teknolojilerindeki ilerlemedir. Özellikle büyük dil modelleri (LLM’ler) temelli sohbet sistemleri, kullanıcıların yalnızca gündelik bilgi gereksinimlerinde değil, aynı zamanda duygusal destek arayışlarında da bir başvuru kanalı haline gelmiş; bu süreç, mahrem kişisel verilerin YZ arayüzleriyle artan temasını teşvik etmiştir. Ancak bu pratik, “sırdaşlık hissi” ile “yasal gizlilik/ayrıcalık” arasında kritik bir ayrımı görünür kılar:
YZ ile gerçekleştirilen kişisel/duygusal sohbetler, doktor–hasta, avukat–müvekkil veya terapist–danışan ilişkilerinde olduğu gibi kanunla tanınmış bir ayrıcalık zırhına otomatik olarak sahip değildir.
Bu nokta, OpenAI CEO’su Sam Altman’ın, kullanıcıların -özellikle gençlerin- ChatGPT’yi bir terapist/yaşam koçu gibi kullanma eğilimini eleştirel biçimde değerlendirirken yaptığı “AI sohbetlerinde yasal gizlilik yok” uyarısında açıkça vurgulanmaktadır. Altman, söz konusu görüşlerini Theo Von’un “This Past Weekend” podcast yayınında dile getirmiştir.
Gözden Kaçmasın
Yapay zekanın günümüzün hukuk sistemiyle nasıl çalıştığına ilişkin bir soruya yanıt verirken Altman, yapay zeka için henüz bir hukuki ya da politik çerçeve oluşturulmamış olmasının sorunlarından birinin, kullanıcı sohbetleri için yasal gizlilik bulunmaması olduğunu söyledi.
“İnsanlar hayatlarındaki en kişisel şeyleri ChatGPT’ye anlatıyor,” dedi Altman.
“İnsanlar -özellikle gençler- onu bir terapist, bir yaşam koçu gibi kullanıyor; ilişki sorunları yaşadıklarında ‘ne yapmalıyım?’ diye soruyorlar. Oysa şu anda bu sorunları bir terapistle, bir avukatla ya da bir doktorla konuşursanız, bunun için bir hukuki ayrıcalık vardır. Doktor-hasta gizliliği, avukat-müvekkil gizliliği vs. söz konusudur. ChatGPT ile konuştuğunuzda bunun nasıl olacağını ise henüz çözebilmiş değiliz.”
Sam Altman’ın görüşlerini dikkate aldığımızda, platformlar her ne kadar gizliliğe özen gösterse de yasal bir zorunluluk (örneğin mahkeme celbi veya saklama emri) doğduğunda, bu içeriklerin talep edilmesi ve belirli koşullarda ibrazı mümkün olabilir.
Altman’a göre bu boşluk “yanlış” ve uzun vadede AI‑danışan gizliliğine benzer bir koruma gerektiriyor. Bu durum, özellikle terapötik amaçlı “dertleşme” kullanımlarında yüksek hassasiyet gerektirir.
Yapay zekanın gizlilik sorunu
Bugün, yapay zekaya ilişkin hukuki alanda çözüm bekleyen çeşitli sorunlarla karşı karşıyayız. Kısa vadede bireysel önlemler ve kurumsal sözleşmeler; orta ve uzun vadede ise “yapay zeka-danışan gizliliği” gibi yeni düzenlemeler şart. Üstelik yalnızca sohbet içerikleri değil, kişisel verilerin paylaşımı sırasında ortaya çıkabilecek sızıntılar da yapay zeka tabanlı uygulamaların güvenliğine ilişkin ayrı bir tartışmayı gündeme getiriyor.
Altman’ın uyarısının pratik anlamına gelirsek, platformlar, sözleşmesel gizlilik politikaları ve teknik kontroller yoluyla veri erişimini sınırlayabilse de, yasal bir talep (örneğin mahkeme celbi veya preservation/saklama emri) karşısında bu sohbetlerin ibrazı gündeme gelebilir. Nitekim The New York Times’ın 2023’te açtığı telif davasının usul seyri içinde, 13 Mayıs 2025 tarihli bir saklama emri OpenAI’ye, tüketici katmanındaki ChatGPT çıktılarının (kullanıcı tarafından silinmiş olanlar dahil) bir sonraki yargısal emre kadar korunması yükümlülüğünü getirmiş; OpenAI ise bu emrin kullanıcı gizliliği taahhütleriyle çeliştiği gerekçesiyle itiraz etmiştir. Bu düzenleme, standart “30 gün sonra kalıcı silme” pratiğinin geçici olarak askıya alınması sonucunu doğurmuş; etkilenme alanı Free/Plus/Pro/Team katmanları iken Enterprise/Edu ve Zero Data Retention (ZDR) kapsamları hariç tutulmuştur.
Yapay zeka kullanıcıları, kişisel veriler, kişisel hassas durumlar, terapi ya da başka tür duygusal destek için yapay zeka uygulamalarına yönelmeden önce iki kez düşünmek isteyebilir. OpenAI CEO’su Sam Altman’a göre, bu tür daha hassas sohbetlerde kullanıcı mahremiyetini nasıl koruyacağı konusunda yapay zeka sektörü henüz bir çözüm bulabilmiş değil; çünkü “doktorunuz” bir yapay zeka olduğunda doktor-hasta gizliliği diye bir şey yok.
“Bunun çok yanlış olduğunu düşünüyorum. Bir terapistle olan konuşmalarınızda olduğu gibi, yapay zeka ile yaptığınız sohbetler için de aynı mahremiyet anlayışına sahip olmalıyız, bundan daha bir yıl önce kimsenin düşünmek zorunda kalmadığı bir konuydu bu” ifadeleriyle görüşlerini pekiştiriyor Altman.
Şirket, mahremiyet eksikliğinin daha geniş kullanıcı benimsenmesi önünde bir engel olabileceğini anlıyor. Yapay zeka eğitimi sırasında çevrimiçi veriye duyulan büyük ihtiyaç bir yana, bazı hukuki bağlamlarda kullanıcı sohbetlerinden de veri isteniyor. Nitekim OpenAI, The New York Times ile sürmekte olan davasında, ChatGPT Enterprise müşterileri hariç olmak üzere dünya genelindeki yüz milyonlarca ChatGPT kullanıcısının sohbetlerini saklamasını gerektiren bir mahkeme kararına karşı mücadele ediyor.
Şirket, web sitesindeki bir açıklamasında bu karara itiraz ettiğini ve bunu “yetki aşımı” olarak nitelendirdiğini belirtti. Mahkemenin OpenAI’nin veri gizliliğine ilişkin kendi kararlarını geçersiz kılması, şirketi daha fazla hukuki keşif ya da kolluk amaçlı veri taleplerine açık hale getirebilir.
Bu tablo, mevzuat–teknoloji uyumsuzluğunu iki düzeyde açığa çıkarır. Birincisi, yasal ayrıcalık kavramı insan profesyoneller üzerinden tanımlanmış olduğundan, genel amaçlı kullanıcı YZ sohbetlerinin bu çerçeveye kendiliğinden girmemesi keşif (discovery) süreçlerinde ifşa riskini artırır. İkincisi, platformların sunduğu veri kontrolleri (örneğin “model eğitimini kapatma” veya “Temporary Chat”) kullanıcı riskini azaltsa da yasal yükümlülüklerin üstünde değildir; yani bu ayarlar yasal ayrıcalık üretmez.
OpenAI’nin yardım sayfaları, Temporary Chat oturumlarının eğitimden muaf tutulduğunu, 30 gün içinde silindiğini; ancak güvenlik ve yasal zorunluluklar nedeniyle belirli koşullarda saklamanın sürebileceğini açıkça belirtir.
Soruna yönelik çözüm önerileri
Bugün, yapay zekanın hukuki boyutlarının çok daha sistematik biçimde tartışılması zorunludur. Özellikle sağlık, eğitim ve psikolojik destek gibi mahrem ve kişisel alanlarda kullanılan yapay zeka tabanlı uygulamalar, kişilerin özel verilerine, bilgilerine, duygularına temas etmekte; bu verilerin gizliliği, ikincil/amaç-dışı kullanımı (ör. model eğitimi ve ürün geliştirme), saklama süreleri, sınır ötesi aktarımı ve yargısal taleplere karşı korunması gibi başlıklarda ciddi hukuki sorunlar doğurmaktadır.
Bu çerçevede,
1- Yapay zeka ile kurulan iletişimin mesleki sır ve yasal ayrıcalık rejimleriyle ilişkisi,
2- Açık rıza, meşru menfaat veya yasal zorunluluk gibi işleme dayanaklarının gerçekten amaçla sınırlılık ve veri minimizasyonu ilkeleriyle uyumu,
3- Retansiyon politikalarının “silme hakkı” ve delil koruma (preservation) yükümlülükleriyle çatışma noktaları,
4- Kurumsal/kurumsal-olmayan kullanım ayrımının ortaya çıkardığı katmanlı gizlilik pratikleri,
5- Çocuklar ve kırılgan gruplar bakımından özen yükümlülüğü ve zararı önleme ilkelerinin nasıl işletileceği öncelikli olarak masaya yatırılmalıdır.
Kısacası, yapay zeka şirketlerinin altyapılarını tahkim etmek için kullanıcı verilerini yeniden kullanma eğilimi ile bireylerin mahremiyet, özerklik ve adil işlenme hakları arasındaki gerilim, yalnızca etik bir mesele değil; açık ve uygulanabilir hukuki standartlar, denetim mekanizmaları ve hesap verebilirlik rejimleri gerektiren yapısal bir sorundur.
Son söz olarak: ChatGPT ve benzeri yapay zeka uygulamalarında yaptığımız kişisel görüşmelerin, sorularımızın ve arayışlarımızın günün sonunda ifşa olma riskinin farkında mıyız? Yapay zeka sırdaşımız olabilir mi? Bugün gördüğümüz kadarıyla asla olamaz!