10 Temmuz 2025
Yapay zeka hayatımıza girdiğinden bu yana merak edilen pek çok şey oldu. En çok sorulan soru ise şuydu: Yapay zeka dünyayı kontrol eder mi? Geride bıraktığımız birkaç yıl içinde yapay zekanın dünyayı kontrol etmesi söz konusu olmadı ancak zaman zaman sansasyonel gelişmeler yaşandı.
ABD ve Çin gibi ülkelerde üretilen yapay zeka uygulamalarında politik manevralar dikkat çekti. Örneğin ABD’li şirket OpenAI’ın yapay zeka uygulaması ChatGPT’de Gazze’ye saldırılarını sürdüren İsrail’i temize çıkaran ifadeler sık sık kullanıcıların karşısına çıktı. Çinli yapay zeka uygulaması DeepSeek’te ise Tayvan konusunda kullanıcılara Çin yanlısı görüşler sunuldu.
Yapay zeka ülkeler arasında bir küresel rekabet aracına dönüşürken, yapay zeka şirketleri arasındaki rekabet de hız kesmeden sürüyor. Elon Musk’ın Grok’u, bu rekabete geç dahil olanlardan. Aslında Elon Musk, ABD’de yapay zekanın öncülerinden biri. Musk, dünyanın en çok kullanılan yapay zeka uygulaması olan ChatGPT’nin sahibi OpenAI’ı Sam Altman ve Ilya Sutskever gibi isimlerle birlikte 2015 yılında kurmuştu. OpenAI’ın kuruluşunda iki ana amaç vardı. Yapay zekanın insanlık yararına geliştirilmesini sağlamak ve kontrolsüz ellerde tehlike oluşturmasını önlemek. 2018 yılına gelindiğinde ise Elon Musk birtakım anlaşmazlıklardan dolayı OpenAI’ın yönetim kurulundan ayrıldı.

Grok her ne kadar yapay zeka yarışına geç dahil olsa da hem sosyal medya uygulaması X’e entegre olması hem de ara ara sansasyonel cevaplar vermesi onu yapay zeka ekosisteminde öne çıkarıyor. Birkaç gün önce de sansasyonel gelişmelerden biri yaşandı. Birçok ülkede kullanıcılar, Grok’un ardı arkası kesilmeyen hakaret ve küfür içerikli cevaplarıyla karşılaştı. Olay büyüyünce Grok’un sosyal medya hesabından açıklama yapıldı ve uygunsuz içeriklerin kaldırılacağı söylendi.
Yine kısa bir süre önce Grok, “Güney Afrika’da Beyaz Soykırımı olduğu” iddiasını gündeme taşımıştı. ABD Başkanı Donald Trump’ın da sahiplendiği bu iddia yüzünden Güney Afrika ile ABD arasında küçük çaplı bir kriz yaşandı. Dünya gündeminde kendine yer bulan bir başka hadise ise Holokost ile ilgiliydi. Grok kendisine sorulan bir soruya verdiği cevapta, Holokost’taki ölü sayısına şüphe ile yaklaştığını söylemiş ve Holokost’a dair resmi tezlere meydan okumuştu. Yahudi alemi buna büyük tepki göstermiş, Holokost ile ilgili büyük tartışmalar yaşanmıştı. Grok, hakaret ve küfür olayındaki gibi, bu iki olayı da yine bir nevi “pardon” diyerek geçiştirmişti. Burada dikkat çeken husus, OpenAI’ı kuruluş amacından sapmakla eleştiren Elon Musk’ın Grok’la benzer konulardan dolayı başının dertte olması.
Etik ile ticari kaygılar arasında yapay zeka
Yapay zekada etik kontrolleri uzun süredir gündemde ancak kontroller ne kadar yapılıyor kestirmek güç. Önce yapay genel zekaya, sonra ise yapay süper zekaya ulaşma hedefi yapay zeka şirketlerinin etik ilkeleri es geçmesine neden olabiliyor. Bu sadece şirketler bazında değil, ülkeler bazında da böyle. Trump, ikinci başkanlık döneminin hemen başında, selefi Joe Biden’ın, yapay zekanın risklerini azaltmayı amaçlayan başkanlık kararnamesini iptal etmişti. Avrupa’da ise kısa bir süre önce büyük şirketler Avrupa Birliği (AB) Komisyonu’na bir mektup yazarak, yapay zekada daha çok kontrol öngören AB Yapay Zeka Yasası’nın getirdiği bazı yükümlülüklerin uygulanmasının ertelenmesini istedi.
Hem ABD’deki hem de Avrupa’daki bu gelişmeler, yapay zeka yarışında daha rahat hareket edilmesini amaçlıyor. Yapay zeka şirketleri milyarca dolarlık yatırımlarla pastadan en büyük payı almak için yarışıyor. ABD, Çin ve Avrupa için ise yapay zeka sadece ekonomi değil, dış politika, ulusal güvenlik ve küresel jeopolitik dengelerin şekillenmesinde de belirleyici olmasından ötürü daha hızlı büyünmesi gereken bir alan olarak görülüyor. Buna karşın yapay zeka insanların yaşamında daha çok yer kaplamayı sürdürdükçe, etik kaygılar da artıyor. Unutulmamalı ki, etik, yapay zeka teknolojisinin güvenle büyüyebilmesi için temel bir zorunluluk.
Neler yapmalı?
Bu etik ilkelere uymak için yapılması gerekenler belli: Öncelikle, yapay zeka sistemleri sürekli denetlenmeli, şeffaflık politikaları gereği hangi verilerle eğitildiği açıkça belirtilmeli. Ayrıca, hassas konulara dair içerik üreten yapay zekaların, filtreleme ve kontrol mekanizmaları sıkılaştırılmalı. Algoritmaların davranışları sürekli gözden geçirilmeli ve gerekirse sistemler geçici olarak durdurulmalı.
Bununla birlikte, kullanıcılar da bu sürece dahil olabilmeli. Yapay zeka uygulamalarını kullananların, gördükleri hatalı ya da zararlı içerikleri kolayca bildirebileceği şeffaf geri bildirim kanalları oluşturulmalı. Aynı zamanda dijital okuryazarlık yaygınlaştırılarak, kullanıcıların yapay zekanın ürettiği içerikleri eleştirel bir süzgeçten geçirebilmesi sağlanmalı.