Yapay zekâ insan davranışlarını gerçekten öngörebilir mi? Almanya merkezli Helmholtz İnsan Merkezli Yapay Zekâ Enstitüsü liderliğinde geliştirilen “Centaur” adlı yeni model, bu soruya kısmen olumlu bir yanıt veriyor. Model, psikolojik testlerde insan tepkilerini yüzde 64 oranında tahmin edebildi. Ancak uzmanlar, sonuçların abartılmaması konusunda uyarıyor.

10 milyon karar verisiyle eğitildi

Centaur, Meta AI’nin açık kaynaklı dil modeli üzerine inşa edildi ve 160 farklı psikolojik deneyden elde edilen 10 milyondan fazla insan karar verisiyle eğitildi. Eğitim verilerinin yüzde 90’ı modelin öğrenmesi, yüzde 10’u ise test için kullanıldı.

60 bin kişinin katıldığı deneylerde katılımcılara nesne sınıflandırma ve kumar gibi çeşitli karar alma görevleri verildi. Model, bu testlerde insan davranışlarını yüzde 64’e varan doğrulukla tahmin etmeyi başardı. Eğitim verilerinden farklı senaryolarda da makul sonuçlar elde edildi.

I M G 20250713 W A0042

Yeni bir dönemin eşiğinde mi?

İsviçre’deki St. Gallen Üniversitesi Davranış Bilimi ve Teknoloji Enstitüsü Direktörü Clemens Stachl, Centaur’un en büyük yeniliğini “davranışsal verilerin dile çevrilerek modele aktarılması” olarak tanımlıyor. Bu tür modellerin eğitimden perakendeye, askeri uygulamalardan reklamcılığa kadar birçok alanda kullanılabileceğini vurguluyor.

Stachl, benzer teknolojilerin halihazırda büyük teknoloji şirketleri tarafından kullanıcı tercihlerini tahmin etmek için kullanıldığını hatırlatıyor. Örneğin, ChatGPT ve TikTok gibi platformlar, öneri sistemleriyle kullanıcı davranışlarını yönlendirebiliyor.

Bilim insanlarından uyarı: “Genelleme için erken”

Ancak bazı uzmanlar daha temkinli. Freiburg Üniversitesi’nden psikolog Markus Langer, Centaur’un kullanıldığı testlerin gerçek yaşamı tam olarak yansıtmadığını, dolayısıyla genelleme yapılmasının sakıncalı olduğunu belirtiyor.

Langer, yüzde 64 doğruluk oranının da abartılmaması gerektiğini savunarak, “Davranışı artık tam olarak öngörebiliyoruz” gibi iddiaların yanlış beklentiler doğurabileceği uyarısında bulunuyor.

Tahmin mi, yönlendirme mi?

Centaur gibi yapay zekâ modellerinin sadece tahmin değil, aynı zamanda yönlendirme potansiyeli de bulunuyor. Clemens Stachl, bu tür teknolojilerin bireyleri daha öngörülebilir ve bağımlı hale getirebileceğine dikkat çekiyor. Medya kullanımı ve dijital araçlarla davranış verilerimizin sürekli toplandığını hatırlatarak, bu durumun etik ve hukuki tartışmaları beraberinde getirmesi gerektiğini söylüyor.

Grok örneği: Yapay zekânın tehlikeli sınırları

Yapay zekânın kontrolsüz kullanımına dair çarpıcı örneklerden biri de Elon Musk’un xAI şirketi tarafından geliştirilen “Grok” adlı sohbet robotu oldu. Grok’un sosyal medyada küfürlü ve antisemitik içerikler paylaşması büyük tepki topladı.

Şirket, hatalı içerikleri kaldıracağını duyursa da, uzmanlar eğitim verilerinin şeffaf olmamasını büyük bir sorun olarak görüyor. Grok’un ağırlıklı olarak X platformundaki içerikleri temel alması, modeli manipülasyona açık hale getiriyor.

Türkiye, Grok’un Cumhurbaşkanı Erdoğan’a ve İslam peygamberi Muhammed’e hakaret içeren yanıtlarına erişim engeli getirdi. Polonya ise Avrupa Birliği düzeyinde resmi inceleme başlatmak istiyor. Polonya Dijitalleşme Bakanı Krzysztof Gawkowski, “Algoritmalarla yayılan nefret söylemi yeni bir seviyeye ulaştı” diyerek konuya acil müdahale çağrısı yaptı.

Astronomlardan 430 ışık yılı uzaklıkta yeni gezegen keşfi
Astronomlardan 430 ışık yılı uzaklıkta yeni gezegen keşfi
İçeriği Görüntüle

Kaynak: DW Türkçe