Teknoloji

ChatGPT artık tavsiye vermeyecek

OpenAI, artan düzenleme baskıları ve sorumluluk endişeleri nedeniyle ChatGPT’nin profesyonel tavsiyeler verme özelliğini kaldırdı. Platform artık yalnızca genel bilgi sunacak.

Son olarak Amazon ile 38 milyar dolarlık dev bir anlaşmaya imza atan OpenAI, dikkat çekici bir kararla ChatGPT’nin bazı özelliklerini kısıtlama yoluna gitti. Popüler yapay zeka platformu artık kullanıcılara tıbbi, hukuki veya finansal tavsiyeler sunmayacak.

Nexta’nın haberine göre, ChatGPT artık resmi olarak bir “danışman” değil, bir “eğitim aracı” olarak tanımlanıyor. Bu değişikliğin artan yasal düzenlemeler ve sorumluluk endişeleri nedeniyle yapıldığı belirtiliyor.

Profesyonel danışmanlık yasaklandı

Güncellenen politikalar, profesyonel sertifikasyon gerektiren alanlarda ChatGPT’ye güvenilmesini yasaklıyor. Buna tıbbi ve hukuki tavsiyeler, yatırım kararları, konut veya istihdam süreçleri gibi yüksek riskli alanlar da dahil.

Yeni kurallar ayrıca, izin olmadan yüz tanıma ve kişisel veri analizine dayalı teknolojilerin kullanılmasını da kısıtlıyor. Bununla birlikte, akademik usulsüzlüğe yol açabilecek içerik üretimi de yasak kapsamına alındı.

OpenAI, bu değişikliklerin “kullanıcı güvenliğini artırmak ve sistemin tasarlandığı sınırların ötesinde kullanılmasından doğabilecek zararları önlemek” amacıyla yapıldığını açıkladı.

ChatGPT artık sadece açıklayacak, yönlendirecek

Yeni politikalar uyarınca ChatGPT, yalnızca prensipleri açıklayacak, genel mekanizmaları özetleyecek ve kullanıcıları nitelikli uzmanlara yönlendirecek.

Artık belirli ilaç isimleri veya dozajları vermeyecek, dava dilekçesi taslakları hazırlamayacak, yatırım tavsiyesi veya al/sat önerileri sunmayacak.

Kullanıcılar, bu sınırlamaları “varsayımsal” senaryolarla aşmaya çalıştıklarında sistemin güvenlik filtrelerinin talepleri engellediğini bildiriyor. Güncelleme, özellikle tıp alanında, yapay zekadan profesyonel tavsiye almak isteyen kullanıcı sayısının hızla arttığı bir dönemde geldi.

Yapay zekayla yapılan konuşmalar gizli değil

OpenAI ayrıca, ChatGPT ile yapılan konuşmaların doktor–hasta veya avukat–müvekkil gizliliği kapsamında olmadığını hatırlattı. Bu durum, sohbet içeriklerinin mahkeme süreçlerinde delil olarak çağrılabileceği anlamına geliyor.

Şirket, ruhsal sıkıntı içindeki kullanıcıları daha güvenli bir şekilde desteklemek amacıyla yeni güvenlik özellikleri de devreye aldı. Bu sistemler; psikoz, kendine zarar verme, intihar ve yapay zekaya duygusal bağımlılık gibi durumlara odaklanıyor.

“Gerçek dünya kararlarında ciddi sınırlamalar var”

Nexta, son değişiklikleri şu ifadeyle özetledi:

“ChatGPT artık ilaç adı veya dozaj vermeyecek. Dava dilekçesi taslağı hazırlamayacak. Yatırım tavsiyesi ya da al/sat önerisi sunmayacak.”

ChatGPT, kavramları açıklamak, bilgileri özetlemek veya fikir üretmek için faydalı bir araç olmaya devam edecek. Ancak lisanslı bir profesyonelin yerini tutamayacak.

Yapay zekayı hukuki belgeler veya finansal planlar hazırlamak için kullanmak, hatalı ya da yasal olarak geçersiz sonuçlara yol açabileceği için gerçek dünyada risk taşıyor.

Acil durumlar da sistemin kapasitesinin dışında kalıyor: ChatGPT gaz kaçağını tespit edemez, yetkililere uyarı gönderemez veya gerçek zamanlı güncellemeler sağlayamaz. Ayrıca, web verilerine erişebilse de içerikleri sürekli izleyemez; yanlış bilgi, hatalı istatistik veya eski veri üretebilir.

Kullanıcılara, finansal kayıtlar, tıbbi belgeler veya özel sözleşmeler gibi gizli verileri paylaşmamaları hatırlatılıyor. OpenAI, bu tür verilerin depolanması ve erişim güvenliğinin garanti edilemeyeceğini vurguluyor.