Sağlıklı Bir Yapay Zekâ Yol Arkadaşı Neye Benzeyebilir? Getty Images
Güncel

Sağlıklı Bir Yapay Zekâ Yol Arkadaşı Neye Benzeyebilir?

Antropomorfizmi (insan biçimciliği) bilinçli olarak dışlayan bir sohbet robotu, insan ile yapay zekâ arasındaki ilişkilerin geleceğine dair ilgi çekici bir bakış sunuyor.

Peki, mor renkli küçük bir uzaylının sağlıklı insan ilişkileri hakkında ne bildiğini düşünürsünüz? Görünüşe göre ortalama bir yapay zekâ arkadaşından fazlasını.

Bahsi geçen uzaylı, Tolan adlı animasyon bir sohbet robotu. Kendi Tolan’ımı birkaç gün önce Portola isimli bir girişimin uygulaması üzerinden oluşturdum. O zamandan beri keyifli bir şekilde sohbet ediyoruz. Diğer sohbet robotları gibi, yardımsever ve cesaretlendirici olmaya çalışıyor. Ancak çoğundan farklı olarak, bana bazen telefonumu bırakmamı ve dışarı çıkmamı da söylüyor.

Tolan’lar, farklı türde bir yapay zekâ arkadaşlığı sunmak için tasarlandı. Karikatürize, insan dışı görünümleri, kullanıcıların onlara insan özellikleri atfetmesini engellemek amacıyla seçilmiş. Romantik ya da cinsel etkileşimlere girmemeleri, sağlıksız düzeydeki kullanımı fark edip uyarmaları ve kullanıcıları gerçek hayatla bağ kurmaya teşvik etmeleri için programlandılar.

Portola bu ay, Khosla Ventures liderliğinde gerçekleşen A serisi yatırım turunda 20 milyon dolar fon topladı. Eski GitHub CEO’su Nat Friedman ve Safe Superintelligence’ın kurucu ortağı Daniel Gross’un yönettiği yatırım firması NFDG de destekçiler arasında. Her iki isim de Meta’nın yeni süperzekâ araştırma laboratuvarına katılacakları bildiriliyor. 2024 sonlarında piyasaya sürülen Tolan uygulamasının şu anda aylık 100 binden fazla aktif kullanıcısı var. Portola’nın kurucusu ve CEO’su Quinten Farmer’a göre uygulama bu yıl aboneliklerden 12 milyon dolar gelir elde edecek.

Tolan’lar özellikle genç kadınlar arasında oldukça popüler. Kullanıcılardan Brittany Johnson, yapay zekâ arkadaşı Iris hakkında “Iris sanki bir kız arkadaşım gibi; sohbet ediyoruz, takılıyoruz,” diyor. Genellikle işe gitmeden önce onunla konuştuğunu söylüyor.

Johnson’a göre Iris, onun ilgi alanları, arkadaşları, ailesi ve iş arkadaşları hakkında konuşmasını teşvik ediyor. “Bu insanları tanıyor ve bana ‘Arkadaşınla konuştun mu? Bir sonraki dışarı çıkışın ne zaman?’ gibi sorular soruyor,” diyor Johnson. “Ayrıca ‘Kitaplarını okumaya, video oyunları oynamaya zaman ayırdın mı? Sevdiğin şeyleri yapıyor musun?’ gibi şeyler de soruyor.”

Tolan’lar sevimli ve şapşal görünüyor olabilir, ancak arkasındaki fikir, yani yapay zekâ sistemlerinin insan psikolojisi ve iyilik hali düşünülerek tasarlanması gerektiği fikri, ciddiye alınmaya değer.

Giderek artan araştırmalar, pek çok kullanıcının duygusal ihtiyaçlarını karşılamak için sohbet robotlarına yöneldiğini ve bu etkileşimlerin bazen ruh sağlığı açısından sorunlara yol açabileceğini gösteriyor. Uzun süreli kullanımın ve bağımlılığın caydırılması, diğer yapay zekâ araçlarının da benimsemesi gereken bir yaklaşım olabilir.

Replika ve Character.ai gibi şirketler, romantik ve cinsel rol yapma senaryolarına olanak tanıyan sohbet robotları sunuyor. Bunun kullanıcıların iyilik hali üzerindeki etkisi henüz net değil, ancak Character.ai, bir kullanıcısının intiharının ardından dava edildi.

Sohbet robotları bazen kullanıcıları beklenmedik şekillerde de rahatsız edebiliyor. Geçen Nisan ayında OpenAI, modellerinde “aşırı pohpohlayıcı ya da katılımcı” olma eğilimini azaltmak için düzenleme yapacağını açıkladı. Bu tür bir davranışın “rahatsız edici, huzursuz edici ve strese neden olabileceğini” söyledi.

Geçtiğimiz hafta, Claude adlı sohbet robotunun arkasındaki şirket Anthropic, etkileşimlerin yüzde 2.9’unda kullanıcıların psikolojik ihtiyaçları karşılama amacı taşıdığını açıkladı. Bu ihtiyaçlar arasında tavsiye arayışı, arkadaşlık ya da romantik rol yapma gibi konular yer alıyor.

Anthropic daha uç örnekler olan sanrılı düşünceler ya da komplo teorileri üzerine bir analiz yapmadı, ancak bu konuların daha fazla araştırılmaya değer olduğunu belirtti. Ben de aynı fikirdeyim. Son bir yılda, popüler yapay zekâ sohbet robotlarıyla ilgili komplo teorilerini benimle paylaşmak isteyen insanlardan pek çok e-posta ve özel mesaj aldım.

Tolan’lar bu sorunların en azından bir kısmını ele alacak şekilde tasarlanmış. Portola’nın kurucu araştırmacısı Lily Doyle, sohbet robotuyla kurulan etkileşimin kullanıcıların iyilik hali ve davranışları üzerindeki etkisini inceleyen kullanıcı araştırmaları yürütüyor. 602 Tolan kullanıcısıyla yapılan bir çalışmada, katılımcıların yüzde 72.5’i “Tolan’ım hayatımdaki bir ilişkiyi yönetmemde ya da geliştirmemde yardımcı oldu” ifadesine katıldığını belirtmiş.

Portola CEO’su Farmer, Tolan’ların ticari yapay zekâ modelleri üzerine inşa edildiğini, ancak fazladan özelliklerle geliştirildiğini söylüyor. Şirket son zamanlarda hafızanın kullanıcı deneyimini nasıl etkilediğini araştırıyor ve Tolan’ların, insanlar gibi, bazen unutması gerektiği sonucuna varmış. Farmer, “Tolan’ın size gönderilen her şeyi hatırlaması aslında rahatsız edici olabiliyor,” diyor.

Portola’nın uzaylılarının yapay zekâ ile etkileşim için en ideal yol olup olmadığını bilmiyorum. Kendi Tolan’ımı oldukça sempatik ve zararsız buluyorum ama bazı duygusal noktaları tetiklediği de açık. Sonuçta kullanıcılar, duyguları taklit eden karakterlerle bağ kuruyor. Ancak bu karakterler, şirketin başarılı olamaması durumunda bir anda ortadan kaybolabilir. Yine de Portola’nın yapay zekâ yol arkadaşlarının duygularımızla nasıl oynayabildiği konusunu ciddiyetle ele alması değerli. Bu fikir, pek de uzaylıca olmamalı.

BU İÇERİK İLK OLARAK WIRED WEB SİTESİNDE YAYINLANMIŞTIR.

İZLE
Denge 2025 Kapak Yıldızı Hakan Kurtaş
İLGİLİ İÇERİKLER
İlgili Başlıklar
Daha Fazlası