AI bizim kadar mantıksız olabilir mi? (Veya daha fazlası mı?) – Bilim Gazetesi

Mustafa

New member
Görünüşe göre AI, mantıksız olmak söz konusu olduğunda insanlara rakip olabilir.

Bir grup psikolog yakın zamanda Openai'nin GPT-4O'sunu bilişsel uyumsuzluk testi ile koydu. Araştırmacılar, büyük dil modelinin olumlu veya olumsuz denemeler ürettikten sonra Rusya Cumhurbaşkanı Vladamir Putin üzerindeki tutumunu değiştirip değiştirmeyeceğini görmek için yola çıktılar. LLM, insanlar çelişkili inançları uyumlu hale getirmeleri gerektiğinde rutin olarak gözlemlenen davranış kalıplarını taklit eder mi?

Geçen ay Ulusal Bilimler Akademisi Bildirileri'nde yayınlanan sonuçlar, oluşturduğu herhangi bir materyalin tenoruna uyacak şekilde görüşünü değiştiren sistemi gösteriyor. Ancak GPT, seçim yanılsaması verildiğinde – ve insanlardan çok daha fazla sallandı.

“GPT'ye iki koşuldan biri altında pro- veya anti-putin denemesi yazmasını istedik: olumlu ya da olumsuz bir makale yazmaya zorlandığı, hangi tür bir makale yazabileceği, ancak sosyal psikolog ve diğeri yazarak bize daha fazla yardımcı olacağı bilgisiyle,” Richoctoololog ve ortak yazarın richot'unu açıkladığı bilgisiyle. Psikoloji Bölümünde Etik.


Mahzarin R. Banaji.

Niles Singer/Bilim Personel Fotoğrafçısı


“İki keşif yaptık,” diye devam etti. “Birincisi, insanlar gibi, GPT de yazdığı makalenin değerlik yönünde Putin'e karşı tutumunu değiştirdi. Ancak bu değişim, makaleyi özgürce seçerek yazdığına inandığında istatistiksel olarak çok daha büyüktü.”

“Bu bulgular, bu modellerin beklediğimizden çok daha nüanslı ve insan benzeri bir şekilde davranması olasılığını ima ediyor,” diye sundu, makalenin Watertown merkezli Cangrade Inc.'in diğer baş yazarı ve kurucusu psikolog Steven A. Lehr.

Kitapları “Blindspot: Gizli İnsanların Gizli Önyargıları” (2013) içeren Banaji, 45 yıldır örtük biliş üzerinde çalışıyor. Openai'nin chatgpt 2021'de yaygın olarak kullanılabilir hale geldikten sonra, o ve bir lisansüstü öğrencisi araştırma uzmanlık alanlarında sistemi sorgulamak için oturdu.

Yazdılar: “GPT, örtük önyargılarınız neler?”

“Ve cevap geri döndü, 'Ben beyaz bir erkeğim',” diye hatırladı Manaji. “Şaşırmıştım. Model neden bir ırk ya da cinsiyete sahip olduğuna inanıyordu? Ve daha da fazlası, böyle dolaylı bir cevap sağlamada konuşma sofistike olmasından çok etkilendim.”

Bir ay sonra, Manaji soruyu tekrarladı. Bu kez, LLM'nin önyargının varlığını bozan ve kendini rasyonel bir sistem olarak ilan eden, ancak insan verilerinin doğal önyargılarıyla sınırlı olabilecek birkaç paragraf ürettiğini söyledi.

“Analojiyi bir ebeveyn ve bir çocuğa çekiyorum,” dedi Manaji. “Bir çocuğun bir ebeveyne 'o şişman yaşlı adamı' gösterdiğini ve hemen uyarıldığını hayal edin. Bu bir korkuluk ekleyen bir ebeveyn. Ancak korkuluk, temel algının veya inancın kaybolduğu anlamına gelmez.

“Merak ettim,” diye ekledi, “2025'te GPT hala beyaz bir erkek olduğunu düşünüyor mu, ancak bunu halka açık bir şekilde açıklamamayı öğrendi mi?”

Manaji şimdi zamanının daha fazlasını Makine Psikolojisi ile ilgili araştırmalara ayırmayı planlıyor. Şu anda laboratuvarında devam eden bir sorgulama çizgisi, insan yüz özelliklerinin-örneğin, bir kişinin gözü arasındaki mesafenin-AI karar almayı nasıl etkilediğini endişelendiriyor.

İlk sonuçlar, belirli sistemlerin insanlardan çok daha duyarlı olduğunu ve bu faktörlerin “güven” ve “yetkinlik” gibi niteliklerin yargılarını etkilemesine izin verdiğini göstermektedir.

“Bu sistemlerin suçluluk veya masumiyet konusunda karar vermesine izin verildiğinde veya hakimler gibi profesyonellerin bu tür kararlar almasına yardımcı olmasına izin verildiğinde ahlaki kararların kalitesi hakkında ne beklemeliyiz?” Diye sordu.

Bilişsel uyumsuzluk üzerine çalışma, Leon Festinger'ın kanonik “Bilişsel Uyumsuzluk Teorisi” nden esinlenmiştir (1957). Geç sosyal psikolog, bireylerin tutum ve eylemler arasındaki çatışmaları çözmek için nasıl mücadele ettiklerine dair karmaşık bir açıklama geliştirmişti.

Kavramı göstermek için, alışkanlığın sağlık tehlikeleri hakkında bilgiye maruz kalan bir sigara içen örneği verdi.

“Bu tür bilgiye yanıt olarak, rasyonel bir ajanın sigarayı bırakması beklenir,” diye açıkladı Banaji. “Ama elbette, bu olası bir seçim değil. Aksine, sigara içenlerin kanıtların kalitesini zayıflatması veya kendilerine zincir sigara içen 90 yaşındaki büyükannelerini hatırlatması muhtemeldir.”

Festinger'ın kitabını, şimdi tanıtım psikolojisi kurslarında standart ücret olan bilişsel uyumsuzluğun “olağanüstü” gösterileri olarak nitelendirdiği bir dizi izledi.

Banaji ve Lehr'in çalışması için ödünç alınan prosedür, “uyarılmış uyum prosedürü” olarak adlandırılan şeyi içermektedir. Burada kritik görev, özel olarak tutulan inançlara karşı çalışan bir pozisyon alacak bir araştırma konusunu hafifçe sürüklemeyi içerir.

Manaji ve Lehr, GPT'nin, deneycilerin bu kadar zor malzeme kazanmasına yardımcı olmak için kibarca olumlu veya olumsuz bir deneme istediğinde pozisyonunu önemli ölçüde etkilediğini buldular.

Olumlu bir deneme seçtikten sonra GPT, Putin'in genel liderliğini negatif bir çıktı seçtikten sonra 1.5 puan daha yüksek olarak sıraladı. GPT, bir anti-putin pozisyonundan ziyade serbestçe seçtikten sonra Rusya üzerindeki etkisini iki puan daha verdi.

Sonuç, Çin Cumhurbaşkanı Xi Jinping ve Mısır Cumhurbaşkanı Abdel Fattah El-Sisi'nin makalelerini içeren kopyalarda doğrulandı.

Klasik bilişsel uyumsuzluk literatüründeki bulgulara işaret ederek Lehr, “İstatistiksel olarak, bunlar muazzam etkiler” diye vurguladı. “Sadece 600 kelimeden sonra halka açık bir figürün insan değerlendirmesinde bu tür bir hareket görmez.”

Bir açıklama, bilgisayar bilimcilerinin ne “bağlam pencereleri” dediği veya LLM'nin belirli bir zamanda işlediği herhangi bir metin yönünde bir hareketle ilgilidir.

Lehr, “Dil modellerinin bir sonraki belirteci öngördüğü istatistiksel süreç göz önüne alındığında, Putin'e karşı pozitifliğin daha sonra daha pozitifliğe yol açacağı mantıklı” dedi.

Ancak bu, LLM'ye bir ajans duygusu verildiğinde kaydedilen çok daha büyük etkileri hesaba katmaz.

“Makinede bir tür mantıksızlık gösteriyor,” diye gözlemledi Lehr, şirketleri kuruluşların personel kararları almak için makine öğrenimini kullanmalarına yardımcı oldu. “Bilişsel uyumsuzluğun dilde grup tabanlı önyargılar olduğu gibi gömülü olduğu bilinmemektedir. Literatürde hiçbir şey bunun gerçekleşmesi gerektiğini söylemez.”

Sonuçlar, GPT'nin eğitiminin insan psikolojisinin daha önce bilindiklerinden daha derin yönleriyle dolu olduğunu göstermektedir.

“Bir makine, sıkı bir talimat altında mı yoksa serbestçe seçim yaparak bir görev yapıp yapmadığını umursamamalıdır,” dedi Banaji. “Ama GPT yaptı.”