Tgrt Haber

Yapay zekâya güvenmeyin! Yalan söylemeyi de öğrendi 

Editör: Suat Vilgen / Kaynak: Patterns
12 May 2024 11:52 - Güncelleme : 12 May 2024 12:21
Yapay zekâya güvenmeyin! Yalan söylemeyi de öğrendi 

ABD'de yapılan bir araştırma, yapay zekâ modellerinin insanları nasıl kandırabileceğini de öğrendiğini belirledi.

Son dönemin en popüler teknolojisi olarak gösterilen yapay zeka​ kendi sınırlarını kendisi belirlemeye başladı bile. Yapay zekânın becerileri arasına insanları kandırmayı da eklediği ortaya çıktı.

ABD'deki yüksek araştırma ve teknoloji okulu Massachusetts Institute Of Technology'de (MIT) hayata geçirilen proje bazı yapay zekâ sistemlerinin "gerçekten başka bir sonucu elde etmek için başkalarında yanlış inanışlar oluşturabildiğini" ortaya koydu.

ÖĞETİM MATERYALLERİNDEN ÖĞRENİYORLAR

Daha doğru bir deyişle yapay zeka kandırmaca ya da aldatmacalı kavramış görünüyor. Söz konusu yapay zekâ modelleri arasında yer alan Meta​'nın Çiçero'su ise  tam bir "yalan uzmanı" çıktı.

Aslında yapay zekâ sistemleri insanlara karşı dürüst olmaları amacıyla geliştiriliyor. Buna karşın insanları kandırmaya yönelik numaraları ise yapay zekâ modelleri kullanılan eğitim materyallerinden öğreniyor. Sonrasında da "insanları kandırmak onları ikna etmekten daha kolay olduğu için" bu yolu seçiyor.

YALAN KOLAY GELİYOR

Yapay zekâya güvenmeyin! Yalan söylemeyi de öğrendi  - 1. Resim

"Yapay Zeka Varoluşsal Güvenliği" alanında başka araştırmalara da imza atan araştırmanın baş yazarı Peter S. Park, "Yapay zekâ kandırmacalarının arttığını düşünüyoruz. Çünkü yapay zekâ yalanın, kendisine  verilen görevi gerçekleştirmeleri için en iyi yol olduğunun farkına vardı belli oldu. Kandırmaca onların amaçlarına ulaşmalarına yardımcı oluyor" dedi.

EN YALANCISI META'NIN CICERO'SU

Patterns'te de yayımlanan, iki aşamalı araştırmada ilk olarak ChatGPT​ gibi genel amaçlı, birinde ise Meta'nın Cicer yapay zekâ modeli gibi özel amaçlı yapay zekâ modelleri incelendi. Cicero , Diplomacy adlı oyunda yalanları, entrikaları ve diğer oyunculara ihanet edebilmesiyle dikkat çekti. GPT-4 ise Captcha testini geçebilmek için "görme bozukluğu olduğu" yalanını söyledi.

Araştırma ekibi, hükümetleri "aldatıcı yapay zekâ modellerine karşı daha sıkı denetim gerçekleştirmeye" çağırdı. 

Kaynak: Patterns

300
UYARI: Küfür, hakaret, bir grup, ırk ya da kişiyi aşağılayan imalar içeren, inançlara saldıran yorumlar onaylanmamaktır. Türkçe imla kurallarına dikkat edilmeyen, büyük harflerle yazılan metinler dikkate alınmamaktadır.
Sonraki Haber Yükleniyor...