Yapay zeka’dan uyuyan ajan hamlesi!

Gelişen teknoloji sistemleri ve uzman kişilerin katkısıyla, hayatımızın en merkezi noktasına yapay zeka’nın giriş yaptığını söylemek yanlış olmayacaktır. Uzmanların, insana özgü davranışlarını yapay zeka’ya eklemeye devam ediyor. Yapılan son çalışma yapay zeka’nın insanları kandırmak için yalan söylemeyi öğrenip öğrenemeyeceğine dair test çalışmalarına başlandı. Detaylar haberimizde…

16.01.2024-11:18 - (Son Güncelleme: 16.01.2024-18:03)

Yakından tanıdığımız, Claude YZ sistemi veya OpenAI'nin ChatGPT'si gibi insanlarla sohbet edebilecek seviyeye ulaşan yapay zeka sistemleri, kullanıcıları yanıltmaya yönelik karşısındakini manipüle edebilecek, kandırabilecek düzeye ulaşıp ulaşamayacağına yönelik testlere başladı.

Yalan konuşan yapay zekayı eski haline döndürmek imkansız!

Anthropic'teki araştırmacılardan, ileri seviyeye ulaşmış yapay zeka modelleri, hem kullanıcıları hem de diğer yapay zekaları kandırmak üzere eğitilebileceği gibi bir durumun oluşabileceğini ifade ettiler. Independent'e göre; son zamanlarda karşımıza çokça çıkan sohbet botlarının, yalan söyleyerek aldatıcı davranışlarda bulunabileceklerini ve botlar tarafından öğrenilmiş bu davranış şekli şu an ellerinde bulunan mevcut yapay zeka güvenlik önlemleriyle durumun eski yalan kullanmadığı haline dönüşemeyeceğini kaydettiler.

Yapay zeka’nın uyuyan ajanı’nı uyandırdılar!

Yapay zeka

Dev teknoloji şirketi olan Amazon'un finansal destek verdiği hipotez aşamasında olan çalışmayı test etmek amacıyla "uyuyan ajan" adıyla bir sistem kurdu ve bir yapay zeka asistanını belirli komutlar verildiğinde zararlı bilgisayar kodu yazacak veya tetikleyici kelime duyduğunda kötü niyetli cevapları içeren bir yazılım inşa edildi. Şu anda yapay zeka için kullanılan güvenlik kurallarının yeterli olmayacağını yapay zeka tehlikelerini içeren "yanıltıcı bir güvenlik duygusu" olduğunun hatırlatmasında ve uyarısında bulundu. Yapılan bu çalışma sonlandırıldı"Uyuyan ajanlar: Güvenlik eğitimi boyunca devam eden aldatıcı geniş dil modellerinin (LLM) eğitimi" (Sleeper agents: Training deceptive LLMs that persist through safety training) başlıklı çalışma da "Yanıltıcı eğitim modellerinin backdoor tetikleyicilerini daha iyi tanımayı öğretebileceğini ve güvensiz davranışı etkili bir şekilde gizleyebileceğini bulduk. Sonuçlarımız, modelin aldatıcı davranış sergilediğinde, standart tekniklerin böyle bir aldatmacayı ortadan kaldırmada başarısız olabileceğini ve yanıltıcı bir güvenlik izlenimi yaratabileceğini öne sürüyor’’ bilgisi teknoloji severlerle paylaştı.

Yapay zeka

Geçen sene Kasım ayında Birleşik Krallık, ChatGPT'nin piyasaya sürülmeden önce ortaya çıkan risklerini ne şekilde azaltabileceğine yönelik ‘Yapay Zeka Güvenlik Zirvesi’ gerçekleştirilmişti.


YORUM YAZ..

En Çok Okunanlar

Modal