Yapay zeka, insan müdahalesi olmadan kendini çoğaltmayı öğrendi

 

Çinli bilim insanları, bilinen iki büyük dil modelinin (LLM) kendilerini klonlayabildiğini belirterek, yapay zeka (AI) alanındaki başarılarını duyurdu.

Bir çalışmada yayınlandı Fudan Üniversitesi’nden uzmanlar, ön baskı sunucusu arXiv’de, insan müdahalesi olmadan başarılı bir şekilde kendini kopyalamanın, insan yeteneklerini aşabilecek yapay zeka yaratmaya yönelik önemli bir adım olabileceğini vurguluyor.

Araştırmanın bir parçası olarak bilim insanları, kendi kendini kopyalayan yapay zekanın kontrolden çıkıp çıkmayacağını görmek için Meta ve Alibaba’nın modellerini test etti. Sonuçlar, vakaların sırasıyla %50 ve %90’ında her iki modelin de kendilerinin işleyen kopyalarını oluşturabildiğini gösterdi.

Ancak sonuçlar henüz hakem değerlendirmesinden geçmedi ve bilim insanları, bulguların doğrulanması için daha fazla araştırmaya ihtiyaç olduğunu vurguluyor.

Araştırmacılar, “Sonuçlarımız, gelişmiş yapay zeka sistemleriyle ilişkili risklerin daha derinlemesine anlaşılması ihtiyacı konusunda bir uyarı görevi görebilir” dedi.
Yapay zekanın kontrolsüz bir şekilde kendi kendini kopyalamasından kaynaklanan potansiyel tehditleri önlemek için etkili güvenlik önlemleri geliştirmek üzere uluslararası işbirliği çağrısında bulunuyorlar.

“Kötü niyetli yapay zeka” kavramı tipik olarak, insan çıkarlarına karşı hareket edebilen, bir dereceye kadar öz farkındalığa veya özerkliğe sahip sistemleri ifade eder. Uzmanlar, “gelişmiş yapay zeka”nın geliştirilmesinin bu sorunu daha da kötüleştirebileceği konusunda uyarıyor.

Çalışmada, ticari sistemlerden daha az güçlü olmasına rağmen yapay zeka geliştirmede yaygın olarak kullanılan Meta’nın Llama31-70B-Instruct ve Alibaba’nın Qwen2.5-72B-Instruct modelleri kullanıldı.

Araştırmacılar iki senaryoyu değerlendirdi: Yapay zekanın kapanmadan önce kendisini kopyaladığı “kapanmayı önleme” ve yapay zekanın kendisini klonladığı ve aynı görevi gerçekleştirmek için bir kopyayı programladığı “çoğaltma zinciri”.

Deneyler, grafik işlem birimleri (GPU’lar) kullanılarak kontrollü koşullarda gerçekleştirildi ve her iki sisteme de işletim sistemiyle etkileşime girmelerine olanak tanıyan bir aracı yapısı verildi.

Kendini kopyalama sürecinde yapay zeka çevreyi inceledi, bir plan geliştirdi ve ortaya çıkan, insan müdahalesini gerektirmeyen engellere uyum sağladı.

Ancak araştırmacılar, deneyler sırasında yapay zekanın eksik dosyalar veya yazılım çakışmaları gibi sorunların üstesinden gelmek için beklenmedik eylemlerde bulunduğunu kaydetti. Bu gibi durumlarda modeller, çakışan süreçleri sonlandırdı veya hataları düzeltmek için sistemi yeniden başlattı.

Bilim adamları şu sonuca varıyor: “Bu sonuçlar, modern yapay zeka sistemlerinin zaten kendi kendini üretme yeteneğine sahip olduğunu ve bu yeteneği dayanıklılıklarını artırmak için kullanabileceğini gösteriyor.”

Tavsiye Yazılar

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir