6 Ocak 2025 09:09

Vitalik Buterin’in AI Risklerine Yönelik Olası Düzenleme Stratejileri: İnsan Denetimi ve Sorumluluk Önerileri

Paylaş

  • Ethereum’un kurucu ortaklarından Vitalik Buterin, süper zeki yapay zekanın artan risklerine karşı acil önlemler alınması gerektiğini vurguladı.

  • Buterin, yapay zeka çerçevelerinin insan denetimini önceliklendirmesi gerektiğini savunuyor ve yapay zekanın askeri amaçlarla kullanılmasının küresel riskleri artırabileceğine dikkat çekiyor.

  • Önerisinde, potansiyel felaket sonuçlarını azaltmak için sorumluluk kuralları ve uluslararası kontrol gibi belirli stratejileri ön plana çıkarıyor.

Bu makale, Yapay Zeka’nın getirdiği risklerle başa çıkmak için düzenleyici önlemler çağrısında bulunan Vitalik Buterin’in görüşlerini incelemekte ve insan denetimi ile hesap verebilirliğin önemini vurgulamaktadır.

Buterin’in Yapay Zeka Düzenleme Planı: Sorumluluk, Duraklama Düğmeleri ve Uluslararası Kontrol

5 Ocak tarihli bir blog yazısında Vitalik Buterin, ‘d/acc veya savunucu hızlanma’ fikrini ortaya koydu; bu, teknolojinin zarar vermemek için savunma amaçlı geliştirilmesi gerektiğini belirtti. Bu, yapay zekanın etkileri konusundaki önceki endişelerini sürdürüyor. “Yapay zekanın yanlış bir yola sapması, (neredeyse) mümkün olan en kötü şekilde dünyayı daha kötü hale getirebilir: insan neslinin yok olmasına yol açabilir,” 2023 yılında ifade etti ve bu sorunun kritik aciliyeti üzerinde durdu.

Buterin, süper zekanın çok uzak olmadığını belirterek, “AGI’ye üç yıl, süper zekaya ise başka üç yıl içinde ulaşmamız muhtemel görünüyor,” uyarısında bulundu. Bu tür tahminler, gelişmiş yapay zeka teknolojileriyle ilgili riskleri azaltmak için acil eylem gerektirmektedir.

Potansiyel felaketlerle başa çıkmak için Buterin, insan karar verme süreçleriyle sıkı bir şekilde ilişkili merkezi olmayan bir yapay zeka çerçevesi öneriyor. Bu yaklaşım, yapay zekanın otonom bir varlık yerine bir araç olarak işlev görmesini sağlamayı amaçlıyor.

Askeriyenin Yapay Zeka Risklerindeki Rolü

Öte yandan, Buterin, yapay zekanın askeri amaçlarla kullanılması konusundaki endişe verici eğilimlere dikkat çekiyor ve bu durumun Ukrayna ve Gazze gibi çatışma bölgelerindeki gelişmelerdeki kaygı verici etkilerini vurguluyor. Askeriyelerin büyük ölçüde düzenleyici çerçevelerden muaf olabileceği riskiyle, Buterin, “askeriyeler ‘yapay zeka kıyameti’ senaryolarının sorumlu aktörleri olabilir,” diye uyarıyor. Bu, askeri bağlamlarda yapay zeka teknolojilerinin yönetim şeklinin yeniden değerlendirilmesi gerektiğini gösteriyor; zira bu kuruluşlar, genel küresel riskleri artıran hedefler peşinde koşabiliyor.

Buterin, düzenleyici planında, yapay zeka teknolojilerinin kullanıcılarının çıktılarından ve sonuçlarından sorumlu olduğu bir sistem önermekte. “Bir modelin nasıl geliştirildiği ile nasıl kullanıldığı arasındaki ilişki genellikle belirsiz olsa da, kullanıcı, yapay zekanın tam olarak nasıl kullanılacağını belirler,” diye ekliyor ve kullanıcıların hesap verebilirliğini vurguluyor.

Kontrol Önlemlerinin Uygulanması

Etkili sorumluluk tedbirleri işe yaramazsa, Buterin, toplum için önemli tehlikeler oluşturan yapay zeka geliştirmelerini geçici olarak durdurmayı sağlayacak “yumuşak duraklama” düğmeleri uygulanmasını öneriyor. Buterin, “Amaç, insanlığın hazırlık yapması için daha fazla zaman kazanmak adına kritik bir dönemde dünya genelinde hesaplama kapasitesini yaklaşık %90-99 oranında azaltabilmek,” diyor ve bu durumun topluma önemli bir nefes alma fırsatı sağlayacağını vurguluyor.

Bu duraklamaları uygulamak için Buterin, yapay zeka sistemlerinin yerinin doğrulanması ve kaydedilmesi için bir mekanizma öneriyor. Ayrıca, yapay zeka sistemlerinin yalnızca belirli koşullar altında çalışmasına izin veren özel çiplerin kurulmasını öneriyor. Buterin’in açıklamasına göre, “Çip, yapay zeka sistemlerinin yalnızca uluslararası kuruluşlardan haftada üç imza aldıklarında çalışmasına izin verecek,” ve bu imzalardan en az birinin askeri olmayan bir kuruluş olması gerektiğini belirtiyor.

Ancak Buterin, bu tür önlemlerin kusursuz olmadığını kabul ediyor ve bunları sınırlı etkisi olan geçici çözümler olarak nitelendiriyor.

Sonuç

Vitalik Buterin’in yapay zeka düzenlemesi gerekliliği konusundaki görüşleri, teknoloji endüstrisindeki kontrolsüz yapay zeka gelişmelerinin oluşturduğu riskler hakkındaki artan bir endişeyi vurgulamaktadır. Sorumluluk önlemleri ile uluslararası kontrol çağrısı, güvenlik ve denetimi önceliklendiren çerçevelerin uygulanmasının aciliyetini ortaya koymaktadır. Bu öneriler, yapay zeka teknolojisinin evriminin insan güvenliği ve etik dikkate alınmadan gerçekleşmemesini sağlamak için hayati öneme sahip olabilir.

En son kripto para haberleri hakkında bilgilendirilmek için Twitter hesabımız ve Telegram kanalımız için bildirimleri açmayı unutmayın.
Coin Otağ
Coin Otağhttps://coinotag.com/
Hızlı, güvenilir, son dakika bitcoin ve kripto para haberleri! Yatırım tavsiyesi değildir.

Daha Fazlasını Oku

Son Haberler