-
Ethereum’un kurucu ortaklarından Vitalik Buterin, süper zeki yapay zekanın artan risklerine karşı acil önlemler alınması gerektiğini vurguladı.
-
Buterin, yapay zeka çerçevelerinin insan denetimini önceliklendirmesi gerektiğini savunuyor ve yapay zekanın askeri amaçlarla kullanılmasının küresel riskleri artırabileceğine dikkat çekiyor.
-
Önerisinde, potansiyel felaket sonuçlarını azaltmak için sorumluluk kuralları ve uluslararası kontrol gibi belirli stratejileri ön plana çıkarıyor.
Bu makale, Yapay Zeka’nın getirdiği risklerle başa çıkmak için düzenleyici önlemler çağrısında bulunan Vitalik Buterin’in görüşlerini incelemekte ve insan denetimi ile hesap verebilirliğin önemini vurgulamaktadır.
Buterin’in Yapay Zeka Düzenleme Planı: Sorumluluk, Duraklama Düğmeleri ve Uluslararası Kontrol
5 Ocak tarihli bir blog yazısında Vitalik Buterin, ‘d/acc veya savunucu hızlanma’ fikrini ortaya koydu; bu, teknolojinin zarar vermemek için savunma amaçlı geliştirilmesi gerektiğini belirtti. Bu, yapay zekanın etkileri konusundaki önceki endişelerini sürdürüyor. “Yapay zekanın yanlış bir yola sapması, (neredeyse) mümkün olan en kötü şekilde dünyayı daha kötü hale getirebilir: insan neslinin yok olmasına yol açabilir,” 2023 yılında ifade etti ve bu sorunun kritik aciliyeti üzerinde durdu.
Buterin, süper zekanın çok uzak olmadığını belirterek, “AGI’ye üç yıl, süper zekaya ise başka üç yıl içinde ulaşmamız muhtemel görünüyor,” uyarısında bulundu. Bu tür tahminler, gelişmiş yapay zeka teknolojileriyle ilgili riskleri azaltmak için acil eylem gerektirmektedir.
Potansiyel felaketlerle başa çıkmak için Buterin, insan karar verme süreçleriyle sıkı bir şekilde ilişkili merkezi olmayan bir yapay zeka çerçevesi öneriyor. Bu yaklaşım, yapay zekanın otonom bir varlık yerine bir araç olarak işlev görmesini sağlamayı amaçlıyor.
Askeriyenin Yapay Zeka Risklerindeki Rolü
Öte yandan, Buterin, yapay zekanın askeri amaçlarla kullanılması konusundaki endişe verici eğilimlere dikkat çekiyor ve bu durumun Ukrayna ve Gazze gibi çatışma bölgelerindeki gelişmelerdeki kaygı verici etkilerini vurguluyor. Askeriyelerin büyük ölçüde düzenleyici çerçevelerden muaf olabileceği riskiyle, Buterin, “askeriyeler ‘yapay zeka kıyameti’ senaryolarının sorumlu aktörleri olabilir,” diye uyarıyor. Bu, askeri bağlamlarda yapay zeka teknolojilerinin yönetim şeklinin yeniden değerlendirilmesi gerektiğini gösteriyor; zira bu kuruluşlar, genel küresel riskleri artıran hedefler peşinde koşabiliyor.
Buterin, düzenleyici planında, yapay zeka teknolojilerinin kullanıcılarının çıktılarından ve sonuçlarından sorumlu olduğu bir sistem önermekte. “Bir modelin nasıl geliştirildiği ile nasıl kullanıldığı arasındaki ilişki genellikle belirsiz olsa da, kullanıcı, yapay zekanın tam olarak nasıl kullanılacağını belirler,” diye ekliyor ve kullanıcıların hesap verebilirliğini vurguluyor.
Kontrol Önlemlerinin Uygulanması
Etkili sorumluluk tedbirleri işe yaramazsa, Buterin, toplum için önemli tehlikeler oluşturan yapay zeka geliştirmelerini geçici olarak durdurmayı sağlayacak “yumuşak duraklama” düğmeleri uygulanmasını öneriyor. Buterin, “Amaç, insanlığın hazırlık yapması için daha fazla zaman kazanmak adına kritik bir dönemde dünya genelinde hesaplama kapasitesini yaklaşık %90-99 oranında azaltabilmek,” diyor ve bu durumun topluma önemli bir nefes alma fırsatı sağlayacağını vurguluyor.
Bu duraklamaları uygulamak için Buterin, yapay zeka sistemlerinin yerinin doğrulanması ve kaydedilmesi için bir mekanizma öneriyor. Ayrıca, yapay zeka sistemlerinin yalnızca belirli koşullar altında çalışmasına izin veren özel çiplerin kurulmasını öneriyor. Buterin’in açıklamasına göre, “Çip, yapay zeka sistemlerinin yalnızca uluslararası kuruluşlardan haftada üç imza aldıklarında çalışmasına izin verecek,” ve bu imzalardan en az birinin askeri olmayan bir kuruluş olması gerektiğini belirtiyor.
Ancak Buterin, bu tür önlemlerin kusursuz olmadığını kabul ediyor ve bunları sınırlı etkisi olan geçici çözümler olarak nitelendiriyor.
Sonuç
Vitalik Buterin’in yapay zeka düzenlemesi gerekliliği konusundaki görüşleri, teknoloji endüstrisindeki kontrolsüz yapay zeka gelişmelerinin oluşturduğu riskler hakkındaki artan bir endişeyi vurgulamaktadır. Sorumluluk önlemleri ile uluslararası kontrol çağrısı, güvenlik ve denetimi önceliklendiren çerçevelerin uygulanmasının aciliyetini ortaya koymaktadır. Bu öneriler, yapay zeka teknolojisinin evriminin insan güvenliği ve etik dikkate alınmadan gerçekleşmemesini sağlamak için hayati öneme sahip olabilir.