AI’ya karşı garip itiraz: “Yok olma riskiyle karşı karşıyayız.” Ancak şirketler bunları geliştirmeye devam ediyor

Suzan

New member
Tek bir cümle, ancak yirmi kelime, bir kez daha yinelemek için yapay zekanın hızlı gelişimi için endişe: “AI’ların oluşturduğu yok olma riskini azaltmak, salgın hastalıklar ve nükleer savaş gibi diğer riskleri azaltmakla birlikte küresel bir öncelik olmalıdır.”

Bu Yapay Zeka Güvenliği Merkezi tarafından çevrimiçi olarak yayınlanan itirazkar amacı gütmeyen bir kuruluştur ve (şu anda) bilim adamları, matematikçiler, yapay zeka alanındaki araştırmacılar ve girişimciler dahil olmak üzere yaklaşık 350 kişi tarafından imzalanmıştır.


Yapay zeka

Sundar Pichai ve Bard’ın AB’de yokluğu: “Yakında orada olacağız, ancak tüm kurallara saygı duymak istiyoruz”



muhabirimiz Emanuele Capone tarafından

12 Mayıs 2023


Nesli tükenme riskine dördüncü itiraz


ile biten belge, başında alıntılanan kısa cümle, bu yeni teknolojinin potansiyel riskleri hakkında bir dizi uyarının yalnızca en sonuncusu ve nispeten kısa bir süre içinde insan ırkının yok olma riskinden bahseden dördüncü. Önceden Stephen Hawking vardıDaha sonra yazar Eliezer YudkowskyTime’da “zekası insanlarınkini aşan bir yapay zeka geliştirmenin en olası sonucu, Dünya’daki herkesin öleceğidir” diye yazan ve daha yakın zamanda bilim adamı Geoffrey Hinton“Yapay zekanın yarattığı tehlikeler hakkında özgürce konuşabilmek” için Google’dan ayrılmaya karar veren.

New York Times’ın temasa geçtiği, Yapay Zeka Güvenliği Merkezi Başkanı Dan Hendrycks“verimli tartışmalar yapmadan önce neyin tehlikede olduğu konusunda farkındalığı yaymamız gerektiğini” ve mektubu tek bir cümleyle sınırlama seçiminin “risklerin orantılı tekliflere ihtiyaç duyacak kadar ciddi olduğunu göstermek” için yararlı olacağını açıkladı.

Solun ne yaptığını bilmeyen sağ el mi?


Temyizin kendisinden ziyade (belki de olması gerektiği gibi) haberi haber yapan şey her şeyden önce imza atanların isimleri: aralarında Hinton’un kendisi ve ayrıca Yoshua BengioYapay zeka konusundaki çalışmaları nedeniyle Turing Ödülü kazanan 3 araştırmacıdan ikisi (üçüncüsü Meta için çalışan ve şu anda imzasız olan Yann LeCun), OpenAI’nin şu anki CEO’su Sam Altman, Google’ın CEO’su Demis Hassabis var. DeepMind ve ayrıca İtalyan Amerikalı Anthropic’in CEO’su Dario Amodei (burada şirketinin geçmişi).

Yok Elon MuskGeçen Mart ayında da benzer bir dilekçeyi imzalamış olan, ancak artık imzalamadığı muhtemelen karşı imzaladığı şeyi yapmaya karar verdiği için. Ve aslında haber olması gereken de şu: Yapay zekanın neden olduğu potansiyel riskleri azaltmak için imza atanların bu arada bu riskleri artırmak için çalışıyor olmaları.

bu Altman vakasıChatGPT’nin babası olarak kabul edilir (annesi muhtemelen onu yapmak için ona para yağdıran Microsoft’tur), semboliktir:


  • Mart ayı başlarında, şirketine yatırım yapan bir açık mektup yayınladı. Güçlü bir AI geliştirmeye yardımcı olma görevi bilim camiasının bahsettiği risklerin ana kaynağı olan (duyarlı bir yapay zeka, basitleştirici);


  • Mart sonunda, Musk ve diğerleri ile birlikte, aynı Strong AI’nın geliştirilmesiyle ilişkili risklere karşı itirazı imzaladı 3 hafta önce bahsettiği;


  • 18 Mayıs’ta Birleşik Devletler Kongresi’nden önce, “AI için kurallara ihtiyacımız var” diye hatırlattıçünkü “Toplumun ciddi zarar görmesinden korkuyorum”;


  • 24 Mayıs’ta, Avrupa’da umduğu aynı kuralların çok katı olması durumunda, OpenAI AB’den temelli ayrılabilir;


  • ancak o zaman, birkaç gün sonra, bir tanesini dünyaya sunmak için Yöntemler ve stratejiler üzerine tartışmayı (ücret karşılığında) teşvik etme girişimi AI’lara uygulanacak.
Araştırma

Yapay zekaya göre güzellik nedir?



kaydeden Francesco Marino

27 Mayıs 2023


AI gelişimi ile ilişkili riskler


Popüler bir deyişi alıntılayacak olursak, kulağa biraz Altman (ve Musk ve diğerleri) ile “sol el sağın ne yaptığını bilmiyor” hikayesi gibi geliyor. bir yandan endişelendiğini söylüyor ama bir yandan da kendi işiyle o endişeleri artırmaktan başka bir işe yaramıyor.

Bu bir eleştiri değil, bir gerçek: Bu son çağrıyı imzalayanların çoğu bilim adamları, araştırmacılar, geliştiriciler, ancak aynı zamanda girişimciler, çalışanlar ve CEO’lardır. Ve eğer bir yandan temkinli olmak isterlerse (ya da özellikle Avrupalı ve Amerikalı düzenleyicilerin gözünde temkinli görünmek isterlerse), diğer yandan da temkinli davranmak isterler. mükemmel kendi alanlarında, vurmak rakipler zamanında ve aynı zamanda para kazanmak bir sürü para. Bu onların işi, bu çok normal.

Sorun, İtalyan Teknolojisi hakkında sık sık yazdığımız gibi, bu özel alanda acelecilik ve kâr yarışı diğerlerinden daha tehlikeli olabilir., çünkü (birçok kişinin iddia ettiği gibi) bir kez yanlış olduğunda geri dönmek neredeyse imkansızdır. Bir kez amaçlanan, önyargılarla dolu veya yanlış şekilde eğitilmiş Güçlü bir AI yarattı, nükleer cephaneliğin anahtarları verildi (bu bilim kurgu değil, ABD her zaman bir Atom silahlarının kullanımı için insan müdahalesi), bir şehirde veya bir eyalette polis teşkilatını kim yönetir, kime iş verilip kime verilmeyeceğine kim karar verir, bir kazadan sonra kime tedavi edilip edilmeyeceğine vb.

Çünkü AI’yı korkutmaya başlayan şey bu: İnsanlığa karşı bir savaş başlattıkları için değil. sonlandırıcılar veya matrisama ne toplumumuzun temellerini tamir edilemeyecek şekilde baltalayın, yapabilenler ile yapamayanlar, başaranlar ile geride kalanlar, ilk gelenler ile diğerleri arasındaki uçurumu daha da genişletiyor. Bizi yok olmaya götürüyor.

@capoema