S&P 500 ^GSPC 5,304.72 +0.70%
Tesla TSLA $179.24 +3.17%
Meta META $478.22 +2.67%
Nvidia NVDA $1,064.69 +2.57%
Apple AAPL $189.98 +1.66%
Microsoft MSFT $430.16 +0.74%
Alphabet GOOG $176.33 +0.73%
Amazon AMZN $180.75 -0.17%

Uzmanlar yapay zekanın daha fazla geliştirilmesinin durdurulması çağrısında bulunuyor. Onları bunu yapmaya iten nedir?

Halil Toprak
3. 4. 2023
6 min read

Yapay zeka son zamanlarda büyük bir patlama yaşıyor. Herkes bu teknoloji konusunda o kadar heyecanlı ki, gelecekte ortaya çıkabilecek risklerin farkında bile değiller. Yapay zeka uzmanları şu anda alarm veriyor ve şirketlerin çok geç olmadan riskleri ele almaya başlamaları gerektiği konusunda uyarıyor.

"Dev Yapay Zeka Deneylerini Duraklatın: Açık Mektup" başlıklı yeni bir açık mektupta yapay zeka (YZ) uzmanları, bu alanda çalışan şirketlere jeneratif YZ sistemlerinin geliştirilmesini geçici olarak durdurmaları çağrısında bulunuyor. Aralarında Elon Musk, Steve Wozniak, Evan Sharp, Craig Peters ve Yoshua Bengio'nun da bulunduğu 1.000'den fazla kişi tarafından imzalanan mektup, bu gelişmelerin sonuçlarının gelecekteki potansiyel etkilerine ilişkin belirsizliğin altını çiziyor.

Mektupta uzmanlar, yapay zeka teknolojisini güvenli bir şekilde ilerletmek için düzenleyici politikalar ve prosedürler geliştirmek üzere altı aylık bir duraklama öneriyor. Bu duraklama yalnızca OpenAI tarafından geliştirilen jeneratif YZ modeli GPT-4'ten daha güçlü YZ sistemlerinin eğitimi için geçerli olmalıdır. Eğer uzmanların çağrısına kulak verilmezse, mektup hükümetlerin bir moratoryum uygulamasını öneriyor.

Üretken YZ ve ilgili teknolojilerin geliştirilmesine yatırım yapan şirketler arasında Microsoft $MSFT+0.7%, Alphabet $GOOGL+0.8%, Alibaba $BABA+0.6% ve Baidu $BIDU-1.1% gibi devler yer alıyor. Uzmanların mektubu, güvenlik protokolleri ve olumlu etki ve risk yönetilebilirliği güvencesi çağrısında bulunuyor. Mektubun sonucu, şirketlerin durması ve yeni politikalar oluşturması ya da en azından potansiyel etkiler hakkında düşünmesi ve gerekli önlemleri almasıyla sonuçlanabilir.

Potansiyel sorunlar için bir tetikleyici olarak GPT-4

Kısa bir süre önce tanıtılan GPT-4, konuşma, şarkı sözü yazma ve uzun belgeleri özetleme yetenekleriyle kullanıcıları etkiledi. Bu modele verilen tepki, Alphabet Inc. gibi rakiplerin benzer büyük dil modellerinin geliştirilmesini hızlandırmasına yol açtı. Ancak yapay zeka uzmanları, topluma etkilerini ve potansiyel zararlarını daha iyi anlayana kadar gelişimin yavaşlatılması çağrısında bulunuyor.

Başta Musk Vakfı olmak üzere, Londra merkezli Founders Pledge grubu ve Silikon Vadisi Toplum Vakfı tarafından finanse edilen ve kar amacı gütmeyen bir kuruluş olan Yaşamın Geleceği Enstitüsü, açık bir mektup yayınlayarak, güçlü YZ sistemlerinin ancak etkilerinin olumlu olacağından ve risklerinin yönetilebilir olduğundan emin olduğumuzda geliştirilmesi gerektiğini düşünüyor. Kuruluş ayrıca, yapay zeka gelişiminin kamu yararına hizmet etmesini sağlamak için bir düzenleyici kurum çağrısında bulunuyor.

OpenAI'nin kurucu ortağı ve mektuba imza atan uzmanlardan biri olan Elon Musk, yapay zeka gelişimiyle ilgili potansiyel riskler konusundaki uyarılarıyla tanınıyor. Musk, bağımsız uzmanlar tarafından geliştirilen ortak güvenlik protokollerinin oluşturulmasının çok önemli olduğunu söylüyor ve geliştiricileri yönetişim konusunda politika yapıcılarla birlikte çalışmaya çağırıyor.

OpenAI'nin icra direktörü Sam Altman ile Alphabet ve Microsoft'un CEO'ları Sundar Pichai ve Satya Nadella açık mektubu imzalayanlar arasında yer almadı. Bununla birlikte mektup, yapay zekanın geleceği ve oluşturduğu potansiyel riskler hakkında bir tartışma başlatma yolunda önemli bir adımı temsil ediyor.

Mektubun olası sonuçları

Mektuptan çıkabilecek birkaç olası sonuç var. Bunlardan biri, YZ geliştirmeye dahil olan şirketlerin ve araştırma kurumlarının faaliyetlerini geçici olarak durdurmaları ve uygulamalarını yeniden düşünmeleridir. Bu senaryo, uzmanların ve düzenleyicilerin bugüne kadarki gelişmelere bir göz atmasına ve YZ alanında güvenlik ve sürdürülebilirliği sağlamak için gerekli önlemleri almasına olanak tanıyacaktır.

Alternatif olarak, mektup, YZ geliştirme ile ilgili potansiyel riskler ve güvenlik protokolleri ve düzenleyici prosedürler oluşturma ihtiyacı konusunda daha fazla farkındalığa yol açabilir. Bu, şirketlerin toplum üzerinde olumlu bir etkisi olan daha güvenli ve daha etik YZ sistemleri yaratmaya daha fazla odaklanmalarını sağlayacaktır.

Son olarak, mektup hükümetlere ve uluslararası kuruluşlara YZ gelişimi için düzenleyici tedbirler ve moratoryumlar getirmeyi düşünmeleri konusunda ilham verebilir. Bu, YZ gelişiminin toplumun çıkarlarına uygun olarak yürütülmesini ve potansiyel olumsuz etkileri en aza indirecek şekilde yönetilmesini sağlayacaktır.

Açık mektubun sonucu ne olursa olsun, YZ gelişiminin güvenliği ve etiği konusundaki tartışmanın giderek daha acil hale geldiği açıktır. GPT-4 gibi YZ sistemleri günlük yaşamda giderek daha yaygın hale geldikçe, bu teknolojilerin bireylerin mahremiyetinden, güvenliğinden veya çıkarlarından ödün vermeden toplumun iyiliği için nasıl kullanılabileceğine odaklanılması gerekmektedir.

YZ sistemlerinin kamu yararı için nasıl kullanılabileceğini gösteren bir örnek, GPT-4'ün çevre, sağlık veya ekonomik sorunları çözmek için kullanılmasıdır. Öte yandan, teknolojinin yanlış bilgi yaymak, kamuoyunu manipüle etmek veya teknolojiye erişimde eşitsizliği artırmak için kötüye kullanılması gibi olası riskleri göz önünde bulundurmak önemlidir.

"Dev YZ Deneylerini Duraklatın" başlıklı açık mektup, YZ gelişiminin izleyeceği yol üzerinde düşünmeye yönelik bir çağrıdır. Uzmanlar, şirketler ve hükümetler arasında bir fikir birliğine varılıp varılamayacağı hala bir soru işareti. Bununla birlikte, bilim insanlarının, endüstri liderlerinin ve politika yapıcıların, insanlığın yararına olan YZ gelişimini güvence altına almanın ve düzenlemenin yollarını bulmak için birlikte çalışmaya odaklanmaları önemlidir.

UYARI: Ben bir finans danışmanı değilim ve bu materyal bir finans veya yatırım tavsiyesi olarak hizmet etmemektedir. Bu materyalin içeriği tamamen bilgilendirme amaçlıdır.


Pošli článek dál, nebo si ho ulož na později.