Devrimden Önce Ban Killer Robotları, Stephen Hawking & Elon Musk Say

{h1}

Elon musk ve stephen hawking, otonom silahların insanlığa karşı oluşturdukları tehdit nedeniyle yasaklanması gerektiğini savunuyorlar.

Birçok bilim adamı uyarıda, yapay zeka tabanlı otonom silahlar yapmak için küresel bir silahlanma yarışması, bu tür silahların gelişimini yasaklayamazsa, neredeyse kesin olarak gerçekleşir.

Milyarder girişimci Elon Musk, fizikçi Stephen Hawking ve diğer teknik armatürler, Birleşmiş Milletler'in insanlara “hiçbir anlamlı kontrole sahip olmadıkları” silah yasağını desteklemediği sürece, yapay zeka (AI) teknolojisinin küresel bir silahlanma yarışına başlamanın tehlikelerine karşı açık bir mektup uyarısı imzaladılar. bitmiştir."

Hayatın Geleceği örgütü tarafından düzenlenen mektup, Buenos Aires, Arjantin'deki Uluslararası Yapay Zeka Konferansı'nda (27 Temmuz) bugün sunulmakta. [Süper-Akıllı Makineler: 7 Robotik Vadeli İşlemler]

"Bugün insanlığın temel sorusu, küresel bir AI silahlanma yarışına mı başlanacağını mı yoksa başlamasını engellemeye mi gerekeceğini gösteriyor. Eğer büyük bir askeri güç, AI silah geliştirmeyle ilerliyorsa, küresel bir silahlanma yarışı neredeyse kaçınılmazdır ve bu teknolojik yörüngenin son noktasıdır. açık: otonom silahlar yarının Kalaşnikofları olacak, "mektup otomatik silahlara atıfta bulunuyor.

İmzacıların söylediği riskler, nükleer silahların yarattığı risklerden çok daha büyük olabilir.

Makinelerin Yükselişi

Kendi kendine giden arabalardan seks botlarına kadar, insanlığın temel görevlerinin giderek daha fazlası robotlar tarafından ele geçiriliyor. Makinelerin kaçınılmaz yürüyüşü, geleceğin hem ütopik hem de kıyamet vizyonlarını teşvik etti. İnsanlığı tehdit eden Rogue AI, “The Matrix” ve “2001: A Space Odyssey” gibi bilim kurgu filmlerinde öne çıkmıştır.

Ancak giderek artan bu korkular sadece gümüş ekranda oynanmıyor. Aslında, yapay zeka araştırmacıları, alandaki yeniliklerin nasıl geliştirildiğine dair kaygılarını dile getirdiler. Otonom AI silahları ile - örneğin bir yüz tanıma algoritması kullanarak insanları arayabilen ve öldürebilen drone uçakları gibi - teknoloji yıllarca burada olabilir, mektubun yazarları tartışıyor.

Drone savaşçıları savaş zayiatlarını sınırlayabilirken, bu özerk botlar, ilk olarak çatışmaların başlatılması için eşiği de düşürebiliyordu.

Buna ek olarak, bu tür otomatik silahlar Dünya üzerinde neredeyse her askeri gücün elinde olabilir, çünkü AI tabanlı öldürme makineleri maliyetli veya zor alınacak malzemeler gerektirmez. Bilim adamları, suikastçılar, teröristler ve diğer kötü aktörlerin onları karaborsada satın alabilmeleri ve hararetli amaçlar uğruna kullanabilmelerinden çok önce olmazdı.

Mektupta, "Özerk silahlar, suikastlar, istikrarı bozan uluslar, halkları bastırmak ve belirli bir etnik grubu seçici olarak öldürmek gibi görevler için idealdir. Bu nedenle askeri bir AI silahlanma ırkının insanlık için yararlı olamayacağına inanıyoruz."

Bu, bilim ve teknoloji armatürlerinin AI'nin tehlikelerine karşı ilk kez uyardığı değil. 2014 yılında Hawking, tam yapay zekanın gelişiminin insan ırkının sona erdiğini söyledi. Hem Hawking hem de Musk, AI organizasyonunun AI sistemlerinin “istediklerini yapacaklarını” garanti etmediği sürece, AI'nın büyük tehlikeler taşıdığını belirten Ocak ayında aynı kuruluş tarafından bir mektup imzaladı.

Tia Ghose'i takip et heyecan ve Google+. Takip et Canlı Bilim @wordssidekick, Facebook & Google+. Hakkında orijinal makale Canlı Bilim.


Video Takviyesi: Military robots and the future of war | P.W. Singer.




TR.WordsSideKick.com
Her Hakkı Saklıdır!
Herhangi Bir Malzemenin Çoğaltılabilir Sadece Siteye Aktif Linki Prostanovkoy TR.WordsSideKick.com

© 2005–2019 TR.WordsSideKick.com