Insanlık, Doomdan Kaçınmak Için Tehlikeli Bir Maddeyi 'Atanmalı' Olmalı, Uzman

{h1}

İnsanlar, muhtemelen tehlikeli yapay zekânın sıkışıp kalmasını engelleyen sanal bir hapishane kurarak “kıyamet günü” nden vazgeçebilirdi.

Süper akıllı bilgisayarlar veya robotlar, insanlığın varlığını bilim kurguda bir kereden fazla tehdit etti. Bu tür kıyamet senaryoları, eğer insanlar, tehlikeli bir şekilde kendi kendine farkında olduklarından önce yapay zeka içerecek sanal bir hapishane yaratabilirlerse önlenebilirdi.

Kentucky'deki Louisville Üniversitesi'nde bir bilgisayar bilimcisi olan Roman Yampolskiy, atasözü şişesinde tutulan yapay zeka (AI) geninin, insanlığın sorunlarını çözen güçlü bir kehanete dönüştürülebileceğini söyledi. Ancak başarılı bir denetim, dikkatli bir planlamayı gerektirir, böylece akıllı bir Yapay Zeka, özgürlüğe giden yolu tehdit edemez, rüşvetemez, baştan çıkaramaz ya da başaramaz.

Yampolskiy, "Yeni saldırı yollarını keşfedebilir, sofistike sosyal mühendislik saldırılarını başlatabilir ve mevcut donanım bileşenlerini öngörülemeyen şekillerde yeniden kullanabilir" dedi. "Böyle bir yazılım, bilgisayarları ve ağları enfekte etmekle sınırlı değildir - aynı zamanda insan ruhuna saldırabilir, rüşvet verebilir, şantaj yapabilir ve onunla temas edenleri beyin yıkayabilir."

Yampolskiy, AI hapishane sorununu çözmeyi amaçlayan yeni bir araştırma alanının siber güvenlik ve kriptografiyi iyileştirmek için yan faydalara sahip olabileceğini öne sürdü. Teklifi, Bilinç Araştırmaları Dergisi'nin Mart sayısında ayrıntılı olarak açıklandı.

2009 filminden bir katil robot

2009 filmi "Terminator Salvation" dan bir katil robot - tam olarak görmek istemediğimiz geleceğin türü.

Kredi: Warner Bros

Skynet nasıl tuzaklanır

Bir başlangıç ​​çözümü, AI'yı bir bilgisayarın tipik işletim sistemi içinde çalışan bir "sanal makine" içine sıkıştırabilir; bu, AI'nın kendi ana bilgisayarının yazılım ve donanımına erişimini sınırlandırarak güvenliği ekleyen mevcut bir süreçtir. Bu, akıllı bir yapay zekanın, bir bilgisayarın soğutma fanlarını manipüle ederek insan sempatizanlarına gizli Mors kod mesajları göndermesi gibi şeyler yapmasını engeller.

AI'yi İnternet erişimi olmayan bir bilgisayara koymak, herhangi bir "Skynet" programının "Terminatör" filmleri tarzında dünya savunma ızgaralarını ele geçirmesini de engelleyecektir. Her şey başarısız olursa, araştırmacılar AI'nın "düşünme" sini bilgisayar işlem hızlarını azaltarak her zaman yavaşlatabilir, düzenli olarak "sıfırla" düğmesine basabilir veya bir AI'yi kontrol altında tutmak için bilgisayarın güç kaynağını kapattırabilir.

Bu tür güvenlik önlemleri, AI'yı özellikle akıllı ve tehlikeli bir bilgisayar virüsü ya da kötü amaçlı yazılım programı olarak ele alır, ancak herhangi bir adımın gerçekten işe yarayacağını kesin olarak bilmeden.

Yampolskiy, InnovationNewsDaily'ye şunları söyledi: “Catch-22, tam olarak süper-süpistelligent AI geliştirene kadar, fikirlerimizi tam olarak test edemiyoruz, ancak bu AI'yı güvenli bir şekilde geliştirmek için çalışan güvenlik önlemlerine ihtiyacımız var” dedi. "En iyi şansımız, insanüstü AI sistemlerine karşı hapsetme önlemlerini kullanmak ve bunları AI'nın artan kapasiteleriyle gerektiği şekilde güncellemektir."

Bilgisayar bilimcisi Roman Yampolskiy bir

Bilgisayar bilimcisi Roman Yampolskiy, tehlikeli bir yapay zekayı belirtmek için biohazarad'ın "@" versiyonunu veya radyasyon uyarı işaretlerini kullanmayı önerdi.

Kredi: Jeremy Hsu TechMediaNetwork

Makineyi korumak için asla insan göndermeyin

Bir insan muhafızı ile gündelik konuşma bile bir AI'nın arkadaşlık veya şantaj gibi psikolojik hileler kullanmasına izin verebilir. AI, bir insanı mükemmel sağlık, ölümsüzlükle ödüllendirmek ya da hatta ölü aileyi ve arkadaşlarını geri getirmeyi teklif edebilir. Alternatif olarak, "kaçınılmaz olarak" kaçtığında insan için korkunç şeyler yapmakla tehdit edebilir.

Yampolskiy, iletişim için en güvenli yaklaşımın, sadece belirli bilim veya teknoloji problemlerini çözmek için AI'nın çoktan seçmeli bir şekilde yanıt vermesine izin verebileceğini açıkladı. Bu, AI'nın gücünü süper-akıllı bir kehanet olarak kullanacaktır.

Tüm güvenlik önlemlerine rağmen, birçok araştırmacı zeki bir yapay zekanın sonsuza dek kilitli kalmasının imkânsız olduğunu düşünüyor. Singularity Yapay Zeka Enstitüsü'nde araştırma görevlisi olan Eliezer Yudkowsky'nin geçmişte yaptığı bir deney, Yampolskiy, testin en çok yapılmadığına işaret etse bile, insan zekasının bir “AI Kutusu” senaryosundan kaçabileceğini ileri sürdü. bilimsel yol

Yine de Yampolskiy, yeni makine uzmanlarımızı serbest bırakmak için fareyi şişirmek yerine AI'yı şişirmek için güçlü bir şekilde tartışıyor. Fakat eğer AI, insanın bilimsel anlayışının ötesine geçtiği, önbiliş (geleceğin bilgisi), telepati ya da psikokinezi gibi güçlerin dağıtıldığı noktaya ulaşırsa, tüm bahisler kapalıdır.

Yampolskiy, "Böyle bir yazılım, insan düzeyindeki istihbaratın çok ötesinde seviyelere kendini geliştirmeyi başarırsa, yapabileceği zarar türü, öngörme veya tam olarak kavrama yeteneğimizin gerçekten ötesindedir." Dedi.

Bu hikaye, WordsSideKick.com'a bir kardeş sitesi olan InnovationNewsDaily tarafından sağlandı. InnovationNewsDaily Kıdemli Yazar Jeremy Hsu'ı Twitter'da takip edebilirsiniz.ScienceHsu. InnovationNewsDaily'i Twitter'da takip edin @News_Innovationya da Facebook'ta.


Video Takviyesi: .




TR.WordsSideKick.com
Her Hakkı Saklıdır!
Herhangi Bir Malzemenin Çoğaltılabilir Sadece Siteye Aktif Linki Prostanovkoy TR.WordsSideKick.com

© 2005–2019 TR.WordsSideKick.com