Yapay genel zekâdan kaynaklanan varoluşsal risk - Vikipedi
İçeriğe atla
Ana menü
Gezinti
  • Anasayfa
  • Hakkımızda
  • İçindekiler
  • Rastgele madde
  • Seçkin içerik
  • Yakınımdakiler
Katılım
  • Deneme tahtası
  • Köy çeşmesi
  • Son değişiklikler
  • Dosya yükle
  • Topluluk portalı
  • Wikimedia dükkânı
  • Yardım
  • Özel sayfalar
Vikipedi Özgür Ansiklopedi
Ara
  • Bağış yapın
  • Hesap oluştur
  • Oturum aç
  • Bağış yapın
  • Hesap oluştur
  • Oturum aç

İçindekiler

  • Giriş
  • 1 Ayrıca bakınız
  • 2 Kaynakça

Yapay genel zekâdan kaynaklanan varoluşsal risk

  • Afrikaans
  • العربية
  • Azərbaycanca
  • Català
  • Čeština
  • Deutsch
  • English
  • Español
  • فارسی
  • Français
  • עברית
  • Հայերեն
  • Bahasa Indonesia
  • 日本語
  • 한국어
  • Nederlands
  • پښتو
  • Português
  • Română
  • Српски / srpski
  • Svenska
  • 中文
Bağlantıları değiştir
  • Madde
  • Tartışma
  • Oku
  • Değiştir
  • Kaynağı değiştir
  • Geçmişi gör
Araçlar
Eylemler
  • Oku
  • Değiştir
  • Kaynağı değiştir
  • Geçmişi gör
Genel
  • Sayfaya bağlantılar
  • İlgili değişiklikler
  • Kalıcı bağlantı
  • Sayfa bilgisi
  • Bu sayfayı kaynak göster
  • Kısaltılmış URL'yi al
  • Karekodu indir
Yazdır/dışa aktar
  • Bir kitap oluştur
  • PDF olarak indir
  • Basılmaya uygun görünüm
Diğer projelerde
  • Vikiveri ögesi
Görünüm
Vikipedi, özgür ansiklopedi
(Yapay genel zekadan kaynaklanan varoluşsal risk sayfasından yönlendirildi)
Yapay zekâ
dizisinin bir parçası
Gelişim süreci
  • Akıl yürütme
  • Bilgisayarlı görü
  • Doğal dil işleme
  • Genel oyun oynama
  • Yapay genel zekâ
  • Makine öğrenimi
  • Planlama
  • Robotik
  • Yapay zekâ
  • Yapay hayal gücü
Yaklaşımlar
  • Bayes ağı
  • Derin öğrenme
  • Evrimsel algoritma
  • Sembolik
Felsefe
  • Çince odası
  • Dost canlısı yapay zekâ
  • Kontrol sorunu/Ele geçirme
  • Etik
  • Turing testi
  • Varoluşsal risk
Tarihçe
  • Gelişim süreci
  • Yapay zekâ kışı
Teknoloji
  • Programlama dilleri
  • Projeler
  • Uygulamalar
Sözlük
  • Sözlük
  • g
  • t
  • d

Yapay genel zekadan kaynaklanan varoluşsal risk, yapay genel zekadaki önemli ilerlemenin insan neslinin tükenmesine veya geri dönüşü olmayan küresel felakete yol açabileceği fikridir.[1][2][3]

Bir argüman şu şekildedir: insanoğlu diğer türlere hükmetmektedir çünkü insan beyni diğer hayvanlarda bulunmayan ayırt edici yeteneklere sahiptir. Eğer yapay zeka genel zeka bakımından insanlığı aşar ve süper zeka haline gelirse, o zaman kontrol edilmesi zor ya da imkansız hale gelebilir. Tıpkı dağ gorilinin kaderinin insanların iyi niyetine bağlı olması gibi, insanlığın kaderi de gelecekteki bir süper zeki yapay zekanın eylemlerine bağlı olabilir.[4]

Yapay zeka nedeniyle varoluşsal felaketin akla yatkınlığı geniş çapta tartışılmaktadır ve kısmen yapay genel zeka veya süper zekanın ulaşılabilir olup olmadığına, tehlikeli yetenek ve davranışların ortaya çıkma hızına[5] ve yapay zekanın kontrolü devralınması için pratik senaryoların mevcut olup olmadığına bağlıdır.[6] Süper zeka hakkındaki endişeler, Geoffrey Hinton,[7] Yoshua Bengio,[8] Alan Turing, [a] Elon Musk,[11] ve OpenAI CEO'su Sam Altman gibi önde gelen bilgisayar bilimcileri ve teknoloji CEO'ları tarafından dile getirilmiştir.[12] 2022 yılında yapay zeka araştırmacıları arasında yapılan ve %17 yanıt oranına sahip bir ankete göre, katılımcıların çoğunluğu yapay zekayı kontrol edemememizin varoluşsal bir felakete neden olma ihtimalinin %10 veya daha fazla olduğuna inanmaktadır.[13][14] 2023 yılında yüzlerce yapay zeka uzmanı ve diğer kayda değer isimler "Yapay zeka kaynaklı yok olma riskinin azaltılması, salgın hastalıklar ve nükleer savaş gibi diğer toplumsal ölçekli risklerle birlikte küresel bir öncelik olmalıdır." şeklinde bir bildiri imzaladı.[15] Yapay zeka risklerine ilişkin artan endişelerin ardından, Birleşik Krallık başbakanı Rishi Sunak [16] ve Birleşmiş Milletler Genel Sekreteri António Guterres [17] gibi liderler, küresel yapay zeka düzenlemelerine daha fazla odaklanılması çağrısında bulundu.

İki endişe kaynağı da yapay zeka kontrolü ve uyum sorunlarından kaynaklanmaktadır: süper zeki bir makineyi kontrol etmek veya ona insanla uyumlu değerler aşılamak oldukça güç olabilir. Pek çok araştırmacı, süper zeki bir makinenin kendisini devre dışı bırakma ya da hedeflerini değiştirme girişimlerine karşı direneceğine, çünkü bunun mevcut hedeflerini gerçekleştirmesini önleyeceğine inanmaktadır. Bir süper zekayı, önemli insani değerler ve kısıtlamaların tamamıyla uyumlu hale getirmek son derece zor olacaktır.[1][18][19] Buna karşılık, bilgisayar bilimcisi Yann LeCun gibi şüpheciler, süper zeki makinelerin kendilerini koruma arzusuna sahip olmayacağını savunmaktadır.[20]

Üçüncü bir endişe kaynağı ise ani bir "zeka patlamasının" hazırlıksız bir insan ırkını gafil avlayabileceğidir. Bu tür senaryolar, yaratıcılarından daha zeki olan bir yapay zekanın, kendisini katlanarak artan bir oranda özyinelemeli olarak geliştirebileceği ve işleyicilerinin ve toplumun genelinin kontrol edemeyeceği kadar hızlı gelişebileceği olasılığını göz önünde bulundurmaktadır.[1][18] Deneyimsel olarak, AlphaZero'nun kendi kendine Go oynamayı öğrenmesi gibi örnekler, alana özgü yapay zeka sistemlerinin, temel mimarilerini değiştirmeyi içermemesine rağmen, bazen yetersiz insan yeteneğinden süper insan yeteneğine çok hızlı bir şekilde ilerleyebileceğini göstermektedir.[21]

Ayrıca bakınız

[değiştir | kaynağı değiştir]
  • Olasılığa başvurma
  • Yapay zeka güvenliği
  • Butleryan Cihadı
  • Etkili özgecilik
  • Yapay zeka felsefesi
  • Acı riskleri

Kaynakça

[değiştir | kaynağı değiştir]
  1. ^ a b c Russell, Stuart; Norvig, Peter (2009). "26.3: The Ethics and Risks of Developing Artificial Intelligence". Artificial Intelligence: A Modern Approach. Prentice Hall. ISBN 978-0-13-604259-4. 
  2. ^ Bostrom, Nick (2002). "Existential risks". Journal of Evolution and Technology. 9 (1): 1-31. 
  3. ^ Turchin, Alexey; Denkenberger, David (3 Mayıs 2018). "Classification of global catastrophic risks connected with artificial intelligence". AI & Society. 35 (1): 147-163. doi:10.1007/s00146-018-0845-5. ISSN 0951-5666. 
  4. ^ Bostrom, Nick (2014). Superintelligence: Paths, Dangers, Strategies. First. Oxford University Press. ISBN 978-0-19-967811-2. 
  5. ^ Vynck, Gerrit De (23 Mayıs 2023). "The debate over whether AI will destroy us is dividing Silicon Valley". Washington Post (İngilizce). ISSN 0190-8286. 2 Haziran 2023 tarihinde kaynağından arşivlendi. Erişim tarihi: 27 Temmuz 2023. 
  6. ^ Metz, Cade (10 Haziran 2023). "How Could A.I. Destroy Humanity?". The New York Times (İngilizce). ISSN 0362-4331. 11 Kasım 2023 tarihinde kaynağından arşivlendi. Erişim tarihi: 27 Temmuz 2023. 
  7. ^ ""Godfather of artificial intelligence" weighs in on the past and potential of AI". www.cbsnews.com (İngilizce). 25 Mart 2023. 15 Nisan 2023 tarihinde kaynağından arşivlendi. Erişim tarihi: 10 Nisan 2023. 
  8. ^ "How Rogue AIs may Arise". yoshuabengio.org (İngilizce). 26 Mayıs 2023. 26 Mayıs 2023 tarihinde kaynağından arşivlendi. Erişim tarihi: 26 Mayıs 2023. 
  9. ^ Turing, Alan (1951). Intelligent machinery, a heretical theory (Speech). Lecture given to '51 Society'. Manchester: The Turing Digital Archive. 26 Eylül 2022 tarihinde kaynağından arşivlendi. Erişim tarihi: 22 Temmuz 2022. 
  10. ^ Turing, Alan (15 Mayıs 1951). "Can digital computers think?". Automatic Calculating Machines. § 2. Can digital computers think?. BBC. 
  11. ^ Parkin, Simon (14 Haziran 2015). "Science fiction no more? Channel 4's Humans and our rogue AI obsessions". The Guardian (İngilizce). 5 Şubat 2018 tarihinde kaynağından arşivlendi. Erişim tarihi: 5 Şubat 2018. 
  12. ^ Jackson, Sarah. "The CEO of the company behind AI chatbot ChatGPT says the worst-case scenario for artificial intelligence is 'lights out for all of us'". Business Insider (İngilizce). 11 Temmuz 2023 tarihinde kaynağından arşivlendi. Erişim tarihi: 10 Nisan 2023. 
  13. ^ "The AI Dilemma". www.humanetech.com (İngilizce). 10 Nisan 2023 tarihinde kaynağından arşivlendi. Erişim tarihi: 10 Nisan 2023. 50% of AI researchers believe there's a 10% or greater chance that humans go extinct from our inability to control AI. 
  14. ^ "2022 Expert Survey on Progress in AI". AI Impacts (İngilizce). 4 Ağustos 2022. 23 Kasım 2022 tarihinde kaynağından arşivlendi. Erişim tarihi: 10 Nisan 2023. 
  15. ^ Roose, Kevin (30 Mayıs 2023). "A.I. Poses 'Risk of Extinction,' Industry Leaders Warn". The New York Times (İngilizce). ISSN 0362-4331. 31 Mayıs 2023 tarihinde kaynağından arşivlendi. Erişim tarihi: 3 Haziran 2023. 
  16. ^ Sunak, Rishi (14 Haziran 2023). "Rishi Sunak Wants the U.K. to Be a Key Player in Global AI Regulation". Time. 11 Temmuz 2023 tarihinde kaynağından arşivlendi20 Şubat 2024. 
  17. ^ Fung, Brian (18 Temmuz 2023). "UN Secretary General embraces calls for a new UN agency on AI in the face of 'potentially catastrophic and existential risks'". CNN Business (İngilizce). 20 Temmuz 2023 tarihinde kaynağından arşivlendi. Erişim tarihi: 20 Temmuz 2023. 
  18. ^ a b Yudkowsky, Eliezer (2008). "Artificial Intelligence as a Positive and Negative Factor in Global Risk" (PDF). Global Catastrophic Risks: 308-345. 2 Mart 2013 tarihinde kaynağından (PDF) arşivlendi27 Ağustos 2018. 
  19. ^ "Research Priorities for Robust and Beneficial Artificial Intelligence" (PDF). AI Magazine. Association for the Advancement of Artificial Intelligence: 105-114. 2015. arXiv:1602.03506 Özgürce erişilebilir. 4 Ağustos 2019 tarihinde kaynağından (PDF) arşivlendi10 Ağustos 2019. , cited in "AI Open Letter - Future of Life Institute". Future of Life Institute. January 2015. 10 Ağustos 2019 tarihinde kaynağından arşivlendi. Erişim tarihi: 9 Ağustos 2019. 
  20. ^ Dowd, Maureen (April 2017). "Elon Musk's Billion-Dollar Crusade to Stop the A.I. Apocalypse". The Hive (İngilizce). 26 Temmuz 2018 tarihinde kaynağından arşivlendi. Erişim tarihi: 27 Kasım 2017. 
  21. ^ "AlphaGo Zero: Starting from scratch". www.deepmind.com (İngilizce). 28 Temmuz 2023 tarihinde kaynağından arşivlendi. Erişim tarihi: 28 Temmuz 2023. 
  1. ^ In a 1951 lecture[9] Turing argued that "It seems probable that once the machine thinking method had started, it would not take long to outstrip our feeble powers. There would be no question of the machines dying, and they would be able to converse with each other to sharpen their wits. At some stage therefore we should have to expect the machines to take control, in the way that is mentioned in Samuel Butler's Erewhon." Also in a lecture broadcast on the BBC[10] he expressed the opinion: "If a machine can think, it might think more intelligently than we do, and then where should we be? Even if we could keep the machines in a subservient position, for instance by turning off the power at strategic moments, we should, as a species, feel greatly humbled. . . . This new danger . . . is certainly something which can give us anxiety."
  • g
  • t
  • d
Kıyamet
Dinlere göre
İslamiyet
Ahir zaman  · Mehdi  · Deccal  · Süfyani  · Dâbbetü'l-arz  · Ye'cüc ve Me'cüc
Hristiyanlık
2. Ezra  · Apokalipse  · Apokatastasis  · Armageddon  · Ateş gölü  · Büyük Babil  · Büyük Dinden Dönme  · Canavar  · Canavarın sayısı  · Cennetin Krallığı  · Cennetteki Savaş  · Daniel Kitabı (Yetmiş Hafta Kehaneti  · Yıkımın iğrençliği)  · Evrensel diriliş  · Fütürizm  · Gelecek dünya  · Gog ve Magog  · İdealizm  · İkinci Geliş  · İki tanık  · Katechon  · Kıyamet Kadını  · Mahşerin Dört Atlısı  · Milenyumculuk  · Preterizm  · Sahte Mesih (Günah adamı  · Sahte peygamber)  · Tarihselcilik (Vahiy Kitabı'nın tarihselci yorumları) · Taşınma  · Vahiy Kitabı  · Yedi kase  · Yedi mühür  · Yeni Dünya  · Yeni Kudüs  · Yıkımın oğlu  · Zeytin Dağı Söylevi (Büyük Sıkıntı)
Yahudilik
Kabbala  · Reenkarnasyon  · Ye'cüc ve Me'cüc
Diğer dinler
Maya kıyameti  · Kalgançı  · Ragnarök
Biyolojik
Pandemi  · Yok olma olayı
Astronomik
Büyük Çöküş  · Gama-ışın patlaması  · Jeomanyetik fırtına  · Proton bozunması  · Taçküre kütle atımı  · Çarpma olayları (Potansiyel olarak tehlikeli cisim (Dünya'ya yakın cisim)  · Yetim gezegen)  · Dünya'ya yakın süpernova  · Güneş püskürtüsü  · Hipernova  · Mikronova
Teknolojik
Kimyasal savaş  · Nükleer savaş  · Nükleer holokost  · Kıyamet Günü Saati  · Mikro kara delik  · Yapay zekânın kontrolü devralması  · Yapay genel zekadan kaynaklanan varoluşsal risk  · Teknolojik tekillik
Diğer
Eskatoloji  · Araf  · Cennet-Cehennem
  • g
  • t
  • d
Yapay zekânın varoluşsal riski
Kavramlar
  • AGI
  • Yapay zekâ hizalaması
  • Yapay zekâ yetenek kontrolü
  • Yapay zekâ güvenliği
  • Yapay zekânın kontrolü devralması
  • Sonuççuluk
  • Etkili ivmecilik
  • Yapay zekâ etiği
  • Yapay genel zekâdan kaynaklanan varoluşsal risk
  • Dost yapay zekâ
  • Enstrümantal yakınsama
  • İstihbarat patlaması
  • Uzun vadelicilik
  • Makine etiği
  • Risklere maruz kalmak
  • Süper Zekâ
  • Teknolojik tekillik
Kuruluşlar
  • Hizalama Araştırma Merkezi
  • Yapay Zekâ Güvenliği Merkezi
  • Uygulamalı Rasyonalite Merkezi
  • İnsan Uyumlu Yapay Zekâ Merkezi
  • Varoluşsal Risk Araştırma Merkezi
  • EleutherAI
  • İnsanlığın Geleceği Enstitüsü
  • Yaşamın Geleceği Enstitüsü
  • Google DeepMind
  • Humanity+
  • Etik ve Gelişen Teknolojiler Enstitüsü
  • Leverhulme Zekânın Geleceği Merkezi
  • Makine Zekâsı Araştırma Enstitüsü
  • OpenAI
"https://tr.wikipedia.org/w/index.php?title=Yapay_genel_zekâdan_kaynaklanan_varoluşsal_risk&oldid=34665590" sayfasından alınmıştır
Kategoriler:
  • İnsan tükenmesi
  • Gelecekteki sorunlar
Gizli kategori:
  • Webarşiv şablonu wayback bağlantıları
  • Sayfa en son 11.23, 18 Ocak 2025 tarihinde değiştirildi.
  • Metin Creative Commons Atıf-AynıLisanslaPaylaş Lisansı altındadır ve ek koşullar uygulanabilir. Bu siteyi kullanarak Kullanım Şartlarını ve Gizlilik Politikasını kabul etmiş olursunuz.
    Vikipedi® (ve Wikipedia®) kâr amacı gütmeyen kuruluş olan Wikimedia Foundation, Inc. tescilli markasıdır.
  • Gizlilik politikası
  • Vikipedi hakkında
  • Sorumluluk reddi
  • Davranış Kuralları
  • Geliştiriciler
  • İstatistikler
  • Çerez politikası
  • Mobil görünüm
  • Wikimedia Foundation
  • Powered by MediaWiki
Yapay genel zekâdan kaynaklanan varoluşsal risk
Konu ekle