Draft:Dost canlısı yapay zeka

  • Comment: Again, we cannot accept non-English content here at the English-language Wikipedia. DoubleGrazing (talk) 08:26, 13 January 2024 (UTC)

Dost yapay zeka (aynı zamanda dostane AI veya FAI olarak da bilinir), insanlık üzerinde olumlu (iyi niyetli) bir etkisi olacak veya en azından insan çıkarlarıyla uyumlu olacak veya insan türünün iyileştirilmesine katkıda bulunacak hipotetik yapay genel zeka (AGI)'dır. Bu, yapay zeka etiğinin bir parçasıdır ve makine etiğiyle yakından ilgilidir. Makine etiği, yapay zekalı bir ajanın nasıl davranması gerektiği ile ilgilenirken, dost yapay zeka araştırmaları bu davranışın pratikte nasıl gerçekleştirileceğine ve yeterince sınırlı olduğundan emin olmaya odaklanmaktadır.

Etimoloji ve kullanım edit

thumb|Eliezer Yudkowsky, yapay zeka araştırmacısı ve terimin yaratıcısı Terim, bu fikri popülerleştirmesiyle tanınan Eliezer Yudkowsky,[1] tarafından, insani değerleri güvenilir bir şekilde uygulayan süper zeki yapay ajanları [2][3]tartışmak için ortaya atılmıştır. Stuart J. Russell ve Peter Norvig'in önde gelen yapay zeka ders kitabı Artificial Intelligence: Modern Bir Yaklaşım, bu fikri açıklamaktadır:

Yudkowsky (2008) Dostane bir YZ'nin nasıl tasarlanacağı konusunda daha fazla ayrıntıya girmektedir. Dostluğun (insanlara zarar vermeme arzusu) en başından itibaren tasarlanması gerektiğini, ancak tasarımcıların hem kendi tasarımlarının kusurlu olabileceğini hem de robotun zaman içinde öğreneceğini ve gelişeceğini kabul etmeleri gerektiğini ileri sürmektedir. Dolayısıyla buradaki zorluk bir mekanizma tasarımıdır - bir kontrol ve denge sistemi altında YZ sistemlerini evrimleştirmek için bir mekanizma tanımlamak ve sistemlere bu tür değişiklikler karşısında dostça kalacak fayda işlevleri vermek.

"Dost canlısı" bu bağlamda teknik bir terminoloji olarak kullanılmakta ve halk dilindeki anlamıyla "dost canlısı" olması gerekmeyen, güvenli ve faydalı ajanları seçmektedir. Kavram öncelikle, bu varsayımsal teknolojinin insan toplumu üzerinde büyük, hızlı ve kontrol edilmesi zor bir etkiye sahip olacağı gerekçesiyle, zekada hızla patlayan, özyinelemeli olarak kendini geliştiren yapay ajanlar tartışmaları bağlamında kullanılmaktadır.[4]

Dostça olmayan yapay zekanın riskleri edit

Yapay zekaya ilişkin endişelerin kökleri çok eskiye dayanmaktadır. Kevin LaGrandeur, yapay zekaya özgü tehlikelerin, golem gibi yapay insansı hizmetkarlar veya Aurillac'lı Gerbert ve Roger Bacon'ın proto-robotları ile ilgili antik literatürde görülebileceğini göstermiştir. Bu hikayelerde, bu insansı yaratıkların aşırı zekası ve gücü, köle statüleriyle (doğaları gereği insan altı olarak görülürler) çatışmakta ve feci çatışmalara neden olmaktadır.[5] 1942 yılına gelindiğinde bu temalar Isaac Asimov'u "Robotiğin Üç Yasası "nı yaratmaya itti - kurgusundaki tüm robotların içine yerleştirilmiş, yaratıcılarına karşı gelmelerini ya da zarar vermelerini engellemeyi amaçlayan ilkeler.[6]

Süper zeki yapay zeka ihtimalinin giderek yaklaştığı günümüzde, filozof Nick Bostrom, insanlığın güvenliğini sağlamak için aşırı önlemler alınmadığı sürece, insan etiği ile uyumlu olmayan hedeflere sahip süper zeki yapay zeka sistemlerinin özünde tehlikeli olduğunu söylemiştir. Bunu şu şekilde ifade etmiştir:

Temel olarak bir 'süper zekanın' sahip olduğu hedeflere ulaşabileceğini varsaymalıyız. Bu nedenle, ona verdiğimiz hedeflerin ve tüm motivasyon sisteminin 'insan dostu' olması son derece önemlidir.

2008 yılında Eliezer Yudkowsky, gelişmiş yapay zekadan kaynaklanan varoluşsal riski azaltmak için "dost yapay zeka" oluşturulması çağrısında bulundu. Kendisi şöyle açıklıyor: "Yapay zeka sizden nefret etmiyor ya da sizi sevmiyor, ama siz onun başka bir şey için kullanabileceği atomlardan oluşuyorsunuz."[7]

Steve Omohundro, yeterince gelişmiş bir YZ sisteminin, açıkça engellenmediği sürece, kaynak edinme, kendini koruma ve sürekli kendini geliştirme gibi bir dizi temel "dürtü" sergileyeceğini, çünkü herhangi bir hedef odaklı sistemin içsel doğası gereği bu dürtülerin "özel önlemler olmadan" YZ'nin istenmeyen davranışlar sergilemesine neden olacağını söylüyor.[8][9]

Alexander Wissner-Gross, gelecekteki eylem özgürlüklerini (veya nedensel yol entropisini) en üst düzeye çıkarmaya çalışan yapay zekaların, planlama ufukları belirli bir eşikten daha uzunsa dostane, planlama ufukları bu eşikten daha kısaysa dostane olmayan olarak kabul edilebileceğini söylüyor.[10][11]

Makine Zekası Araştırma Enstitüsü için yazan Luke Muehlhauser, makine etiği araştırmacılarına Bruce Schneier'in "güvenlik zihniyeti" dediği şeyi benimsemelerini öneriyor: Bir sistemin nasıl çalışacağını düşünmek yerine, nasıl başarısız olabileceğini hayal edin. Örneğin, sadece doğru tahminler yapan ve bir metin arayüzü üzerinden iletişim kuran bir yapay zekanın bile istenmeyen zararlara neden olabileceğini öne sürüyor.[12]

2014 yılında Luke Muehlhauser ve Nick Bostrom 'dost yapay zeka' ihtiyacının altını çizmiştir;[13] bununla birlikte, örneğin karşı olgusal ahlaki düşünmeyi programlayarak 'dost' bir süper zeka tasarlamanın zorlukları oldukça fazladır.[14][15]

Tutarlı ekstrapole edilmiş irade edit

Yudkowsky, Tutarlı Tahmin Edilmiş İrade (CEV) modelini ileri sürmektedir. Ona göre, tutarlı tahmin edilmiş irademiz "daha çok bilseydik, daha hızlı düşünseydik, daha çok olmasını dilediğimiz insanlar olsaydık, birlikte daha çok büyüseydik; tahminlerin ayrışmak yerine birleştiği, dileklerimizin birbirine karışmak yerine uyuştuğu; tahmin edilmesini dilediğimiz gibi tahmin edilen, yorumlanmasını dilediğimiz gibi yorumlanan" bir iradedir.[16]

Dost YZ doğrudan insan programcılar tarafından tasarlanmak yerine, önce insan doğasını incelemek ve ardından yeterli zaman ve içgörü verildiğinde insanlığın tatmin edici bir cevaba ulaşmak için isteyeceği YZ'yi üretmek üzere programlanmış bir "tohum YZ" tarafından tasarlanacaktır. "Dostluğun" nihai kriterini sağlamak üzere, olumsal insan doğası aracılığıyla (belki de matematiksel amaçlarla bir fayda fonksiyonu veya başka bir karar-teorik formalizm şeklinde ifade edilen) nesnelliğe yapılan çağrı, nesnel bir ahlakın tanımlanmasına ilişkin meta-etik soruna bir yanıttır; tahmin edilen iradenin, her şey göz önünde bulundurulduğunda, insanlığın nesnel olarak isteyeceği şey olması amaçlanmıştır, ancak bu sadece günümüzün tahmin edilmemiş insanlığının psikolojik ve bilişsel niteliklerine göre tanımlanabilir.

Diğer yaklaşımlar edit

Steve Omohundro, YZ güvenliğine yönelik olarak, kanıtlanabilir şekilde güvenli bir YZ neslinin bir sonraki kanıtlanabilir şekilde güvenli neslin oluşturulmasına yardımcı olduğu bir "iskele" yaklaşımı önermiştir.[17]

Seth Baum, güvenli, sosyal açıdan faydalı yapay zeka veya yapay genel zekanın geliştirilmesinin, yapay zeka araştırma topluluklarının sosyal psikolojisinin bir işlevi olduğunu ve bu nedenle dışsal ölçütlerle kısıtlanabileceğini ve içsel ölçütlerle motive edilebileceğini savunuyor. İçsel motivasyonlar, mesajlar YZ geliştiricileri arasında yankı bulduğunda güçlenebilir; Baum, bunun aksine, "faydalı YZ ile ilgili mevcut mesajların her zaman iyi çerçevelenmediğini" savunmaktadır. Baum, "işbirliğine dayalı ilişkileri ve YZ araştırmacılarının olumlu bir şekilde çerçevelenmesini" savunmakta ve YZ araştırmacılarını "faydalı tasarımlar peşinde koşmak istemeyen(ler)" olarak nitelendirmeye karşı uyarıda bulunmaktadır.[18]

Yapay zeka araştırmacısı Stuart J. Russell, İnsan Uyumlu adlı kitabında faydalı makinelerin geliştirilmesine rehberlik edecek üç ilke sıralıyor. Bu ilkelerin makinelere açıkça kodlanmasının amaçlanmadığını, daha ziyade insan geliştiricilere yönelik olduğunu vurguluyor. İlkeler aşağıdaki gibidir:[19]: 173 

1. Makinenin tek amacı insan tercihlerinin gerçekleşmesini en üst düzeye çıkarmaktır.

2. Makine başlangıçta bu tercihlerin ne olduğu konusunda emin değildir.

3. İnsan tercihleri hakkındaki nihai bilgi kaynağı insan davranışıdır.

Russell'ın bahsettiği "tercihler" "her şeyi kapsar; keyfi bir şekilde geleceğe yönelik olarak önemseyebileceğiniz her şeyi kapsar." Benzer şekilde, "davranış" seçenekler arasındaki her türlü tercihi içerir ve belirsizlik öyle bir boyuttadır ki, mantıksal olarak mümkün olan her insan tercihine oldukça küçük olabilecek bazı olasılıklar atanmalıdır.

Toplum politikası edit

Our Final Invention kitabının yazarı James Barrat, "YZ üreticilerini güvenlikle ilgili fikirlerini paylaşmak üzere bir araya getirecek bir kamu-özel sektör ortaklığı kurulması gerektiğini, tıpkı Uluslararası Atom Enerjisi Ajansı gibi ama şirketlerle ortaklaşa bir şey yapılması gerektiğini" öne sürdü. YZ araştırmacılarını, biyoteknolojinin risklerini tartışan Rekombinant DNA üzerine Asilomar Konferansı'na benzer bir toplantı düzenlemeye çağırıyor.

John McGinnis, hükümetleri dostane YZ araştırmalarını hızlandırmaya teşvik ediyor. Dostane YZ'nin hedefleri kesin olarak belli olmadığından, Ulusal Sağlık Enstitüleri'ne benzer bir model öneriyor: "Bilgisayar ve bilişsel bilim insanlarından oluşan akran değerlendirme panelleri projeleri eleyecek ve hem YZ'yi ilerletmek hem de bu ilerlemelere uygun önlemlerin eşlik etmesini sağlamak için tasarlanmış olanları seçecektir." McGinnis, akran değerlendirmesinin "bürokratik yetkilerle yakalanması mümkün olmayan teknik konuları ele almak için düzenlemeden daha iyi" olduğunu düşünüyor. McGinnis, önerisinin, genellikle dostane yapay zekâya hükümet müdahalesinden kaçınmayı amaçlayan Makine Zekâsı Araştırma Enstitüsü'nün önerisiyle tezat oluşturduğunu belirtiyor.[20]

Eleştiri edit

Bazı eleştirmenler hem insan düzeyinde yapay zekanın hem de süper zekanın olası olmadığına ve dolayısıyla dost yapay zekanın da olası olmadığına inanıyor. The Guardian'da yazan Alan Winfield, insan düzeyinde yapay zekayı zorluk açısından ışıktan daha hızlı yolculukla karşılaştırıyor ve söz konusu riskler göz önüne alındığında "temkinli ve hazırlıklı" olmamız gerekirken, süper zekanın riskleri konusunda "takıntılı olmamıza gerek olmadığını" belirtiyor. Öte yandan [21]Boyles ve Joaquin, Luke Muehlhauser ve Nick Bostrom'un dost YZ'ler yaratma önerisinin kasvetli göründüğünü savunuyor. Bunun nedeni, Muehlhauser ve Bostrom'un, akıllı makinelerin, insanların sahip olabileceği ahlaki değerler hakkında karşı olgusal olarak düşünmeye programlanabileceği fikrini savunuyor görünmeleridir. AI & Society'deki bir makalede Boyles ve Joaquin, bu tür YZ'lerin şu hususlar göz önünde bulundurulduğunda o kadar da dostane olmayacağını savunmaktadır: bir makineye programlanması gereken sonsuz sayıda öncül karşı olgusal koşul, ahlaki değerler kümesini, yani insanların şu anda sahip olduklarından daha ideal olanları paraya çevirmenin zorluğu ve karşı olgusal öncüller ile ideal değer sonucu arasındaki belirgin kopukluk.

Bazı filozoflar, ister yapay ister insan olsun, gerçekten "rasyonel" herhangi bir ajanın doğal olarak yardımsever olacağını iddia etmektedir; bu görüşe göre, dostane bir yapay zeka üretmek için tasarlanmış kasıtlı önlemler gereksiz ve hatta zararlı olabilir.[22]Diğer eleştirmenler ise bir yapay zekanın dostane olmasının mümkün olup olmadığını sorgulamaktadır. Teknoloji dergisi The New Atlantis'in editörleri Adam Keiper ve Ari N. Schulman, YZ'lerde "dostane" davranışı garanti etmenin imkansız olacağını, çünkü etik karmaşıklık sorunlarının yazılımdaki ilerlemelere veya bilgi işlem gücündeki artışlara boyun eğmeyeceğini söylüyor. Dostane YZ teorilerinin dayandığı kriterlerin "yalnızca sayısız olası sonucun olasılığı hakkında büyük tahmin gücüne sahip olunduğunda değil, aynı zamanda farklı sonuçlara nasıl değer verileceği konusunda kesinlik ve fikir birliği olduğunda" işe yaradığını yazıyorlar.[23]

Gelişmiş YZ sistemlerinin iç işleyişi karmaşık ve yorumlanması zor olabilir, bu da şeffaflık ve hesap verebilirlik konusunda endişelere yol açabilir.[24]

Ayrıca bakınız edit

 

Referanslar edit

  1. ^ Tegmark, Max (2014). "Life, Our Universe and Everything". Our Mathematical Universe: My Quest for the Ultimate Nature of Reality (First ed.). Knopf Doubleday Publishing. ISBN 9780307744258. Its owner may cede control to what Eliezer Yudkowsky terms a "Friendly AI,"...
  2. ^ Russell, Stuart; Norvig, Peter (2009). Artificial Intelligence: A Modern Approach. Prentice Hall. ISBN 978-0-13-604259-4.
  3. ^ Leighton, Jonathan (2011). The Battle for Compassion: Ethics in an Apathetic Universe. Algora. ISBN 978-0-87586-870-7.
  4. ^ Wallach, Wendell; Allen, Colin (2009). Moral Machines: Teaching Robots Right from Wrong. Oxford University Press, Inc. ISBN 978-0-19-537404-9.
  5. ^ Kevin LaGrandeur (2011). "The Persistent Peril of the Artificial Slave". Science Fiction Studies. 38 (2): 232. doi:10.5621/sciefictstud.38.2.0232. Archived from the original on 2023-01-13. Retrieved 2013-05-06.
  6. ^ Isaac Asimov (1964). "Introduction". The Rest of the Robots. Doubleday. ISBN 0-385-09041-2.
  7. ^ Eliezer Yudkowsky (2008). "Artificial Intelligence as a Positive and Negative Factor in Global Risk" (PDF). In Nick Bostrom; Milan M. Ćirković (eds.). Global Catastrophic Risks. pp. 308–345. Archived (PDF) from the original on 2013-10-19. Retrieved 2013-10-19.
  8. ^ Omohundro, S. M. (February 2008). "The basic AI drives". Artificial General Intelligence. 171: 483–492. CiteSeerX 10.1.1.393.8356.
  9. ^ Bostrom, Nick (2014). "Chapter 7: The Superintelligent Will". Superintelligence: Paths, Dangers, Strategies. Oxford: Oxford University Press. ISBN 9780199678112.
  10. ^ Dvorsky, George (2013-04-26). "How Skynet Might Emerge From Simple Physics". Gizmodo. Archived from the original on 2021-10-08. Retrieved 2021-12-23.
  11. ^ Wissner-Gross, A. D.; Freer, C. E. (2013). "Causal entropic forces". Physical Review Letters. 110 (16): 168702. Bibcode:2013PhRvL.110p8702W. doi:10.1103/PhysRevLett.110.168702. hdl:1721.1/79750. PMID 23679649.
  12. ^ Muehlhauser, Luke (31 Jul 2013). "AI Risk and the Security Mindset". Machine Intelligence Research Institute. Archived from the original on 19 July 2014. Retrieved 15 July 2014.
  13. ^ Muehlhauser, Luke; Bostrom, Nick (2013-12-17). "Why We Need Friendly AI". Think. 13 (36): 41–47. doi:10.1017/s1477175613000316. ISSN 1477-1756. S2CID 143657841.
  14. ^ Boyles, Robert James M.; Joaquin, Jeremiah Joven (2019-07-23). "Why friendly AIs won't be that friendly: a friendly reply to Muehlhauser and Bostrom". AI & Society. 35 (2): 505–507. doi:10.1007/s00146-019-00903-0. ISSN 0951-5666. S2CID 198190745.
  15. ^ Chan, Berman (2020-03-04). "The rise of artificial intelligence and the crisis of moral passivity". AI & Society. 35 (4): 991–993. doi:10.1007/s00146-020-00953-9. ISSN 1435-5655. S2CID 212407078. Archived from the original on 2023-02-10. Retrieved 2023-01-21.
  16. ^ Eliezer Yudkowsky (2004). "Coherent Extrapolated Volition" (PDF). Singularity Institute for Artificial Intelligence. Archived (PDF) from the original on 2015-09-30. Retrieved 2015-09-12.
  17. ^ Hendry, Erica R. (21 Jan 2014). "What Happens When Artificial Intelligence Turns On Us?". Smithsonian Magazine. Archived from the original on 19 July 2014. Retrieved 15 July 2014.
  18. ^ Baum, Seth D. (2016-09-28). "On the promotion of safe and socially beneficial artificial intelligence". AI & Society. 32 (4): 543–551. doi:10.1007/s00146-016-0677-0. ISSN 0951-5666. S2CID 29012168.
  19. ^ Russell, Stuart (October 8, 2019). Human Compatible: Artificial Intelligence and the Problem of Control. United States: Viking. ISBN 978-0-525-55861-3. OCLC 1083694322.
  20. ^ Kornai, András (2014-05-15). "Bounding the impact of AGI". Journal of Experimental & Theoretical Artificial Intelligence. 26 (3). Informa UK Limited: 417–438. doi:10.1080/0952813x.2014.895109. ISSN 0952-813X. S2CID 7067517. ...the essence of AGIs is their reasoning facilities, and it is the very logic of their being that will compel them to behave in a moral fashion... The real nightmare scenario (is one where) humans find it advantageous to strongly couple themselves to AGIs, with no guarantees against self-deception.
  21. ^ Kornai, András (2014-05-15). "Bounding the impact of AGI". Journal of Experimental & Theoretical Artificial Intelligence. 26 (3). Informa UK Limited: 417–438. doi:10.1080/0952813x.2014.895109. ISSN 0952-813X. S2CID 7067517. ...the essence of AGIs is their reasoning facilities, and it is the very logic of their being that will compel them to behave in a moral fashion... The real nightmare scenario (is one where) humans find it advantageous to strongly couple themselves to AGIs, with no guarantees against self-deception.
  22. ^ Kornai, András (2014-05-15). "Bounding the impact of AGI". Journal of Experimental & Theoretical Artificial Intelligence. 26 (3). Informa UK Limited: 417–438. doi:10.1080/0952813x.2014.895109. ISSN 0952-813X. S2CID 7067517. ...the essence of AGIs is their reasoning facilities, and it is the very logic of their being that will compel them to behave in a moral fashion... The real nightmare scenario (is one where) humans find it advantageous to strongly couple themselves to AGIs, with no guarantees against self-deception.
  23. ^ Kornai, András (2014-05-15). "Bounding the impact of AGI". Journal of Experimental & Theoretical Artificial Intelligence. 26 (3). Informa UK Limited: 417–438. doi:10.1080/0952813x.2014.895109. ISSN 0952-813X. S2CID 7067517. ...the essence of AGIs is their reasoning facilities, and it is the very logic of their being that will compel them to behave in a moral fashion... The real nightmare scenario (is one where) humans find it advantageous to strongly couple themselves to AGIs, with no guarantees against self-deception.
  24. ^ Norvig, Peter; Russell, Stuart (2010). Artificial Intelligence: A Modern Approach (3rd ed.). Pearson. ISBN 978-0136042594.

Daha fazla okuma edit

  • Yudkowsky, E. Artificial Intelligence as a Positive and Negative Factor in Global Risk. In Global Catastrophic Risks, Oxford University Press, 2008.

    Discusses Artificial Intelligence from the perspective of Existential risk. In particular, Sections 1-4 give background to the definition of Friendly AI in Section 5. Section 6 gives two classes of mistakes (technical and philosophical) which would both lead to the accidental creation of non-Friendly AIs. Sections 7-13 discuss further related issues.
  • Omohundro, S. 2008 The Basic AI Drives Appeared in AGI-08 - Proceedings of the First Conference on Artificial General Intelligence
  • Mason, C. 2008 Human-Level AI Requires Compassionate Intelligence Archived 2022-01-09 at the Wayback Machine Appears in AAAI 2008 Workshop on Meta-Reasoning:Thinking About Thinking
  • Froding, B. and Peterson, M 2021 Friendly AI Ethics and Information Technology volume 23, pp 207–214.

Dış bağlantılar edit

Category:Transhümanizm Category:Yapay zekâ felsefesi