{"id":420655,"date":"2025-01-02T18:29:17","date_gmt":"2025-01-02T17:29:17","guid":{"rendered":"https:\/\/www.pcnen.com\/portal\/?p=420655"},"modified":"2025-01-02T18:30:18","modified_gmt":"2025-01-02T17:30:18","slug":"nobelovac-vjestacka-inteligencija-bi-mogla-da-unisti-covjecanstvo-vec-kroz-30-godina","status":"publish","type":"post","link":"https:\/\/www.pcnen.com\/portal\/2025\/01\/02\/nobelovac-vjestacka-inteligencija-bi-mogla-da-unisti-covjecanstvo-vec-kroz-30-godina\/","title":{"rendered":"Nobelovac: Vje\u0161ta\u010dka inteligencija bi mogla da uni\u0161ti \u010dovje\u010danstvo ve\u0107 kroz 30 godina"},"content":{"rendered":"<p>Vje\u0161ta\u010dka inteligencija bi mogla da uni\u0161ti \u010dovje\u010danstvo ve\u0107 kroz 30 godina, budu\u0107i da je tempo promjene u tehnologiji mnogo br\u017ei nego \u0161to se o\u010dekivalo, upozorio je britansko-kanadski nobelovac D\u017eefri Hinton, koga \u010desto nazivaju &#8220;kumom vje\u0161ta\u010dke inteligencije&#8221;, prenosi Beta.<\/p>\n<p>Profesor Hinton, koji je ove godine dobio Nobelovu nagradu za fiziku, za rad u oblasti vje\u0161ta\u010dke inteligencije, je rekao da postoji od 10 do 20 odsto \u0161anse da \u0107e vje\u0161ta\u010dka inteligencija dovesti do izumiranja ljudske vrste ve\u0107 za tri decenije, pi\u0161e londonski Gardijan.<\/p>\n<p>Hinton je ranije rekao da postoji 10 odsto \u0161anse da \u0107e tehnologija dovesti do katastrofalnog ishoda za \u010dovje\u010danstvo.<\/p>\n<p>Upitan na Radiju 4 BBC da li je promijenio analizu potencijalne apokalipse zbog vje\u0161ta\u010dke inteligencije i ocjenu da postoji 10 odsto \u0161anse da se to dogodi, Hinton je kazao: &#8220;Ne ba\u0161, od 10 do 20 odsto&#8221;.<\/p>\n<p>Naveo je da ljudi &#8220;nikada ranije nisu morali da se bave stvarima koje su inteligentnije od njih samih&#8221;.<\/p>\n<p>&#8220;Koliko primjera znate da inteligentniju stvar kontroli\u0161e neka manje inteligentna stvar? Primjera je vrlo malo. Evolucija je ulo\u017eila mnogo truda da dozvoli bebi da kontroli\u0161e majku, ali to je otprilike jedini primjer za koji znam&#8221;, rekao je Hinton.<\/p>\n<p>Hinton, po\u010dasni (emeritus) profesor Univerziteta u Torontu, u Kanadi, koji je ro\u0111en u Londonu, je kazao da bi ljudi bili kao mala djeca u pore\u0111enju sa pame\u0107u veoma mo\u0107nih sistema vje\u0161ta\u010dke inteligencije.<\/p>\n<p>&#8220;O tome volim da razmi\u0161ljam ovako: zamislite sebe i jednog trogodi\u0161njaka. Mi bismo bili trogodi\u0161njaci&#8221;, opisao je Hinton.<\/p>\n<p>On je pro\u0161le godine dospio na naslovne strane po\u0161to je dao otkaz u kompaniji Gugl da bi mogao otvorenije da govori o rizicima koje donosi neograni\u010den razvoj vje\u0161ta\u010dke inteligencije. On je tada izrazio zabrinutost da \u0107e &#8220;lo\u0161i akteri&#8221; koristiti tehnologiju da na\u0161kode drugima.<\/p>\n<p>Najve\u0107a briga aktivista za bezbjednu vje\u0161ta\u010dku inteligenciju jeste da bi stvaranje vje\u0161ta\u010dke op\u0161te inteligencije ili sistema koji su pametniji od ljudi, moglo da na\u010dini tehnologiju egzistencijalnom prijetnjom koja nije pod ljudskom kontrolom.<\/p>\n<p>O svojim razmi\u0161ljanjima iz vremena kada je po\u010dinjao rad u oblasti tehnologije, Hinton je rekao da je o\u010dekivao znatno sporiji razvoj vje\u0161ta\u010dke inteligencije.<\/p>\n<p>&#8220;Nisam mislio da \u0107e (vje\u0161ta\u010dka inteligencija) biti tamo gdje je sada. Mislio sam da \u0107emo do ovog nivoa do\u0107i u nekom trenutku u dalekoj budu\u0107nosti&#8221;, kazao je Hinton.<\/p>\n<p>Dodao je da ve\u0107ina stru\u010dnjaka u toj oblasti misli da \u0107e \u010dovje\u010danstvo u nekom trenutku, vjerovatno u narednih 20 godina, razviti oblike vje\u0161ta\u010dke inteligencije koji \u0107e biti pametniji od ljudi. To je ocijenio kao &#8220;veoma zastra\u0161uju\u0107u pomisao&#8221; i zalo\u017eio se za dr\u017eavnu regulaciju tehnologije.<\/p>\n<p>&#8220;Brinem da nas nevidljiva ruka ne\u0107e za\u0161tititi. Samo prepu\u0161tanje profitnom motivu velikih kompanija ne\u0107e biti dovoljno da se osigura da one bezbjedno razvijaju vje\u0161ta\u010dku inteligenciju. Jedino \u0161to mo\u017ee da primora te velike kompanije da rade vi\u0161e istra\u017eivanja o bezbjednosti jeste dr\u017eavna regulacija&#8221;, naveo je Hinton.<\/p>\n<p>Hinton je jedan od tri &#8220;kuma vje\u0161ta\u010dke inteligencije&#8221; koji su za svoj rad dobili nagradu ACM AM Turing, ekvivalentnu Nobelovoj nagradi u oblasti ra\u010dunarskih nauka.<\/p>\n<p>Jedan od njih trojice, Jan LeKun, vode\u0107i nau\u010dnik za vje\u0161ta\u010dku inteligenciju u kompaniji Meta ameri\u010dkog milijardera Marka Zakerberga, ima druga\u010diji stav od Hintona o egzistencijalnoj prijetnji vje\u0161ta\u010dke inteligencije, za koju navodi da bi &#8220;zapravo mogla da spasi \u010dovje\u010danstvo od izumiranja&#8221;.<\/p>\n<p>&nbsp;<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Vje\u0161ta\u010dka inteligencija bi mogla da uni\u0161ti \u010dovje\u010danstvo ve\u0107 kroz 30 godina, budu\u0107i da je tempo promjene u tehnologiji mnogo br\u017ei nego \u0161to se o\u010dekivalo, upozorio je britansko-kanadski nobelovac D\u017eefri Hinton, koga \u010desto nazivaju &#8220;kumom vje\u0161ta\u010dke inteligencije&#8221;<\/p>\n","protected":false},"author":1,"featured_media":420658,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_seopress_robots_primary_cat":"none","_seopress_titles_title":"","_seopress_titles_desc":"","_seopress_robots_index":"","_et_pb_use_builder":"","_et_pb_old_content":"","_et_gb_content_width":"","inline_featured_image":false,"footnotes":""},"categories":[14],"tags":[],"class_list":["post-420655","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-vijesti"],"_links":{"self":[{"href":"https:\/\/www.pcnen.com\/portal\/wp-json\/wp\/v2\/posts\/420655","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.pcnen.com\/portal\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.pcnen.com\/portal\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.pcnen.com\/portal\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/www.pcnen.com\/portal\/wp-json\/wp\/v2\/comments?post=420655"}],"version-history":[{"count":2,"href":"https:\/\/www.pcnen.com\/portal\/wp-json\/wp\/v2\/posts\/420655\/revisions"}],"predecessor-version":[{"id":420660,"href":"https:\/\/www.pcnen.com\/portal\/wp-json\/wp\/v2\/posts\/420655\/revisions\/420660"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.pcnen.com\/portal\/wp-json\/wp\/v2\/media\/420658"}],"wp:attachment":[{"href":"https:\/\/www.pcnen.com\/portal\/wp-json\/wp\/v2\/media?parent=420655"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.pcnen.com\/portal\/wp-json\/wp\/v2\/categories?post=420655"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.pcnen.com\/portal\/wp-json\/wp\/v2\/tags?post=420655"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}