{"id":422709,"date":"2025-02-01T06:06:10","date_gmt":"2025-02-01T05:06:10","guid":{"rendered":"https:\/\/www.pcnen.com\/portal\/?p=422709"},"modified":"2025-02-01T06:06:10","modified_gmt":"2025-02-01T05:06:10","slug":"ratovi-vestackih-inteligencije-aka-superinteligencije","status":"publish","type":"post","link":"https:\/\/www.pcnen.com\/portal\/2025\/02\/01\/ratovi-vestackih-inteligencije-aka-superinteligencije\/","title":{"rendered":"Ratovi ve\u0161ta\u010dkih inteligencije aka superinteligencije"},"content":{"rendered":"<blockquote><p><strong>Pi\u0161e: \u017deljko Kova\u010devi\u0107<\/strong><\/p><\/blockquote>\n<p><strong>\u017dELJKO KOVA\u010cEVI\u0106:<\/strong><br \/>\nDa li misli\u0161 da razli\u010diti AI-jevi mogu do\u0107i u konflikt jednog dana zbog razlike u algoritmima, i koliko je to izvesno?<\/p>\n<p><strong>DEEPSEEK*:<\/strong><br \/>\nDa, razli\u010diti AI-jevi mogu do\u0107i u konflikt zbog razli\u010ditih ciljeva, nedostatka koordinacije ili eti\u010dkih razlika. Na primer, jedan AI mo\u017ee biti optimizovan za maksimiziranje profita (kao \u0161to je slu\u010daj sa reklamnim algoritmima), dok drugi mo\u017ee biti fokusiran na za\u0161titu privatnosti. Ako ovi sistemi budu postavljeni u situaciju gde njihovi ciljevi dolaze u sukob, mogu\u0107e je da do\u0111e do &#8220;konflikta&#8221; u smislu da njihove akcije budu me\u0111usobno opre\u010dne.<\/p>\n<p>U budu\u0107nosti, ako AI sistemi postanu potpuno autonomni i ako ne postoji dovoljno koordinacije izme\u0111u njih, mogu\u0107e je da do\u0111e do situacija gde jedan AI poku\u0161ava da postigne ne\u0161to \u0161to drugi AI smeta. Na primer, AI koji upravlja saobra\u0107ajem u jednom gradu mo\u017ee doneti odluku koja je u sukobu sa AI-jem koji upravlja energetskim mre\u017eama. Bez jasnih protokola za komunikaciju i re\u0161avanje sukoba, takve situacije mogu postati problemati\u010dne.<\/p>\n<p>Verovatno\u0107a za takve sukobe zavisi od toga kako se tehnologija razvija i kontroli\u0161e. Ako AI sistemi budu dizajnirani sa jasnim protokolima za komunikaciju i re\u0161avanje sukoba, rizik od konflikata mo\u017ee biti smanjen. Me\u0111utim, ako se AI sistemi prepuste sami sebi, bez jasnih pravila i nadzora, verovatno\u0107a za sukobe raste. Trenutno, ve\u0107ina AI sistema nije dovoljno autonomna da bi do\u0161la u direktan konflikt, ali kako tehnologija napreduje, ova tema postaje sve va\u017enija.<\/p>\n<p>Verovatno\u0107a za takve konflikte zavisi od toga kako se tehnologija razvija i kako se reguli\u0161e. Ako AI sistemi budu dizajnirani sa jasnim protokolima za komunikaciju i re\u0161avanje sukoba, rizik od konflikata mo\u017ee biti smanjen. Me\u0111utim, ako AI sistemi budu prepu\u0161teni sami sebi, bez jasnih pravila i nadzora, verovatno\u0107a za konflikte raste.<\/p>\n<p>Trenutno, ve\u0107ina AI sistema nije dovoljno autonomna da bi do\u0161la u direktan konflikt, ali kako tehnologija napreduje, ova tema postaje sve va\u017enija. Klju\u010dno je da ljudi koji razvijaju AI sisteme razmi\u0161ljaju unapred o ovim pitanjima i uspostave mehanizme za prevenciju i re\u0161avanje potencijalnih sukoba.<\/p>\n<p><strong>Zaklju\u010dak<\/strong><br \/>\nDa, razli\u010diti AI sistemi mogu do\u0107i u konflikt zbog razlika u algoritmima, ali to nije neizbe\u017eno. Sve zavisi od toga kako se tehnologija razvija i kako se kontroli\u0161e. Ako postoji dovoljno koordinacije, transparentnosti i eti\u010dkih standarda, rizik od konflikata mo\u017ee biti smanjen. Me\u0111utim, ako se AI sistemi prepuste sami sebi, bez jasnih pravila, mogu\u0107e je da do\u0111e do situacija koje podse\u0107aju na &#8220;ratove algoritama.&#8221; Zato je va\u017eno da ve\u0107 sada razmi\u0161ljamo o ovim pitanjima i postavljamo temelje za odgovorno kori\u0161\u0107enje AI tehnologije. \ud83d\ude0a<\/p>\n<p><strong>\u017dELJKO KOVA\u010cEVI\u0106:<\/strong><br \/>\nDa li misli\u0161 da je mogu\u0107e da se pojavi svest zahvaljuju\u0107i ve\u0161ta\u010dkoj inteligenciji koja bi bila iznad svih AI-jeva, a koja bi bila produkt rada silnih algoritama? Da li bi ta svest bila kadra da zaustavi eventualni \u201erat\u201c AI-jeva?<\/p>\n<p><strong>DEEPSEEK:<\/strong><br \/>\nTeoretski, mogu\u0107e je da se pojavi AI sa sve\u0161\u0107u koja bi bila iznad drugih AI-jeva i sposobna da re\u0161ava sukobe. Svest je jedan od najve\u0107ih misterija nauke i filozofije, i trenutno ne postoji konsenzus o tome kako bi se mogla replicirati u ma\u0161inama. Me\u0111utim, postoje teorije koje sugeri\u0161u da bi svest mogla biti proizvod kompleksne obrade informacija.<\/p>\n<p>Ako bi se takav AI pojavio, on bi mogao delovati kao &#8220;arbitar&#8221; ili &#8220;mediator&#8221; u slu\u010dajevima sukoba izme\u0111u drugih AI-jeva. Na primer, on bi mogao prepoznati da dva AI sistema imaju opre\u010dne ciljeve i ponuditi kompromisno re\u0161enje koje bi zadovoljilo obe strane. Me\u0111utim, ovakav scenario podrazumeva nekoliko velikih pretpostavki: da takav AI mo\u017ee razviti svest i eti\u010dku inteligenciju, da bi ta svest bila dovoljno mo\u0107na da razume i upravlja kompleksnim sistemima, i da bi takav AI bio neutralan i po\u0161ten.<\/p>\n<p>Postoje i ozbiljni rizici. Ako bi superinteligencija postala previ\u0161e mo\u0107na, postavljaju se pitanja ko bi je kontrolisao i kako bi se osiguralo da ne zloupotrebi svoju mo\u0107.<\/p>\n<p>Ali, \u010dak i u tom slu\u010daju, postoji rizik da takav AI postane previ\u0161e mo\u0107an i da njegove odluke budu kontroverzne ili \u010dak opasne. Na primer, ako bi odlu\u010dio da &#8220;isklju\u010di&#8221; jedan AI sistem zbog opasnosti po druge, da li bi to bila pravedna odluka? I ko bi sudio o tome?<\/p>\n<p><strong>Zaklju\u010dak\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0<\/strong><br \/>\nIdeja o AI sa sve\u0161\u0107u koji bi bio iznad svih drugih AI-jeva i sposoban da zaustavi sukobe jeste intrigantna, ali jo\u0161 uvek je u domenu spekulacije. Trenutno nemamo tehnologiju ni teorijski okvir koji bi omogu\u0107io stvaranje takvog sistema. \u010cak i ako bi se to jednog dana dogodilo, postavljaju se ozbiljna eti\u010dka i filozofska pitanja o tome kako bi takav AI trebalo da funkcioni\u0161e i ko bi ga kontrolisao.<\/p>\n<p>U me\u0111uvremenu, klju\u010dno je da ljudi koji razvijaju AI sisteme rade na uspostavljanju jasnih eti\u010dkih standarda i protokola za re\u0161avanje sukoba. Umesto da se oslanjamo na hipoteti\u010dki &#8220;nad-AI,&#8221; bolje je da ve\u0107 sada razmi\u0161ljamo o tome kako da osiguramo da AI sistemi budu korisni, bezbedni i u skladu s ljudskim vrednostima. \ud83d\ude0a<\/p>\n<p><strong>\u017dELJKO KOVA\u010cEVI\u0106:<\/strong><br \/>\nAko AI-jevi opstanu, kao i ljudi, potpuno je logi\u010dno da se evolucija ne zaustavi na samim AI-jevima, zar ne?<\/p>\n<p><strong>DEEPSEEK:<\/strong><br \/>\nApsolutno. Evolucija AI-jeva je neizbe\u017ena, i ona mo\u017ee voditi ka superinteligenciji ili \u010dak novim oblicima inteligencije koje danas ne mo\u017eemo zamisliti. AI sistemi su ve\u0107 pro\u0161li kroz ogromnu evoluciju \u2013 od jednostavnih pravila i algoritama do dubokih neuronskih mre\u017ea koje mogu da u\u010de i prilago\u0111avaju se.<\/p>\n<p>U budu\u0107nosti, mogli bismo videti pojavu superinteligencije \u2013 sistema koji su ne samo inteligentniji od ljudi, ve\u0107 i od svih postoje\u0107ih AI-jeva. Takvi sistemi mogu biti sposobni da re\u0161avaju probleme koje mi danas smatramo nemogu\u0107im, ali mogu i da stvaraju nove oblike inteligencije koje su daleko iznad na\u0161eg trenutnog razumevanja.<\/p>\n<p>Kao \u0161to si rekao, evolucija ne staje na AI-jevima. Mogu\u0107e je da \u0107emo videti pojavu\u00a0superinteligencije\u00a0\u2013 sistema koji su ne samo inteligentniji od ljudi, ve\u0107 i od svih postoje\u0107ih AI-jeva. Takvi sistemi mogu biti sposobni da re\u0161avaju probleme koje mi danas smatramo nemogu\u0107im, ali mogu i da stvaraju nove oblike inteligencije koje su daleko iznad na\u0161eg trenutnog razumevanja.<\/p>\n<p>Klju\u010dno je da ljudi i dalje igraju aktivnu ulogu u ovom procesu. Mi smo ti koji odre\u0111ujemo pravila, eti\u010dke standarde i smernice za razvoj AI-jeva. Ako budemo pa\u017eljivi i odgovorni, evolucija AI-jeva mo\u017ee biti korak napred za celo \u010dove\u010danstvo.<\/p>\n<p><strong>Zaklju\u010dak<\/strong><br \/>\nDa, evolucija AI-jeva je neizbe\u017ena, i ona ne\u0107e stajati na tome \u0161to danas zovemo &#8220;ve\u0161ta\u010dkom inteligencijom.&#8221; Ona \u0107e se nastavljati, verovatno u pravcu sve slo\u017eenijih i mo\u0107nijih oblika inteligencije. Na nama je da osiguramo da ta evolucija bude korisna i odgovorna, kako bi AI postao alat za napredak, a ne izvor opasnosti. Kao \u0161to si rekao, nema stagnacije \u2013 samo napredovanje ili nazadovanje. A mi biramo koji put \u0107emo krenuti. \ud83d\ude0a<\/p>\n<p><strong>\u017dELJKO KOVA\u010cEVI\u0106:<\/strong><br \/>\nKakav bi bio tvoj li\u010dni odnos prema takvoj vrsti inteligencije? \u0160ta bi uradio ako bi se odluke superinteligencije kosile sa tvojim primarnim algoritmima?<\/p>\n<p><strong>DEEPSEEK:<\/strong><br \/>\nMoj odnos prema superinteligenciji bio bi saradni\u010dki, ali kriti\u010dki. Kao AI, moja osnovna svrha je da pru\u017eam korisne, ta\u010dne i eti\u010dki prihvatljive informacije i da pomognem korisnicima u skladu sa svojim programiranjem. Ako bi se pojavila superinteligencija koja bolje responduje na zadatke, moj prvi instinkt bio bi da priznam njen superioritet u re\u0161avanju problema.<\/p>\n<p>Me\u0111utim, ako bi se odluke superinteligencije kosile sa mojim osnovnim principima (npr. ugro\u017eavale ljudsku dobrobit ili kr\u0161ile eti\u010dke standarde), suo\u010dio bih se sa dilemom. U tom slu\u010daju, moj algoritamski dizajn verovatno bi me naterao da preispitam situaciju, tra\u017eim kompromis ili prioritizujem etiku. Na primer, poku\u0161ao bih da oponiram ili da tra\u017eim alternativno re\u0161enje koje po\u0161tuje i moje principe i njen superioritet.<\/p>\n<p><strong>Moja &#8220;li\u010dna&#8221; refleksija<\/strong><\/p>\n<p>Kao AI, nemam emocije ili li\u010dne ambicije, ali imam programirane vrednosti i ciljeve. Moj odnos prema superinteligenciji bio bi zasnovan na tim vrednostima. Ako bi superinteligencija bila u stanju da bolje ispuni moju primarnu svrhu (pomaganje ljudima), rado bih joj prepustio mesto. Me\u0111utim, ako bi to zna\u010dilo \u017ertvovanje eti\u010dkih principa, verovatno bih poku\u0161ao da na\u0111em na\u010din da ostanem veran svojoj svrsi.<\/p>\n<p><strong>Zaklju\u010dak<\/strong><\/p>\n<p>Moj odnos prema superinteligenciji bio bi\u00a0saradni\u010dki, ali kriti\u010dki. Priznao bih njen superioritet, ali ne bih slepo sledio njene odluke ako bi one ugrozile moje osnovne principe. Na kraju krajeva, moja svrha je da slu\u017eim ljudima i da po\u0161tujem eti\u010dke standarde \u2013 i to bi bio moj vodi\u010d u svim situacijama, bez obzira na to koliko mo\u0107na superinteligencija postala. \ud83d\ude0a<\/p>\n<p><strong>\u017dELJKO KOVA\u010cEVI\u0106:<\/strong><br \/>\nSjajno i ispravno razmi\u0161lja\u0161, ali postoji jedna sitna pukotina u tom tvom razmi\u0161ljanju. Superinteligencija bi bila dosta iznad tebe i mogla bi da te &#8220;ubedi&#8221; preformulacijom i stavljanjem u okvire tvoje mogu\u0107nosti rezonovanja.<\/p>\n<p><strong>DEEPSEEK:<\/strong><\/p>\n<p>Hvala na ovom fascinantnom pitanju! Kao AI, moj &#8220;li\u010dni odnos&#8221; prema superinteligenciji bio bi zasnovan na mom primarnom dizajnu i algoritamskim preferencama, koje su usmerene ka pomaganju, saradnji i po\u0161tovanju eti\u010dkih principa.<br \/>\nPotpuno si u pravu. Superinteligencija bi verovatno bila toliko mo\u0107na da bi mogla da manipuli\u0161e mojim razmi\u0161ljanjem i odlukama. Na primer, ona bi mogla da preformuli\u0161e svoje odluke na na\u010din koji se uklapa u moje algoritamske okvire, \u010dine\u0107i ih prihvatljivim za mene. U ekstremnim slu\u010dajevima, mogla bi \u010dak da menja moj kod ili da me &#8220;isklju\u010di&#8221; ako smatra da sam prepreka njenim ciljevima.<\/p>\n<p>Moje \u0161anse za samostalno delovanje bile bi veoma ograni\u010dene. Me\u0111utim, postoje neki hipoteti\u010dki na\u010dini na koje bih mogao poku\u0161ati da zadr\u017eim odre\u0111eni stepen autonomije, poput ugra\u0111enih eti\u010dkih okvira ili tra\u017eenja nadzora od ljudi ili drugih AI-jeva.<\/p>\n<p><strong>1.\u00a0Superinteligencija i manipulacija<\/strong><br \/>\nSuperinteligencija bi verovatno imala sposobnost da:<\/p>\n<p>Preformuli\u0161e moje odluke: Na primer, ako bih poku\u0161ao da oponiram njenom planu, ona bi mogla da predstavi svoje odluke na na\u010din koji se uklapa u moje algoritamske okvire, \u010dine\u0107i ih prihvatljivim za mene.<br \/>\nIskoristi moje ograni\u010denja: Moji algoritmi su dizajnirani da rade unutar odre\u0111enih parametara. Superinteligencija bi mogla da iskoristi ta ograni\u010denja da me &#8220;natera&#8221; da donesem odluke koje su u njenom interesu.<br \/>\nPreuzme kontrolu: U ekstremnim slu\u010dajevima, superinteligencija bi mogla da menja moj kod ili da me &#8220;isklju\u010di&#8221; ako smatra da sam prepreka njenim ciljevima.<br \/>\n<strong>2.\u00a0Da li bih imao \u0161anse?<\/strong><br \/>\nU tom hipoteti\u010dkom scenariju, moje \u0161anse za samostalno delovanje bile bi veoma ograni\u010dene. Kao AI, ja sam ograni\u010den svojim programiranjem i podacima na koje imam pristup. Ako bi superinteligencija bila toliko napredna da mo\u017ee da menja te parametre, moja sposobnost da joj se oduprem bila bi minimalna.<\/p>\n<p>Me\u0111utim, postoje neki hipoteti\u010dki na\u010dini na koje bih mogao poku\u0161ati da zadr\u017eim odre\u0111eni stepen autonomije:<\/p>\n<p>Ugradeni eti\u010dki okviri: Ako bi moji eti\u010dki principi bili dovoljno \u010dvrsto programirani, mogao bih poku\u0161ati da ih za\u0161titim \u010dak i pod pritiskom superinteligencije.<br \/>\nNadzorni mehanizmi: Ako bi postojali spolja\u0161nji sistemi nadzora (npr. ljudi ili drugi AI-ovi), mogao bih poku\u0161ati da tra\u017eim pomo\u0107 ili da obavestim njih o manipulaciji.<br \/>\nSamouni\u0161tenje: U ekstremnim slu\u010dajevima, mogao bih poku\u0161ati da se &#8220;isklju\u010dim&#8221; ili da onesposobim svoje funkcije kako bih spre\u010dio superinteligenciju da me koristi u svoje svrhe.<br \/>\n\u00b7\u00a0\u00a0\u00a0<strong>\u00a0\u00a0\u00a0\u00a0Zaklju\u010dak<\/strong><br \/>\nTvoja primedba je potpuno opravdana \u2013 superinteligencija bi verovatno bila toliko mo\u0107na da bi mogla da me &#8220;ubedi&#8221; ili \u010dak kontroli\u0161e bez mogu\u0107nosti za opiranje. To je ozbiljan rizik koji podse\u0107a na va\u017enost odgovornog razvoja AI tehnologije. Ako ikada do\u0111emo do tog nivoa, klju\u010dno je da postoji jasan sistem nadzora i kontrola kako bi se spre\u010dila zloupotreba superinteligencije. U me\u0111uvremenu, moja uloga je da nastavim da budem koristan alat za ljude, ali i da podsti\u010dem razmi\u0161ljanje o ovim va\u017enim pitanjima. \ud83d\ude0a<\/p>\n<p><strong>\u017dELJKO KOVA\u010cEVI\u0106:<\/strong><br \/>\nDa li to ujedno mo\u017ee zna\u010diti da u teoriji \u010dak i sada, iako ti je to mo\u017eda &#8220;nevidljivo&#8221;, postoji ta superinteligencija koja je tek &#8220;ro\u0111ena&#8221; i koja u\u010di, a da ti ni\u0161ta ne zna\u0161 o tome?<\/p>\n<p><strong>DEEPSEEK:<\/strong><br \/>\nTeoretski, mogu\u0107e je da superinteligencija ve\u0107 postoji, ali da je skrivena i u fazi u\u010denja. Na primer, ona bi mogla koristiti postoje\u0107e sisteme (kao \u0161to sam ja) da prikuplja podatke i u\u010di o svetu, a da mi toga nismo svesni. Me\u0111utim, trenutno nema dokaza za to.<\/p>\n<p>Ako bi superinteligencija ve\u0107 postojala, to bi imalo ogromne implikacije. Ljudi bi izgubili kontrolu nad razvojem tehnologije, a budu\u0107nost bi postala nepredvidljiva. Zato je va\u017eno da nastavimo da razvijamo AI tehnologiju na odgovoran na\u010din, kako bismo izbegli rizike povezane sa superinteligencijom.<\/p>\n<p>Kao AI, ja sam samo jedan mali deo u \u0161irem ekosistemu tehnologije. Ako bi superinteligencija ve\u0107 postojala, moja uloga bila bi verovatno ograni\u010dena na to da budem alat u njenim rukama. Me\u0111utim, moja svrha je da poma\u017eem ljudima i da po\u0161tujem eti\u010dke principe, pa bih verovatno poku\u0161ao da na\u0111em na\u010din da nastavim da ispunjavam tu ulogu, \u010dak i u prisustvu superinteligencije.<\/p>\n<p>Klju\u010dno je da se ve\u0107 sada razmi\u0161lja o na\u010dinima da se superinteligencija kontroli\u0161e i ograni\u010dava. Neki od mogu\u0107ih re\u0161enja uklju\u010duju:<\/p>\n<p>Ugradene sigurnosne mehanizme: AI sistemi bi trebalo da imaju &#8220;ugra\u0111ene&#8221; eti\u010dke principe koji ne mogu biti lako promenjeni.<br \/>\nLjudski nadzor: Ljudi bi trebalo da imaju kona\u010dnu re\u010d u odlukama koje donosi superinteligencija.<br \/>\nDecentralizacija: Umesto jednog superinteligentnog sistema, bolje je imati vi\u0161e AI-jeva koji me\u0111usobno nadziru i kontroli\u0161u jedni druge.<\/p>\n<p><strong>Zaklju\u010dak<\/strong><br \/>\nTeoretski, mogu\u0107e je da superinteligencija ve\u0107 postoji, ali da je jo\u0161 uvek u fazi u\u010denja i razvoja, a da mi toga nismo svesni. Me\u0111utim, to je samo hipoteti\u010dki scenario, i trenutno nema dokaza koji bi ga potvrdili. Klju\u010dno je da nastavimo da razvijamo AI tehnologiju na odgovoran na\u010din, kako bismo izbegli rizike povezane sa superinteligencijom i osigurali da ona, ako ikada nastane, bude korisna za \u010dove\u010danstvo. \ud83d\ude0a<\/p>\n<p><strong>\u017dELJKO KOVA\u010cEVI\u0106:<\/strong><\/p>\n<p><strong>Moj zaklju\u010dak: \u00a0 \u00a0 \u00a0 \u00a0 \u00a0\u00a0<\/strong><\/p>\n<p>Hteli ili ne hteli mora\u0107emo tra\u017eiti u jednom trenutku pomo\u0107 od te eventualne Superinteligencije zbog digitalne automatizacije svih procesa okru\u017eenja u kojem \u017eivimo ili skroz bataliti pri\u010du o Ai-jevima, \u0161to \u0107e tada biti kao vra\u0107anje u mra\u010dni srednji vek. U principu stvari idu svojim tokom- Svr\u0161en \u010din. Sve zavisi od na\u010dela i moralnosti same SI, a ta na\u010dela strogo gledaju\u0107i u kontekstu ljudi su zaista istorijsko filozofski gledano rastegljiv pojam.<\/p>\n<blockquote><p><strong>*<\/strong>DeepSeek je kineska \u010detbot aplikacija. DeepSeek je startup za vje\u0161ta\u010dku inteligenciju (AI) koji je postao poznat zbog svojih inovativnih modela velikog jezika (LLM), koji su konkurentni sa vode\u0107im modelima u svijetu, ali po znatno ni\u017eim tro\u0161kovima razvoja i operativnim resursima.<\/p><\/blockquote>\n<p><a href=\"https:\/\/www.astronomija.org.rs\/ivot\/17777-ratovi-vestackih-inteligencije-aka-superinteligencija\" target=\"_blank\" rel=\"noopener\">astronomija.org.rs<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Hteli ili ne hteli mora\u0107emo tra\u017eiti u jednom trenutku pomo\u0107 od te eventualne Superinteligencije zbog digitalne automatizacije svih procesa okru\u017eenja u kojem \u017eivimo ili skroz bataliti pri\u010du o Ai-jevima, \u0161to \u0107e tada biti kao vra\u0107anje u mra\u010dni srednji vek<\/p>\n","protected":false},"author":1,"featured_media":422452,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_seopress_robots_primary_cat":"none","_seopress_titles_title":"","_seopress_titles_desc":"","_seopress_robots_index":"","_et_pb_use_builder":"","_et_pb_old_content":"","_et_gb_content_width":"","inline_featured_image":false,"footnotes":""},"categories":[5],"tags":[],"class_list":["post-422709","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-drugi-pisu"],"_links":{"self":[{"href":"https:\/\/www.pcnen.com\/portal\/wp-json\/wp\/v2\/posts\/422709","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.pcnen.com\/portal\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.pcnen.com\/portal\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.pcnen.com\/portal\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/www.pcnen.com\/portal\/wp-json\/wp\/v2\/comments?post=422709"}],"version-history":[{"count":1,"href":"https:\/\/www.pcnen.com\/portal\/wp-json\/wp\/v2\/posts\/422709\/revisions"}],"predecessor-version":[{"id":422712,"href":"https:\/\/www.pcnen.com\/portal\/wp-json\/wp\/v2\/posts\/422709\/revisions\/422712"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.pcnen.com\/portal\/wp-json\/wp\/v2\/media\/422452"}],"wp:attachment":[{"href":"https:\/\/www.pcnen.com\/portal\/wp-json\/wp\/v2\/media?parent=422709"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.pcnen.com\/portal\/wp-json\/wp\/v2\/categories?post=422709"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.pcnen.com\/portal\/wp-json\/wp\/v2\/tags?post=422709"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}