Piše: Ernad Osmić
Mi trenutno živimo u jednoj distopijskoj stvarnosti. Pojedinci koji do jučer nisu znali sastaviti prosto-proširenu rečenicu, sada se izražavaju u čitavim paragrafima bez ijedne pravopisne greške. Jeste da su ti paragrafi popraćeni mnoštvom emodžija i pravopisnim znakovima koje prije godinu dana ne bi znali koristiti u pisanju, ali šta je tu je.
Ljudi bez likovnih ili dizajnerskih vještina proizvode slike i postere. Drugi pak bez znanja o muzici stvaraju čitave muzičke kompozicije. Treći opet uspijevaju napraviti kratke video snimke dok se izležavaju na ugaonoj u dnevnom boravku ili sjede na WC šolji.
I prije nego što pomislite da je u pitanju renesansa uma, da smo napokon stigli u zlatno doba kreacije i intelekta u kojem je čovjek napokon zakoračio na viši nivo spostvene egzistencije, istina je, po običaju, mnogo mračnija, sebičnija, … gluplja.
Šta je AI?
Prije nego što zakoračimo u detalje ovog našeg usuda koji moram trpjeti, poželjno bi bilo znati šta je uopće AI.
AI ili umjetna inteligencija je kišobran pojam kojim se obuhvata nekoliko različitih tehnologija. U najširem smislu: AI je tehnologija koja složenim algoritamskim operacijama stvara iluziju onoga što naši umovi doživljavaju kao inteligenciju.
Ključna riječ ovdje je iluzija, jer kod umjetne inteligencije ne postoje misaone forme kao kod čovjeka. ChatGPT, Gemini i Grok ne razmišljaju, oni kalkuliraju i pretpostavljaju koja bi riječ statistički trebala da uslijedi nakon prethodne riječi kako bi se nama učinilo da uistinu vodimo razgovor s osobom. Iskustvo je slično kao kad sociopata pokušava da ti se dodvori nekim vicom kojeg je naučio napamet, a ti vidiš u njegovim mrtvim očima jaz gdje bi trebala biti ljudska duša.
Sve je tekst, što bi rekao Jacques Derrida, a ovi AI modeli ovu njegovu misao tjeraju do tolikih granica apsurda, da se ovaj francuski filozof ne okreće u grobu, nego je posljednje dvije godine u neprestanom centrifugalnom stanju.
ChatGPT i drugi modeli su takozvani LLM-ovi (Large Language Models) iliti Veliki jezični modeli. Zovu se tako jer je nepregledna kolekcija jezičnih informacija na kojoj su bazirani upravo njihova srž i suština.
OPEN AI, neprofitna organizacija koja stoji iza ChatGPT-a, je prilikom izrade ove svoje apokaliptične aplikacije iskoristila na milijarde tekstova iz javnih, ali često i iz autorski zaštićenih izvora.
Koristeći tu ogromnu bazu skoro svega što je moguće naći u pisanom obliku, ChatGPT je u sebe satvorio i od sebe stvorio apostola sataraša informacija i hiperinformiranosti. Sataraš kojeg smo posljednje dvije decenije bili primorani da jedemo u obliku spinovanja, klikbejtova, lažnih vijesti, dezinformacija, postistine i botova. ChatGPT i drugi modeli su vidjeli kako iz dana u dan jedemo taj sataraš i odlučili su da nam ga ponovo podgriju, a mi smo ga zgrabili i samo nastavili da jedemo kao da u životu nismo nikada ništa stavili u usta.
Kako radi ChatGPT?
Kada kažemo da umjetna inteligencija pretpostavlja – a ne razmišlja, mi moramo biti svjesni kojom brzinom se sve to odvija.
Baš kao što je brzina presudna kod šibicara na pijaci da nas prevari, tako je brzina vodeći faktor i kada je u pitanju ChatGPT i njegova iluzija o inteligenciji. Mnogima je teško shvatiti brzinu kojom ovi modeli umjetne inteligencije vrše kalkulacije da pretpostave koje bi grupacije slova trebale da uslijede jedna nakon druge i time nas prevare da ih prozovemo inteligentnim.
Ti komadići informacija zovu se tokeni. To su male grupacije znakova: ponekad slovo, ponekad dio riječi, ponekad cijela riječ. Model sve (tvoj upit i svoj odgovor) razbija na te tokene i gradi rečenice token po token.
Bitno je napomenuti ovdje da ChatGPT nije baza podataka tekstova. On je program koji je treniran na tim tekstovima kako bi naučio obrasce jezika. Kod ovih AI modela ne postoji, dakle, razumijevanje, postoji samo prepoznavanje matrica po kojima jezik stvara značenje. ChatGPT nije svjestan značenja, on je “svjestan” samo koji token najvjerovatnije treba uslijediti nakon prethodnog tokena.
Evo jednog izuzetno pojednostavljenog primjera.
Recimo da je naš upit ili prompt “Koji je glavni grad Italije?”
Model je tokom treniranja bezbroj puta vidio obrazac oblika glavni grad + Italija = Rim. Kada izračuna vjerovatnoću od svih tokena koje trebaju uslijediti nakon tokena glavni grad i Italija, Rim ispadne kao najizvjesniji.
On zatim svoj odgovor formatira sličnim postupkom. Obrazac Rim + glavni grad + Italija on je bezbroj puta “vidio” u obliku “Glavni grad Italije je Rim.”, pa nam to ponudi kao svoj odgovor.
Ako smo pomno pratili ovaj izuzetno uprošteni primjer, primijetit ćemo da je ključno ovdje pojam bezbroj puta vidio. Šta se desi međutim ako to “bezbroj puta vidio” izostane. Ako ChatGPT nema referencu na ono što se nalazi u našem promptu?
ChatGPT u tom slučaju i dalje pokušava da nam pruži odgovor, ali to radi poput osobe s manjkom znanja i viškom samopouzdanja, i baš kao što je takvim osobama najteže izgovoriti riječi “ne znam”, i ChatGPT uzme i sastavi one tokene koje njegov algoritam izračuna kao najplauzibilnije iako ne moraju imati veze s našim upitom ili našim očekivanjima.
Mi validan odgovor doživljavamo kao inteligenciju zbog brzine kojom ga dobijemo, a ove nama nevalidne odgovore smatramo lupetanjima, ili kako se popularno naziva “AI halucinacijama”.
U svakom slučaju, samo govorimo o prividu inteligencije ili glupoće, jer nikakav se proces razmišljanja ne dešava. ChatGPT baš kao Hermes u grčkoj mitologiji, ne jamči za ispravnost poruke, on je samo prenosi. On ne mari za istinom jer nije Apolon niti ima tu sposobnost da bude.
Dihotomija Apolona i Hermesa
Čitajući o tehnologiji ovih velikih jezičnih modela, nametnula mi se dihotomija Apolona i Hermesa. Ova dva starogrčka božanstva predstavljaju dva oprečna arhetipa kada je u pitanju prenošenje informacija.
Hermes (ili Merkur u rimskoj mitlogoji) božanstvo je koje se može kretati između svjetova bogova i smrtnika. Viđali ste ga vjerovatno u popularnoj kulturi predstavljenog sa krilatim sandalama. Pomoću njih on brzo i pouzdano može stizati od svijeta bogova u svijet smrtnika, pa je dobio ulogu glasnika bogova. Uzeo bi poruku od bogova i odnio bi je ljudima.
Prema mitologiji, Hermes nije odgovarao, međutim, za moguće transformacije koje bi ta poruka doživjela tokom prelaska iz božanskog svijeta u svijet smrtnika. On bi samo uzeo poruku, prešao s njom prag, i dao bi je ljudima u kakvom god obliku ona u tom trenutku bila.
ChatGPT se jednako tako ne zamara interpretacijom. On je samo glasnik. Baza teksta na kojoj je treniran predstavlja omniscentnost, to sveznajuće božanstvo od kojeg nam stiže poruka kada joj se molimo iliti napišemo prompt. ChatGPT kao glasnik grabi to znanje i algoritam vjerovatnoće odabranih tokena formatira uslišenje našeg prompta u obliku odgovora i, baš kao Hermes, ne odgovara za oblik koji ta poruka ima u trenutku kada stigne do nas.
Apolon je, s druge strane, božanstvo istine. Njemu je stalo do validnosti poruke, a ne samo do njenog prenošenja. On je verifikacija. On je razmišljanje i kopanje po izvorima kako bi ih ne samo oblikovao u bilo kakvu pitku poruku, nego provjerio njenu tačnost i unio svjetlo u mjesta koja su tamna.
Hermesa nije briga za tim. Njegove poruke se oslanjaju na ono što je Karl Gustav Jung nazvao sinkronicitetom.
Sinkronicitet je prema njemu, slučajni smisao, to jeste smisao koji se stvori nasumično iz dvije ili više nepovezane pojave. Na primjer: ako danima pada kiša, pojava jedan. I onda dođe do poplava, pojava broj dva, zaključak da je kiša izazvala poplave ima smisla, ono nije slučajni smisao, nego uistinu jeste uzročno-posljedično povezano i proizašlo direktno iz pojave jedan i dva.
Sinkronicitet je pak smisao koji se ne može dokazati validnim mehanizmom koji djeluje ispod površine, ali nam ipak djeluje kao značajan; kao značenje. Primjer bi bio: sjetimo se neke pjesme ili neke osobe o kojoj jako dugo nismo razmišljali, i baš tog dana kada se nasumično sjetimo, čujemo tu pjesmu na radiju ili sretnemo tu osobu u gradu.
A, pošto su naši mozgovi tako dizajnirani da uvijek težimo ka smislu, mi ne možemo a da tu pojavu ne doživimo kao nešto što mora imati smisao, iako, apolonski gledajući, mi tu povezanost ne možemo objasniti niti dokazati.
Ne čudi ni to što je Jung sinkronicitet doveo u usku vezu s arhetipom Hermesa, koji po istom principu ne mari za porukom ili smislom koji ona proizvede, ali kojem će se pripisati zasluge ukoliko ta nasumična povezanost proizvede smisao u nama.
ChatGPT nasumično kalkulira tokene našeg prompta, uspoređuje sa svojim treningom i statističkom učestalosti tih tokena sa drugim tokenima, formira svoj “odgovor” istim tim procesom; i, uzdajući se u matematičku vjerovatnoću, prezentira odgovor nama u nadi da će se proizvesti slučajni smisao, a time da ćemo povjerovati da iza umjetne inteligencije uistinu stoji inteligencija, smisao, a ne sinkronicitet.
Bog Teut i Platonova apoteka
Hermes se, međutim, pojavljuje u još jednoj iteraciji kada je riječ o porukama kao čistim načinima reprezentacije bez prevelikog promišljanja o implikacijama kakav efekt te poruke mogu imati na čovjeka.
U svom djelu Fedra, Platon kroz glas Sokrata spominje egipatskog boga Teuta, koji je pandan starogrčkom božanstvu Hermesu. U Fedri, Sokrat pripovijeda o tome kako je Teut došao pred kralja Tamusa, te mu ponudio nekoliko svojih izuma koje bi da podari čovječanstvu. Jedan od tih alata je bila pisana riječ. Platon u Fedri piše:
Teut je došao k njemu i pokazao svoje izume, želeći da i drugi Egipćani imaju koristi od njih; […] kad su došli do slova, ovo će, rekao je Teut, učiniti Egipćane mudrijima i dati im bolje pamćenje; To je lijek i za pamćenje i za mudrost.
[…]
Tamus je odgovorio: O najdomišljatiji Teute, roditelj ili izumitelj vještine nije uvijek najbolji sudac o korisnosti ili nekorisnosti vlastitih izuma za njihove korisnike. A u ovom slučaju, ti koji si otac slova, iz očinske ljubavi prema svojoj djeci bio si naveden da im pripišeš osobinu koju ne mogu imati; jer će ovo tvoje otkriće stvoriti zaborav u dušama učenika, jer neće koristiti svoje pamćenje; vjerovat će vanjskim pisanim znakovima, a ne sami se sjećati. Lijek koji si otkrio nije pomoć pamćenju, već opominjanju, a ti svojim učenicima ne daješ istinitu mudrost, već samo privid mudrosti; bit će slušatelji mnogih stvari i neće ništa naučiti; činit će se samima sebi sveznajućima, a općenito neće ništa znati; bit će zamorno društvo, glumeći da posjeduju mudrost bez da je uistinu imaju.
Platon, Fedra ili o ljepoti
Kao što možemo vidjeti, sličnosti o slovima, tj. pisanju i njegovom efektu na čovjeka i njegov rad pamćenja i usvajanja znanja stoji u paraleli s onim što danas često možemo čuti i čemu svjedočimo i s tehnologijom umjetne inteligencije. Oni što su je izumili tvrde da je lijek. Kralj Tamus bi ipak rekao da izumitelj nečega nije uvijek najbolji sudac o korisnosti svog izuma.
U svom eseju “Platonova apoteka”, Jacques Derrida, onaj što je zapao u centrifugu, naglašava jednu dodatnu ambivalentnost koja se javlja u ovom dijelu Platonovog pisanja. Tačnije, u značenja riječi pharmakon.
I Teut i Tamus koriste grčku riječ pharmakon kako bi opisali izum pisanja. Ova riječ prevedena s grčkog može značiti i lijek i otrov.
Mi možemo pretpostaviti da kada Teut reklamira i predstavlja Teutu svoj izum pisanja, on koristi pharmakon u značenju lijeka. Derrida, pak, otvara pitanje o tome da li kritika kralja Tamusa, koja izum pisanja također naziva pharmakon, u sebi već sadrži impliciranu kritiku samog pisanja.
Platon u svojoj filozofiji pisanje uspoređuje sa slikarstvom i sa svim umjetnostima koji samo pokušavaju predstaviti materijalni svijet. Obzirom na to da Platon materijalni svijet samim od sebe već smatra samo označiteljima onog stvarnog svijeta ideja, on pisanje i sve druge reprezentacije materijalnog svijeta odbacuje kao kopiju kopije.
Derrida upravo na osnovu tog Platonovog vjerovanja u nemoć pisanja da prikaže svijet onakvim kakav on jeste, zaključuje u svom eseju da je sam čin pisanja dijaloga i korištenje dvosmislenosti riječi pharmakon Platonova implicitna kritika da je pisanje neadekvatno u prenosu znanja. Mi ćemo se uvijek pitati da li je kralj Tamus pharmakon pisane riječi smatrao lijekom koji može imati neke nuspojave, ili čistim otrovom.
Derrida tako navodi:
U drugu ruku, Kraljev odgovor pretpostavlja da učinkovitost pharmakona može biti obrnuta: ona može pogoršati bolest umjesto da je izliječi. […] Moguće je da je Teut pokušao predstaviti phramakon kao suprotno od onoga što pisanje uistinu jeste. Pokušao je otrov predstaviti kao lijek. Dakle, pri prevođenju pharmakona kao lijeka, ono što se poštuje nije ono što je Teut namjeravao, niti čak ono što je Platon namjeravao, već ono što kralj kaže da je Teut rekao, učinkovito obmanjujući ili kralja ili sebe. Ako Platonov tekst zatim nastavlja davati kraljevu izjavu kao istinu Teutove produkcije, a njegov govor kao istinu pisanja, tada prijevod lijeka čini Teuta ili budalom ili prevarantom.
Jacques Derrida, Platonova apoteka
Suština je sljedeća: Platon pisanje smatra neadekvatnim za istinsko usvajanje znanja jer može dovesti, prema Derridinom tumačenju, do privida mudrosti, a ne do istinskog suštinskog znanja.
Primijenimo li istu logiku na tehnologiju umjetne inteligencije, moguće je uspostaviti paralelu s pisanjem. Poznavati suštinu nečega i čitati o tome dvije su različite stvari, prema Platonu. On smatra da je znanje koje je naučeno samo čitanjem, a ne aktivnim razmišljanjem, samo iluzija znanja. Veliki modeli jezika su, u tom pogledu, manifestacije Platonove noćne more. Oni ne samo, da pod navodnicima, čitaju napisano, nego ga u obliku pisanja preformuliraju i prezentiraju kao znanje. Ova tehnologija time zavodi one koji je koriste u pomisao da su uistinu i sami usvojili znanje, umjesto da budu svjesni da su odgovori ChatGPT-a, platonski gledano, reprodukcija reprodukcije jedne kopije označitelja realnog svijeta.
Umjetnu inteligenciju nam pokušavaju oni što je prodaju predstaviti kao lijek. Kritičari je posmatraju kao otrov koji će uništiti način na koji učimo. Da li će se ispostaviti jedno ili drugo kao tačno, pokazat će vrijeme. Međutim, šta god bilo, ono oko čega se svi mogu složiti je činjenica da je umjetna inteligencija sintetička pojava koja je strana čovjeku i njegovim kognitivnim procesima usvajanja znanja. Ona nije puki organizator informacija, kao što su to internet pretraživači ili Wikipedia, već aktivno pokušava stvoriti iluziju mislećeg bića, iako ono to nije. Upravo u tom grmu leži zec najveće opasnost ove tehnologije.
Derrida u jednom dijelu svog eseja donosi zaključak o prijevodu pharmakona: čak i ako pretpostavimo da pharmakon (izum pisanja) shvatimo kao lijek, “on je u svojoj suštini štetan jer je umjetan.”








0 Comments