Pretpostavljam da misli na Proxmox bez corosync-a tj. node-ovi jesu pridodati u klaster, ali VM-ovi se fiksno vrte na njima, bez automatske migracije u slučaju havarije.
Ako je u kontekstu Proxmox-a, onda OK. Tako mi ima smisla.
Model je samo model, algoritam za predikciju. Tebi treba agent ili pak MCP client sa kojim mozes dati modelu pravu moc. Pogledaj N8N ako si za drag drop varijante ili ipak ClaudeCode, Cursor, Cline itd ako hoces pozivanje alata i MCP servera.
To sam i ja mislio... da je tajna u agentima. U stvari nije. Kada se pogleda ispod haube poprilično je jednostavan koncept ali uspešnost agenta apsolutno zavisi od kvaliteta LLM modela. Agent je vrlo priglup shell oko LLM modela.
Naravno, probao sam Codex i Claude Code CLI alate i oni dosta dobro rade posao koji mi treba ali oni to uspevaju samo u kombinaciji sa OpenAI odnosno Claude modelima. Što jači model, to bolje radi. Srećom, preko firme imam pristup najjačim modelima pa mogu da isprobam sve na delu. Ono što bih ja hteo da postignem je neki zadovoljavajuć rezultat sa nekim lokalnim modelom jer ne želim da koristim firmine resurse. Želim da razvijam neke alate za koje neću da budu vlasništvo firme jer sam koristio firmine resurse. U tom slučaju spadam ili na lokalne modele ili da plaćam pretplatu za komercijalne modele.
Inače, evo kako agenti poput Codex-a ili VSCode ekstenzija kao što su Continue ili Cline funkcionišu u pozadini. Koga smara deep dive, neka preskoči

. Oni započinju ceo proces tako što LLM modelu prvo pošalju jedan ogroman tekst koji postaje deo konteksta. U tom tekstu agent alati (Codex, Cloude Code, Cline...) opisuju kako LLM treba da se ponaša, šta može i sme da radi, kako da alatu pošalje "tool" zahtev itd. Evo kraći primer iz GitHub Copilote-a:
Ovo je samo delić, tekst je impozantan kada se pogleda u celini. Malo to meni izgleda smešno ali ovo su bukvalno "ljudske" instrukcije zadate AI-u kako da se ponaša i kako da vrši interakciju sa agentom da bi stvarno uradio posao.
Tool u ovom kontekstu predstavlja npr. akcije kao što su listanje direktorijuma, čitanje fajlova, prepravljanje fajlova itd. LLM poziva tool tako što agent-u šalje JSON objekat sa imenom tool-a i parametrima. Agent u onom inicijalnom tekstu opisuje kompletan protokol, kombinacijom JSON specifikacije i prostog jezika, za kog očekuje da ga LLM model poštuje. Kvalitet integracije između agent-a i LLM modela u pozadini u potpunosti zavisi od kvaliteta LLM modela i da li on može da prati i pridržava se pravila koja su mu inicijalno poslata. Recimo VSCode Chat (GitHub Copilot) radi odlično ako izabereš ChatGPT 5 ili Claude Sonnet ali se totalno raspadne kada mu kažeš da koristi Ollama backend i neki lošiji LLM model (tipa kao Qwen-2.5 u mom slučaju). Testirao sam i Continue i Cline koji takođe mogu u pozadini da koriste i komercijalne i besplatne lokalne modele. Ista je priča, komercijalni se lepo snalaze, lokalni se raspadaju. Evo i primer kako mu objašnjava šta agent nudi od tool-ova koje LLM može da pozove:
Sve u svemu, ovo je sve jedno veliko "ako uspe, uspe".
Ne znam specifikacije tih modela ali ako je RTX 2080 pandan tome onda bi mogao biti ogranicen CUDA performansama. Moci ces ucitati vece modele ali novije masine bi bile daleko brze. Uglavnom, lupam. Probaj pa vidi da li ti odgovara.
Nemam u stvari izbor. Quadro RTX 6000 mi stiže u okviru mašine pa daj šta daš. Ovako u oglasima, sama kartica se prodaje skuplje nego ceo komp. Niđe logike ali dobro. Voleo bih da je u pitanju Qaudro RTX A5000, ona je pandan RTX 3080 ali jbg... moraće sa strane da se kupi. Kolega s posla je pre jedno 6 meseci kupio dva komada A5000 za 500 evra komad što je bukvalno džabe u odnosu na sadašnje cene.
Mozes imati klaster masina bez redundancije, replikacije, itd, zar ne?
Zavisi šta smatraš klasterom. Ako imaš samo nekoliko umreženih računara/servera, to generalno nije klaster. Klaster podrazumeva spregu između tih servera koja obezbeđuje da ako crne jedan server, ostali serveri nekako preuzimaju posao ovog koji je crkao. To je ujedno i koncept visoke dostupnosti (high availability). Drugim rečima, klaster je jedna od tehnika za postizanje HA s tim što HA može da bude prisutna na više slojeva.
Proxmox je dobar primer. Možeš da imaš nekoliko umreženih Proxmox host-ova i da vrtiš na njima virtuelne mašine potpuno nezavisno a možeš i da napraviš od njih klaster tako da mašine mogu da se šetaju između hostova (prebacuju se s jednog na drugi) i u slučaju crkavanja jednog host-a da se mašine automatski podignu na ostalim host-ovima (ako tako želiš i tako namestiš).
Dead giveaway sto bi nas stari narod rekao su CEOovi kompanija i njihove izjave. Ako ih se nacepi nekakvom regulativom onda kukaju kako su "sputani, ne mogu da rade na tehnoloskom progresu, problem kancera nije rijesen, nema dovoljno energije", a kad ih se pusti na miru godinu dana deliveruju samo slop generatore uz naravno opasku da ce da zamjene sve "dobro placene" eksperte.
Scam nije dobra rijec za ovo jer da je AI dobar, da dobro umije da rezonuje, daje analize, predikcije, trendove zar nije logicno onda da prvo ti CEOovi lete iz firme? LLM ti daje izlaz koji statisticki gledano "lici na nesto" ili je "plausible" ali to ne znaci da ima apsolutno ikakve veze sa realnoscu. Nekad ima, ali nema garanta jer nije deterministicki algoritam u pozadini.
Pogodak, 200%. Ja ovo pokušavam svom CEO da objasnim i njegovim "drugarima". Čovek se primio na vibe coding, napravio par fancy web GUI aplikacija vibe code-ovanjem i sad hoće kompletnu infra automatizaciju (Terraform, Ansible, custom scripting) da zameni sa AI agentima. Inače, infra nam je core business, ne web development. Ako nam infra umre, osetiće se na BDP-u cele Srbije

. Ja sam ono već pred otkazom... spasavaj glavu dok mogu.
P.S. Baš smo se raspisali. Ako mnogo spamujemo, molim nekog moda da nas prebaci u namensku temu.