Historicky nejstarším výpočetním modelem - pochází z doby prvních počítačů, které neumožňovaly svým uživatelům interaktivní styk s jejich úlohami, místo toho museli uživatelé dopředu přesně říci, co a jak si přejí (vypočítat, spustit, uložit atd.), své pokyny museli "zabalit" do vhodného "balíčku" (tzv. dávky, anglicky batch), a ten pak zařadit do fronty dalších dávek, čekajících na zpracování. Až na příslušnou dávku přišla řada, počítač ji zpracoval a výsledky opět vhodně "zabalil" (například do formy výstupní tiskové sestavy), tak aby mohly být následně předány uživateli.
Nástup tohoto výpočetní modelu se stal možný v okamžiku, kdy vývoj systémového programového vybavení (operačních systémů) pokročil natolik, že bylo možné na jednom procesoru provozovat několik úloh současně - přesněji "skoro současně", v tzv. režimu sdílení času, kdy se provádění jednotlivé úlohy ve velmi rychlém sledu střídá a vytváří tak iluzi, že tyto úlohy běží současně. Dalším nezbytným předpokladem zavedení nového výpočetního modelu bylo připojení vhodných terminálů = vstupně/výstupních zařízení, umožňujících jednotlivým uživatelům zadávat své vstupy (typicky prostřednictvím klávesnice) a přijímat výstupy svých úloh (které se zobrazují na obrazovce terminálu). Samotný počítač, na kterém se úlohy zpracovávaly, se dostal do role tzv. Hostitelského počítače. Hostitelským v tom smyslu, že "hostil" veškeré systémové zdroje, od výpočetní kapacity (procesoru) přes různé druhy pamětí a dalších zařízení, po operační systém, nejrůznější aplikace a jejich data.
Výpočetní model host/terminál byl často kritizován nejčastěji proto, že uživatelům nabízel jen malý komfort a nutil je sdílet veškeré systémové zdroje s ostatními Uživateli. Nástup těchto skutečně "osobních" počítačů, zejména těch kompatibilních s IBM PC, opravdu přinesl mnoho zlepšení - například větší komfort pro uživatele - přinesl také nový výpočetní model, který by bylo možné nazvat jako "model izolovaných počítačů". Ten totiž předpokládal, že jednotlivé aplikace běží na samostatném počítači, který není nijak propojen s ostatními počítači a tudíž má i vše potřebné jen k vlastní dispozici. ->zjednodušení pro tvůrce aplikací, ale na druhé straně to přineslo problémy například se sdílenými daty, Dalším problémem byla správa izolovaných počítačů: jestliže u předchozího modelu host/terminál stačilo odstranit příslušný problém na jediném centrálním místě (na hostitelském počítači), nyní bylo třeba problém odstraňovat na mnoha místech (současně na jednotlivých počítačích).
- umožňujíce zajistit potřebné sdílení toho, co má být sdíleno, a naopak individualizaci a izolovanost toho, co sdíleno být nemusí. Tento model předpokládá existenci lokální počítačové sítě a v ní existenci centrálního uzlu, který vystupuje v roli tzv. file serveru - ostatním uzlům (svým klientům) poskytuje službu spočívající v uchovávání jejich souborů. Díky tomu mohou být jednotlivé soubory (představující jak data, tak i samotné aplikace) umístěny centrálně na tomto file serveru, ale z pohledu ostatních uzlů (klientů file serveru) se mohou tvářit jako jejich vlastní soubory. V důsledku toho pak aplikace i data "sedí" na file serveru, ale zpracovávány jsou na jeho klientech, neboli na pracovních stanicích jednotlivých uživatelů. Důležité přitom je, že celé sdílení centrálně umístěných souborů je z pohledu aplikací neviditelné, takže tyto aplikace s ním nemusí vůbec počítat (a mohou to tedy být aplikace určené pro provozování na samostatných izolovaných počítačích PC).
-má mnoho nevýhod, např. neefektivnost. Jestliže jsou data uchovávána na jednom místě (centrálně na file serveru) a zpracovávána jinde (u uživatele, na jeho pracovní stanici), je přitom nutné je přenést všechny (jako příslušné datové soubory), bez ohledu na to, jak velká či malá část z nich bude skutečně potřeba. Takže jde-li například o vyhledání jediného dvouhodnotového údaje (typu ano/ne) v megabytové databázi, je nutné nejprve přenést celou tuto megabytovou databázi z file serveru na uživatelovu pracovní stanici. Možnost minimalizovat takovéto zbytečné přenosy vede k "roztržení" aplikace, která data zpracovává - ta část aplikace, která s daty fakticky pracuje, bude provozována tam, kde se nachází i samotná data, tedy na centrálním serveru. Naproti tomu ta část aplikace, která zajišťuje styk s uživatelem, sběr jeho dotazů i prezentaci výsledků, je provozována přímo na uživatelově stanici. Pokud jsou obě "roztržené" části aplikace vhodně koncipovány, jejich vzájemná komunikace může být efektivní a nenáročná na objem přenášených dat
-klasický model klient/server představuje dvojčlenné dělení původně jednolité (monolitické) aplikace. Ne vždy je ale takovéto dvojčlenné dělení optimální – mnoha dnešním aplikacím vyhovuje spíše rozdělení celé aplikace na tři části: jednou z nich je obvykle "masové zpracování dat", typicky nějaká databáze a nad ní potřebné databázové operace. Druhou částí bývají tzv. aplikační logika, která zajišťuje to, co je pro danou aplikaci specifické - například interpretuje data, obsažená v databázi, způsobem který vyplývá z podstaty aplikace (například u aplikace z oblasti účetnictví tato část zajišťuje provedení účetní uzávěrky, přičemž sama používá data obsažená v databázi). Třetí část se pak stará o styk s uživatelem, o prezentaci výsledků a sběr uživatelových dotazů. Tato třetí část je dnes velmi často řešena na platformě služby World Wide Web
Jde o řešení, v rámci kterého jsou aplikace umístěny na vhodném serveru, který se nachází někde v síti. Teprve v okamžiku, kdy na uživatelově počítači vznikne potřeba použít nějaký takovýto program, je tento stažen ze sítě (přenesen ze síťového serveru na uživatelův počítač) a zde spuštěn. Základem všeho zde tedy je síť (s příslušnými servery), která poskytuje uživatelům vše potřebné, kdykoli si o to řeknou. Snad právě proto se také celému tomuto výpočetnímu modelu říká Network Centric Computing. Tedy něco jako "výpočetní model, jehož středem je síť". Ta je zde skutečně středem všeho, protože s ní stojí a padá možnost smysluplné práce na počítačích uživatelů. Jakmile by síť nefungovala a neposkytovala programy ke stažení a spuštění, uživatelů by jejich počítače byly k ničemu.
Stahování programů ze sítě samozřejmě musí probíhat dostatečně rychle, tak aby uživatel nezaznamenal žádné významnější zpoždění od okamžiku, kdy projevil své přání (že chce něco dělat), do okamžiku, kdy je příslušný program stažen ze sítě a spuštěn na jeho počítači. To samozřejmě klade velké nároky na rychlost a propustnost sítě, ze které je program stahován. Ale není to zdaleka jediný požadavek. Dalším nezbytným požadavkem je to, aby program, stahovaný ze sítě, vůbec byl schopen běžet na počítači, na který je stažen. Měl by to být nějaký takový tvar programu, který je spustitelný a schopný plnohodnotné práce na různých platformách, na kterých může být uživatelům počítač postaven (tedy třeba na MS Windows, na Unixu, Linuxu, na MacOS atd.). Takovýmto tvarem programu jsou například aplety jazyka Java, což jsou jakési předkompilované (před-přeložené) programy, uzpůsobené k tomu, aby mohly běžet na různých platformách, včetně různých procesorů a operačních systémů. Vždy ale za podmínky, že na příslušné platformě najdou stejné "domovské prostředí", které pro ně představuje tzv. javovský virtuální stroj (JVM, Java Virtual Machine). Ten si můžeme představit jako jakýsi "virtuální počítač v počítači".
Možnost stahovat vše potřebné ze sítě na počítače uživatelů, díky modelu Network Centric Computing, má i některé další významné důsledky. Například tu, že výrazně snižuje náklady na správu a údržbu uživatelských počítačů. Díky celému principu fungování tohoto modelu totiž uživatelské počítače mohou být poměrně jednoduché a "nerozbitné", protože se od nich očekává jen jedna jediná věc: schopnost stáhnout si ze sítě to, co je momentálně potřebné, a pak tomu předat řízení. A po skončení práce s příslušným programem to jednoduše zahodit. Můžeme si to představit také tak, že klasický počítač PC je "tlustý" - právě v tom smyslu, že neustále bobtná instalováním dalších a dalších aplikací, které mohou, ale také nemusí být nikdy zapotřebí. Naproti tomu počítač, který si vše potřebné stahuje ze sítě, díky modelu Network Centric Computing, může být "tenký" (ve smyslu: jednoduchý odlehčený). Hovoří se o něm také jako o "tenkém klientovi", ale možná ještě výstižnějším označením je Network Computer, zkratkou NC (neboli: síťový počítač), kvůli vazbě na celý model Network CentricComputing.
Síťové počítače, alias počítače NC, jsou často dávány do protikladu k počítačům PC. Stejně tak se hovoří i o tenkých klientech (NC), jako o protipólu k tlustým klientům (PC). Pravdou je, že ještě před několika lety se tenkým klientům (počítačům NC) přisuzovala velká budoucnost, a to jednak kvůli nižší pořizovací ceně (díky větší jednoduchosti), i kvůli výrazně nižším nákladům na správu a systémovou údržbu. Mohou to totiž být značně "blbovzdorná" zařízení, na kterých uživatel nemá co pokazit. A pokud by snad přeci jen něco pokazil, pak stačí je vypnout a znovu zapnout -a NC si vše potřebné znovu stáhne ze sítě. Ovšem praxe představy o masovém zavádění počítačů NC nenaplnila. Jednak proto, že cenový rozdíl oproti klasickému PC se v mezičase stal relativně malým, až zanedbatelným. Stejně tak ale asi i proto, že přepsat rychle všechny skutečně používané aplikace do zcela nové podoby se ukázalo jako nereálné. A když už se to někde podařilo, tak se zjistilo, že úzké hrdlo přeci jen může být v síti a v její omezené propustnosti, kvůli které by se větší aplikace stahovaly neúnosně dlouho.
-výpočetní model, který se jakoby "vrací zpět ke kořenům", k již osvědčenému řešení (výpočetnímu modelu) host/terminál, a snaží se jej upravit tak, aby vyhovoval současným potřebám. Model host/terminál předpokládá, že všechny zdroje (programy, data, výpočetní kapacita, periferie atd.) jsou umístěny na jednom centrálním místě, a to na hostitelském počítači (host-u), na kterém také všechny aplikace po svém spuštění běží. Uživatelé pak s těmito aplikacemi pracují prostřednictvím terminálů, na které jim jsou zasílány výstupy příslušných aplikací, a ze kterých jsou naopak odesílány zpět vstupy od uživatelů, určené těmto aplikacím. Významnou předností modelu host/terminál bylo to, že vše v něm bylo "na jedné hromadě" (na hostitelském počítači), a to velmi výrazně usnadňovalo systémovou správu a údržbu. Kdykoli byl potřeba nějaký zásah, dělal se na jednom místě a pro všechny uživatele současně.
= "výpočetní model, založený na serverech". Operuje s modernějším pojmem "server„, na tomto serveru jsou soustředěny všechny zdroje, včetně aplikací, a zde také tyto aplikace běží. Proto se také o příslušném serveru hovoří také jako o aplikačním serveru - jako svou službu poskytuje možnost provozování (běhu) celých monolitických aplikací. V roli původních terminálů vystupují opravdu nejrůznější zařízení, od osobních PC (případně počítačů NC), přes různé tablety, zařízení PDA, až třeba po mobilní telefony. Skrze všechna tato zařízení, mnohdy velmi mobilní, chtějí být uživatelé ve styku se svými úlohami, které běží na aplikačním serveru. aplikace, běžící na aplikačním serveru, posílají své výstupy nikoli na klasické terminály, ale právě na takováto zařízení. Z nich pak také dostávají od uživatelů pokyny ke svému fungování. V zásadě ale stále platí, že i tato novodobá zařízení vystupují v roli terminálů - a to vůči aplikacím, běžícím na aplikačním serveru o kterém se hovoří jako o terminálovém serveru (například v rámci terminologie používané společností Microsoft).