On‑premise AI: amikor az adatbiztonság felülírja a publikus AI előnyeit
Az AI üzleti értéke vitathatatlan – de nem minden környezetben fér bele a publikus modellhasználat. Megmutatjuk, mikor válik az on‑premise AI vezetői szinten stratégiai alapkövetelménnyé.

Képzeld el a következő helyzetet: vezetői meeting, az asztalon már ott van az AI‑projekt. A POC működik, a publikus modell okos válaszokat ad, az üzleti oldal lelkes. A kérdés viszont CTO‑ként vagy ügyvezetőként nem az, hogy működik‑e, hanem az, hogy vállalható‑e éles környezetben.
Az elmúlt két évben az AI kötelező téma lett. Gyors API‑hívások, publikus LLM‑ek, hitelkártyás kísérletek. Ez addig rendben is van, amíg nem érzékeny adatokkal és valódi üzleti döntésekkel dolgozunk.
Bizonyos iparágakban azonban nagyon gyorsan falba ütközik ez a megközelítés. Nem azért, mert az AI túl új – hanem mert az adatkezelés, az auditálhatóság és a kockázat egyszerűen nem szervezhető ki.
Miért nem engedhető ki minden AI a publikus térbe?
Banki, pénzügyi, egészségügyi vagy ipari környezetben az AI nem csak „okos funkció”. Üzleti és személyes adatokkal dolgozik, döntéseket támogat, és minden adatmozgásnak visszakövethetőnek kell lennie.
Egy publikus AI szolgáltatásnál viszont vezetőként ezekkel a kockázatokkal kell számolnod:
- nincs teljes kontroll az adat útja és tárolása felett,
- az auditálhatóság gyakran csak közvetett,
- a szolgáltató infrastruktúrája és üzleti döntései is kockázati tényezővé válnak.
Ez nem technológiai vita. Ez kockázatkezelési kérdés.
Mit jelent az on‑premise AI vezetői szemmel?
On‑premise AI esetén:
- a modell a saját infrastruktúrádon fut,
- nincs publikus internetelérés (air‑gap vagy szigorúan kontrollált hálózat),
- az AI a belső rendszerarchitektúra része, nem külső szolgáltatás.
Ez azt jelenti, hogy az AI ugyanabba a kockázati és üzemeltetési kategóriába kerül, mint egy core rendszer vagy belső adatbázis. Sok szabályozott környezetben ez nem extra elvárás, hanem alapfeltétel.
Rövid példák a valóságból
- Pénzügyi szolgáltató (≈80 fő): belső kockázati elemző AI, amely ügyféladatokon dolgozik. Publikus modell szóba sem jöhetett audit és adatkezelési okokból.
- Gyártó cég: minőségellenőrzési AI belső gyártási adatokkal és képekkel. Az IP védelme miatt kizárólag on‑premise megoldás jöhetett szóba.
Mindkét esetben az AI értéke megvolt – a publikus futtatás kockázata viszont nem volt elfogadható.

Mikor indokolt egyértelműen az on‑premise megoldás?
Nem minden AI‑nak kell on‑premise futnia. De erősen indokolt, ha az AI:
- érzékeny üzleti vagy személyes adatokat kezel,
- kritikus döntéseket támogat (scoring, kockázatelemzés, minőségbiztosítás),
- olyan folyamat része, ahol a kockázat nem kiszervezhető.
Ilyenkor a „gyorsabb” publikus megoldás hosszú távon gyakran drágább – jogi, biztonsági vagy reputációs oldalon.
On‑premise vs. felhő: költség nagyvonalakban
Egy tipikus, több modell és párhuzamos workload kiszolgálására alkalmas on‑premise AI szerver:
- GPU: NVIDIA L40S (48 GB VRAM) – ~3,7 M Ft
- CPU: AMD Ryzen 9 7900
- Memória: 128 GB DDR5
- Tárhely: 2 TB NVMe SSD
- Hálózat: 10 GbE, enterprise komponensek
Becsült költség: ~4,8–5,0 M Ft bruttó / gép
Összehasonlításképp: egy hasonló terhelésű, folyamatosan használt felhős GPU‑s AI környezet havi szinten könnyen elérheti a több százezer vagy akár milliós nagyságrendet. Az on‑premise nem feltétlen olcsóbb – viszont kiszámítható és kontrollált.
Köztes opciók – ha nem fekete‑fehér a helyzet
- Dedikált, vállalati kontroll alatt álló felhős AI környezet
- Hibrid architektúra: érzékeny adatok on‑premise, általános funkciók felhőben
- Privát hálózatra zárt AI szolgáltatás, publikus API nélkül
Ha nincs szigorú air‑gap követelmény, ezek jó kompromisszumot jelenthetnek.
Hogyan dolgozunk mi az MXC‑nél?
Az MXC‑nél az on‑premise AI nem elméleti kérdés. Éles rendszerekben szereztünk tapasztalatot:
- AI architektúra tervezés zárt környezetre,
- modell kiválasztás és finomhangolás üzleti célokra,
- integráció meglévő folyamatokba és rendszerekbe,
- üzemeltetési és biztonsági szempontok kialakítása.
Nem csak „felrakjuk a modellt” – azt nézzük meg, hogyan válik az AI valódi, kontrollált üzleti eszközzé.
Vezetői összefoglaló
- Publikus AI: általános, alacsony kockázatú felhasználásra
- Dedikált felhős AI: kontrollált, de nem kritikus folyamatokra
- On‑premise AI: érzékeny adatokhoz és kritikus rendszerekhez
Az AI infrastruktúra vezetői döntés. A rossz választás nem technológiai, hanem üzleti kockázat.
Beszéljünk róla
Ha szeretnéd végiggondolni, a te cégednél hol húzódik a határ publikus, felhős és on‑premise AI között, beszéljünk róla. Egy 30 perces technikai‑üzleti konzultáció alatt segítünk tisztán látni – kockázat és hype nélkül.


