MXC Software
Vissza a bloghoz
2026. 01. 08.
Mátyus Botond

On‑premise AI: amikor az adatbiztonság felülírja a publikus AI előnyeit

Az AI üzleti értéke vitathatatlan – de nem minden környezetben fér bele a publikus modellhasználat. Megmutatjuk, mikor válik az on‑premise AI vezetői szinten stratégiai alapkövetelménnyé.

image (3).png
On‑premise AI architektúra tervezése zárt, szabályozott vállalati környezetben.

Képzeld el a következő helyzetet: vezetői meeting, az asztalon már ott van az AI‑projekt. A POC működik, a publikus modell okos válaszokat ad, az üzleti oldal lelkes. A kérdés viszont CTO‑ként vagy ügyvezetőként nem az, hogy működik‑e, hanem az, hogy vállalható‑e éles környezetben.

Az elmúlt két évben az AI kötelező téma lett. Gyors API‑hívások, publikus LLM‑ek, hitelkártyás kísérletek. Ez addig rendben is van, amíg nem érzékeny adatokkal és valódi üzleti döntésekkel dolgozunk.

Bizonyos iparágakban azonban nagyon gyorsan falba ütközik ez a megközelítés. Nem azért, mert az AI túl új – hanem mert az adatkezelés, az auditálhatóság és a kockázat egyszerűen nem szervezhető ki.

Miért nem engedhető ki minden AI a publikus térbe?

Banki, pénzügyi, egészségügyi vagy ipari környezetben az AI nem csak „okos funkció”. Üzleti és személyes adatokkal dolgozik, döntéseket támogat, és minden adatmozgásnak visszakövethetőnek kell lennie.

Egy publikus AI szolgáltatásnál viszont vezetőként ezekkel a kockázatokkal kell számolnod:

  • nincs teljes kontroll az adat útja és tárolása felett,
  • az auditálhatóság gyakran csak közvetett,
  • a szolgáltató infrastruktúrája és üzleti döntései is kockázati tényezővé válnak.

Ez nem technológiai vita. Ez kockázatkezelési kérdés.

Mit jelent az on‑premise AI vezetői szemmel?

On‑premise AI esetén:

  • a modell a saját infrastruktúrádon fut,
  • nincs publikus internetelérés (air‑gap vagy szigorúan kontrollált hálózat),
  • az AI a belső rendszerarchitektúra része, nem külső szolgáltatás.

Ez azt jelenti, hogy az AI ugyanabba a kockázati és üzemeltetési kategóriába kerül, mint egy core rendszer vagy belső adatbázis. Sok szabályozott környezetben ez nem extra elvárás, hanem alapfeltétel.

Rövid példák a valóságból

  • Pénzügyi szolgáltató (≈80 fő): belső kockázati elemző AI, amely ügyféladatokon dolgozik. Publikus modell szóba sem jöhetett audit és adatkezelési okokból.
  • Gyártó cég: minőségellenőrzési AI belső gyártási adatokkal és képekkel. Az IP védelme miatt kizárólag on‑premise megoldás jöhetett szóba.

Mindkét esetben az AI értéke megvolt – a publikus futtatás kockázata viszont nem volt elfogadható.

image (2).png
AI fejlesztés és üzemeltetés saját infrastruktúrán, publikus internet nélkül.

Mikor indokolt egyértelműen az on‑premise megoldás?

Nem minden AI‑nak kell on‑premise futnia. De erősen indokolt, ha az AI:

  • érzékeny üzleti vagy személyes adatokat kezel,
  • kritikus döntéseket támogat (scoring, kockázatelemzés, minőségbiztosítás),
  • olyan folyamat része, ahol a kockázat nem kiszervezhető.

Ilyenkor a „gyorsabb” publikus megoldás hosszú távon gyakran drágább – jogi, biztonsági vagy reputációs oldalon.

On‑premise vs. felhő: költség nagyvonalakban

Egy tipikus, több modell és párhuzamos workload kiszolgálására alkalmas on‑premise AI szerver:

  • GPU: NVIDIA L40S (48 GB VRAM) – ~3,7 M Ft
  • CPU: AMD Ryzen 9 7900
  • Memória: 128 GB DDR5
  • Tárhely: 2 TB NVMe SSD
  • Hálózat: 10 GbE, enterprise komponensek

Becsült költség: ~4,8–5,0 M Ft bruttó / gép

Összehasonlításképp: egy hasonló terhelésű, folyamatosan használt felhős GPU‑s AI környezet havi szinten könnyen elérheti a több százezer vagy akár milliós nagyságrendet. Az on‑premise nem feltétlen olcsóbb – viszont kiszámítható és kontrollált.

Köztes opciók – ha nem fekete‑fehér a helyzet

  • Dedikált, vállalati kontroll alatt álló felhős AI környezet
  • Hibrid architektúra: érzékeny adatok on‑premise, általános funkciók felhőben
  • Privát hálózatra zárt AI szolgáltatás, publikus API nélkül

Ha nincs szigorú air‑gap követelmény, ezek jó kompromisszumot jelenthetnek.

Hogyan dolgozunk mi az MXC‑nél?

Az MXC‑nél az on‑premise AI nem elméleti kérdés. Éles rendszerekben szereztünk tapasztalatot:

  • AI architektúra tervezés zárt környezetre,
  • modell kiválasztás és finomhangolás üzleti célokra,
  • integráció meglévő folyamatokba és rendszerekbe,
  • üzemeltetési és biztonsági szempontok kialakítása.

Nem csak „felrakjuk a modellt” – azt nézzük meg, hogyan válik az AI valódi, kontrollált üzleti eszközzé.

Vezetői összefoglaló

  • Publikus AI: általános, alacsony kockázatú felhasználásra
  • Dedikált felhős AI: kontrollált, de nem kritikus folyamatokra
  • On‑premise AI: érzékeny adatokhoz és kritikus rendszerekhez

Az AI infrastruktúra vezetői döntés. A rossz választás nem technológiai, hanem üzleti kockázat.

Beszéljünk róla

Ha szeretnéd végiggondolni, a te cégednél hol húzódik a határ publikus, felhős és on‑premise AI között, beszéljünk róla. Egy 30 perces technikai‑üzleti konzultáció alatt segítünk tisztán látni – kockázat és hype nélkül.

Ingyenes konzultáció

A konzultáció során feltérképezzük vállalkozása igényeit, és bemutatjuk, hogyan tudjuk hatékonyabbá tenni a munkafolyamatait.

Jelentkezés
Kapcsolatfelvétel

Irodánk

2100 Gödöllő, Dózsa György út 13.

    On‑premise AI: amikor az adatbiztonság felülírja a publikus AI előnyeit