Felmérés figyelmeztet: az MI-ágensek többsége ellenőrizetlen hozzáférést kap vállalati rendszerekhez

Komoly biztonsági kockázatokat tár fel egy friss nemzetközi kutatás a mesterségesintelligencia-alapú rendszerek rohamos vállalati terjedésével kapcsolatban.
A Cybersecurity Insiders és a Saviynt által készített 2026 CISO AI Risk Report szerint a nagyvállalatok döntő többsége már enged MI-ágenseket kritikus üzleti platformokhoz, miközben a hozzáférések felügyelete sok helyen gyerekcipőben jár.
A több mint kétszáz informatikai biztonsági vezető megkérdezésével készült felmérés azt mutatja, hogy a szervezetek mintegy hetven százalékánál automatizált MI-eszközök kapcsolódnak olyan kulcsrendszerekhez, mint az SAP vagy a Salesforce. Ezzel szemben mindössze a válaszadók kis része mondta azt, hogy ezekhez a kapcsolatokhoz szigorú, központilag felügyelt jogosultsági szabályokat alkalmaznak.
A jelentés különösen aggasztónak nevezi az úgynevezett „MI-vakfoltot”: a megkérdezett vállalatok túlnyomó többsége nem rendelkezik teljes képpel arról, milyen autonóm rendszerek működnek a hálózatukban, és nem biztos benne, hogy egy visszaélés vagy kompromittálódás esetén időben képes lenne közbelépni. Sok helyen már most olyan, engedély nélkül telepített megoldásokat találtak, amelyek beágyazott hitelesítő adatokkal vagy magas szintű hozzáférésekkel futnak, folyamatos ellenőrzés nélkül.
A biztonsági vezetők beszámolói szerint a problémát súlyosbítja az úgynevezett „árnyék-MI” gyors terjedése. Ezek az alkalmazások gyakran azért jelennek meg a vállalati környezetben, mert könnyen elérhetők és azonnali hatékonyságnövekedést ígérnek a munkatársaknak. Egy másik iparági kutatás arra is rámutatott, hogy a generatív mesterséges intelligenciát használók közel fele személyes fiókokon keresztül dolgozik céges eszközökön, így érzékeny adatokat juttathat olyan szolgáltatókhoz, amelyeket a vállalati biztonsági csapatok nem látnak.
A jelentés szerint a hagyományos informatikai védelmi megoldások sincsenek felkészítve az új helyzetre. Az identitás- és hozzáférés-kezelő rendszerek többségét emberi felhasználókra tervezték, nem pedig olyan autonóm szoftverügynökökre, amelyek gépi sebességgel kommunikálnak API-kon keresztül, feladatokat láncolnak össze több platformon, és idővel akár jogosultságokat is felhalmozhatnak. Sok vállalat még mindig jelszavakra és munkamenetekre épülő modelleket alkalmaz ezeknél a rendszereknél, miközben a szakértők szerint tokenalapú vezérlésre és szigorúan korlátozott jogosultsági körökre lenne szükség.
Jelenleg csak a cégek kisebb része használ kifejezetten mesterséges intelligenciára szabott megfigyelő- és kontrollmechanizmusokat. Nem meglepő, hogy a felmérésben részt vevő biztonsági vezetők közel fele már tapasztalt váratlan vagy nem kívánt viselkedést MI-ágensek részéről, és sokan beszámoltak tényleges incidensekről vagy olyan eseményekről, amelyek kis híján komoly kárral jártak.
A válaszadók szerint mindez ahhoz vezetett, hogy az identitáskezelés vált az egyik legfontosabb új védelmi frontvonallá. A többség a jövőben API-alapú jogosultság-felderítésbe, folyamatos monitorozásba és fejlett elemzőrendszerekbe fektetne, ha erre lehetősége nyílna. Több technológiai óriásvállalat is hasonló irányt sürget: az MI-ügynököket egyre inkább olyan elsőrangú digitális identitásként kezelnék, amelyeknél ugyanazokat a szigorú szabályokat kell alkalmazni, mint az emberi felhasználók esetében.
A nyomás a szabályozói oldalról is erősödik. Az Európai Unió mesterséges intelligenciáról szóló jogszabályának magas kockázatú rendszerekre vonatkozó előírásai 2026-tól teljes körűen életbe lépnek, miközben világszerte fokozódik a felügyelet az autonóm technológiák felett. A jelentés szerzői szerint a vállalatok számára egyre szűkebb az időablak, hogy rendezni tudják az MI-alapú rendszereikhez kapcsolódó irányítási és biztonsági hiányosságokat, mielőtt ezek üzleti vagy jogi következményekkel járnának.





