2024. március 13-án az Európai Unió Parlamentje megszavazta az AI Act-et, egy jelentős jogszabályt, amelynek célja a mesterséges intelligencia (AI) rendszerek szabályozása a különböző ágazatokban. A következő néhány sorban betekintést nyújtunk az AI Act legfontosabb követelményeibe, amelyekről tudnia kell mindenkinek, aki AI rendszert fejleszt vagy alkalmaz üzleti tevékenysége körében.
Kockázati szintek és az AI-rendszerek csoportosítása az AI Act szerint
Az AI Act kockázati szintekbe sorolja a mesterséges intelligencia rendszereket, a legmagasabb kockázati szint az elfogadhatatlan kockázat. Ezek tiltott mesterséges intelligencia rendszerek, például manipulatív vagy megtévesztő technikákat alkalmazó, sebezhetőségeket kihasználó vagy érzékeny tulajdonságokra következtető rendszerek.
Magas kockázat: Szigorú szabályozás alá tartozó mesterséges intelligencia rendszerek, beleértve a kritikus infrastruktúrákban és a bűnüldözésben használtakat. (Megjegyzendő, hogy a magas kockázatú AI-rendszerek szolgáltatóinak átfogó kötelezettségeket kell vállalniuk és betartaniuk, beleértve a kockázatkezelési rendszer létrehozását, az adatkezelés biztosítását és a modellértékelések elvégzését.)
Korlátozott kockázat: enyhébb, mindössze átláthatósági kötelezettségekkel rendelkező AI-rendszerek, például a chatbotok és a deepfake rendszerek.
Minimális kockázat: Az AI-törvény által nem szabályozott AI-rendszerek, amelyekre önkéntes magatartási kódexek fogadhatók el. Ezen rendszerek közé tartozik a mesterséges intelligencia tipikus alkalmazása a videojátékokban vagy a fejlett spam szűrőkben.
Tiltott AI-rendszerek: Mit kell tudni róluk?
Jelen blogbejegyzésünkben a tiltott mesterséges intelligencia rendszereket (elfogadhatatlan kockázatú rendszerek) kívánjuk bővebben kifejteni. Az AI-törvény hat hónapos határidőt biztosít minden piaci szereplő számára, hogy felülvizsgálja AI-rendszereit annak megállapítására, hogy az elfogadhatatlan kockázati kategóriába tartozik-e.
Ezek közé a rendszerek közé tartoznak:
- Azok az AI-rendszerek, amelyek a viselkedés torzítására és a döntéshozatal befolyásolására szubliminális, manipulatív vagy megtévesztő technikákat alkalmaznak.
- Az életkorral, fogyatékossággal vagy társadalmi-gazdasági helyzettel kapcsolatos sebezhetőségeket kihasználó, kárt okozó mesterséges intelligencia rendszerek.
- Érzékeny tulajdonságokra következtető biometrikus rendszerek, kivéve a törvényes bűnüldözési célokat szolgáló rendszerek.
- Az egyének személyes jellemzők alapján történő értékelését végző mesterséges intelligencia rendszerek, amelyek igazságtalan bánásmódhoz vezethetnek.
- „Valós idejű” távoli biometrikus azonosítás nyilvános helyeken bűnüldözési céllal, kivéve a szükséges speciális célokat.
- Kizárólag profilalkotáson vagy személyiségjegyeken alapuló, a bűnügyi kockázatot felmérő mesterséges intelligencia-rendszerek.
- Mesterséges intelligenciával és céltalan lekérdezéssel létrehozott arcfelismerő adatbázisok.
- Érzelmekre következtető AI rendszerek munkahelyeken vagy oktatási intézményekben (kivéve, ha annak orvosi vagy biztonsági célja van).
Ne feledd, hogy egy mesterséges intelligenciával működő rendszer kockázati szintjének megállapítása összetett ellenőrzési folyamat. A fenti lista nem teljes, és a könnyebb érthetőség kedvéért némileg leegyszerűsített.
Ne mulaszd el a határidőt!
Nem győzzük eléggé hangsúlyozni annak fontosságát, hogy a mesterséges intelligenciáról szóló törvényben meghatározott törvény 6 hónapos határidőt ír elő, vagyis ezen határidőn belül szükséges a mesterséges intelligencia rendszerére vonatkozó előzetes auditot elvégez(tet)ni. Ennek elmulasztása súlyos következményekkel jár.
Súlyos bírságok a törvény megsértéséért
A tiltott AI-rendszerek üzemeltetői 35 millió euróig terjedő közigazgatási bírsággal vagy az üzemeltető előző pénzügyi évre vonatkozó teljes világméretű éves árbevételének legfeljebb 7%-ával sújthatók (attól függően, hogy melyik a magasabb).
Ezért is javasoljuk minden mesterséges intelligenciát alkalmazó rendszerüzemeltetőnek, hogy a lehető leghamarabb cselekedjen, és a hat hónapos határidőn belül auditáltassa mesterséges intelligenciát alkalmazó rendszereit.
Segítünk az innováció jogszerű alkalmazásában
Ha támogatásra van szükséged
- a vállalkozásod/céged mesterséges intelligencia rendszerének az auditálásához, hogy tiltott-e,
- vagy a mesterséges intelligencia rendszered kockázati szintjének megváltoztatásához,
fordulj bátran a Neuron Solutions és a Kinstellar cégekhez, állunk rendelkezésre.
Az AI-törvény jelentős lépést jelent az Európai Unióban a mesterséges intelligenciával kapcsolatos technológiák szabályozása felé, amelynek célja a felelős és etikus alkalmazásuk biztosítása. Azáltal, hogy az AI-rendszereket kockázati szintek szerint osztályozza, és kötelezettségeket ír elő a szolgáltatók számára, a törvény elősegíti a bizalmat, az átláthatóságot és az elszámoltathatóságot. Ugyanakkor az AI Rendelet szabályozása nagyon szigorú, és helyenként nehezen érthető és nehezen betartható.
Ne maradjon le a mesterséges intelligencia legújabb megoldásairól!
Kérje blogértesítőnket, és legyen mindig naprakész korunk legfontosabb technológiájával kapcsolatban!