A vállalatok minden iparágban, szervezeti mérettől függetlenül lelkesen igyekeznek kihasználni az AI-megoldások kínálta lehetőségeket. Előnyt szerezni a versenytársakkal szemben a működési kiválóság, a munkavállalói elkötelezettség vagy a költséghatékonyság terén az AI kihasználásával - ez mind nagyszerűen hangzik, de ha a technológiához kapcsolódó kockázatokat nem tárják fel és nem kezelik megfelelően, az egész egy rémálommá válhat: sérülhet a részvényesi bizalom, az ügyfélelégedettség, nem beszélve a kapcsolódó jogszabályoknak való meg nem felelés anyagi vagy reputációs következményeiről.
Ebben az aranylázat idéző kezdeti időszakban a vállalatok komoly nehézségekkel szembesülhetnek, ha a különböző üzleti területek szigetszerűen, silókban próbálják bevezetni a AI-t.
Miért gond ez? Egyrészt így elmarad az egyedi alkalmazások és a teljes AI-portfólió kockázatainak következetes, egységes szempontok mentén történő értékelése; másrészt ha ezen túl hiányoznak a munkaköri szerepekre szabott AI-ismeretek is, vagy sérül a hatékony koordináció az AI körüli kockázatok kezelésében résztvevő kulcsfontosságú csapatok – adat-, biztonsági és compliance funkciók – között, akkor a szervezet vakon fut, és az incidensek felkészületlenül, beláthatatlan következményekkel érik utol a szereplőket.
Gondoljuk végig:
Az őszinte válaszok ismeretében érdemes újra átgondolni a mesterségesintelligencia-rendszerek fejlesztésének, bevezetésének, működtetésének felügyeleti és irányítási struktúráit, és újraosztani a kapcsolódó felelősségeket.
Ez egy igen komoly feladat, és a jelentőségét nem szabad alábecsülni.
Egy jól működő irányítási keretrendszer kialakítása biztos alapokat igényel, beleértve azokat a komplex ismereteket, melyek a szerteágazó jogi, technológiai, etikai és egyéb kockázati keretrendszerek és módszertanok átfogó tudását is tartalmazzák; az adatvagyon gazdálkodás és információ biztonság érettségét, valamint egy koordinációs modellt, mely segíti az érintettek közötti szoros kapcsolatok kiépítését, a hatékony kommunikációt, incidenskezelést és információmegosztást (és amit optimális esetben jól dokumentált folyamatok támogatnak), hogy a szervezet valós idejű ismeretekkel rendelkezzen az AI-portfólióhoz kapcsolódó kockázatokról.
„A jó AI Governance jelenti a különbséget azok között a szervezetek között, ahol az AI a növekedés motorja, és azok között, ahol az AI csak egy nagyon költséges, a mindennapi működést nehezítő tényező szakértője. A hatékony AI governance egyszerűen megkerülhetetlen, de egyúttal nagyon jó befektetés is. Az AI-irányítás és AI-menedzsment megfelelő kialakítására és megerősítésére irányuló erőfeszítések, valamint az AI-jal kapcsolatos kockázatok kezelésére szolgáló kapacitások növelése közvetlenül segítik az etikus innovációt, a gyors adaptációt és megtérülést, illetve a valós üzleti értéket jelentő alkalmazást is”
A jó irányítási gyakorlatok bevezetését támogató eszközök és az ezekről szóló tanulmányok ma már széles körben elérhetőek: a szabályozók weboldalain, az AI-modell szolgáltatók platformjain, a NIST AI kockázatkezelési útmutatóiban, az ISO/IEC AI-menedzsmentre és AI-kockázatkezelésre vonatkozó standardjaiban, vagy az OECD AI-irányelvekben, hogy csak néhányat említsünk. Talán túl sok is az elérhető útmutató, és a szervezetek sokszor túlságosan is komplex és aránytalanul bürokratikus folyamatokat vezetnek be.
A PwC szakértői felhívják a figyelmet arra is, hogy a vállalati sajátosságokat, szervezeti kultúrát, az ügyfelek karakterisztikáit, a telepített AI-modellek és a tervezett felhasználási esetek kockázatait éppúgy figyelembe kell venni, mint az ágazati jogszabályokat és az EU AI Act elvárásait a különböző kockázati szintű AI-modellek felügyeletére vonatkozóan.
„Az AI Governance irányítási modellnek hatékonyan kell működnie és a fenti szempontok mellett érdemes a lehető legegyszerűbb struktúrákban gondolkodni, és azt fokozatosan – az alkalmazási területek és modellek komplexitásával, és a tágabb kontrollkörnyezet érettségével együtt fejleszteni”
Amennyire látványos az AI terjedése, annyira lassan követik a mögöttes irányítási struktúrák. A legnagyobb nehézséget az arany középút megtalálása jelenti: szabályozni kell az AI-t, de úgy, hogy közben ne vessen gátat a szervezeti fejlődésnek. Ehhez világos iránymutatást kell adni a dolgozóknak arról, hogy a technológiát mire használhatják és mire nem, különben mindenki saját megoldásokkal kísérletezik, amelyek ahelyett, hogy egymásra épülnének, elszigetelten működnek.
„A jó AI governance alapja mindig a data governance. Az alapadatok minősége, forrásai és a jogosultságok rendbetétele nélkül nincs mire építeni. Ha ez nincs tisztázva, nem lesz világos, milyen adatokat használhat az AI, ki férhet hozzá, és milyen keretek között lehet alkalmazni. Stabil adat- és hozzáférési alapokra lehet csak AI-t építeni, így válik a governance nem gátló tényezővé, hanem a felelős és hosszú távon értéket teremtő AI zálogává"
A szervezeten belül a megfelelő csapat kijelölése kulcsfontosságú: nem véletlen, hogy sok szervezet az adatkormányzási vagy adatvédelmi csapatokra támaszkodik, és meglévő gyakorlataikat átvéve vagy azokkal integrálva alakítják ki az AI Governance-t, azaz az MI-rendszerek felügyeletét.
A PwC Responsible AI Insights cikksorozatában a technológiai szakértők praktikus szempontokat osztanak meg az AI Governance kialakításához és a kapcsolódó kockázatok megértéséhez. Az AI Governance-szel megbízott vezetők ezen tanácsok mentén fejleszthetik az AI kockázatkezelési és irányítási folyamataikat - saját szervezeti körülményeik és összetettségük szem előtt tartásával -, hogy végül elmondhassák, hogy az AI használata a szervezetüknél etikusan, fenntarthatóan és valós üzleti értéket teremtve történik.