Az új tanulmány szabványosítási megközelítést javasol a megbízható mesterséges intelligenciák (AI) azonosításához

A VDE német technológiai szervezet és a Bertelsmann Stiftung alapítvány által készített új tanulmány bemutatja, hogy a mesterséges intelligencia (AI) etikai elveit miként lehet a gyakorlatban megvalósítani. „Az alapelvektől a gyakorlatig – interdiszciplináris keret a mesterséges intelligencia etikájának működőképessé tételéhez” című tanulmány szabványosítási megközelítést javasol annak érdekében, hogy segítse a fogyasztókat az AI termékek/szolgáltatások megbízhatóságának beazonosításában.

Noha jelenleg számos etikai iránymutatást dolgoztak ki a mesterséges intelligenciával kapcsolatban, de nagyon kevés megoldás valósítható meg a gyakorlatban. Az egyik legnagyobb akadály az olyan ködös és különféle értelmezés, mint az „átláthatóság” és az „igazságosság” elvei. A VDE és a Bertelsmann közös tanulmányának célja e hiányosságok kitöltése. Egy olyan módszert javasol az általános etikai elveknek a mesterséges intelligenciában való mérhető és konkrét megvalósítására, mely három eszköz kombinációján alapul: egy VCIO-modell, egy AI etikai megjelölés és egy kockázati besorolás.

Az úgynevezett VCIO-modell [érték (value), kritérium (criteria), indikátorok (indicators), megfigyelhető elemek (observables)] kritériumokra, mutatókra és végül mérhető megfigyelhető elemekre bontja az értékeket. A VCIO-modellt az irányelvfejlesztők, a szabályozó és a felügyeleti hatóságok használhatják az AI-rendszer követelményeinek egyértelmű meghatározására és végrehajtására. Másodszor, a tanulmányban az AI-rendszerekre javasolt etikai megjelölés lehetővé teszi a vállalatok számára, hogy termékeik etikai tulajdonságait világosan és egységesen jelenítsék meg. A megjelölés a villamos  készülékek sikeres energiamegjelölésén alapul, és mind a fogyasztók, mind a vállalatok számára lehetővé teszi a piacon elérhető termékek összehasonlítását.

A modell harmadik eleme a kockázati mátrix, melynek célja, hogy segítsen az AI alkalmazási eseteinek osztályozásában. Az, hogy melyik AI-rendszer tulajdonságait tekintik „etikailag megfelelőnek”, az adott alkalmazási esettől függ. A tanulmányban szereplő kockázati mátrix egy lehetséges megközelítést mutat be az alkalmazás körülményeinek osztályozására. A kockázati mátrix a 0., 1., 2. vagy 3. osztályba sorolásból áll, figyelembe véve a lehetséges kár nagyságát és az érintett személyek függőségét vagy képességét arra, hogy megkerüljék az AI-döntést, vagy másik rendszert válasszanak. A legalacsonyabb, 0. osztály nem igényel további etikai megfontolásokat, az 1–3. osztályba tartozó AI-rendszerek csak akkor használhatók, ha megkapták az AI etikai megjelölést.

Említett tanulmány ingyenesen letölthető a www.vde.com/presse vagy a www.ai-ethics-impact.org weboldalakról.

További információ a CEN és a CENELEC szabványosítási tevékenységeiről az AI területén itt található.

 

Forrás: https://www.cencenelec.eu/News/Brief_News/Pages/TN-2020-022.aspx

 

Kámán Gergely

2020. május