I år förutspås att AI förändrar flera branscher på allvar. Många företag ligger i startgroparna, men risken är att säkerhetsfrågor kopplade till AI prioriteras för lågt, enligt en rapport från PwC.
– Idag satsar allt fler företag på AI och 2019 lär vi få se en explosion inom området, men samtidigt måste säkerhetstänket hänga med. Här finns mycket att göra inom många organisationer, såväl privata som offentliga, berättar Jakob Bundgaard ansvarig Cyber Security, PwC Sverige.
AI-systemens pålitlighet lyfts som en av de största utmaningarna.
– Det har funnits en diskussion och ökad oro för hur AI kan påverka integritet och sysselsättning, men inte lika ofta kopplat till cybersäkerhet. Samtidigt märker vi nu att allt fler ställer sig frågan om det går att lita på AI.
Endast 47 procent av de tillfrågade svarar att de planerar att öka fokus på tester när det gäller påverkan av datamodeller och användning av algoritmer.
Det här behöver organisationer tänka på för att skapa en ökad säkerhet kring AI:
- Opartiskhet – minskar riskerna för påverkan med de data- och AI-modeller som ni använder, eller är det tvärtom så att de ökar?
- Tolkningsbarhet – kan ni förklara hur en AI-modell fattar beslut och kan ni säkerställa att besluten är korrekta? Om inte, vems är ansvaret?
- Robust och säker – kan ni lita på AI-systemets prestanda och hur sårbart systemet är för angrepp?
- Styrning – vem är ansvarig för AI-system och finns rätt kontroller på plats?
- Etiskt perspektiv – överensstämmer era AI-system med regler och lagar och hur kommer de att påverka anställda och kunder?
– En trend vi ser är att allt fler företag nu skapar etiska råd och inrättar en Chief Ethic Officer-roll med teknikkompetens, där AI är en del av uppdraget. Framöver kommer det helt klart behövas fler arbetsroller som kombinerar teknisk expertis med kunskap om både juridik-, etik- och varumärkesfrågor. Vi tror även att vi får se fler företag under 2019 som vill göra AI-besluten mer transparenta, tolkningsbara och möjliga att se nyttan av. Lite förenklat handlar det om algoritmer som förklarar sig själva. Målet är en AI-lösning som kan förklara dess rationalitet, styrkor och svagheter och förmedla hur den kommer att fungera i framtiden.