Er is een ISO/IEC voorstel goedgekeurd om richtlijnen te standaardiseren waardoor storingen als gevolg van cyberaanvallen in systemen die werken op basis van kunstmatige intelligentie (AI) kunnen worden gereduceerd. AI-systemen worden steeds meer toegepast, waardoor ook de kans op cyberaanvallen toeneemt.
Organisaties zijn volgens NEN dikwijls niet goed voorbereid om hun AI-systemen te beschermen tegen aanvallen. Deze systemen hebben verschillende kwetsbaarheden in vergelijking met conventionele systemen. Dat komt vanwege de manier waarop het wordt ontwikkeld en hun sterke afhankelijkheid van gegevens. Het tijdig aanpakken van beveiligingsbedreigingen van AI-systemen de betrouwbaarheid van en het vertrouwen in AI-systemen verbeteren.
De voorgestelde norm is bedoeld voor organisaties die systemen met kunstmatige intelligentie gebruiken of ontwikkelen. Het is de bedoeling om vast te stellen welke maatregelen nodig zijn om de beveiliging van AI-systemen aan te pakken. Hiervoor worden eerst de bedreigingen van AI-systemen geïdentificeerd evenals de fouten die deze bedreigingen veroorzaken. Vervolgens wordt inzicht gegeven in beveiligingsproblemen met betrekking tot AI.
Bewustzijn
De norm zal begeleiding bieden aan organisaties die ervoor kiezen om AI-systemen te ontwikkelen of in te zetten en moet een beter bewustzijn creëren van de soorten beveiligingsrisico’s waarmee dergelijke systemen kunnen worden geconfronteerd. De norm moet organisaties helpen om te begrijpen wat de gevolgen van dergelijke bedreigingen zijn en technieken bieden om dreigingen te detecteren.
Het document zal fungeren als een voorloper op verdere standaardisatie van beveiligingscontroles waarbij bestaande controles worden aangepast of uitgebreid om aanvallen op AI-systemen aan te pakken. Hierbij kan worden gedacht aan beheersmaatregelen in ISO/IEC 27002 en ISO/IEC 42001. Tevens kunnen nieuwe beveiligingscontroles worden gedefinieerd om aanvallen op AI-systemen aan te pakken.