Kunstmatige intelligentie gaat een grote rol spelen in beveiliging, maar intelligente systemen die autonoom crimineel gedrag herkennen en voorkomen zijn voorlopig toekomstmuziek. Dat stelde Mats Thulin, Director Core Technologies bij Axis Communications, tijdens Axis Inspire 2020, het digitale partnerevenement van Axis Communications dat vorige week plaatsvond.
“Artificial Intelligence (AI) is een brede term voor uiteenlopende toepassingen”, aldus de spreker tijdens een breakout sessie. “Het heeft geen betrekking op een kunstmatig bewustzijn. De verwachtingen zijn vaak hooggespannen en dat kan leiden tot teleurstellingen. We zien momenteel pas de eerste fase van AI in beveiligingssystemen. Het is dus een leerproces voor de hele beveiligingssector, van fabrikanten tot eindgebruikers.”
Op Deep Learning gebaseerde analytics worden steeds vaker succesvol gebruikt voor het snel en doeltreffend doorzoeken van camerabeelden naar specifieke objecten of gebeurtenissen. Mats Thulin: “Bekende voorbeelden van toepassingen van kunstmatige intelligentie zijn beeldherkenning waarbij bijvoorbeeld bepaalde ziektes vroegtijdig worden herkend op een röntgenfoto en spraakherkenning, waarmee een afspraak kan worden gepland via een spraakassistent. Voor beveiligingsdoeleinden zijn het herkennen van objecten, karakters en patronen interessant. Denk aan het lezen van een kenteken van een auto voor toegangscontrole of het detecteren van ongebruikelijke financiële transacties en verdacht gedrag op een bedrijfsnetwerk.”
‘We zien momenteel pas de eerste fase van AI in beveiligingssystemen. Het is een leerproces voor de hele beveiligingssector, van fabrikanten tot eindgebruikers.’
Bij het herkennen van objecten wordt meteen ook duidelijk hoe complex AI is. Mats Thulin: “Bij Machine Learning en Deep Learning wordt de computer ‘getraind’ om data te verzamelen en te labelen in specifieke categorieën. Dat is een doorlopend proces. Het algoritme moet voldoende leren om bepaalde voorwerpen te kunnen herkennen. Hoe nauwkeurig dat gebeurt, hangt mede af van de hoeveelheid data die beschikbaar is om te verwerken en de kwaliteit daarvan. De nauwkeurigheid neemt af als er bijvoorbeeld een personenauto wordt herkend als vrachtwagen of andersom. Zonder correctie blijft dat ‘rondzingen’ in het systeem en zullen vaker soortgelijke verkeerde interpretaties worden gemaakt.”
Volgens de spreker hangt de efficiency van een videobewakingssysteem met AI uiteindelijk af van de kwaliteit van de data die wordt ingevoerd. “Neem bijvoorbeeld een kudde schapen. Die staan meestal op foto’s in een groen graslandschap. Het algoritme zal meer moeite hebben met detectie van schapen die op een weg lopen, terwijl bij een groene achtergrond de kans op detectie van een schaap groter is. Vergelijkbaar kan een schaduw op een paard worden vertaald als detectie van een zebra. Dat zijn soortgelijke dieren met veel overeenkomsten. Deze voorbeelden tonen de beperkingen van kunstmatige intelligentie aan.”
Moeilijke toepassing
Wat maakt beveiliging zo’n moeilijke toepassing voor kunstmatige intelligentie? Mats Thulin: “AI wordt onder meer toegepast voor reductie van het aantal onterechte alarmen. Dat is belangrijk, maar tegelijkertijd moet je oppassen dat er geen alarmen worden gemist doordat een algoritme deze als onterecht gaat interpreteren. Een beveiligingssysteem moet 24/7 betrouwbaar werken. Op een terrein in de buitenlucht onder wisselende lichtsterktes en weersomstandigheden. Videosystemen bestaan meestal uit verschillende types camera’s, zoals panoramische 360 graden camera’s en PTZ-camera’s. Deze hebben allemaal verschillende beeldhoeken en werken met verschillende afstanden voor detectie. Nieuwere cameramodellen beschikken bovendien over meer rekenkracht en hebben ingebouwde AI-analytics. Dat betekent dus dat in de praktijk algoritmes zowel lokaal (‘at the edge’) in een apparaat draaien, maar ook op de server. Dat kan het geheel complex maken. We staan nog maar aan het begin en moeten leren omgaan met deze nieuwe technologie en de beperkingen kennen. Belangrijk is daarbij de menselijke invloed. Voorlopig zijn we nog niet zover dat dankzij kunstmatige intelligentie beveiligingssystemen volledig autonoom beslissingen kunnen nemen. Dat is echt toekomstmuziek.”
BEVEILIGING editie juni/juli 2020