De toekomst van beveiliging ligt in de combinatie van menselijke intelligentie en computerintelligentie. De ontwikkeling van AI evolueert enorm snel, het gebruik van AI is dan ook een cruciaal onderdeel van de transformatie van de beveiligingssector.
Maar de snelheid van innovatie is niet het enige aandachtspunt. Net als bij andere innovaties in de geschiedenis - zoals het internet, sociale media en e-commerce - kan de technologische vooruitgang de regelgeving en het beleid soms voorbijsteken. Dit leidt tot een aanpassingsperiode waarin mensen, organisaties en beleidsmakers hun achterstand moeten inhalen.
Een beleid is er niet om innovatie tegen te gaan, maar eerder om het te beschermen. De implementatie en wijdverspreide toepassing van AI gaat gepaard met bepaalde risico's die, als ze niet worden gecontroleerd, ernstige privacy- en veiligheidsproblemen met zich mee kunnen brengen. Denk maar aan potentieel misbruik van data, vragen over intellectueel eigendom en vooroordelen (bias). Regelgeving en richtlijnen helpen bij het identificeren en beperken van deze risico’s en zorgen voor een verantwoorde inzet van AI.
Maar AI-regelgeving is nog steeds in ontwikkeling, waarbij sommige regio's een proactievere houding aannemen dan andere. Eerder dit jaar heeft de EU 's werelds eerste allesomvattende AI-regelgeving aangenomen, de EU AI Act, maar in andere regio's, zoals Noord-Amerika en Azië, is het beleid meer gefragmenteerd.
Daarnaast ontwikkelen sommige bedrijven, waaronder Securitas, hun eigen beleidskader om ervoor te zorgen dat ze AI op een verantwoorde manier inzetten. Dit betekent zowel voldoen aan de wet- en regelgeving als aan ethische normen.
"De kracht van AI brengt een grote verantwoordelijkheid met zich mee - in onze sector en daarbuiten", zegt Daniel Sandberg, directeur AI bij Securitas. "Terwijl we deze geavanceerde technologieën inzetten om en veiligheid te verhogen, moeten we ons collectief inzetten om de hoogste ethische normen te handhaven."
Responsible AI Framework van Securitas
Om ervoor te zorgen dat we AI op een ethische en verantwoorde manier gebruiken heeft Securitas een ‘Responsible AI Framework’ opgesteld. Dit beleidskader beschrijft de manier waarop we onze bredere AI-strategie uitvoeren, terwijl onze kernwaarden integriteit, waakzaamheid en behulpzaamheid centraal blijven staan bij alles wat we doen.
Volgens het beleidskader bevat ‘Responsible AI’ vijf pijlers:
- Privacy en transparantie: vertrouwen, transparantie en integriteit zijn belangrijk voor ons. We verstrekken duidelijke en nauwkeurige informatie over hoe we AI verwerken in onze oplossingen en respecteren de privacy.
- Gelijkheid en eerlijkheid: we zorgen ervoor dat onze AI-oplossingen inclusief en divers zijn. We evalueren steeds de impact op de maatschappij en het milieu.
- Kwaliteit en filtering van data: we zijn waakzaam en nemen maatregelen om vooroordelen of schade te beperken. We werken er actief aan om ervoor te zorgen dat de data die wordt gebruikt van goede kwaliteit is.
- Veiligheid en beveiliging: onze systemen zijn robuust en veilig om een verantwoord AI-gebruik te garanderen voor onze klanten, medewerkers en partners. Op die manier dragen we bij aan een veiligere samenleving.
- Innovatie en bedrijfswaarde: we combineren menselijke intelligentie met computerintelligentie. We benutten de kracht van ‘responsible AI’ om innovatie mogelijk te maken en waarde te creëren.
‘Responsible AI’ als sleutel voor de toekomst
AI zal in de nabije toekomst een centrale rol blijven spelen in de innovatie van security, maar als sector en organisatie moeten we onthouden: het gaat niet alleen om de technologie, maar om hoe we die toepassen.
Terwijl de regelgeving rond AI zich ontwikkelt, wordt de sector collectief wakker geschud. Het wordt duidelijk dat vooruitgang enkel duurzaam is als AI op een verantwoorde en ethische manier wordt ingezet.
‘Responsible AI’ is de sleutel tot een toekomst waarin we slimmere en intuïtievere oplossingen creëren die tegelijk ook waken over privacy, eerlijkheid en de impact die ze hebben op de samenleving.