Vestager advarer mod predictive policing
AI-baserede systemer til predictive policing, som forstærker eksisterende diskrimination mod etniske minoriteter, hører ikke hjemme i EU.
Sådan lyder budskabet fra EU-kommissær Margrethe Vestager i en keynote leveret ved European Ai Forum tirsdag, skriver Euractiv.
»Ordentligt udviklet og anvendt, kan [AI] udrette miakler både for vores økonomi og vores samfund. Men kunstig intelligens kan også gøre skade,« sagde Vestager i sin tale.
»Immigranter og personer der tilhører en bestemt etnisk gruppe kan blive mål for teknikker til predictive policing, som henleder ordensmagtens opmærksomhed til dem. Det er ikke acceptabelt,« fortsatte Margrethe Vestager.
Predictive policing går grundlæggende ud på at forudsige, hvor der vil opstå kriminalitet og prioritere politiets ressourcer derefter. Problemet med værktøjet er grundlæggende, at de bliver selvopfyldende profetier.
Fordi modeller trænes på data om kriminalitet, som er skabt af politiet, vil systemet meget nemt kunne overtage evt. bias, der måtte herske i politiarbejdet, og på den måde eksempelvis forstærke tendenser til at anholde flere personer fra bestemte etniske grupper.
Bredt andvendt i Storbritannien
Borgerretsorganisationen Access Now har allerede efterlyst et decideret forbud mod predictive policing.
»Ingen sikkerhedsforanstaltninger kan gøre generel biometrisk overvågning eller predictive policing acceptabelt, retfærdiggjort eller kompatibel med menneskerettigheder« lyder det i en udtalelse fra Fanny Hidvegi, der er Europe Policy Manager ved Access Now.
Lobbygruppe European Digital Rights har i samme boldgade kaldt predictive policing for en type AI-anvendelse, der ikke kan tillades.
Ikke desto mindre har politiet i Storbritannien i stor stil taget predictive policing til sig. En rapport fra 2019 fra borgerretsorganisationen Liberties viser, at teknikken bliver brugt over hele landet til at forudsige, hvor kriminalitet vil finde sted, samt hvem der vil begå den.
EU kom tidligere på året med et white paper for regulering af AI. Her lægger unionen blandt andet op til at skelne mellem regulering af AI, der indebærer høj eller lav risiko for de mennesker, der bliver berørt. Under et sådant regelsæt vil systemer til predictive policing skulle leve op til forskellige krav som f.eks. reduceret bias.
...men det er dyrt at lave god journalistik. Derfor beder vi dig overveje at tegne abonnement på Version2.
Digitaliseringen buldrer derudaf, og it-folkene tegner fremtidens Danmark. Derfor er det vigtigere end nogensinde med et kvalificeret bud på, hvordan it bedst kan være med til at udvikle det danske samfund og erhvervsliv.
Og der har aldrig været mere akut brug for en kritisk vagthund, der råber op, når der tages forkerte it-beslutninger.
Den rolle har Version2 indtaget siden 2006 - og det bliver vi ved med.