von Robert Klatt •
Bürgerrechtler sehen durch das System die Freiheitsrechte der Besucher verletzt. Während des Tests wurden 280 Unschuldige aufgrund der Künstlichen Intelligenz festgenommen.
Die britische Polizei hat während des Champions-League-Finale 2017 Gesichtserkennungssoftware eingesetzt, um die anwesenden Besucher im Stadion zu überwachen. Insgesamt wurden Aufnahmen von rund 170.000 Zuschauern mit Datenbanken verglichen. Das Ziel der Aktion war es, Übereinstimmungen mit bereits gespeicherten Täterprofilen automatisch zu erkennen. Die Ergebnisse sind jedoch ernüchternd. Die Künstliche Intelligenz hat 2.470 Personen als Kriminelle erkannt, davon waren jedoch nur 173 Personen wirkliche Verdächtige einer Straftat oder bereits bekannte Kriminelle. Laut einem Bericht des britischen Fernsehsenders BBC lag die Fehlerquote damit bei 93 Prozent. Es handelt sich dabei um einen der ersten großen Tests unter realen Einsatzbedingungen, der von der Waliser Polizei im Juni 2017 durchgeführt wurde.
Trotz der auf den ersten Blick ungenügenden Genauigkeit wird das System verteidigt. In einer Presseerklärung schreibt die zuständige Polizei-Behörde, dass „keine Gesichtserkennung zu 100 Prozent genau ist“ und das trotz der noch fehleranfälligen Software 450 Festnahmen durchgeführt worden konnten. Das dabei auch 280 unschuldige Personen festgenommen wurden wird im Bericht nur nebenbei erwähnt. Die Polizei erklärte, dass durch den Einsatz der Software unteranderem ein Krimineller der wegen Raub zu sechs Jahren Gefängnis verurteilt wurde festgenommen worden konnte. Außerdem wurde ein für viereinhalb Jahre Gefängnis wegen Diebstahl verurteilter Krimineller ebenfalls erkannt, wie das britische Nachrichtenmagazin The Guardian berichtete.
Die hohe Fehlerquote des Algorithmus hängt hauptsächlich mit der schlechten Qualität des Referenzmaterials zusammen mit der die Bilder der Überwachungskameras verglichen werden. Als Referenzmaterial dienen Datenbestände von Interpol und des Veranstalters Uefa. Insgesamt sind so rund 500.000 Einträge mit gesuchten oder auffälligen Personen vorhanden. Inzwischen liegt die Genauigkeit der Software mit 28 Prozent in der aktuellen Version wesentlich höher.
Es scheint als wäre das Machine-Learning-Modell während des ersten Einsatzes im Juni 2017 noch nicht ausreichend trainiert war. Auf anderen Veranstaltungen lag die Fehlerquote ähnlich hoch wie beim Champions-League-Finale 2017. Während eines Boxkampfs wurden so 46 Unschuldige Personen verhaftet und während eines Rugby-Spiels traf es 42 unschuldige Besucher.
Es gibt jedoch auch positive Beispiele wie zum Beispiel ein Konzert in Cardiff, bei dem alle erkannten Personen auch tatsächlich kriminell waren. Bürgerrechtler kritisieren das System trotzdem. Laut einem Tweet der Gruppe Big Brother Watch werden die Freiheitsrechte durch das noch sehr ungenaue Entscheidungswerkzeug deutlich eingeschränkt.
In einer Stellungnahme gegenüber dem Guardian erklärte die Polizei, dass das System nicht nur dazu dient Kriminelle zu erkennen, sondern dass so auch potenzieller Täter identifiziert werden sollen. "Die Technik hat außerdem dabei geholfen, verwundbare Leute in Krisenzeiten zu erkennen.“ Das Machine-Learning-System muss dazu nicht nur bekannte Gesichter, sondern auch Gefühle erkennen und zuordnen können. Ob dies bereits mit ausreichender Genauigkeit geschieht wurde nicht veröffentlicht.