Biometrische Gesichtserkennung in London versagt

Biometrische Gesichtserkennung London Datenschutz

Die Londoner Polizei testet seit längerem ein Gesichtserkennung-System für die Echtzeit-Videoanalyse. Das Vorgehen liefert laut britischen Forschern nicht nur ernüchternde Ergebnisse, sondern verletzt Menschenrechte.

Gesichtserkennung in der Kritik

Forscher aus Grossbritannien haben die Echtzeit-Videoüberwachung mit automatischer Gesichtserkennung der Londoner Polizei unter die Lupe genommen und kommen zu einem vernichtenden Urteil. Kritisiert werden neben falschen Erkennungen insbesondere Fehler beim Einsatz und die unzureichende Beachtung von Menschenrechten.

Die Forscher arbeiten für das «Human Rights, Big Data & Technology Project» des an Universität Essex angesiedelte Human Rights Centre.

London Gesichterkennung versagt

Gesichtserkennung Test im Live-Betrieb

Die Videoüberwachung mit «live facial recognition» (LFR) wird in verschiedenen Stadtteilen der britischen Hauptstadt testweise eingesetzt. Mithilfe der automatischen Gesichtserkennung sollen polizeilich gesuchte Personen an öffentlichen Plätzen schneller aufgespürt werden können. Der Erfolg ist bislang jedoch dürftig: Bei einem Grossteil der Treffer werden Gesichter nicht richtig identifiziert.

80 Prozent falsche Identifizierungen

Laut den Wissenschaftlern, die zwischen Juni 2018 und Februar 2019 den sechs letzten von insgesamt zehn Testläufen im Livebetrieb der Polizei beiwohnen konnten, lieferten die Gesichts-Scans bei 42 Treffern gerade mal acht eindeutig richtige, während 34 Personen fälschlicherweise als polizeilich gesucht identifiziert wurden. Es soll dabei zu 22 Zugriffen mit Identitätskontrollen gekommen sein.

Anders als etwa bei einem ähnlichen Pilotprojekt an einem Bahnhof in Berlin werden die Aufnahmen der Überwachungskameras in London nicht mit Fotos von freiwilligen Testpersonen abgeglichen, sondern mit einer polizeilichen Datenbank.

Testläufe mit Datenbank von Gesuchten

Die hohe Fehlerquote ist dabei nur ein Problem. Bemängelt wird vor allem, dass die Vereinbarkeit mit Menschenrechten und die Wahrung der Privatsphäre nicht ausreichend berücksichtigt werde. Es sei nicht ausreichend geprüft worden, ob der Einsatz der Technologie Menschenrechtsverletzungen nach sich ziehe und überhaupt gerechtfertigt sei.

Die Rechtsgrundlage sei unklar. Die Untersuchung lasse grosse Zweifel an der Einhaltung der Menschenrechte bei den Tests aufkommen. Die Forscher drängen deshalb darauf, die Versuche mit LFR im Realeinsatz zu beenden, bis diese Aspekte geklärt würden.

Fehler bei der Durchführung der Gesichtserkennung 

Ausserdem bemängeln die Wissenschaftler verschiedene Fehler bei der Durchführung der Videoüberwachung. Zum einen sei unklar, nach welchen Kriterien Personen in die Datenbank der polizeilich Gesuchten aufgenommen würden. Bei vermeintlichen Treffern sei die Richtigkeit der Ergebnisse nicht immer ausreichend geprüft worden, bevor die Polizei einen Zugriff startete.

Die ersten Versuche mit der biometrischen Live-Videoanalyse führte die Metropolitan Police vor drei Jahren durch.

Einsatz auch in anderen Städten

Die gleiche Gesichtserkennungssoftware wurde im vergangenen Jahr bereits in Cardiff getestet und lieferte auch dort fast nur falsche Treffer. Beim Champions-League-Finalspiel zwischen Real Madrid und Juventus Turin scannte die Polizei in Südwales die Gesichter der Besucher im Stadion.

Bei der Auswertung identifizierte das biometrische Erkennungsverfahren mehr als 2.000 Menschen als verdächtig und lag damit bei 92 Prozent falsch.

Die walisische Polizei nutzte für den Abgleich des Videomaterials spezielle polizeiliche Datenbanken mit rund einer halben Million Verdächtigen. Gefüttert wurden die Datenbanken für das Pilotprojekt u.a. mit Informationen von der Uefa und Interpol. Laut der Polizei war die sehr hohe Fehlerquote der schlechten Bildqualität der bereitgestellten Fahndungsfotos potzenzieller Hooligans oder Krimineller geschuldet.

Leave a Reply

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.