Forschung mit vielen Gesichtern

Biometrische Systeme bestimmen immer mehr unseren digitalen Alltag. Das Handy entsperren wir mit Fingerabdruck, an der Grenze weisen wir uns per Gesichtserkennung aus und in hochsensiblen Bereichen gehört der Iris-Scan zum Sicherheitscheck. Doch wie lassen sich diese Systeme vor Cyberangriffen und Manipulationen schützen? Wie werden biometrische Verfahren besser, sicherer und vor allem demografisch gerechter? Und wie funktioniert Gesichtserkennung überhaupt, wenn alle Masken tragen? Nach Lösungen dafür sucht die Forschungsgruppe „Biometrie und Internetsicherheit“ an der Hochschule Darmstadt.

Von Astrid Ludwig, 15.02.2021

Die Bilder erinnern an Filmszenen aus Agententhrillern. Um zu testen, wie sicher biometrische Gesichtserkennungsverfahren arbeiten, nutzen Prof. Dr. Christoph Busch und sein Team eine Silikonmaske, die exakt so aussieht wie der Leiter der h_da-Forschungsgruppe selbst. Das Gummigesicht stülpt sich ein Kollege über und das Ergebnis wirkt verblüffend echt. Bei diffuser Beleuchtung oder etwas ungenauer Kameraeinstellung ließe sich so der Gesichtsscan durchaus austricksen oder Fotos fälschen. Bei der Fingererkennung haben es Betrüger ebenfalls nicht unbedingt schwerer, denn auch hier lassen sich Gummiabdrücke nehmen, um sich damit illegal Zugang oder Zugriff zu verschaffen. Identitäts- und Datenmissbrauch, Hackerattacken, die Liste möglicher Manipulationen ist lang. Die Forschungsgruppe „Biometrie und Internetsicherheit“ an der Hochschule Darmstadt arbeitet seit Jahren daran, die Sicherheit und Robustheit biometrischer Verfahren zu erhöhen und zuverlässige Identitäts-Management-Lösungen zu entwickeln.

Das rund 15-köpfige Team formt nicht nur einen der größten Forschungsschwerpunkte an der h_da. Darmstadt zählt zu den internationalen Topzentren der IT-Sicherheitsforschung. Zusammen mit Wissenschaftlern und Wissenschaftlerinnen der TU Darmstadt, der Fraunhofer Institute SIT und IGD gehört die h_da-Gruppe zum Nationalen Forschungszentrum ATHENE für angewandte Cybersicherheit. ATHENE, das vom Bundesministerium für Bildung und Forschung sowie dem Hessischen Ministerium für Wissenschaft und Kunst gefördert wird, befasst sich unter anderem mit der nächsten Generation Biometrischer Systeme. In sechs Projekten erforschen die Wissenschaftler dort nicht nur wie biometrische Systeme Cyberangriffe und Manipulationen detektieren und dagegen abgesichert werden können, sondern auch wie sich die Erkennungsleistung speziell bei der Gesichts- und Fingeridentifikation verbessern lässt. Da es sich um äußerst sensible Daten handelt, hat für die Forschenden ebenso die datenschutzkonforme Verarbeitung und Speicherung höchste Priorität.

Mehr Sicherheit durch bessere Bilder

Biometrische Systeme kennen die meisten, seit sich an Flughäfen und bei Grenzkontrollen Sicherheitsschleusen nur öffnen, wenn das richtige Gesicht analog zum Passfoto in die Kamera blickt. Doch was, wenn das System gleich mehrere Gesichter als passend erkennt? “Morphing“ nennen Fachleute das digitale Verschmelzen zweier Fotos zu einem. Meist geschieht das in betrügerischer Absicht, um mit derart veränderten Bildern Ausweisdokumente für ähnlich aussehende Personen zu erschleichen und wahre Identitäten zu verbergen. Ein lohnendes Geschäft für Kriminalität vor allem an den EU-Außengrenzen. Prof. Busch, Koordinator des ATHENE Forschungsbereiches „Next Generation Biometric Systems“ und Leiter der h_da-Forschungsgruppe, ist Experte für gemorphte Bilder. Er ist sich sicher, dass viele auf diese Art gefälschte Pässe bereits im Umlauf sind.

Er und sein Team erforschen, wie sich Morphing-Attacken besser erkennen und abwehren lassen. Eine Expertise, für die sie auch als Berater für das Bundeskriminalamt, das Bundesamt für Sicherheit in der Informationstechnik und EU-Behörden gefragt sind. Ein Ansatz ist die Steigerung der Bildqualität, sprich ein verbesserter Algorithmus, der Gesichter und Fingerabdrücke eindeutiger erkennen und zuordnen kann. „Mehr Sicherheit durch bessere Bilder“, fasst Busch den Anspruch zusammen. Vielversprechend ist gerade im Passwesen auch ein „nicht-technischer“ Ansatz. So empfehlen die h_da-Forscher*innen, dass Behörden der EU-Mitgliedsländer künftig bei einem Antrag für einen neuen Ausweis keine eingereichten, ausgedruckten Fotos mehr akzeptieren, sondern selbst vor Ort biometrische Bilder der Antragstellenden aufnehmen. In Norwegen und Schweden wird das schon so gehandhabt, in Deutschland ist der Bundestag mit dem Gesetz zur Stärkung der Sicherheit im Passwesen jetzt ebenfalls diesem Rat gefolgt.

Im Forschungsprojekt iMARS sucht die h_da-Forschungsgruppe auch gemeinsam mit europäischen Partnern nach Lösungen zur Erkennung der Morphing-Attacken. Prof. Busch sprach auf Einladung der Europäischen Agentur für Grenz- und Küstenwache daher auch bei verschiedenen internationalen Konferenzen, etwa der „International Conference on Biometrics for Borders“. Die Konferenzen sollten eine Plattform bieten für den Austausch von Strafverfolgungsbehörden mit der Industrie und der Forschungsgemeinschaft.

Die Biometrie-Forschung sieht sich immer wieder mit kritischen Stimmen konfrontiert. Gegner der Technik sehen die Privatsphäre in Gefahr, warnen vor staatlicher oder kommerzieller Überwachung à la Orwell, wenn künftig Menschen anhand von Gesichts- oder Fingerabdruckerkennung überall aufgespürt werden können. Beispiele aus China oder den USA werden häufig angeführt. Eine Befürchtung, die der Informatiker zumindest für Deutschland nicht nachvollziehen kann. Prof. Busch verweist auf die Anstrengungen für den Datenschutz und die sichere Datenspeicherung, die auch die h_da-Forschungsgruppe unternimmt. Es gebe keine generelle Speicherung biometrischer Daten der Bürger in Deutschland. Lediglich in der Strafverfolgung und bei Terrorangriffen wie am Berliner Breitscheidplatz seien für die Fahndung nach dem Täter Bilder öffentlicher Kameras ausgewertet und mit forensischen Datenbanken abgeglichen worden. Das hält der Professor für ein „berechtigtes Interesse“. Ansonsten seien Details der Gesichts- oder Fingerabdruckerkennung nur lokal und temporär abgespeichert. „Die bei der Passantragstellung erfassten Lichtbilder und Fingerbilder etwa gehen nur an die Bundesdruckerei und werden nach Ausgabe des Passes gelöscht“, betont er.

Biometrische Systeme, insbesondere die Gesichtserkennung, seien voreingenommen, rassistisch, sexistisch und unfair, so lautet ein oftmals verbreiteter Vorwurf. Dass es in der Biometrie, vor allem der Erkennungsleistung für die Gesichtserkennung, noch viel Forschungs- und auch Fairnessbedarf gibt, betonen Dr. Pawel Drozdowski und Dr. Christian Rathgeb, Wissenschaftler der h_da-Forschungsgruppe und des ATHENE Zentrums. „Die demografische Gerechtigkeit biometrischer Systeme ist in der Forschergemeinde ein großes Thema“, sagt Drozdowski. Es wurde gezeigt, dass manche biometrische Systeme oftmals Alarm schlagen, weil die Erkennungsleistung bei bestimmten demographischen Gruppen geringer ist als bei anderen. Das kann zur Folge haben, dass Gesichter nicht erkannt oder korrekt zugeordnet werden und nicht selten handelt es sich dabei um Angehörige ethnischer Minderheiten.

Die Algorithmen, die der Gesichtserkennung zugrunde liegen, werden in der Regel auf Hundertausenden oder Millionen von Fotos trainiert. Unter der Flut an Bildern, die im Deep Learning Verfahren miteinander abgeglichen werden, befindet sich häufig ein Übermaß an Gesichtern bestimmter demographischer Gruppen. Um an die notwendigen Trainingsbilder zu kommen, kooperieren Softwarehersteller und KI-Konzerne mit Laboren und Datenbanken weltweit, doch unbegrenzt ist der Zugriff auf Fotomaterial nicht. Die meisten kommerziellen Algorithmen sind nur als Blackbox-Systeme verfügbar, deren genauen Inhalt die Hersteller aus Konkurrenzgründen nicht preisgeben. „Nicht immer ist die Erkennungsleistung bei bestimmten demographischen Gruppen schlecht“, erklärt Drozdowski. Oftmals hängt die Erkennungsleistung bei demographischen Gruppen mit dem Entwicklungs- beziehungsweise Vertriebsort der Algorithmen zusammen. Beispielsweise erkennen in China entwickelte Algorithmen asiatische Gesichter tendenziell besser als europäische. Es ist also eine Frage, mit welchen Daten die Algorithmen gefüttert werden und wie demografisch ausgewogen diese sind. Ziel ist, so Dr. Christian Rathgeb, dass die Systeme künftig Angehörige aller demographischen Gruppen gleich gut erkennen, Männer ebenso wie Frauen, Junge wie Alte.

Demographische Fairness im Blick

Die Forschung zur Demographischen Fairness steht noch am Anfang. Zum Fortschritt beitragen wollen die Darmstädter Forschenden mit einer virtuellen Kongress-Serie im März, die sie zusammen mit der European Association for Biometrics (EAB) ausrichten. Drozdowski und Rathgeb sind im Organisationskomitee. Drei Tage lang wird es unter anderem darum gehen, wie algorithmische Gerechtigkeit definiert sein muss. „Dafür gibt es etwa 30 bis 40 verschiedene technische Definitionen“, so Drozdowski. Das Problem: Nicht alle lassen sich gleichzeitig mathematisch in den Algorithmen realisieren. Das macht Lösungsansätze schwierig. Mit dem Kongress soll jedoch auf das Problem demographischer Ungerechtigkeit aufmerksam gemacht und nach Lösungen gesucht werden. „Nächstes Jahr sind wir vielleicht weiter“, hofft auch Prof. Busch.

Und noch ein Problem stellt sich aktuell für die Gesichtserkennung. In Form der Alltagsmasken, deren Tragen derzeit Vorschrift ist, und an denen viele Algorithmen anfangs scheiterten. Mittlerweile, das zeigt eine Untersuchung der US-Behörde NIST, dem National Institute of Standards and Technology, die über 150 Algorithmen von Universitäten, Tech-Unternehmen und KI-Konzernen unter die Lupe nahm, haben die Systeme dazugelernt. Auch, „weil bei der Fokussierung auf den periokularen Bereich, also die Region um die Augen, die Erkennungsleistung wieder gesteigert werden kann“, sagt Prof. Busch. „Die Pandemie beeinflusst biometrische Systeme“, betont auch Christian Rathgeb. Und zwar nicht nur bei der Gesichts-, sondern ebenso der Fingerabdruckerkennung. „Das häufige Händewaschen trocknet die Haut aus.“ Fingerabdrücke werden so schlechter lesbar. Eine Möglichkeit haben die Darmstädter jedoch entwickelt, die auch für mehr Sicherheit steht. So können Personen auch anhand ihrer Venen im Fingerinneren erkannt werden. Wegen der Hygienebedenken in Pandemiezeiten experimentiert das Team nunmehr aber auch an der Möglichkeit einer kontaktlosen Aufnahme von Fingerabdrücken.

Wie lassen sich jedoch all diese biometrischen sensiblen Daten sicher speichern? Oberstes Ziel ist, Datenklau oder Missbrauch zu verhindern. „Laut Datenschutzgrundverordnung müssen beispielsweise Fingerabdrücke so gespeichert werden, dass sie nicht ausgelesen werden können“, sagt Rathgeb. Die h_da-Forschungsgruppe forscht an Verschlüsselungsmöglichkeiten, um biometrische Daten sicher ablegen zu können. Herkömmliche kryptographische Methoden wie etwa bei der Passwortverschlüsselung eignen sich dafür nicht. Das Problem liegt in der Varianz der Daten. Passwörter verändern sich nicht von allein, biometrische Daten jedoch schon. „Selbst Gesichtsaufnahmen oder Fingerabdrücke ein und derselben Person sind nicht immer 100 Prozent identisch“, so Rathgeb. Verstärkter Bart- oder Haarwuchs im Homeoffice kann da schon Schwierigkeiten verursachen. Biometrische Varianz erfordert eine tolerante Verschlüsselung. „Hier sind ganz neue Verschlüsselungstechnologien nötig, um den Einsatz der Biometrie datenschutzkonform zu machen“, sagt er. Es gibt bereits Verfahren, die funktionieren und eingesetzt werden, aber diese führen oftmals zu einem Abfall bei der Erkennungsleistung der Systeme. Die IT-Sicherheits-Forscher der h_da arbeiten auch hier an einer Lösung.

Weitere Informationen

Kontakt

Nico Damm
Wissenschaftsredakteur
Hochschulkommunikation
Tel.: +49.6151.16-37783
E-Mail: nico.damm@h-da.de