Mensch gegen Maschine: Gesichtserkennung

Exakte Gesichtserkennung ist ein sehr menschlicher Prozess, aber PCs werden uns darin bald voraus sein. Ein Blick darauf, was es bereits gibt und was noch kommt.

2010 lernten die Besitzer der größten Gesichtserkennungsdatenbank der Welt — Facebook — wie man Porträtaufnahmen von Landschaften unterscheidet: das soziale Netzwerk suchte nach Gesichtern auf Fotos und markierte diese Bereiche. Manchmal machte es Fehler. Vier Jahre später war Facebook mit einer Exaktheit von 97 Prozent in der Lage, zu erkennen, wer auf einem Foto abgebildet war: eine oder zwei verschiedene Personen.

Dies ist ein großer Fortschritt für Facebook, aber sein Algorithmus schneidet in manchen Fällen, im Vergleich zum menschlichen Gehirn, immer noch um drei Prozent schlechter ab Wenn uns jemand bittet, jemanden auf einem Foto mit schlechter Bildauflösung wiederzuerkennen, werden wir das besser können als ein Computer. Auch wenn diese Bilder aus einem ungewöhnlichen Winkel aufgenommen wurden.

Dies ist ungewöhnlich, da Computer normalerweise exakter arbeiten als Menschen. Warum sind wir beim Lösen solcher Aufgaben besser und wie versuchen Computer, dasselbe zu tun?

Unser Gehirn wurde gut geschult

Es hat sich herausgestellt, dass ein bestimmter Bereich des Gehirns einzig zur Gesichtserkennung dient. Dieser Bereich nennt sich Gyrus fusiformis und ist Teil des Temporallappens und des Okzipitallappens. Menschen lernen von Geburt an, Gesichter zu erkennen — Säuglinge entwickeln diese Fähigkeit in den ersten Tagen ihres Lebens. Mit nur vier Monaten kann das Gehirn eines Babys bereits einen Onkel von dem anderen unterscheiden — und natürlich auch Tanten.

Augen, Wangenknochen, Nase, Mund und Augenbrauen sind die Grundmerkmale, die helfen, uns gegenseitig zu erkennen. Die Haut ist ebenfalls wichtig, besonders die Beschaffenheit und der Teint. Es ist erwähnenswert, dass unser Gehirn dazu tendiert, das Gesicht als Ganzes zu analysieren — meistens konzentriert es sich nicht auf individuelle Merkmale. Deswegen können wir mit Leichtigkeit Leute erkennen, auch wenn die Hälfte ihres Gesichts durch einen Schal oder ein Stück Papier verdeckt ist. Wenn man jedoch eine einfache Collage macht und Bilder zweier berühmter Personen zusammenfügt, kann es sein, dass der Betrachter einige Zeit benötigt, um zu erkennen, wer welche Person auf dem Bild ist.

Das sehen Sie, wenn Sie Porträtfotos von Brad Pitt und Angelina Jolie kombinieren.

Von Geburt an speichert unser Gehirn Gesichter. Wir erstellen ein Muster und nutzen es zur Gesichtserkennung. Wenn man diese Vorlage zeichnen würde, sähe sie folgendermaßen aus.

Die Gesichtserkennung beginnt, sobald unser Gehirn das Aussehen einer Person mit einem internen Muster vergleicht: ob die Nase einer Person breiter ist, die Lippen fülliger sind, der Teint warm oder kalt ist, etc. Für diejenigen, die nicht viel reisen, mag es so scheinen, als würden sich Menschen anderer Völker sehr ähnlich sehen. Das liegt daran, dass ihre Vorlagen auf Merkmale sensibilisiert sind, die in ihrem Umfeld üblich sind.

Übrigens können einige Tiere wie Hunde und Affen ebenfalls Gesichter unterscheiden. Obwohl das Schnüffeln ihnen viele hilfreiche Informationen vermittelt, können visuelle Bilder diesen Tieren helfen, andere Lebewesen zu erkennen. Was interessant ist, ist, dass der beste Freund des Menschen — der Hund — nicht nur versteht, was unsere Mimik ausdrückt; er kann sogar lernen, zu lächeln.

Wie kann ein Computer Gesichter erkennen?

Wie steht das menschliche Lächeln in Zusammenhang mit der Gesichtserkennung? Sie sind fast untrennbar, da jeder Ausdruck unser Gesicht bis zur Unkenntlichkeit verändern kann, besonders für Computeralgorithmen.

Software kann zwei Frontalportraits vergleichen und feststellen, ob sie ein und dieselbe Person darstellen. Diese Lösungen arbeiten ähnlich wie ein Portraitkünstler: sie analysieren die sogenannten Knotenpunkte der menschlichen Gesichter. Diese Punkte dienen dazu, unsere individuellen Gesichter zu erkennen; verschiedene Methoden haben zwischen 80 und 150 Knotenpunkte in einem einzigen Gesicht gefunden.

Zum Beispiel messen sowohl Porträtkünstler als auch Software den Augenabstand, die Nasenbreite, die Tiefe der Augenhöhlen, die Kontur der Wangenknochen, Länge der Kieferknochen und viele weiter Merkmale.

Wenn man die Augenhöhe verändert oder das Modell bittet, seinen Kopf zu drehen, verändern sich diese Maße. Da viele Gesichtserkennungsalgorithmen die Bilder nur zweidimensional analysieren, ist der Sichtwinkel ausschlaggebend für eine exakte Erkennung. Wollen Sie unerkannt bleiben? Verstecken Sie Ihre Augen und Wangenknochen hinter einer Sonnenbrille und bedecken Sie Ihr Kinn und Ihren Mund mit einem Schal, um Ihre Anonymität zu wahren. Als wir den skandalösen FindFace-Service testeten, war dieser nur dazu im Stande, Personen mit frontalen Gesichtsporträts zu erkennen.

So können Sie Gesichtserkennungssoftware austricksen, die mit zweidimensionalen Bildern arbeitet. Allerdings werden von Tag zu Tag fortschrittlichere Algorithmen entwickelt.

Was kommt als Nächstes?

Unser Gehirn trainiert den Gesichtserkennungsprozess während wir aufwachsen. Zwischen „uns“ und „denen“ unterscheiden zu können, ist eine wesentliche Fähigkeit, um zu überleben. Moderne Computer können wie Menschen lernen und sich selbst programmieren. Um Resultate der computerisierten Gesichtserkennung zu verbessern, nutzen Entwickler Selbstlernalgorithmen, in die hunderte menschliche Porträts eingespeist werden; so entsteht eine Art Leitfaden. Es ist nicht schwierig diese Bilder zu finden — online gibt es viele davon, in sozialen Netzwerken, bei Fotohostinganbietern, virtuellen Fotoarchiven und anderen Webressourcen.

Die Gesichtserkennung wurde effizienter, als Algorithmen begannen, mit dreidimensionalen Modellen zu arbeiten. Durch das Projizieren eines Rastergitters auf die Gesichter und die Integrierung von Videoausschnitten von menschlichen Köpfen, kann die Software erkennen, wie diese Person aus verschiedenen Winkeln aussieht. Übrigens sind die Vorlagen in den menschlichen Gehirnen ebenfalls dreidimensional. Auch wenn die Technologie noch in ihrer Entwicklungsphase ist, kann man bereits mehrere patentierte Softwarelösungen auf dem Markt finden.

Studien über die Mimik gewinnen an Zugkraft. Die realistische Wiedergabe von Emotionen ist eine Goldgrube für die Videospielindustrie, und eine große Anzahl an Unternehmen arbeiten hart daran, ihre Charaktere immer überzeugender zu machen. Wichtige Schritte in diese Richtung wurden bereits getätigt. Dieselbe Technologie wird eine große Hilfe für die Gesichtserkennungssoftware sein — wenn diese Programme die menschliche Mimik untersuchen, werden sie auf dem Foto erkennen, dass dieses lustige Lächeln wahrscheinlich zu dem jungen Mädchen, das auf der Straße steht, gehört.

Abgesehen von dreidimensionalen Modellen, arbeiten Entwickler an anderen Bereichen. Zum Beispiel entwickelte das Unternehmen Identix „Facelt Argus“ eine biometrische Gesichtserkennungstechnologie. Sie analysiert die Einzigartigkeit der Hautbeschaffenheit: Linien, Poren, Narben usw. Die Erfinder von Facelt Argus behaupten, dass ihre Entwicklung Unterschiede zwischen eineiigen Zwillingen feststellen kann, was bisher mit der alleinigen Nutzung von Gesichtserkennungssoftware noch nicht möglich war.

Es heißt, dass dieses System unempfindlich gegenüber Änderungen der Gesichtsausdrücke (wie Blinzeln, Stirnrunzeln oder Lächeln) ist und fähig ist, Schnauzbärte oder Bartwuchs und das Erscheinungsbild mit Brillengläsern auszugleichen. Die exakte Identifizierung kann um 20 bis 25 Prozent erhöht werden, wenn Facelt Argus zusammen mit anderen Gesichtserkennungssystemen verwendet wird. Andererseits scheitert diese Technologie, wenn man Bilder mit niedriger Auflösung verwendet, oder wenn diese bei schlechten Lichtverhältnissen aufgenommen wurden.

Für diesen Fall gibt es ohnehin andere Technologien. Computerwissenschaftler des Karlsruher Instituts für Technologie haben eine neue Technik entwickelt, die Infrarot-Personenporträts, die bei schlechtem Licht oder in vollständiger Dunkelheit aufgenommen wurden, erkennen kann.

Diese Technologie analysiert menschliche Wärmesignaturen und vergleicht Mittel- und Fern-Infrarotbilder mit normalen Fotos, und erzielt eine maximale Exaktheit von 80 Prozent. Je größer die Anzahl der verfügbaren Bilder ist, desto erfolgreicher funktioniert der Algorithmus. Wenn nur ein erkennbares Bild zu Verfügung steht, sinkt die Exaktheit auf 55 Prozent.

Eine solche Übereinstimmung zu finden, ist nicht so einfach, wie es auf den ersten Blick scheint: Der Punkt ist, dass kein linearer Zusammenhang zwischen Gesichtern auf normalen Bildern und Infrarotbildern besteht. Das Bild, das auf Basis von Wärmesignaturen aufgenommen wurde, unterscheidet sich deutlich von einem normalen Porträtbild, das bei Tageslicht aufgenommen wurde.

Die Intensität der Wärmessignatur hängt stark von der Haut und der Umgebungstemperatur und sogar von dem Gemütszustand der Person ab. Abgesehen davon, haben Infrarotbilder normalerweise eine geringere Auflösung, als normale Fotos, was die Aufgabe noch erschwert.

Um dieses Problem zu lösen, wechselten Wissenschaftler auf einen Algorithmus des maschinellen Lernens und speisten 1586 Fotos von 82 Personen in ihr System ein.

Gesichtserkennung ist überall!

Heutzutage wird die Gesichtserkennungstechnologie fast überall auf der Welt benutzt. Kürzlich hat Uber in China eine ähnliche Funktion eingeführt, um Kontrolle über seine Taxifahrer zu haben. NEC und Microsoft kombinieren Gesichtserkennung mit dem Internet der Dinge, damit Marketingspezialisten ihre Kunden besser und besser kennen lernen können. Gleichzeitig nutzen Trolle des russischen 2ch.ru-Forums einen Gesichtserkennungsservice, um Pornodarstellerinnen online anzugreifen.

Die Entwicklung der Gesichtserkennungstechnologie wird uns alles, was wir über Privatsphäre wissen, nochmal überdenken lassen. Das wird nicht heute oder dieses Jahr passieren, aber es ist bereits höchste Zeit, um sich darauf vorzubereiten. Schließlich können Sie Ihr Gesicht nicht auswechseln, oder?

Wenn Sie sich fragen, was das Ergebnis des technologischen Eindringens in die Privatsphäre ist, empfehlen wir Ihnen die britische Kleinserie „Black Mirror“ anzuschauen, insbesondere die Episode „Fifteen Million Merits„.

Tipps

Mehr Sicherheit für Privatanwender

Sicherheitsunternehmen bieten intelligente Technologien – in erster Linie Kameras – an, um dein Zuhause vor Einbruch, Feuer und anderen Zwischenfällen zu schützen. Aber wie wäre es, diese Sicherheitssysteme selbst vor Eindringlingen zu schützen? Das ist eine Lücke, die wir füllen.