Eine Gruppe chinesischer Wissenschaftler mit teils akademischem teils kommerziellen Hintergrund beschreibt in einem Arbeitspapier, wie aktuelle AI-basierte
Gesichtserkennungs-Systeme gründlich genarrt werden können - wobei nicht nur die tatsächliche Identität verborgen werden kann, sondern darüber hinaus eine beliebige Identität vorgegaukelt. Basis des Stunts sind sogenannte
Adversarial Examples (salopp: feindlicher Input), mit denen Machine-Learning-Algorithmen gezielt in die Irre geführt werden können, bei
White-Box-Attacken (also solche auf bekannte Software) kommen die Forscher auf eine Erfolgsrate von rund 70%, aber auch
Black-Box-Attacken halten sie prinzipiell für möglich. Die Übertragung des falschen/täuschenden Gesichts erfolgt konkret mittels
Infrarot-LEDs, die praxistauglich in
einem Basecap integriert sind.