Glauben Sie niemandem: Was bedroht das neuronale Netzwerk und macht Porno
Dmitry Kurkin
Gefälschte Porno-VideosDer Star des Films "Wonder Woman", in dem Gal Gadot angeblich Sex mit seinem Stiefbruder hatte, der diese Woche im Web erschien, erwies sich nicht nur als Fälschung, sondern als durch künstliche Intelligenz erzeugte Fälschung.
Der Autor des Videos, ein anonymer Benutzer von reddit mit dem Spitznamen deepfakes, bestätigte in einem Interview mit Vice, dass er das neuronale Netzwerk benutzte, um Gadots Gesicht in den Körper der Pornodarstellerin zu "fotografieren". Die Fälschung ist im Allgemeinen auffällig, und die Deepfakes planten nicht, Geld damit zu verdienen - seiner Meinung nach wollte er nur prüfen, wie einfach es wäre, die KI zu nutzen. Und er hat schlechte Nachrichten für uns: Es war sehr einfach, zu Hause gefälschte Pornos zu machen.
Das Problem besteht im Allgemeinen nicht in Pornofeaks selbst: Die Nachfrage nach Bildern und Videos, bei denen prominente Schauspieler und Schauspielerinnen Sex haben, war, wird und wird bei den Fetischisten und Fans von Sensationen sein. Aufgrund der äußerlichen Ähnlichkeit mit den Stars der Pornoindustrie werden ganze Karrieren gemacht - dieses Phänomen hat sogar zu einer herausragenden Schlagzeile der gelben Presse geführt: "Gordon Ramsay-Zwerg ist tot in einem Dachsloch gefunden".
Wenn jedoch vor der Produktion Zeit, Ressourcen und Fertigkeiten erforderlich waren, vereinfacht ein neuronales Netzwerk, das zum Schweißen von Gesichtern mit einem Bild ausgebildet ist, die Aufgabe erheblich. Roboter bleiben dabei, kein Mann, und Roboter werden von Zeit zu Zeit intelligenter, was bedeutet, dass Fälschungen immer zuverlässiger aussehen. Der DeepFakes-Nutzer stellte klar, dass er seine KI-Software aus den improvisierten Elementen der Open-Source-Bibliotheken zusammengetragen hatte und Fotos und Videos in öffentlichen Abläufen und Hostings wie YouTube aufgenommen hatte. Einfach ausgedrückt, alle Werkzeuge zur Erzeugung von Pornofeikov lagen ihm nicht nur bei ihm, sondern auch bei Millionen von Menschen auf der ganzen Welt.
Und dies streng genommen nicht einmal Nachrichten. Bereits 2003 warnten Experten der University of Oregon Health and Science, dass Audiobetrug "leicht zu machen und schwer zu ermitteln ist". Bis 2017 hat sich die Prognose erfüllt, und durch neuronale Netze wurden gefälschte Sprachaufnahmen erzeugt, die sehr schwer von echten zu unterscheiden sind. Nach dem Ton wurde das Video hochgezogen. Die Entwicklung des Personals der University of Washington synchronisiert die Gesichtsausdrücke des Gesichts einer Person mit seiner Rede: In dem Videoclip mit Barack Obama, der beispielsweise ausgelegt ist, ist nur Ton vorhanden, das Bild wird vom Programm generiert. Verbinden Sie eins mit dem anderen - und jetzt gibt es gefälschte Videos, in denen beispielsweise ein bekannter liberaler Politiker seine Sympathien für Hitler "gesteht".
Man muss sich etwas einbilden, um sich vorzustellen, wie Missbrauch solcher künstlicher Intelligenz dazu führen kann - die Chatbots von Microsoft, die die Trolle von Twitter in weniger als einem Tag zu Rassisten gemacht haben, wirken wie ein schöner Streich. Und natürlich ist die Technologie des Pornofeeds nicht in erster Linie von Gal Gadot, Taylor Swift oder Jennifer Lawrence bedroht. Sie sind ausreichend gesichert, um eine Armee von IT-Spezialisten einzustellen, die eine Fälschung erkennen, und eine Flotte von Anwälten, die jeden verklagen, der versucht, diese Fälschungen für den persönlichen Vorteil zu nutzen.
Nein, einfache Sterbliche werden Opfer neuer harmloser Algorithmen. Digitale Fälschungen können für Pornografie, Cyber-Stalking, Netzwerkbelästigung, Erpressung und Manipulation durch leicht einklagbare Personen verwendet werden, die keine besonderen Nachrichten aus dem Bereich der fortschrittlichen Technologien verfolgen ("Ihre Tochter wurde auf Video aufgenommen, sofort Geld überweisen, sonst wird ALLES gesehen"). Und wir sprechen nicht unbedingt über Pornografie: Man kann auch Fälschungen wegen politischer Propaganda und Anstiftung zu Hass in das Netzwerk einführen.
"Aber das ist ungeheuerlich!" Ja, monströs, und es ist nicht der Deepfakes-Codierer, der daran schuld ist. Da Hacker manchmal in Bankensysteme einbrechen, nicht um Geld zu stehlen, sondern um die Cyber Defense-Abteilung in Sicherheitslücken zu bringen, wurde sie von einem anonymen AI-Programmierer erfunden, der uns nur vor eine Tatsache stellt: Die Ära der digitalen Fälschung ist keine anti-utopische Horrorgeschichte "Black Mirror" und die kommende Realität. Es ist noch nicht von der modernen Ethik erfasst worden (können Pornophile als eine Verletzung der Privatsphäre anderer Menschen betrachtet werden?) Und auch nicht durch das geltende Gesetz. Aber in ihr müssen wir in den nächsten Jahren irgendwie leben. Daher ist es notwendig, ein Gegenmittel gegen solche Anfälle zu entwickeln.
Kuratoren des Collins Wörterbuchs nannten den Begriff "Fake News" den Ausdruck von 2017 und betonten damit, dass der durchschnittliche Benutzer süchtig nach Clickbate ist und sensationelle Schlagzeilen erneut veröffentlicht, ohne Zeit zu verschwenden, um die Authentizität der Informationen zu überprüfen. Unterdessen können gefälschte Nachrichten die Ergebnisse von Wahlen und Abstimmungen beeinflussen. Und dies ist auch Teil der neuen Realität, in der wir bereits existieren und in der wir lernen müssen, weniger frivol zu sein.
Soziale Netzwerke haben das Internet bereits zu einem Haus mit Glaswänden gemacht, in dem täglich Millionen von Menschen Ihr Leben beobachten können - selbst wenn Sie es nicht möchten. Es ist offensichtlich, dass es keine Tür in diesem Haus gibt: Jeder kann versuchen, in Ihren persönlichen Bereich einzudringen, indem er Ihr Gesicht mit KI auf das Pornorol oder den Film „Der Herr der Ringe“ legt. Die Privatsphäre ist tot, aber nicht nur Big Brother ist in Form von Spezialdiensten und globalen Unternehmen schuldig, sondern auch wir.
Die Welt der digitalen Fälschungen kommt, aber dies ist kein Grund für Panik, Paranoia, die Weigerung, das Internet zu nutzen, oder die Auflagen zum Verbot neuronaler Netze. Dies ist ein Grund, über Netzwerkhygiene und neue Ethik nachzudenken, die ein für alle Mal behebt, dass die Ablehnung eines fremden Bildes zur Erstellung einer digitalen Fälschung gemein und illegal ist. Die Zeiten, in denen Menschen bedingungslos an alles glaubten, was sie im Fernsehen sagen (auch wenn sie sagen, "Lenin war ein Pilz"), verblassen. Ebenso gewöhnen wir uns allmählich daran, alles, was im Internet geschrieben ist, nicht zu glauben.
Cover:Warp-Datensätze