Dr. Martin J. Krämer, CISO Advisor bei KnowBe4
Vor wenigen Wochen hat OpenAI der Öffentlichkeit ein Update seines bekannten KI-gestützten Videogenerierungssystems Sora vorgestellt: Sora 2. Die neue Generation ermöglicht nicht nur die Erstellung noch realistischerer Videos, sondern auch der zu ihnen passenden Audiotracks – sowie die Integration von Abbildern real existierender Menschen. Unternehmen sollten sich wappnen. Der baldige Missbrauch der neuen Technologie durch Cyberkriminelle ist mehr als wahrscheinlich. Die Qualität von Deepfake-Angriffen kann mit dem neuen Tool auf eine ganz neue Stufe gehoben werden.
Die wichtigste Neuerung von Sora 2: neben Videos können nun auch komplexe Audio-Tracks generiert werden – inclusive realistischer Sprachausgabe – die sich mit dem Videotrack synchronisieren lassen. Nicht nur Hintergrundgeräusche und Soundeffekte, auch Dialoge in unterschiedlichen Sprachen können nun also künstlich generiert werden.
Darüber hinaus ist die Video-/Audio-Generierung an die TikTok ähnelnde Social Media-App Sora gekoppelt. Sie besitzt eine Funktion namens Cameos, mit der Nutzer der App die Erlaubnis erteilen können, KI-generierte Videos mit ihrem Abbild zu erstellen. Hierzu müssen sie nur ihren Kopf aus verschiedenen Perspektiven filmen und eine Zahlenfolge sprechen. Sobald das Video aufgenommen und hochgeladen ist, kann das Abbild dann in KI-generierten Videos zum Einsatz gebracht werden – auch in Interaktion mit den Abbildern anderer App-Nutzer. Der konkrete für den Video- und den Audio-Track gewünschte Content muss dazu dann lediglich noch über eine simple Texteingabe beschrieben werden.
Natürlich verfügt die Sora-App über mehrere Funktionen, mit denen der Missbrauch eines Abbildes verhindert werden soll. Nutzer können klar definieren, wer Cameos mit dem eigenen Abbild erstellen darf: sie selbst, von Ihnen genehmigte Personen, gegenseitige Kontakte oder jeder App-Nutzer. Hat man einem anderen User einmal Zugriff auf das eigene Abbild erteilt, kann dieser selbstverständlich auch jederzeit widerrufen, kann ein Video mit dem eigenen Abbild jederzeit auch wieder gelöscht werden. In Zukunft sollen Nutzer darüber hinaus zusätzlich jede Veröffentlichung einer Nutzung ihres Abbildes vorher genehmigen müssen. Darüber hinaus hat OpenAI eine Reihe von Sicherheitsmaßnahmen integriert, um eine böswillige Nutzung der Technologie zu verhindern. Es gibt eine Kindersicherung. Die Erstellung von X-Rating- und extremen Inhalten oder solchen mit Abbildern von Persönlichkeiten des öffentlichen Lebens ist nicht zugelassen. Außerdem prüft OpenAI Videoausgaben auf mögliche Verstöße gegen Richtlinien und Urheberrechtsprobleme. Bildschirmaufnahmen innerhalb der App sind nicht möglich und jedes mit Sora erstellte Video enthält Marker, die zeigen, dass es von einer KI generiert wurde (zum Beispiel Metadaten und ein bewegliches Wasserzeichen).
Ein Sicherheitskonzept, Vorkehrungen und Maßnahmen zur Verhinderung von Missbrauch sind also durchaus vorhanden. Die Frage ist nur, ob sie genügen werden. Es wäre nicht das erste Mal, dass Cyberkriminelle Schwachstellen und Sicherheitslücken finden, ganz neue Ansatzpunkte für ihre Angriffe entwickeln, mit denen niemand gerechnet hat. Unternehmen sollten sich deshalb gut rüsten. Die gesamte Belegschaft muss darauf eingestellt werden, dass Angreifer mit immer überzeugenderen Video-, Audio- und Video-/Audio-Tracks an sie herantreten werden, um sie zu unbedachten Handlungen zu bewegen. Sämtliche Mitarbeiter müssen auf solche Fälle vorbereitet werden – durch regelmäßige Trainings und Tests. Die Kontaktmöglichkeiten der Angreifer müssen drastisch reduziert werden – durch die Verhinderung des Eindringens von Phishing- und Spear Phishing-Nachrichten, von Social Engineering-, Ransomware- und Business Email Compromise-Angriffen in die Posteingänge ihrer Opfer. Dort wiederum müssen etwaige Risiken beim ausgehenden E-Mail-Versand, etwa Fehlsendungen, auf ein absolutes Minimum zurückgefahren werden.
Effektiv helfen kann hier ein modernes Human Risk Management. Dessen Phishing-Trainings, -Schulungen und -Testslassen sich, KI sei Dank, mittlerweile personalisieren und automatisiert – kontinuierlich – zum Einsatz bringen. Moderne Anti-Phishing-E-Mail-Technologien kombinieren KI mit Crowdsourcing, um neueste Zero Day-Bedrohungen frühzeitig aufzuspüren und rechtzeitig abzuwehren. Mit solchen und ähnlichen Systemen ist es Unternehmen möglich, ihre Human Risks im Bereich Deepfakes signifikant zurückzufahren und ihre Mitarbeiter zu ihrer besten Verteidigung im Kampf gegen Cyberbedrohungen zu machen.
Disclaimer:
„Für den oben stehenden Beitrag sowie für das angezeigte Bild- und Tonmaterial ist allein der jeweils angegebene Nutzer verantwortlich. Eine inhaltliche Kontrolle des Beitrags seitens der Seitenbetreiberin erfolgt weder vor noch nach der Veröffentlichung. Die Seitenbetreiberin macht sich den Inhalt insbesondere nicht zu eigen.“