Hat YouTube -CEO Neal Mohan Ihnen wirklich ein privates Video über die Monetarisierung geschickt? Wenn ja, fühlen Sie sich nicht geschmeichelt – misstrauisch. YouTube warnt die Schöpfer vor einem neuen KI-betriebenen Phishing-Betrug, der seinen CEO ausgeht.
Eine YouTube Phishing Videoexpedition
YouTube sagt, dass es „bewusst ist, dass Phishers private Videos geteilt haben, um falsche Videos zu senden, einschließlich eines KI -generierten Videos des CEO von YouTube, Neal Mohan, der Änderungen in der Monetarisierung ankündigt.“
Das Unternehmen macht deutlich, dass seine Mitarbeiter niemals versuchen werden, Sie zu kontaktieren, um Informationen über ein privates Video auszutauschen. YouTube warnt auch, dass jedes Video, das privat mit Ihnen geteilt wird und behauptet, von YouTube zu stammen, ein Phishing -Betrug ist. Es warnt auch die Benutzer davor, auf Links zu klicken. Dies kann Benutzer zu Websites führen, die Malware auf ihren Geräten installieren oder ihre Anmeldeinformationen stehlen.
Dies ist nicht das erste Mal, dass YouTube -Schöpfer auf Phishing -Betrügereien gestoßen sind. Reddit -Benutzer teilen ähnliche Erfahrungen, bei denen sie E -Mails von einem Konto mit dem Titel „Benachrichtigung für YouTube -Ersteller“ erhalten haben. Es hat ein privates Video mit ihnen sowie Anweisungen zum Herunterladen einer böswilligen Datei geteilt. Ein weiterer Vorfall war, als ein Benutzer ein privates Video von „Channel for Creators“ erhielt, in dem er gebeten wurde, einer neuen Monetarisierungsrichtlinie zuzustimmen, indem sie zu einer gefälschten Dokussign -Site gebracht wurden. Was besorgt ist, ist, dass diese E -Mails stammten (E -Mail -geschützt).
Der Aufstieg der Deepfake
In der Vergangenheit haben sich die Angreifer auf geschickt gestaltete Websites und E -Mails angewiesen, um eine Person oder Organisation auszugeben. Dank der AI -Technologie und dem Aufstieg von Deepfake -Videos, wie der von YouTube -CEO Neal Mohan, fordern Angreifer den Begriff „Sehen“ in Frage.
KI- und Deepfake -Videos haben ihre Verwendung. Ähnlich wie bei Tools sind diese Technologien weder gut noch schlecht – genau wie sie verwendet werden. Zum Beispiel können DeepFake -Videos und KI kombiniert werden, um einem Hinterbliebenener oder Ehepartner Komfort zu verleihen und sie wieder mit seinem Kind oder Partner „sprechen“ zu lassen.
Es ist nützlich für Marketing- oder Werbekampagnen für Unternehmen mit geringem Budget. Es ermöglicht diesen Unternehmen, in Minuten ein provisorisches Video auf einem Schuhbudget zusammenzubringen. Es ist jedoch schwer zu leugnen, dass das Potenzial für Missbrauch hoch ist. Wenn sich das Wachstum der KI beschleunigt, müssen Unternehmen nachholen und bessere DeepFake -Erkennungswerkzeuge einführen.