YouTube hasst auch KI -Repliken von Menschen

Oscar

Zusammenfassung: YouTube hat seine Unterstützung des „No Fakes Act“ angekündigt. Dies ist ein Vorstoß auf Gesetze, die Regeln für die Verwendung der A-generierten Ähnlichkeit von Menschen online ergeben. Dieser Akt wurde 2023 und 2024 gebracht, hat aber wieder aufgenommen.

In der KI -Welt braut sich im Moment ein ziemlich großes Problem. Die Explosion von KI hat Deepfakes viel effektiver und zugänglicher gemacht. Dies bedeutet, dass es ziemlich einfach ist, ein Video von jemandem zu erstellen, der etwas tut und etwas sagt, was sie nicht getan haben. Betrug und Fehlinformationen können also weit verbreitet sein,

Wir haben bereits einige Beispiele dafür gesehen. Nun, zwei Senatoren, Chris Coons und Marsha Blackburn, haben die erstellt Pflege von Originalen, Pflegekunst und Unterhaltung sicher (Keine Fälschungen) Akt. Dieser Gesetz, der ursprünglich im Jahr 2023 vorgeschlagen wurde, zielt darauf ab, das zu tun, was sein Name (sowohl abgekürzte als auch nicht abkürzte). Sie wollen Kunst und Kreativität in unserer KI -Welt fördern.

Die Gesetzesvorlage wurde im Laufe der Jahre mit einem gewissen Opposition konfrontiert. Dies hindert jedoch nicht andere Einheiten davon ab, es zu unterstützen, wie SAG-AFTRA und die Aufnahmeindustrievereinigung.

YouTube kündigte seine Unterstützung des No Fakes Act an

YouTube ist die größte Langform-Video-Sharing-Plattform der Welt. Als solche das Sprichwort “Mit großer Macht kommt große Verantwortung„Kommt ins Spiel. Die Plattformen können Host auf DeepFake -Videos aufnehmen, und es braucht ein virales Video, um die Karriere von jemandem zu beenden.

Die Verantwortung, dies einzudämmen, fällt also in die Hände des Unternehmens. Aus diesem Grund ist es großartig zu wissen, dass es die Rechnung unterstützt. In seiner Ankündigung erklärte das Unternehmen, „Während sich die AI weiterentwickelt, sind wir bestrebt, sicherzustellen, dass sie verantwortungsbewusst verwendet wird, insbesondere wenn es darum geht, Schöpfer und Zuschauer zu schützen.“

Laut einer Überarbeitung des Gesetzes im letzten Jahr wird eine Plattform, die tiefes Material (wie YouTube und andere Video-Sharing-Plattformen) speichert, nicht haftbar, wenn es auf Anfrage tiefes Material abnimmt. Wenn also jemand ein Video generiert, in dem Sie einen Pinguin treten, wird YouTube höchstwahrscheinlich nicht haftbar gemacht, es sei denn, es lehnt Ihre Anfrage ab, es abzubauen.

Unter der Erklärung von YouTube kündigte das Unternehmen auch an, dass es den Piloten seiner „Ähnlichkeitsmanagementtechnologie“ erweitert. Dies ist ein Programm, mit dem die Schöpfer erkennen können, wenn jemand eine Deepfake von ihnen macht und es abnehmen lässt. Das Programm hat jetzt neue Mitglieder, darunter Mrbeast, Mark Rober, Marques Brownlee (MKBHD) und mehr.