Die Revolution für künstliche Intelligenz hat viele Dienste und Tools mitgebracht, die Ihr tägliches Leben in mehreren Bereichen erleichtern, sei es Arbeit, Bildung oder Unterhaltung. Es hat auch die Entwicklung der Tech -Industrie in kurzer Zeit sprunghaft angetrieben. Einige, wie Eric Schmidt, fürchten jedoch die schlimmsten Szenarien, wenn AI in die falschen Hände fällt.
Deepseeks Eingriff in die KI -Industrie hatte nicht nur einen schwerwiegenden Einfluss auf die Wall Street, was die Aktien von Nvidia und anderen großen Namen abbrach. Im Laufe der Wochen warnten mehr Experten und US -Beamte vor den potenziellen Risiken der Plattform. Sie erwähnten hauptsächlich Bedrohungen gegen Benutzerdatenschutz und nationale Sicherheit. Die Bedenken des ehemaligen Google -CEO gehen jedoch viel weiter.
Eric Schmidt enthüllt seine größte Angst, dass KI von schlechten Schauspielern eingesetzt wird
Eric Schmidt teilte seine Sichtweise zu einem Thema, das viele oft übersehen. “Die wirklichen Befürchtungen, die ich habe, sind nicht diejenigen, über die die meisten Menschen über KI sprechen – ich spreche über extremes Risiko«, Sagte er zu BBC. Die meisten Menschen, die Bedenken hinsichtlich der Verwendung von KI geäußert haben, haben auf das Risiko der Verwendung chinesischer Plattformen hingewiesen. Schmidt betrachtet jedoch sogar den extremen Fall künstlicher Intelligenz, die terroristische Angriffe erleichtert.
Er erwähnte, dass Länder mögen “Nordkorea oder Iran oder sogar Russland”Könnte die Technologie auf die schlechteste Weise nutzen. Schmidt erwähnt die Möglichkeit von “Ein schlechter biologischer Angriff einer bösen Person.Damit bezieht er sich auf die potenzielle Entwicklung biologischer Waffen, die durch künstliche Intelligenz unterstützt werden. “Ich mache mir immer Sorgen um das Szenario von „Osama bin Laden“, in dem Sie eine wirklich böse Person haben, die einen Aspekt unseres modernen Lebens übernimmt und es nutzt, um unschuldige Menschen zu schaden«, Fügte er hinzu.
KI -Plattformen sind immer noch unwirksam, um schädliche Aufforderungen zu blockieren
Große KI -Plattformen haben „Barrieren“ gegen schädliche Aufforderungen festgelegt, einschließlich der Blockierung potenziell gefährlicher Outputs. Jüngste Tests von Anthropic und Cisco zeigten jedoch, dass aktuelle Schilde sehr ineffektiv sind. Die schlimmste KI -Plattform in dieser Hinsicht war Deepseek, die eine Angriffserfolgsrate (ASR) von 100%erzielte. Das heißt, es war nicht in der Lage, selbst Eingabeaufforderungen im Zusammenhang mit Schmidts Besorgnis zu blockieren: biologische Waffen. Besorgniserregender ist, dass Modelle wie GPT 1.5 Pro und Lama 3.1 405B ebenfalls ziemlich hohe ASR -Raten erzielten (86% bzw. 96%).
Der ehemalige CEO von Google sagte, er unterstütze Vorschriften für KI -Unternehmen. Er warnte jedoch auch, dass eine übermäßige Regulierung die Innovation im Segment beeinflussen könnte. Er fordert also ein Gleichgewicht zwischen Entwicklung und Sicherheit auf. Er unterstützte auch die Exportkontrollen für KI -Hardware in andere Länder. Der frühere Präsident Joe Biden hat die Maßnahme umgesetzt, bevor er das Amt verließ, um zu versuchen, den Fortschritt der Konkurrenten im KI -Feld zu verlangsamen. Es ist jedoch immer noch möglich, dass Donald Trump diese Ordnung umkehren kann, um zu verhindern, dass ausländische KI -Unternehmen andere Lieferanten suchen.
In der Zwischenzeit hat Google kürzlich den Kurs in seiner Vision für KI geändert. Das Unternehmen hat seine Richtlinien aktualisiert, um die Tür zu öffnen, um seine KI -Technologie für die Entwicklung von Waffen und Überwachung anzubieten.