Die dunkle Vision der KI-Apokalypse: Eric Schmidt warnt vor dem Wettrüsten der Künstlichen Intelligenz und enthüllt mögliche Gegenmaßnahmen

a group of people standing around a display of video screens

In einer Welt, die zunehmend von der Künstlichen Intelligenz (KI) durchdrungen ist, haben sich zwei prominente Figuren aus der Technologiebranche zu Wort gemeldet, um vor den potenziellen Gefahren eines unkontrollierten KI-Wettrüstens zu warnen.

Eric Schmidt, der ehemalige CEO von Google, und Alexandr Wang, der Gründer von Scale AI, haben gemeinsam ein alarmierendes Papier mit dem Titel „Superintelligence Strategy“ verfasst.

Darin warnen sie eindringlich davor, dass die US-Regierung ein „Manhattan-Projekt“ für Artificial General Intelligence (AGI) initiieren könnte, da dies eine globale Eskalation von verheerenden Ausmaßen auslösen könnte.

Die Befürchtungen der beiden Tech-Visionäre sind tiefgreifend. Sie argumentieren, dass die Einrichtung eines solchen Programms feindliche Nationen provozieren könnte, Vergeltungsmaßnahmen zu ergreifen oder Sabotageakte zu verüben, während die Länder verzweifelt darum wetteifern, die leistungsstärksten KI-Fähigkeiten für militärische Zwecke zu entwickeln.

Anstatt einen solchen Wettlauf zu befeuern, schlagen Schmidt und Wang vor, dass die USA Strategien wie Cyberangriffe priorisieren sollten, um bedrohliche KI-Initiativen zu neutralisieren.

Die beiden Branchengrößen befürchten jedoch, dass Nationen in einen gefährlichen Wettlauf um die Entwicklung immer tödlicherer KI-Waffen eintreten könnten.

Es ist wichtig zu betonen, dass Schmidt und Wang keineswegs KI-Skeptiker sind. Im Gegenteil, sie sind überzeugte Verfechter des transformativen Potenzials von KI zur Verbesserung gesellschaftlicher Ergebnisse, insbesondere in Bereichen wie der pharmazeutischen Innovation und der Steigerung der Arbeitsproduktivität.

Regierungen hingegen betrachten KI zunehmend als eine entscheidende Front in der nationalen Verteidigung. Die beiden Branchengrößen befürchten jedoch, dass Nationen in einen gefährlichen Wettlauf um die Entwicklung immer tödlicherer KI-Waffen eintreten könnten.

Um die Risiken zu mindern, argumentieren sie, dass Länder die KI-Entwicklung mit Vorsicht angehen und ein Wettrüsten bei KI-gesteuerten Militärtechnologien vermeiden sollten, ähnlich wie bei internationalen Verträgen zur Begrenzung der Verbreitung von Atomwaffen.

Es ist jedoch wichtig anzumerken, dass Schmidt und Wang selbst aktiv an der Entwicklung von KI-Lösungen für das Verteidigungsministerium beteiligt sind.
Schmidts Unternehmen White Stork arbeitet an der Weiterentwicklung autonomer Drohnentechnologie, während Wangs Scale AI kürzlich einen Vertrag mit dem Verteidigungsministerium abgeschlossen hat, um KI-„Agenten“ für militärische Planung und Operationen zu entwickeln.

Nach einer langen Phase des Zögerns, Technologien zu vermarkten, die im Krieg eingesetzt werden könnten, streben viele Unternehmen im Silicon Valley nun eifrig lukrative Verteidigungsaufträge an.

Diese Entwicklung wirft ethische Fragen auf. Verteidigungsunternehmen sehen sich oft einem grundlegenden Interessenkonflikt gegenüber, da sie sich häufig für kinetische Kriegsführung einsetzen, unabhängig von moralischer Rechtfertigung.

Die vorherrschende Denkweise ist, dass die USA das Gleiche tun müssen, da andere Nationen ihre eigenen militärisch-industriellen Komplexe unterhalten. Unglücklicherweise führt diese Dynamik häufig dazu, dass unschuldige Menschenleben verloren gehen, während strategische Manöver durchführt werden.

Palmer Luckey, der Gründer des Verteidigungstechnologieunternehmens Anduril, hat argumentiert, dass KI-gesteuerte Präzisionsdrohnenangriffe sicherere Alternativen seien als klassische Marschflugkörper, die breitere Wirkungsbereiche haben, oder Landminen, denen es an gezielten Fähigkeiten mangelt.
Er argumentiert, dass die USA ähnliche Fähigkeiten besitzen müssen, um abzuschrecken, wenn andere Nationen weiterhin KI-Waffen entwickeln.
Anduril hat die Ukraine mit Drohnen versorgt, die in der Lage sind, russische Militäranlagen jenseits der feindlichen Linien anzuvisieren und zu zerstören.


Kürzlich startete Anduril eine Werbekampagne, in der der Satz „Work at Anduril.com“ durch das Wort „Don’t“ in großen, graffitiartigen Buchstaben verdeckt wurde, was offenbar an die Vorstellung appelliert, dass der Beitritt zum militärisch-industriellen Komplex nun eine gegenkulturelle Haltung ist.


Schmidt und Wang betonen, dass die menschliche Aufsicht bei allen KI-gestützten Entscheidungsprozessen unerlässlich ist. Jüngste Berichte deuten jedoch darauf hin, dass das israelische Militär bereits auf fehlerhafte KI-Systeme für kritische, tödliche Entscheidungen angewiesen ist. Drohnen haben seit langem Debatten ausgelöst, wobei Kritiker argumentieren, dass Soldaten abstumpfen könnten, wenn sie nicht direkt dem Kampf ausgesetzt sind oder die Folgen ihres Handelns nicht miterleben.
KI für die Bilderkennung ist aktuell noch berüchtigt für ihre Ungenauigkeiten, und wir nähern uns rasch einem Szenario, in dem autonome Drohnen wahllos ungenau identifizierte Ziele treffen könnten.

Schmidt und Wang werben für eine Vision einer Welt, in der sie Lösungen für die potenziellen Gefahren der KI anbieten.

Das von Schmidt und Wang verfasste Papier macht mehrere Annahmen über die unmittelbar bevorstehende Entstehung einer „superintelligenten“ KI, die den Menschen in zahlreichen Aufgaben übertreffen würde.
Dies ist aktuell eine bedeutende Annahme, da die neuesten fortschrittlichen KI-Modelle immer noch erhebliche Fehler produzieren. Diese Modelle zeigen oft ein unberechenbares und unvorhersehbares Verhalten und dienen als grobe Annäherungen an das menschliche Denken.

Schmidt und Wang werben für eine Vision einer Welt, in der sie Lösungen für die potenziellen Gefahren der KI anbieten.
Sie argumentieren, dass Regierungen ihre Produkte erwerben sollten, wenn KI erhebliche Risiken birgt, und sich als verantwortungsbewusste Akteure positionieren sollten.
In ähnlicher Weise wurde Sam Altman von OpenAI kritisiert, weil er große Behauptungen über die Risiken der KI aufstellte, die von einigen als Versuche interpretiert werden, politische Diskussionen in Washington zu beeinflussen und Macht anzuhäufen.
Dies ist vergleichbar mit der Aussage: „KI ist so mächtig, dass sie die Welt vernichten könnte, aber wir haben eine sichere Version zum Kauf.“

Schmidts Warnungen werden möglicherweise Schwierigkeiten haben, sich durchzusetzen, da Präsident Trump die KI-Sicherheitsbestimmungen der Biden-Administration zurückrollt und versucht, die US-Dominanz in der KI zu etablieren.

Letzten November schlug ein Kongressausschuss genau das Manhattan-Projekt für KI vor, vor dem Schmidt gewarnt hat. Da einflussreiche Tech – Persönlichkeiten wie Marc Zuckerberg, Sam Altman und Elon Musk in Washington an Bedeutung gewinnen, ist es leicht einzusehen, dass diese Initiative an Dynamik gewinnt.

In diesem Zusammenhang könnte die Idee, KI-Projekte zu sabotieren, um potenziellen Bedrohungen entgegenzuwirken, eine umsichtige Strategie sein.

Schmidts Warnungen werden möglicherweise Schwierigkeiten haben, sich durchzusetzen, da Präsident Trump die KI-Sicherheitsbestimmungen der Biden-Administration zurückrollt und versucht, die US-Dominanz in der KI zu etablieren.
Das Papier warnt davor, dass andere Nationen Vergeltung üben könnten, indem sie KI-Modelle herabsetzen oder kritische Infrastrukturen angreifen, wenn sich dieser Trend fortsetzt.
Dieses Szenario ist nicht weit hergeholt, da Nationen wie Russland Berichten zufolge Unterseekabel ins Visier genommen haben. Als Reaktion darauf würden die USA wahrscheinlich ähnliche Taktiken anwenden.

Die Möglichkeit, einen globalen Konsens zu erzielen, um die Entwicklung dieser Waffen zu stoppen, bleibt ungewiss. In diesem Zusammenhang könnte die Idee, KI-Projekte zu sabotieren, um potenziellen Bedrohungen entgegenzuwirken, eine umsichtige Strategie sein.

Die Welt steht an einem Scheideweg, an dem die Entscheidungen, die wir heute treffen, die Zukunft der KI und ihre Auswirkungen auf die Menschheit bestimmen werden. Es ist von entscheidender Bedeutung, dass wir die potenziellen Risiken und Vorteile sorgfältig abwägen und zusammenarbeiten, um eine Zukunft zu gestalten, in der KI zum Wohle aller eingesetzt wird.

Zitate:

  1. Artikel: Eric Schmidt Suggests Countries Could Engage in Mutual Assured AI Malfunction (MAIM)
    URL: https://gizmodo.com/eric-schmidt-suggests-countries-could-engage-in-mutual-assured-ai-malfunction-maim-2000572685

Keywords:

#EricSchmidt #AlexandrWang #ScaleAI #Google #SuperintelligenceStrategy #AGI #ArtificialGeneralIntelligence #ManhattanProjekt #KIWettrüsten #Cyberangriffe #WhiteStork #Anduril #PalmerLuckey #OpenAI #SamAltman #MilitärischeKI #Verteidigungsministerium #Drohnen #KI-Sicherheit

Audio Zusammenfassung:

Marc Juncke

Unternehmensberater IT

Der Experte, wenn es um Digital-Dienstleistungen für klein- und mittelständische Unternehmen geht.

Marc Juncke


Professionelle IT-Beratung in Köln

Der Experte, wenn es um Digital-Dienstleistungen für klein- und mittelständische Unternehmen geht.