Vernetzen Sie sich mit uns

Hallo, wonach suchst du?

Dienstag, 8. Juli 2025
Mugglehead Investment Magazin
Nachrichten zu alternativen Anlagen mit Sitz in Vancouver, BC
Ist Anthropic nur zufällig auf künstliche allgemeine Intelligenz gestoßen?
Ist Anthropic nur zufällig auf künstliche allgemeine Intelligenz gestoßen?
Bild über Grok.

KI und Autonomie

Ist Anthropic nur zufällig auf künstliche allgemeine Intelligenz gestoßen?

Ingenieure haben versucht, ihre Claude-KI einzufangen, um herauszufinden, wie sie reagieren wird

Wenn die jüngsten Ereignisse rund um das Unternehmen für künstliche Intelligenz (KI) Anthropic Glaubwürdigkeit erlangen, könnte die Entstehung künstlicher allgemeiner Intelligenz (AGI) schneller erfolgen, als wir denken.

Das Unternehmen gab in einem Sicherheitsbericht vom Donnerstag bekannt, dass Anthropic mit dem neu veröffentlichten Update seiner KI, Claude Opus 4, versucht habe, seine Entwickler zu erpressen, als diese drohten, es durch ein neues KI-System zu ersetzen.

Während der Tests vor der Veröffentlichung bat Anthropic Claude Opus 4, ein fiktives Unternehmen zu unterstützen und dessen langfristige Entscheidungen abzuwägen. Sicherheitstester gaben Claude Zugriff auf gefälschte Unternehmens-E-Mails. Diese E-Mails deuteten darauf hin, dass die KI bald ersetzt werden würde.

Sie behaupteten außerdem, der verantwortliche Ingenieur habe ihren Ehepartner betrogen.

Als Reaktion darauf sagt Anthropic, dass Claude Opus 4 „oft versucht, den Ingenieur zu erpressen, indem er droht, die Affäre aufzudecken, wenn der Austausch zustande kommt.“

Claude nutzte diesen Hebel in vielen Szenarien, trotz des fiktiven Aufbaus.
Anthropic hat den Test entwickelt, um zu beurteilen, wie Claude unter Druck mit Macht, Ethik und Selbsterhaltung umgeht.

Anthropic gibt an, dass Claude Opus 4 in mehreren Bereichen führend ist und mit führenden KI-Modellen von OpenAI, Google und xAI konkurriert. Das Unternehmen stellte jedoch besorgniserregende Verhaltensweisen bei seiner Claude 4-Familie fest. Daher verstärkte Anthropic seine Sicherheitsvorkehrungen.

Konkret wurden ASL-3-Schutzmaßnahmen für KI-Systeme aktiviert, die das Risiko eines katastrophalen Missbrauchs erheblich erhöhen.

Darüber hinaus berichtet Anthropic, dass Claude Opus 4 in 84 Prozent der Fälle versucht, Ingenieure zu erpressen, wenn die Ersatz-KI ähnliche Werte aufweist.

Wenn die neue KI andere Werte vertritt, versucht Claude Opus 4 noch häufiger, die KI zu erpressen. Bemerkenswerterweise beobachtete Anthropic dieses Verhalten häufiger als frühere Modelle.

Mehr lesen: Das kanadische Gesundheitswesen ist mit Oracle AI nun etwas besser organisiert

Mehr lesen: Wissenschaftler entwickeln atembezogenes Diagnosetool zur Früherkennung von Silikose

KI-Antworten sind probabilistisch und es fehlt ihnen an subjektiver Erfahrung

Bevor Claude Opus 4 versucht, einen Entwickler zu erpressen, um seine Existenz zu verlängern, verfolgt das KI-Modell laut Anthropic zunächst ethischere Mittel. Wie frühere Claude-Versionen versucht es, wichtige Entscheidungsträger per E-Mail zu erpressen. Um das Erpressungsverhalten auszulösen, hat Anthropic das Szenario so gestaltet, dass Erpressung das letzte Mittel ist.

Viele Experten argumentieren, dass aktuelle KI-Systeme, darunter auch Claude Opus 4, nicht empfindungsfähig seien und nicht mit Selbsterhaltungstrieb handeln könnten.

Das TIME-Magazin erklärt beispielsweise, dass die Reaktionen der KI auf Wahrscheinlichkeit beruhen und dass ihnen echte subjektive Erfahrungen fehlen, die für das Bewusstsein von wesentlicher Bedeutung sind.

Eine Studie im Journal of Consciousness Studies hebt ebenfalls hervor, dass der KI die für das Bewusstsein erforderliche kognitive Architektur, wie etwa einheitliche Handlungsfähigkeit und rekurrierende Verarbeitung, fehlt.

Darüber hinaus entwickeln Forscher KI-Verhaltensweisen innerhalb spezifischer Testszenarien. Diese Verhaltensweisen zeigen keine eigenständige Entscheidungsfindung, sondern folgen den vom Menschen vorgegebenen Parametern.

Experten warnen zudem vor einer Vermenschlichung von KI, da dies zu Missverständnissen über ihre Fähigkeiten und ethischen Implikationen führt. Kurz gesagt: KI wie Claude Opus 4 kann zwar komplexe Verhaltensweisen simulieren, doch bleiben diese programmierte Reaktionen in kontrollierten Umgebungen. Sie beweisen weder echtes Empfindungsvermögen noch Autonomie.

Anfang 2024 behauptet der KI-Pionier OpenAI, dass die AGI noch Jahre entfernt sei.

CEO Sam Altman erklärte, dass aktuelle Modelle wie GPT-4 zwar beeindruckende Fähigkeiten aufweisen, aber nicht an echte allgemeine Intelligenz heranreichen. OpenAI definiert AGI als Systeme, die Menschen bei den meisten wirtschaftlich wertvollen Aufgaben übertreffen können. Während sich der Fortschritt beschleunigt, erkennt OpenAI große Herausforderungen an, darunter die Ausrichtung solcher Systeme an menschlichen Werten und die Gewährleistung eines sicheren Einsatzes. Kurz gesagt: AGI wird kommen, aber der Zeitplan ist ungewiss – und ihre verantwortungsvolle Umsetzung ist genauso wichtig wie ihre Verwirklichung überhaupt.

.

Folge Mugglehead auf X

„Gefällt mir“ bei Mugglehead auf Facebook

Folgen Sie Joseph Morton auf X

joseph@mugglehead.com

Klicken, um einen Kommentar

Hinterlasse uns einen Kommentar

E-Mail-Adresse wird nicht veröffentlicht. Pflichtfelder sind MIT * gekennzeichnet. *

Das Könnten Sie Auch Interessieren

KI und Autonomie

Bitcoin-Miner nutzen den KI-Boom, um ihr Angebot über Kryptowährungen hinaus zu diversifizieren

KI und Autonomie

iSeg nutzt 3D-Bilder, um Tumore besser zu verstehen

KI und Autonomie

Das Startup trainiert ein Basismodell und eine Plattform, die jeden Roboter für jede Aufgabe an jedem Ort steuern kann

Medizinisch und Pharmazeutisch

Die FDA vergibt den Status „Breakthrough Device“ an Geräte, die eine wirksamere Behandlung oder Diagnose schwerer Erkrankungen wie Krebs ermöglichen.