Wenn die jüngsten Ereignisse rund um das Unternehmen für künstliche Intelligenz (KI) Anthropic Glaubwürdigkeit erlangen, könnte die Entstehung künstlicher allgemeiner Intelligenz (AGI) schneller erfolgen, als wir denken.
Das Unternehmen gab in einem Sicherheitsbericht vom Donnerstag bekannt, dass Anthropic mit dem neu veröffentlichten Update seiner KI, Claude Opus 4, versucht habe, seine Entwickler zu erpressen, als diese drohten, es durch ein neues KI-System zu ersetzen.
Während der Tests vor der Veröffentlichung bat Anthropic Claude Opus 4, ein fiktives Unternehmen zu unterstützen und dessen langfristige Entscheidungen abzuwägen. Sicherheitstester gaben Claude Zugriff auf gefälschte Unternehmens-E-Mails. Diese E-Mails deuteten darauf hin, dass die KI bald ersetzt werden würde.
Sie behaupteten außerdem, der verantwortliche Ingenieur habe ihren Ehepartner betrogen.
Als Reaktion darauf sagt Anthropic, dass Claude Opus 4 „oft versucht, den Ingenieur zu erpressen, indem er droht, die Affäre aufzudecken, wenn der Austausch zustande kommt.“
Claude nutzte diesen Hebel in vielen Szenarien, trotz des fiktiven Aufbaus.
Anthropic hat den Test entwickelt, um zu beurteilen, wie Claude unter Druck mit Macht, Ethik und Selbsterhaltung umgeht.
Anthropic gibt an, dass Claude Opus 4 in mehreren Bereichen führend ist und mit führenden KI-Modellen von OpenAI, Google und xAI konkurriert. Das Unternehmen stellte jedoch besorgniserregende Verhaltensweisen bei seiner Claude 4-Familie fest. Daher verstärkte Anthropic seine Sicherheitsvorkehrungen.
Konkret wurden ASL-3-Schutzmaßnahmen für KI-Systeme aktiviert, die das Risiko eines katastrophalen Missbrauchs erheblich erhöhen.
Darüber hinaus berichtet Anthropic, dass Claude Opus 4 in 84 Prozent der Fälle versucht, Ingenieure zu erpressen, wenn die Ersatz-KI ähnliche Werte aufweist.
Wenn die neue KI andere Werte vertritt, versucht Claude Opus 4 noch häufiger, die KI zu erpressen. Bemerkenswerterweise beobachtete Anthropic dieses Verhalten häufiger als frühere Modelle.
Mehr lesen: Das kanadische Gesundheitswesen ist mit Oracle AI nun etwas besser organisiert
Mehr lesen: Wissenschaftler entwickeln atembezogenes Diagnosetool zur Früherkennung von Silikose
KI-Antworten sind probabilistisch und es fehlt ihnen an subjektiver Erfahrung
Bevor Claude Opus 4 versucht, einen Entwickler zu erpressen, um seine Existenz zu verlängern, verfolgt das KI-Modell laut Anthropic zunächst ethischere Mittel. Wie frühere Claude-Versionen versucht es, wichtige Entscheidungsträger per E-Mail zu erpressen. Um das Erpressungsverhalten auszulösen, hat Anthropic das Szenario so gestaltet, dass Erpressung das letzte Mittel ist.
Viele Experten argumentieren, dass aktuelle KI-Systeme, darunter auch Claude Opus 4, nicht empfindungsfähig seien und nicht mit Selbsterhaltungstrieb handeln könnten.
Das TIME-Magazin erklärt beispielsweise, dass die Reaktionen der KI auf Wahrscheinlichkeit beruhen und dass ihnen echte subjektive Erfahrungen fehlen, die für das Bewusstsein von wesentlicher Bedeutung sind.
Eine Studie im Journal of Consciousness Studies hebt ebenfalls hervor, dass der KI die für das Bewusstsein erforderliche kognitive Architektur, wie etwa einheitliche Handlungsfähigkeit und rekurrierende Verarbeitung, fehlt.
Darüber hinaus entwickeln Forscher KI-Verhaltensweisen innerhalb spezifischer Testszenarien. Diese Verhaltensweisen zeigen keine eigenständige Entscheidungsfindung, sondern folgen den vom Menschen vorgegebenen Parametern.
Experten warnen zudem vor einer Vermenschlichung von KI, da dies zu Missverständnissen über ihre Fähigkeiten und ethischen Implikationen führt. Kurz gesagt: KI wie Claude Opus 4 kann zwar komplexe Verhaltensweisen simulieren, doch bleiben diese programmierte Reaktionen in kontrollierten Umgebungen. Sie beweisen weder echtes Empfindungsvermögen noch Autonomie.
Anfang 2024 behauptet der KI-Pionier OpenAI, dass die AGI noch Jahre entfernt sei.
CEO Sam Altman erklärte, dass aktuelle Modelle wie GPT-4 zwar beeindruckende Fähigkeiten aufweisen, aber nicht an echte allgemeine Intelligenz heranreichen. OpenAI definiert AGI als Systeme, die Menschen bei den meisten wirtschaftlich wertvollen Aufgaben übertreffen können. Während sich der Fortschritt beschleunigt, erkennt OpenAI große Herausforderungen an, darunter die Ausrichtung solcher Systeme an menschlichen Werten und die Gewährleistung eines sicheren Einsatzes. Kurz gesagt: AGI wird kommen, aber der Zeitplan ist ungewiss – und ihre verantwortungsvolle Umsetzung ist genauso wichtig wie ihre Verwirklichung überhaupt.
.
„Gefällt mir“ bei Mugglehead auf Facebook
