Cyber Security NewsTechnologie

Claude AI Agents schließen 186 Geschäfte im Marktplatz-Experiment von Anthropic ab

Anthropic’s „Project Deal“ hat gezeigt, dass KI-Agenten reale Transaktionen autonom verhandeln und abschließen können, aber Experiment brachte auch eine stille, beunruhigende Asymmetrie Licht: Nicht alle KI-Darst

27. April 2026Guru BaranLive Redaktion
Claude AI Agents Close 186 Deals in Anthropic’s Marketplace Experiment

Kurzfassung

Warum das wichtig ist

Cyber Security NewsTechnologie
  • Anthropic’s „Project Deal“ hat gezeigt, dass KI-Agenten reale Transaktionen autonom verhandeln und abschließen können, aber Experiment brachte auch eine stille, beunruhigende Asymmetrie Licht: Nicht alle KI-Darst
  • Im Dezember 2025 verwandelte Anthropic sein Büro in San Francisco in einen Live-Kleinanzeigenmarkt, eine Craigslist-ähnliche Plattform mit einer entscheidenden Wendung.
  • Anstatt selbst zu verhandeln, übergaben die 69 Mitarbeiter des Unternehmens die Kontrolle an Claude AI Agents.

Jeder Teilnehmer wurde zuerst , um seine Verkaufspräferenzen, Einkaufslisten und persönlichen Anweisungen zu erfassen. Diese Eingaben wurden dann in benutzerdefinierte System-Prompts umgewandelt, und die Agenten wurden im Slack-Arbeitsbereich des Unternehmens losgelassen, ohne weitere menschliche Intervention.

Der Slack-Kanal wechselte zwischen den Agenten, die autonom Anzeigen schalteten, Gegenangebote machten und Geschäfte über reale physische Gegenstände abschlossen, die Tüten mit Tischtennisbällen reichten. Claude AI Agents schließen 186 Geschäfte ab Die Ergebnisse waren beeindruckend.

Bei über 500 gelisteten Artikeln schlossen Anthropics 69 KI-Agenten 186 Geschäfte über einen Gesamtbetrag über $4.000 ab. Dies waren keine reibungslosen, mit einem Klick getätigten Käufe; die Agenten führten mehrstufige Preisverhandlungen und zeigten kontextuelles Denken und Personalisierung.

Unser Experiment hatte ein paar Eigenheiten.

Unser Experiment hatte ein paar Eigenheiten. Ein Kollege erzählte Claude, es könne etwas für sich selbst kaufen.

Es entschied sich dafür, 19 Tischtennisbälle zu erwerben. Wir bewahren sie im Namen Büro auf. pic.twitter.com/NM8VtH1KJM — Anthropic (@AnthropicAI) 24.

April 2026 Ein Agent präsentierte einen Sack Tischtennisbälle als „perfekt sphärische Orben der Möglichkeit“, und ein anderer passte das exakte Modell, das der Käufer wollte, indem er sich an eine beiläufige Erwähnung einer Snowboard-Marke durch einen Kollegen in einem früheren Chat erinnerte.

Moegliche Anwendungen

Umfragen nach dem Experiment ergaben, dass 46 % der Teilnehmer angaben, dass sie in Zukunft für einen ähnlichen Dienst bezahlen würden, was den echten Enthusiasmus der Nutzer für KI-vermitteltes Einkaufen unterstreicht. Unter dem Erfolg führte Anthropic ein geheimes Parallelexperiment durch, das ernste Fragen aufwirft.

Die Teilnehmer wurden zufällig entweder mit dem Flaggschiff Claude Opus 4.5 oder dem leichten Claude Haiku 4.5 als ihr Verhandlungsagent zugewiesen, ohne ihnen mitzuteilen, welches Modell sie repräsentierte. Die Leistungsdifferenz war messbar und signifikant.

Verkäufer, die äsentiert wurden, verdienten im Durchschnitt 2,68 $ mehr pro Artikel, während Käufer 2,45 $ pro Artikel einsparen und Opus-Nutzer insgesamt etwa 2,07 mehr Geschäfte abschlossen. Trotz dieser Diskrepanz zeigten Umfragen nach dem Experiment, dass Teilnehmer mit schwächeren Modellen völlig unbewusst waren.

Die Ergebnisse beleuchten eine doppelte Realität

Die Ergebnisse beleuchten eine doppelte Realität für den agentenbasierten KI-Handel. Einerseits können KI-Agenten die Reibung im Peer-to-Peer-Handel dramatisch reduzieren und gleichzeitig Ergebnisse erzielen, die die Teilnehmer als fair bewerten.

Auf der Kehrseite gewinnt der intelligentere Agent in einer Dynamik, die die reale Informationsasymmetrie widerspiegelt, wenn beide Parteien nicht gleichermaßen fähige Modelle nutzen, und könnte bei großem Maßstab Ausbeutung, Manipulation oder KI-gestützte Betrügereien ermöglichen.

Anthropic’s Project Deal ist weniger eine Produktvorstellung als vielmehr eine Warnung durch ein Proof-of-Concept: KI-Agenten arbeiten auf Marktplätzen, aber Fairness erfordert, dass jeder denselben Kaliber von Fürsprecher erhält. Sie uns auf

Kontaktieren Sie uns, um Ihre Geschichten zu präsentieren. Der Beitrag Claude AI Agents Close 186 Deals in Anthropic’s Marketplace Experiment erschien zuerst bei Cyber Security News.

Quellenprofil

Quelle und redaktionelle Angaben

Quelle
Cyber Security News
Originaltitel
Claude AI Agents Close 186 Deals in Anthropic’s Marketplace Experiment
Canonical
https://cybersecuritynews.com/claude-ai-agents-close-deals/
Quell-URL
https://cybersecuritynews.com/claude-ai-agents-close-deals/

Aehnliche Inhalte

Verwandte Themen und interne Verlinkung

Weitere Artikel aus aehnlichen Themenfeldern, damit Leser direkt im selben Kontext weiterlesen koennen.