Claude AI Agents schließen 186 Geschäfte im Marktplatz-Experiment von Anthropic ab
Anthropic’s „Project Deal“ hat gezeigt, dass KI-Agenten reale Transaktionen autonom verhandeln und abschließen können, aber Experiment brachte auch eine stille, beunruhigende Asymmetrie Licht: Nicht alle KI-Darst

Kurzfassung
Warum das wichtig ist
- Anthropic’s „Project Deal“ hat gezeigt, dass KI-Agenten reale Transaktionen autonom verhandeln und abschließen können, aber Experiment brachte auch eine stille, beunruhigende Asymmetrie Licht: Nicht alle KI-Darst
- Im Dezember 2025 verwandelte Anthropic sein Büro in San Francisco in einen Live-Kleinanzeigenmarkt, eine Craigslist-ähnliche Plattform mit einer entscheidenden Wendung.
- Anstatt selbst zu verhandeln, übergaben die 69 Mitarbeiter des Unternehmens die Kontrolle an Claude AI Agents.
Jeder Teilnehmer wurde zuerst , um seine Verkaufspräferenzen, Einkaufslisten und persönlichen Anweisungen zu erfassen. Diese Eingaben wurden dann in benutzerdefinierte System-Prompts umgewandelt, und die Agenten wurden im Slack-Arbeitsbereich des Unternehmens losgelassen, ohne weitere menschliche Intervention.
Der Slack-Kanal wechselte zwischen den Agenten, die autonom Anzeigen schalteten, Gegenangebote machten und Geschäfte über reale physische Gegenstände abschlossen, die Tüten mit Tischtennisbällen reichten. Claude AI Agents schließen 186 Geschäfte ab Die Ergebnisse waren beeindruckend.
Bei über 500 gelisteten Artikeln schlossen Anthropics 69 KI-Agenten 186 Geschäfte über einen Gesamtbetrag über $4.000 ab. Dies waren keine reibungslosen, mit einem Klick getätigten Käufe; die Agenten führten mehrstufige Preisverhandlungen und zeigten kontextuelles Denken und Personalisierung.
Unser Experiment hatte ein paar Eigenheiten.
Unser Experiment hatte ein paar Eigenheiten. Ein Kollege erzählte Claude, es könne etwas für sich selbst kaufen.
Es entschied sich dafür, 19 Tischtennisbälle zu erwerben. Wir bewahren sie im Namen Büro auf. pic.twitter.com/NM8VtH1KJM — Anthropic (@AnthropicAI) 24.
April 2026 Ein Agent präsentierte einen Sack Tischtennisbälle als „perfekt sphärische Orben der Möglichkeit“, und ein anderer passte das exakte Modell, das der Käufer wollte, indem er sich an eine beiläufige Erwähnung einer Snowboard-Marke durch einen Kollegen in einem früheren Chat erinnerte.
Moegliche Anwendungen
Umfragen nach dem Experiment ergaben, dass 46 % der Teilnehmer angaben, dass sie in Zukunft für einen ähnlichen Dienst bezahlen würden, was den echten Enthusiasmus der Nutzer für KI-vermitteltes Einkaufen unterstreicht. Unter dem Erfolg führte Anthropic ein geheimes Parallelexperiment durch, das ernste Fragen aufwirft.
Die Teilnehmer wurden zufällig entweder mit dem Flaggschiff Claude Opus 4.5 oder dem leichten Claude Haiku 4.5 als ihr Verhandlungsagent zugewiesen, ohne ihnen mitzuteilen, welches Modell sie repräsentierte. Die Leistungsdifferenz war messbar und signifikant.
Verkäufer, die äsentiert wurden, verdienten im Durchschnitt 2,68 $ mehr pro Artikel, während Käufer 2,45 $ pro Artikel einsparen und Opus-Nutzer insgesamt etwa 2,07 mehr Geschäfte abschlossen. Trotz dieser Diskrepanz zeigten Umfragen nach dem Experiment, dass Teilnehmer mit schwächeren Modellen völlig unbewusst waren.
Die Ergebnisse beleuchten eine doppelte Realität
Die Ergebnisse beleuchten eine doppelte Realität für den agentenbasierten KI-Handel. Einerseits können KI-Agenten die Reibung im Peer-to-Peer-Handel dramatisch reduzieren und gleichzeitig Ergebnisse erzielen, die die Teilnehmer als fair bewerten.
Auf der Kehrseite gewinnt der intelligentere Agent in einer Dynamik, die die reale Informationsasymmetrie widerspiegelt, wenn beide Parteien nicht gleichermaßen fähige Modelle nutzen, und könnte bei großem Maßstab Ausbeutung, Manipulation oder KI-gestützte Betrügereien ermöglichen.
Anthropic’s Project Deal ist weniger eine Produktvorstellung als vielmehr eine Warnung durch ein Proof-of-Concept: KI-Agenten arbeiten auf Marktplätzen, aber Fairness erfordert, dass jeder denselben Kaliber von Fürsprecher erhält. Sie uns auf
Kontaktieren Sie uns, um Ihre Geschichten zu präsentieren. Der Beitrag Claude AI Agents Close 186 Deals in Anthropic’s Marketplace Experiment erschien zuerst bei Cyber Security News.
Thema weiterverfolgen
Quellenprofil
Quelle und redaktionelle Angaben
- Quelle
- Cyber Security News
- Originaltitel
- Claude AI Agents Close 186 Deals in Anthropic’s Marketplace Experiment
- Canonical
- https://cybersecuritynews.com/claude-ai-agents-close-deals/
- Quell-URL
- https://cybersecuritynews.com/claude-ai-agents-close-deals/
Aehnliche Inhalte
Verwandte Themen und interne Verlinkung
Weitere Artikel aus aehnlichen Themenfeldern, damit Leser direkt im selben Kontext weiterlesen koennen.

Entdeckung eines 3.330 Jahre alten Zeremonienhorts wirft neues Licht auf den antiken Handel
Ein 3.330 Jahre alter Goldschatz, kürzlich in einem Hotspot Bronzezeit entdeckt, enthüllt die religiösen Praktiken einer sich wandelnden Welt.
27.04.2026
Live Redaktion
Wissenschaftler bauen Magnet, der sein eigenes Magnetfeld löscht
Magneten sind stark, aber sie sind auch laut. Nicht so Lautsprecher, sondern in Art, wie sie unsichtbare Magnetfelder abstrahlen, die alles in der Nähe stören.
27.04.2026
Live Redaktion
Intel verzögert Xeon 7 „Diamond Rapids“-Server-CPUs auf 2027; nächste Generation Coral Rapids folgt 2028, könnte aber vorgezogen werden, laut Leak
Letztes Jahr sagte Intel die 8-Kanal-Variante seiner kommenden Diamond Rapids Server-Reihe ab und konzentrierte sich stattdessen nur auf die 16-Kanal-SKUs.
27.04.2026
Live Redaktion
Google-Spin-off zielt mit drahtlosen Glasfaserinternetgeschwindigkeiten auf Starlink ab
Aber große Namen sind nicht Einzige, was Unternehmen zu seinen Gunsten arbeitet. Es hat auch Technologie. Taarras neues Produkt ist Taara Beam, ein projektorgroßer Kasten, der ungefähr 17 Pfund wiegt.
27.04.2026
Live Redaktion