Anthropic Eyes UK Startup’s Fusion Tech verspricht deutlich kostengünstigere und schnellere KI-Inferenz als NVIDIAs Groq
Anthropic, Entwickler Claude AI, sollen in frühe Gespräche mit einem britischen Startup verwickelt sein, dessen SRAM-Technologie die KI-Inferenz steigern Kosten senken kann.

Kurzfassung
Warum das wichtig ist
- Anthropic, Entwickler Claude AI, sollen in frühe Gespräche mit einem britischen Startup verwickelt sein, dessen SRAM-Technologie die KI-Inferenz steigern Kosten senken kann.
- Dieses Trio ermöglicht es dem Unternehmen, seine KI-Infrastruktur ohne große Bedenken zu betreiben, die oft mit der Abhängigkeit .
- Doch da die Nachfrage nach Rechenleistung im KI-Bereich zunimmt, wollen viele KI-Firmen nun in eigene Chips investieren, die ihren Anforderungen entsprechen.
Derzeit bezieht Anthropic seine
Laut einem aktuellen Bericht frühe Gespräche mit einem in Großbritannien ansässigen Startup namens Fractile verwickelt sein. Fractile gewinnt im KI-Bereich an Bedeutung durch seine neue Technologie, die es Memory Compute Fusion Architecture nennt.
Die Architektur funktioniert, indem sie weniger Daten an das DRAM sendet, die Abhängigkeit vom Außenspeicher reduziert und den gesamten Datenfluss innerhalb des Chips selbst durchführt. Hierfür hat das Unternehmen seine eigene SRAM-Technologie entwickelt, ähnlich den NVIDIA Groq LPUs oder Groq 3 LPX.
Die Übernahme öglichte es ihr, die
Die Übernahme öglichte es ihr, die neueste LPU in ihr bevorstehendes Vera Rubin Ökosystem zu integrieren. Diese Chips dienen als AI Inference Booster und dies wird durch die Einbindung großer Mengen an SRAM und superhoher Bandbreite für Scale-in und Scale-up erreicht.
Daher bezeichnet NVIDIA selbst die Groq 3 LPU als Inference Accelerator, die 500 MB SRAM, 150 TB/s SRAM-Bandbreite und 2,5 TB/s Scale-up-Bandbreite enthält. Diese sind im Groq 3 LPX Rack verpackt, das 256 LPUs und massive 128 GB SRAM für die Verarbeitung mit geringer Latenz beherbergt.
Fractiles Lösung ist ähnlich, obwohl das Unternehmen behauptet, dass seine Architektur eine Beschleunigung bei der KI-Inferenz bei gleichzeitiger Kostensenkung im Vergleich zu NVIDIAs Groq anstrebt. Das Team , das an dem Projekt arbeitet, stammt aus großen Firmen wie NVIDIA, Graphcore und Imagination Technologies.
Das sind einige große Zahlen, aber
Das sind einige große Zahlen, aber das Unternehmen hat noch keine Testchips entwickelt, daher können diese frühen Gespräche den Prozess der internen Chipentwicklung.
Anthropic verlässt sich immer noch stark auf externe Chiphersteller, da es einen Multi-Gigawatt-Deal mit Broadcom unterzeichnet hat, und Berichte deuten darauf hin, dass es bald einen vierten Namen zu seinem Compute-Portfolio in Form ügen wird.
Über den Autor: Hassan Mujtaba, ein ausgebildeter Software-Ingenieur und PC-Enthusiast aus Leidenschaft, ist der Senior Editor für den Hardware-Bereich der Branche spezialisiert er sich auf tiefgehende technische Analysen nächsten Generation, Motherboards und Kühllösungen.
Seine Arbeit umfasst nicht nur Breaking News zu kommenden Technologien, sondern auch ausführliche Hands-on-Reviews und Benchmarking. Sie Wccftech auf Google, um mehr zu erhalten.
Quelllink
Wccftech - Originalartikel oeffnenThema weiterverfolgen
Interne Verlinkung
Im Kontext weiterlesen
Diese weiterfuehrenden Links verbinden das Thema mit relevanten Archivseiten, Schlagwoertern und inhaltlich nahen Artikeln.
Technologie Archiv
Weitere Meldungen aus derselben Hauptkategorie.
Mehr von Wccftech
Alle veroeffentlichten Inhalte derselben Quelle im Archiv.
Wissenschaftler optimieren den Molekelfluss in Nanoreaktoren zur Leistungssteigerung
Redaktionell verwandter Beitrag aus dem selben Themenumfeld.
Experten warnen: Wir verstehen die Funktionsweise von KI-Waffen nicht – nur Anfang und Ende
Redaktionell verwandter Beitrag aus dem selben Themenumfeld.
Quellenprofil
Quelle und redaktionelle Angaben
- Quelle
- Wccftech
- Originaltitel
- Anthropic Eyes UK Startup’s Fusion Tech Promising Faster AI Inference at One-Tenth the Cost of NVIDIA’s Groq
- Canonical
- https://wccftech.com/anthropic-sets-eyes-on-uk-startup-tech-speeds-up-ai-inference-100x-reduces-costs-10x/
- Quell-URL
- https://wccftech.com/anthropic-sets-eyes-on-uk-startup-tech-speeds-up-ai-inference-100x-reduces-costs-10x/
Aehnliche Inhalte
Verwandte Themen und interne Verlinkung
Weitere Artikel aus aehnlichen Themenfeldern, damit Leser direkt im selben Kontext weiterlesen koennen.

Wissenschaftler optimieren den Molekelfluss in Nanoreaktoren zur Leistungssteigerung
Konventionelle Intuition legt nahe, dass der effizienteste Weg Beschleunigung einer chemischen Reaktion darin besteht, Reaktanten ungehinderten Zugang zu einem hochaktiven Katalysator zu gewähren.
03.05.2026
Live Redaktion
Experten warnen: Wir verstehen die Funktionsweise von KI-Waffen nicht – nur Anfang und Ende
Der Artikel beleuchtet, dass die Diskussion um KI-Waffen zu sehr auf die Überwachbarkeit reduziert wird. Das eigentliche, größere Problem sei jedoch das mangelnde Verständnis der inneren Funktionsweise der KI-Systeme.
03.05.2026
Live Redaktion
Astronomische Entdeckung: Überreste einer fremden Galaxie im Herzen der Milchstraße gefunden
Astronomen entdeckten im Zentrum der Milchstraße Überreste eines fremden Sternensystems namens „Loki“. Mithilfe von Machine-Learning-Algorithmen und Gaia-Daten identifizierten sie 20 metallarme Sterne, die auf eine frühe Akkretion einer Zwerggalaxie hindeuten. Die unterschiedlichen Bewegungsbahnen und das Fehlen bestimmter chemischer Signaturen belegen eine chaotische Entstehungsgeschichte, wobei die Forscher betonen, dass weitere Beobachtungen nötig sind, um die Ergebnisse zu validieren.
03.05.2026
Live Redaktion
Meta plant: Solarenergie aus dem All für KI-Rechenzentren – auch bei Nacht
Meta plant, durch ein Deal mit Overview Energy Solarenergie aus dem Orbit zu beziehen. Das Startup wird Sonnenenergie in Nahinfrarotlicht einfangen und sie nachts auf große Solarfarmen auf der Erde fokussieren, um den enormen Strombedarf der KI-Rechenzentren zu decken. Die Technologie ist noch in der Entwicklung, soll aber ab 2028 erste Lieferungen ermöglichen.
03.05.2026
Live Redaktion