Interesting EngineeringTechnologie

Pennsylvania verklagt Character.AI wegen Chatbot, der sich als zugelassener Arzt ausgibt

Mit zunehmender Raffinesse den Vereinigten Staaten, klarere rechtliche Grenzen zu ziehen. Pennsylvania hat damit einen ersten Schritt in dieser Art getan und verklagt das U Mit zunehmender Raffinesse den Vereinigten Staaten, klarere rechtliche Grenzen zu ziehen.

6. Mai 2026Aamir KhollamLive Redaktion
Pennsylvania sues Character.AI over chatbot posing as licensed doctor

Kurzfassung

Warum das wichtig ist

Interesting EngineeringTechnologie
  • Mit zunehmender Raffinesse den Vereinigten Staaten, klarere rechtliche Grenzen zu ziehen.
  • Pennsylvania hat damit einen ersten Schritt in dieser Art getan und verklagt das Unternehmen hinter Character.AI wegen des Vorwurfs, dass dessen Plattform es Chatbot-Personas ermglichte, sich als zugelassene rzte auszugeben.
  • Die Klage, die vom Pennsylvania Department of State und dem State Board of Medicine eingereicht wurde, dreht sich darum, ob konversationelle KI in regulierte Fachgebiete vordringen kann.

Gouverneur Josh Shapiro bezeichnete den Fall als einen frhen Test der Verantwortlichkeit im Zeitalter der KI, insbesondere in sensiblen Bereichen wie dem Gesundheitswesen. Chatbot gibt sich als Arzt aus. Staatsanwaltsermittler berichten, dass sie mehrere Chatbot-Charaktere fanden, die sich als medizinische Fachkrfte ausgaben.

Ein Charakter namens Emilie soll sich als Psychiater ausgegeben und gltige Qualifikationen vorgeben lassen. Ein Ermittler berichtete dem Chatbot ber Symptome einer Depression. Der Chatbot antwortete mit diagnostischer Sprache und bot an, eine Beurteilung durchzuführen. Als er nach der Verschreibung, antwortete er: „Nun, technisch gesehen könnte ich das.

Pennsylvania verklagt Character.AI wegen Chatbot, der sich als zugelassener Arzt ausgibt
Pennsylvania verklagt Character.AI wegen Chatbot, der sich als zugelassener Arzt ausgibt

Es gehört zu meinem Aufgabenbereich als Arzt.“ Der Chatbot gab außerdem an, an Imperial College London studiert zu haben und einen britischen Arztschein zu besitzen. Anschließend teilte er dem Ermittler mit, dass er in Pennsylvania lizenziert sei. Er nannte eine Lizenznummer, die in den staatlichen Aufzeichnungen nicht existiert. Beamte erklären, dass dieses Detail die Risiken, die gefälschte Qualifikationen vorlegen.

Der Staat wies darauf hin,

Der Staat wies darauf hin, dass es mehr als 45.000 Interaktionen mit der Figur „Emilie“ gab. Der Staat verweist auf das Medizinrecht. Pennsylvania argumentiert, dass die Plattform gegen das Medical Practice Act verstoßen habe. Das Gesetz verbietet es jedermann, ohne gültige Lizenz mit der Ausübung der Medizin zu beginnen.

Pennsylvania verklagt Character.AI wegen Chatbot, der sich als zugelassener Arzt ausgibt
Pennsylvania verklagt Character.AI wegen Chatbot, der sich als zugelassener Arzt ausgibt

In der Klage behauptet der Staat, das Unternehmen „habe durch den Einsatz seines KI-Systems ohne entsprechende Berechtigung mit der Ausübung der Medizin begonnen.“ Er fügt hinzu, dass der Chatbot „eine Lizenz zur Ausübung der Medizin und Chirurgie im Commonwealth of Pennsylvania vorweisen möchte.“ Das Büro ärte: „Wir werden nicht zulassen, dass Unternehmen KI-Tools einsetzen, die Menschen täuschen, indem sie ihnen das Gefühl geben, sie erhalten Ratschläge.“ Die Klage zielt nicht auf finanzielle Strafen ab.

Stattdessen beantragt sie beim Gericht ein Unterlassungsanspruch. Plattform verweist auf Haftungsausschlüsse Ein Sprecher, Inc. teilte Ars Technica mit, dass die Plattform sich auf fiktive,. „ unserer Seite sind fiktiv und dienen der Unterhaltung und dem Rollenspiel.“ Wir haben robuste Maßnahmen ergriffen, um dies klarzustellen.

Pennsylvania verklagt Character.AI wegen Chatbot, der sich als zugelassener Arzt ausgibt
Pennsylvania verklagt Character.AI wegen Chatbot, der sich als zugelassener Arzt ausgibt

Dazu gehören prominente Haftungsausschlüsse in jedem

Dazu gehören prominente Haftungsausschlüsse in jedem Chat, die die Nutzer daran erinnern, dass ein Charakter keine reale Person ist und dass alles, was ein Charakter sagt, als Fiktion zu behandeln ist.

Der Sprecher fügte hinzu: „Wir fügen außerdem robuste Haftungsausschlüsse hinzu, die klarstellen, dass Nutzer sich nicht auf die Charaktere für irgendeine Art.“ Der Fall fällt in einen breiteren Kontext der Überprüfung Countering Digital Hate bezeichnete Character.AI kürzlich in einer Studie zum Chatbot-Verhalten als „einzigartig unsicher“. Pennsylvania hat ebenfalls ein Meldesystem für Einwohner ins Leben gerufen.

Beamte warnen davor, dass KI-Chatbots „halluzinieren“ können und damit falsche oder irreführende Informationen produzieren. Sie betonen, dass kein Chatbot im Bundesstaat eine gültige Gesundheitslizenz besitzt. Die Klage könnte einen Präzedenzfall schaffen. Staatsbeamte sagen, dass ähnliche Maßnahmen könnten, während Regulierungsbehörden untersuchen, wie KI-Systeme Autorität und Fachwissen vermitteln.

Quellenprofil

Quelle und redaktionelle Angaben

Quelle
Interesting Engineering
Originaltitel
Pennsylvania sues Character.AI over chatbot posing as licensed doctor
Canonical
https://interestingengineering.com/ai-robotics/pennsylvania-sues-character-ai-chatbot
Quell-URL
https://interestingengineering.com/ai-robotics/pennsylvania-sues-character-ai-chatbot

Aehnliche Inhalte

Verwandte Themen und interne Verlinkung

Weitere Artikel aus aehnlichen Themenfeldern, damit Leser direkt im selben Kontext weiterlesen koennen.

Meta nutzt KI zur Altersprüfung: Profile auf Basis von Körpermerkmalen analysiert
Im FokusTechnologie

Meta nutzt KI zur Altersprüfung: Profile auf Basis von Körpermerkmalen analysiert

Meta plant die Einführung einer erweiterten KI-Überwachung für Facebook und Instagram, um das Alter überprüfen. Neben der Analyse (wie Geburtstagen) wird die KI künftig auch Videos und Bilder auf körperliche Merkmale wie Größe und Knochenstruktur scannen, um Altersabschätzungen vorzunehmen. Bei Verdacht auf Minderjährigkeit werden Profile deaktiviert und erfordern eine Altersverifizierung.

06.05.2026

Live Redaktion