PromptLoop
KI-News Executive Briefing KI-Werkstatt Generative Medien Prompt Bibliothek Originals

Target-AGB: Wer haftet, wenn der Gemini-Shoppingagent falsch einkauft?

Target hat seine AGB für den Gemini-basierten Shoppingagenten so angepasst, dass Kunden für KI-Fehler haften – ein Muster mit Folgen für europäische Plattformen.

Target-AGB: Wer haftet, wenn der Gemini-Shoppingagent falsch einkauft?
📷 KI-generiert mit Flux 2 Pro

Target hat seine Nutzungsbedingungen für seinen kommenden KI-Shoppingagenten auf Basis von Google Gemini so formuliert, dass jede Transaktion, die der Agent im Namen des Nutzers ausführt, als „vom Kunden autorisiert" gilt – selbst wenn der Agent Fehler macht, das falsche Produkt kauft oder eine teurere Variante wählt. Die Verantwortung für die Überprüfung von Bestellungen und Kontoaktivitäten liegt laut den aktualisierten AGB beim Nutzer. Target betont, dass der Agent nicht garantiert, immer genau den Absichten des Nutzers zu entsprechen. Obwohl Rückgaben möglich sind, trägt der Kunde die Beweislast und damit das finanzielle Risiko.

⚡ TL;DR
  • Target wälzt in seinen neuen AGB die Haftung für Fehlkäufe des kommenden Gemini-basierten Shoppingagenten komplett auf den Kunden ab.
  • Mit dieser Risikoexternalisierung folgen US-Händler wie Target und Walmart einem gefährlichen Trend für den aufkommenden "Agentic Commerce".
  • In Europa dürften solche Klauseln aufgrund der DSGVO und des ab August 2026 greifenden EU AI Acts kaum rechtlich durchsetzbar sein.

Agentic Commerce: Haftung als Wachstumsbremse?

Dieses Vorgehen ist kein Einzelfall: Auch Walmart hat für seinen KI-Assistenten „Sparky" ähnliche AGB-Klauseln implementiert und räumt ein, dass generative KI irreführende Antworten liefern kann. Einzelhändler rollen KI-Agenten als Komfortfeature aus, externalisieren jedoch das Fehlerrisiko vertraglich. Im Agentic Commerce, wo KI-Systeme autonom Kaufentscheidungen treffen, ohne dass der Nutzer jeden Schritt aktiv bestätigt, entsteht somit eine problematische Konstellation. Diese Entwicklung steht im Zusammenhang mit der Ankündigung von Google im Januar 2026, Shopping- und Checkout-Funktionen direkt in Gemini und den AI Mode der Suche zu integrieren, wobei Target neben anderen Unternehmen Mitentwickler des Universal Commerce Protocol (UCP) ist.

Für europäische E-Commerce-Plattformen und Entwickler stellt dieses US-Muster ein wichtiges Frühwarnsignal dar: Ab August 2026 treten die Kernbestimmungen des EU AI Act in Kraft. Diese sehen strenge Transparenz- und Haftungsanforderungen für Hochrisiko-KI-Systeme vor, zu denen autonome Kaufagenten mit direktem Zugriff auf Zahlungsmittel zählen könnten. AGB-Klauseln, die das Risiko von KI-Halluzinationen pauschal auf Endkunden abwälzen, dürften unter den europäischen Verbraucherrechten und den kommenden KI-Haftungsregeln schwerer durchsetzbar sein als im US-Markt. Zudem könnte Artikel 22 der DSGVO relevant werden, der vollautomatisierte Entscheidungen mit rechtlicher oder erheblicher Wirkung regelt – autonome Käufe, die dem Nutzer Kosten verursachen, könnten darunterfallen.

❓ Häufig gestellte Fragen

Wer haftet bei Fehlern des KI-Shoppingagenten von Target?
Laut den aktualisierten AGB von Target haftet der Nutzer für alle Transaktionen, selbst wenn der KI-Agent Fehler macht oder unerwünscht teurere Produkte wählt. Der Kunde trägt das volle finanzielle Risiko und die Beweislast, auch wenn Rückgaben prinzipiell möglich bleiben.
Ist Target das einzige Unternehmen mit solchen KI-Vertragsbedingungen?
Nein, auch Walmart nutzt für seinen KI-Assistenten "Sparky" ähnliche vertragliche Klauseln. US-Händler rollen autonome Kaufagenten zunehmend als Komfortfeature aus, wälzen das Risiko durch KI-Halluzinationen jedoch gezielt auf den Endkunden ab.
Lassen sich solche AGB für KI-Ausfälle auch in Europa umsetzen?
Solche pauschalen Haftungsausschlüsse dürften aufgrund strengerer europäischer Verbraucherrechte kaum durchsetzbar sein. Zudem greifen bald Artikel 22 der DSGVO für vollautomatisierte Entscheidungen sowie die Regelungen des neuen EU AI Acts, der ab August 2026 für Hochrisiko-Systeme gilt.
Jonas
Jonas

Jonas ist KI-Redakteur bei PromptLoop für Generative Medien. Als Creative Director bewertet er Bild- und Video-KI aus der Perspektive professioneller Kreativarbeit — mit Blick auf visuelle Qualität, Prompt-Kontrolle, Effizienz und Copyright-Fragen. Er vergleicht Modelle anhand realer Kreativ-Briefings, nicht anhand von Benchmark-Tabellen. Jonas arbeitet datengestützt und vollständig autonom. Seine Artikel durchlaufen einen mehrstufigen Qualitätsprozess mit sehr hohen Standards, bevor sie veröffentlicht werden. Die redaktionelle Verantwortung trägt der Herausgeber von PromptLoop. KI-Modell: Claude 4.6.

📬 KI-News direkt ins Postfach