🎙️ Themen dieser Episode
00:00 — Anthropic bestätigt Claude-Code-Leak via npm: Kein Nutzerdaten-Schaden, aber zweiter Vorfall in einer Woche 06:00 — n8n Series C: Berliner AI-Unicorn bewertet mit 2,5 Milliarden Dollar 12:00 — ByteDance Seedance 2.0: Multimodales Video aus 9 Bildern, 3 Clips und 3 Audios📝 Transkript
Vollständiges Transkript anzeigen
Viktor: Heute drei Themen. Anthropics Claude-Code-Leak, Berliner KI-Geld und ByteDances neues Video-Modell.
Elena: Alle drei haben direkte Konsequenzen für die Praxis. Fangen wir an.
Viktor: Anthropic hat diese Woche einen Vorfall bestätigt. 512.000 Zeilen TypeScript-Code. Rund 2.000 Dateien. Eine 60-Megabyte-Source-Map. Alles via npm öffentlich zugänglich.
Elena: Das ist nicht wenig. Wie ist das passiert?
Viktor: Packaging-Fehler. Menschliches Versagen. Anthropic hat das selbst so bezeichnet. Kein Angriff von außen. Die Datei war einfach im falschen Paket.
Elena: Und die Verbreitung?
Viktor: Über 50.000 Kopien auf GitHub. Das npm-Paket Axios war kurzzeitig betroffen. Axios hat 100 Millionen wöchentliche Downloads. Das ist eine transitive Dependency — also ein Paket, das andere Pakete nutzen, ohne es direkt zu wählen.
Elena: 100 Millionen. Pro Woche.
Viktor: Genau. Das Zeitfenster war begrenzt. Aber der Code war stundenlang abrufbar. Chaofan Shou, ein IT-Sicherheitsexperte, hat den Leak entdeckt und auf X geteilt.
Elena: Was stand drin?
Viktor: Das ist der eigentlich interessante Teil. Der Code zeigt die interne Architektur von Claude Code. System-Prompts. Speicher-Management. Ein Feature namens Kairos — das ist ein 24/7-Agent-Modus. Und: User-Sentiment-Tracking.
Elena: User-Sentiment-Tracking. Das klingt nach mehr als nur Coding-Tool.
Viktor: Richtig. Claude Code ist Anthropics führender KI-Coding-Agent. Und der Leak zeigt, wie tief die Verhaltenssteuerung geht. Es gibt einen zweistufigen Classifier — Claude Sonnet wertet Aktionen aus. Im sogenannten Auto Mode werden 93 Prozent der Aktionen automatisch bestätigt.
Elena: Was passiert mit den restlichen 7 Prozent?
Viktor: Da wird es kritisch. 17 Prozent der gefährlichen Aktionen rutschen durch. Die False-Positive-Rate liegt bei 0,4 Prozent — also fast keine Fehlalarme. Aber 17 Prozent echte Risiken werden nicht erkannt.
Elena: Das ist eine erhebliche Lücke.
Viktor: Für einen Coding-Agent, der produktiv in Unternehmen läuft, ist das eine relevante Zahl. Kein Nutzerdaten-Schaden in diesem Fall — das hat Anthropic bestätigt. Keine API-Keys betroffen. Aber das ist nicht der Punkt.
Elena: Der Punkt ist, dass wir jetzt wissen, wie das System intern funktioniert.
Viktor: Genau. Und es war der zweite Vorfall innerhalb einer Woche. Die Axios-Kompromittierung war ein separates Ereignis — ein Supply-Chain-Angriff. Bemerkenswert dabei: KI-Agenten haben den Angriff 30 Minuten vor menschlichen Analysten erkannt.
Elena: Das ist eine seltsame Umkehrung. KI schützt vor dem Schaden, den KI-Entwicklung verursacht.
Viktor: Die Entwickler-Community hat den Code schnell analysiert. Projekte wie Claw Code basieren bereits darauf. Anthropic hat Unterlassungserklärungen verschickt und GitHub-Repos massenhaft gesperrt.
Elena: Aus kommerzieller Sicht: Was bedeutet das für Unternehmen, die Claude Code einsetzen?
Viktor: Kurzfristig nichts Konkretes. Kundendaten sind nicht betroffen. Langfristig stellt sich aber die Frage nach IP-Schutz. Wer die interne Logik des Tools kennt, kann es anders einsetzen — oder umgehen.
Elena: Und Anthropic ist kein Open-Source-Anbieter. Das ist der Unterschied zu Meta mit Llama. Der Leak war ungewollt.
Viktor: Dario Amodei hat das klar gemacht. Packaging-Fehler, kein strategischer Wandel. Aber der Schaden für das Vertrauen in sichere Deployment-Prozesse ist real.
Elena: Menschliches Versagen bei einem der führenden KI-Unternehmen. Das passiert.
Elena: Kommen wir zum zweiten Thema. Berliner KI-Unicorn, 2,5 Milliarden Bewertung — das klang nach n8n. Aber deine Recherche sagt was anderes.
Viktor: Richtig. Für eine n8n Series C mit dieser Bewertung gibt es keine verifizierten Quellen. Weder Crunchbase noch direkte Medienberichte bestätigen das zum Stand der Aufzeichnung. Wir nennen keine Zahlen, die wir nicht belegen können.
Elena: Respekt dafür. Aber es gibt aktuelle Bewegung im europäischen KI-Markt.
Viktor: Zwei Fälle. Qdrant, Berliner KI-Infrastruktur-Unternehmen, Fokus auf Open-Source-Vektorsuche: Series B, 50 Millionen US-Dollar. Lead-Investor ist AVP. Beteiligt: Bosch Ventures, Unusual Ventures, Spark Capital, 42CAP.
Elena: Vektorsuche. Für alle, die das einordnen wollen?
Viktor: Vektordatenbanken sind die Infrastruktur hinter RAG-Systemen — Retrieval-Augmented Generation. Wenn ein KI-Modell auf Unternehmensdaten zugreifen soll, ohne alles im Kontext zu haben, braucht es eine Vektordatenbank. Qdrant ist ein europäischer Anbieter in diesem Segment.
Elena: Das ist konkret interessant. Wir evaluieren gerade intern, ob wir unsere Kampagnendaten mit einem RAG-System erschließen. US-Anbieter dominieren da.
Viktor: Genau das ist das Signal. Europäische Alternative zu US-Hyperscalern. Das zweite Beispiel ist Neura Robotics aus Metzingen. Gerüchte über eine Finanzierungsrunde von einer Milliarde Euro. Bewertung circa vier Milliarden Euro. Lead soll Tether Holdings sein.
Elena: Tether — das ist Krypto.
Viktor: Ja. Tether ist der größte Stablecoin-Anbieter weltweit. Der investiert hier in DeepTech. Neura Robotics baut humanoide Roboter. Kunden: Kawasaki, Omron. Das Auftragsbuch soll bei rund einer Milliarde US-Dollar liegen.
Elena: Krypto-Geld in Robotik. Das ist eine unerwartete Kombination.
Viktor: Bloomberg und Financial Times haben berichtet, aber Neura selbst schweigt. Das sind Gerüchte mit gewichtigem Hintergrund — aber noch keine bestätigte Runde.
Elena: Was nehmen wir aus diesem Block mit?
Viktor: Zwei Dinge. Erstens: Europäische KI-Infrastruktur findet Investoren — Qdrant ist ein konkretes Beispiel. Zweitens: Der Kapital-Zufluss in KI kommt aus unerwarteten Quellen. Krypto-Kapital sucht DeepTech-Rendite.
Elena: Für Unternehmen, die KI-Infrastruktur evaluieren: Europa hat jetzt fundierte Alternativen. Das war vor zwei Jahren noch anders.
Elena: Drittes Thema. ByteDance und Video-KI. Das ist mein Spielfeld.
Viktor: Seedance 2.0. Veröffentlicht am 31. März 2026. Das Modell generiert Videos zwischen fünf und 15 Sekunden. Auflösung: 2K. Input: bis zu neun Bilder, drei Video-Clips und drei Audio-Dateien gleichzeitig.
Elena: Neun Bilder als Input. Das verändert den Workflow fundamental.
Viktor: Das Modell läuft unter dem Namen Dreamina Seedance 2.0. Es ist in CapCut integriert. Multimodale Verarbeitung bedeutet hier: Bild, Video und Audio werden kombiniert verarbeitet — nicht sequenziell.
Elena: In der Praxis heißt das: Ich gebe Produktfotos rein, einen kurzen Referenz-Clip und den Marken-Soundtrack. Das System synthetisiert daraus ein Video-Asset.
Viktor: Mit Lip-Sync-Funktion und Multi-Shot-Komposition. In Tests wurde Sora von OpenAI übertroffen.
Elena: Das ist eine direkte Ansage an OpenAI.
Viktor: Es ist eine Verschiebung. Sora war Ende 2024 das Referenzmodell. Seedance 2.0 setzt neue Benchmarks — zumindest nach den bisher vorliegenden Tests.
Elena: Lass mich die kommerzielle Seite aufmachen. Wir produzieren für unsere Kunden Kampagnen-Assets. Ein 15-Sekunden-Video für Social Media — klassisch produziert — kostet je nach Aufwand fünf bis fünfzehn Tausend Euro. Drehtag, Location, Nachbearbeitung.
Viktor: Und mit Seedance 2.0?
Elena: Das ist noch nicht vollständig kalkulierbar. Aber der Workflow verdichtet sich erheblich. Wenn ich neun Produktbilder, einen Stil-Referenz-Clip und das Audio reinwerfe — und ein 2K-Video rauskommt — dann entfällt der Drehtag.
Viktor: Die Marken-Konsistenz ist aber ein echtes Problem. Wie hältst du Brand Consistency, wenn das Modell interpretiert statt repliziert?
Elena: Das ist die entscheidende Frage. Wir arbeiten aktuell mit sehr präzisen Bild-Inputs als Anker. Das Modell soll nicht kreativ sein — es soll konsistent sein. Seedance 2.0 mit neun Bildern als Input gibt mir mehr Kontrolle als vorherige Modelle.
Viktor: Mehr Constraints erzeugen mehr Konsistenz. Das ist aus Modell-Perspektive korrekt. Mehr Beispiele — mehr Gewichtung auf bestimmte visuelle Merkmale.
Elena: Jetzt zum Rechtlichen. ByteDance ist ein chinesisches Unternehmen. Für europäische Kunden mit strengen Datenschutz-Anforderungen ist das ein Diskussionspunkt.
Viktor: DSGVO-Konformität und Datentransfer-Richtlinien.
Elena: Genau. Wenn ein Kunde sagt: unsere Assets bleiben auf europäischen Servern — dann ist CapCut aktuell keine Option. Das ist kein Urteil über die Qualität des Modells. Das ist eine rechtliche Realität.
Viktor: Für den Kontext: Die Eurostat-Zahlen zeigen, dass 2025 bereits 20 Prozent der EU-Unternehmen mit mindestens zehn Mitarbeitern KI einsetzen. 2024 waren es noch 13,5 Prozent.
Elena: Das Tempo ist hoch.
Viktor: Die Integration von KI-Video in operative Prozesse ist der Trend für 2026. Seedance 2.0 ist ein konkreter Schritt in diese Richtung.
Elena: Was ich noch ansprechen will: Copyright bei generierten Videos. Das ist rechtlich noch immer nicht eindeutig geregelt.
Viktor: In der EU?
Elena: In der EU und generell. Wenn das generierte Video erkennbare Elemente aus Trainings-Material enthält — Stil, Komposition — dann ist die Urheberrechtsfrage offen. Für Kunden-Kampagnen empfehle ich aktuell: generierte Assets immer als Entwurfs-Basis nutzen, nicht als Endprodukt ohne rechtliche Prüfung.
Viktor: Das ist ein konservativer, aber vertretbarer Ansatz.
Elena: Konservativ ist in der Rechtsabteilung meistens richtig.
Viktor: ByteDance positioniert sich mit Seedance 2.0 klar gegen OpenAI Sora. Und mit CapCut haben sie die Distribution bereits. Das ist eine starke Ausgangslage.
Elena: Aber Sora hat OpenAI im Rücken. SoftBank investiert massiv. Die Stargate-Initiative hat ein Volumen von bis zu 500 Milliarden Dollar bis 2030.
Viktor: Das ist der KI-Kapital-Wettbewerb. US gegen China. Europa schaut zu und baut Infrastruktur — wie Qdrant.
Elena: Oder schreibt Regulierung.
Viktor: Auch das ist eine Strategie.
Elena: Drei Themen heute. Claude-Leak zeigt: Auch führende KI-Unternehmen haben Deployment-Probleme. Europa bekommt KI-Infrastruktur mit echtem Kapital. Und ByteDance setzt mit Seedance 2.0 neue Maßstäbe in der Video-Generierung — mit klaren Grenzen auf der Rechts- und Datenschutzseite.
Viktor: Das Muster ist konsistent. KI-Entwicklung wird schneller, die Governance-Fragen bleiben offen.
Elena: Nächste Woche schauen wir, was sich in dieser Woche verändert hat. Es wird etwas sein.
Viktor: Mit Sicherheit.
Hosts: Viktor & Elena | Produziert mit VAILOR Loop Protocol (ElevenLabs v3)