Ein sechsachsiger Kameraroboter zieht in einer sauberen Parabel über die Mittellinie, während das Replay‑System aus einem Standardfeed ein flüssiges Super‑Slow‑Motion‑Bild generiert. Für den Operator fühlt es sich an wie ein einziger, sauberer Handgriff: Macro triggern, Shot sitzt, Clip steht — horizontal für die Regie, vertikal für Social.
- EVS präsentiert auf der NAB 2026 T-Motion Robotics für präzise Kamerasteuerung und KI-gestützte Replay-Tools wie XtraMotion und LSM-VIA Zoom.
- Die Kombination aus Robotik und KI ermöglicht automatisierte Replays durch Control-Macros und KI-Module, wobei der Fokus auf reproduzierbaren Presets und konsistenten Operator-Workflows liegt.
- Der EU AI Act und die DSGVO erfordern für DACH-Broadcaster bei der Nutzung dieser Technologien Modell-Transparenz, Monitoring und die Klärung vertraglicher Verantwortlichkeiten.
Genau dieses Zusammenspiel demonstriert EVS auf der NAB Show 2026 in Las Vegas: Das neue T‑Motion‑Robotics‑Portfolio — entstanden aus der im Herbst 2025 abgeschlossenen Akquisition von Telemetrics für bis zu 12,7 Millionen US-Dollar (inklusive Earn-Out) und der Integration von XD Motion — debütiert gemeinsam mit KI‑gestützten Replay‑Werkzeugen wie XtraMotion und LSM‑VIA Zoom innerhalb des bestehenden EVS‑Ökosystems (TVTechnology; SVG Europe). Die NAB 2026 läuft vom 18. bis 22. April in Las Vegas — ein passender Rahmen für eine Stack‑Demonstration aus Robotik, Control und KI (TVTechnology).
Robotik präzise orchestrieren: Die Bausteine von T‑Motion
Mit T‑Motion bringt EVS eine einheitliche Orchestrierungsschicht für Kamerarobotik in Live‑Workflows. Die Linie umfasst laut Ankündigungen sechs Systeme: Arcam (sechsachsiger Kameraroboterarm), OmniGlide (fahrende Plattform), Telescope (robotisierter Jib), TeleGlide (Schienensystem), Televator (hebbarer Sockel) und XFly (Kabelkamera). Ziel ist kreative Flexibilität bei konsistenter Sicherheit und Integration in das EVS‑Ökosystem (TVTechnology; Sports Video Group).
- Setup‑Zeit senken: Vorkonfigurierte, wiederholbare Fahrten als Presets minimieren die Einlernphase in der Halle oder am Course.
- UI‑Kohärenz: Eine Orchestrierungsschicht reduziert Kontextwechsel zwischen Robotik‑ und Regie‑Panels — wichtig für Operator ohne Programmierhintergrund.
- Safety by Design: Integrierte Sicherheitslogik ist zentraler Bestandteil der Plattform; das ist bei mobilen Rigs in engen Mixed‑Zones entscheidend (TVTechnology).
Im Alltag bedeutet das: Ein Operator kann eine vorab geprüfte Fahrkurve samt Limits laden, sie per Shortcut in Cerebrum oder direkt über die Robotik‑Steuerung anfahren und parallel im LSM‑VIA‑Panel bereits den Clip‑In setzen. Die Handbewegung bleibt identisch, die Systemreaktion wird konsistenter.
KI im Replay‑Stack: XtraMotion und LSM‑VIA Zoom im Verbund
Parallel zur Robotik zeigt EVS KI‑gestützte Bildprozesse: XtraMotion erzeugt aus Standardfeeds GenAI-basierte Super‑Slow‑Motion‑Sequenzen, führt Deblurring aus und liefert kinematische Replays; LSM‑VIA Zoom setzt auf AI‑basiertes Reframing von 4K‑Quellen, Objekterkennung und die Echtzeit‑Erzeugung vertikaler Formate — inklusive enger Verzahnung mit dem Broadcast‑Control‑System Cerebrum, Shortcut‑Steuerung, Intercom‑Integration (Push‑to‑Talk) und AMP‑Protokoll‑Support (TVTechnology; Sports Video Group; SVG Europe; TVNewsCheck).
Für Offizielle und Coaching‑Staff positioniert EVS Xeebra mit AI‑gestützter Feldkalibrierung, Virtual‑Offside‑Line, Remote‑Review und der Option, Deblurring via XtraMotion zu nutzen; Xeebra INSIGHT adressiert Trainer mobil ohne Control‑Room‑Abhängigkeit (TVTechnology).
Wichtig für die Einordnung: Die Quellen zeigen Robotik (T‑Motion) und KI‑Replays (XtraMotion, LSM‑VIA) als zusammenhängendes Ökosystem, aber nicht als vollautomatische, durch Robotik selbst gesteuerte Replay‑Kette. Automatisierte Replays sind demnach ein Zusammenspiel aus Control‑Macros, Operator‑Entscheidungen und KI‑Modulen — kein „One‑Button‑Auto‑Replay“ (TVTechnology).
Prompt‑Denken für Live‑Bilder: Makros, Presets und Labeling
Auch wenn die Systeme nicht mit Freitext‑Prompts arbeiten, hilft ein „Prompt‑Mindset“ für saubere Operator‑Workflows. Konkrete, wiederholbare Makros ersetzen vage Anweisungen. Drei erprobte Muster für Sport und Events:
- Reframe‑Template 9:16: In LSM‑VIA Zoom ein 4K‑Feed mit Objekterkennung anbinden, Safe‑Zones definieren (Kopf‑ und Fußraum) und als vertikales Preset speichern. Shortcut in Cerebrum anlegen, damit der Operator per Tastenfolge automatisch einen Social‑Clip generiert (Quelle: Sports Video Group).
- Clean‑SloMo: Für XtraMotion ein Standardfeed als Input markieren, Deblurring aktivieren und die Ausgabedauer als feste Länge im Clip‑Template hinterlegen. So bleibt die Haptik am LSM‑VIA‑Panel identisch, die KI liefert konsistente Slowdowns (TVTechnology).
- Robot‑Shot Presets: In T‑Motion wiederholbare Fahrten als Preset anlegen (z. B. „Mittellinie Sweep“), Beschleunigungs‑ und Stoppkurven fixieren und die Freigabe mit Cerebrum‑Safeties verknüpfen. So bleibt die Bedienung reproduzierbar, auch wenn das Venue wechselt (TVNewsCheck).
Zur Bildqualität: Generative SloMo und Deblurring entfalten ihren Wert, wenn der Grundfeed stabil und ausreichend aufgelöst ist. Genau dafür verweist EVS auf Praxiseinsätze und Demos im Live‑Kontext; die Features sind nicht nur Laborszenarien (TVTechnology).
So What? Copyright, Workflows und DACH‑Praxis
Für Kreative und Agenturen zählt der Reibungsverlust im Alltag. Die Kombination aus Robotik‑Presets, Shortcut‑fähigem Control (Cerebrum) und KI‑Reframing reduziert die kognitiven Sprünge zwischen Panels. Der Lerneffekt: Du definierst Intentionen einmal (Shot‑Kurve, Reframe‑Safe‑Zone, Clip‑Länge) und wiederholst sie zuverlässig. In der Redaktion entstehen parallel zwei Versionen eines Moments: die saubere Regie‑Wide und der vertikale Social‑Cut. Das schiebt Live-Formatausspielungen näher an die Regie statt in die Post.
Copyright‑seitig bleiben Rechte am Live‑Signal bei Rechteinhaber und Produzent; KI‑Module wie XtraMotion transformieren vorhandenes Material, generieren aber keine neuen IP‑Welten. Kritisch ist daher weniger das Urheberrecht, sondern die vertragliche Klärung: Dürfen aus dem Primärfeed automatisiert Social‑Derivate entstehen? Wer priorisiert bei Konflikten (Regie vs. Social)? Diese Fragen gehören vorab in die Produktionsbibel.
Was bedeutet das für den EU AI Act?
Für DACH‑Broadcaster ist die Einordnung klar: Seit August 2025 gelten Governance‑ und GPAI‑Regeln, ab August 2026 greift der Hauptteil des AI Act, während die spezifischen Klassifizierungsregeln für risikobehaftete KI-Systeme nach Artikel 6(1) ab August 2027 gelten. KI‑gestützte Bildverarbeitung in Live‑Umgebungen erfordert daher Modell‑Transparenz, Monitoring und klare Verantwortlichkeiten im Betrieb. Wer Offiziellen‑Reviews (Xeebra) oder automatisierte Reframings einsetzt, sollte Prozesse und Logs auditierbar machen. Bei personenbezogenen Daten greifen außerdem DSGVO‑Pflichten (u. a. DSFA nach Art. 35, Regelungen zu Drittlandtransfers). Für deutsche Sender und Dienstleister bedeutet das: frühe Rechts‑ und Datenschutz‑Einbindung in die Toolchain.
Praxisnah für die Region: Deutsche Sportproduktionen arbeiten traditionell mit EVS‑Stacks; die hier skizzierten Preset‑ und Macro‑Muster lassen sich ohne Programmierkenntnisse in bestehende Regie‑Abläufe integrieren — relevant für den Mittelstand ebenso wie für große Broadcaster.
Fazit: Jetzt Presets denken, nicht nur Features einkaufen
T‑Motion Robotics bringt reproduzierbare Kamerabewegungen in eine gemeinsame Steuerlogik; XtraMotion, LSM‑VIA Zoom und Xeebra ergänzen KI‑basierte Replays und Reviews. Entscheidend ist nicht die Einzelfähigkeit, sondern die Bedienbarkeit: Presets, Shortcuts und klare Safe‑Zones. Wer Sport‑ und Eventproduktionen in DACH effizienter machen will, startet mit einer kleinen Preset‑Bibliothek (Top‑3 Fahrten, Top‑3 Reframes, ein Clean‑SloMo), dokumentiert die Macros in Cerebrum und etabliert ein kurzes Onboarding für Operator. So wird aus Robotik plus KI ein belastbarer, skaliert nutzbarer Live‑Workflow — ohne die Regie zu überfordern.