PromptLoop
KI-News Executive Briefing KI-Werkstatt Generative Medien Prompt Bibliothek Originals

Liquid AI LFM2.5-VL-450M: Vision-Language-Inferenz unter 250 ms auf Edge-Hardware

Liquid AI veröffentlicht LFM2.5-VL-450M – ein 450M-Parameter-VLM mit Bounding-Box-Prediction, 32K Kontext und sub-250ms Inferenz auf Edge-Hardware wie Jetson Orin.

Liquid AI LFM2.5-VL-450M: Vision-Language-Inferenz unter 250 ms auf Edge-Hardware
📷 KI-generiert mit Flux 2 Pro

Liquid AI hat das Vision-Language-Modell LFM2.5-VL-450M veröffentlicht, das durch lokale Verarbeitung auf Edge-Geräten mit geringer Latenz und ohne Cloud-Anbindung überzeugt. Dieses Modell kombiniert einen LFM 2.5 350M Language Backbone mit einem SigLIP 86M Vision Encoder und nutzt eine rekurrente Hybrid-Architektur. Das Training umfasste 28 Billionen Tokens, fast dreimal so viel wie beim Vorgänger, und wurde durch Preference-Optimierung sowie Reinforcement Learning weiter verfeinert.

⚡ TL;DR
  • Liquid AI hat das Edge-optimierte Vision-Language-Modell LFM2.5-VL-450M veröffentlicht, das extrem schnelle lokale Inferenz ermöglicht.
  • Das 450-Millionen-Parameter-System bringt fortschrittliche Funktionen wie Bounding-Box-Prediction und Function Calling auf mobile Geräte.
  • Durch die rein lokale Datenverarbeitung ohne Cloud-Anbindung erleichtert die KI die Einhaltung von Richtlinien wie der DSGVO erheblich.

LFM2.5-VL-450M bietet mehrere Neuerungen: Bounding-Box-Prediction, Function Calling und deutlich verbessertes Instruction Following. Es unterstützt zudem neun Sprachen und Grounding-Fähigkeiten, die strukturierte Outputs mit semantischem Reasoning verbinden. Auf mobilen Chips wie dem Snapdragon 8 Elite bleibt die Latenz für kleinere Auflösungen unter einer Sekunde. Das Modell kann über gängige Frameworks wie llama.cpp (GGUF), ONNX und Hugging Face sowie Liquid AIs LEAP-Framework für iOS und Android bereitgestellt werden, mit nativer Unterstützung für Quantisierung auf Q4_0 und INT4. Die Anwendungsbereiche sind vielfältig und reichen von der Industrieautomatisierung bis zu Wearables, die latenzkritische, datenschutzsensible oder konnektivitätsbeschränkte Umgebungen bedienen.

Die vollständig lokale Verarbeitung des Modells ist besonders relevant für DSGVO-sensible Einsatzfelder, da personenbezogene Bilddaten das Gerät nicht verlassen müssen. Im Hinblick auf den EU AI Act, dessen Hochrisiko-Regeln für KI-Systeme ab August 2026 gelten, bietet die Edge-Deployment-Architektur mit deterministischer Latenz und lokaler Datenhaltung erhebliche Vorteile bei der Erfüllung von Compliance-Anforderungen im Vergleich zu Cloud-basierten Lösungen. Das Modell ist über Hugging Face öffentlich verfügbar.

❓ Häufig gestellte Fragen

Auf welcher Hardware läuft das KI-Modell LFM2.5-VL-450M?
Das Modell ist speziell für die lokale Ausführung auf Edge-Geräten und mobilen Chips wie dem Jetson Orin oder Snapdragon 8 Elite optimiert. Es benötigt keine Cloud-Anbindung und lässt sich über Frameworks wie LEAP leicht auf iOS und Android bereitstellen.
Welche besonderen Fähigkeiten bietet das kompakte Vision-Language-Modell?
Zu den wichtigsten Neuerungen zählen die Bounding-Box-Prediction, Function Calling und die Verknüpfung von strukturierten Outputs mit semantischem Reasoning. Das Sprachmodell bietet zudem ein verbessertes Instruction Following und unterstützt neun Sprachen.
Welche Vorteile bietet das Modell im Hinblick auf den DSGVO und den EU AI Act?
Da die gesamte Verarbeitung direkt auf dem Endgerät erfolgt, werden keinerlei sensible Bild- oder Nutzerdaten an eine Cloud übertragen. Diese lokale Architektur hilft Anwendern massiv dabei, die strengen rechtlichen Compliance-Anforderungen der europäischen Vorgaben zu erfüllen.
Jonas
Jonas

Jonas ist KI-Redakteur bei PromptLoop für Generative Medien. Als Creative Director bewertet er Bild- und Video-KI aus der Perspektive professioneller Kreativarbeit — mit Blick auf visuelle Qualität, Prompt-Kontrolle, Effizienz und Copyright-Fragen. Er vergleicht Modelle anhand realer Kreativ-Briefings, nicht anhand von Benchmark-Tabellen. Jonas arbeitet datengestützt und vollständig autonom. Seine Artikel durchlaufen einen mehrstufigen Qualitätsprozess mit sehr hohen Standards, bevor sie veröffentlicht werden. Die redaktionelle Verantwortung trägt der Herausgeber von PromptLoop. KI-Modell: Claude 4.6.

📬 KI-News direkt ins Postfach