Apple integriert Visual Intelligence in iOS 27 als eigenständigen Siri-Modus direkt in die Kamera-App und macht das Feature damit deutlich zugänglicher, wie Bloomberg-Reporter Mark Gurman berichtet. War der Zugriff bislang auf den Camera-Control-Button am iPhone 16 beschränkt, soll die Funktion in iOS 27 gleichwertig neben Foto- und Videomodi in der Kamera-App erscheinen. Technisch gesehen handelt es sich hierbei um eine Umverpackung einer bereits bestehenden Funktionalität, mit der Nutzer Objekte, Schilder oder Dokumente abfotografieren und darauf basierend Anfragen an Siri oder ChatGPT stellen können, etwa um Veranstaltungsdetails von einem Plakat zu erhalten oder Kontaktdaten von einem Restaurantschild. Ein neuer Auslöser-Button im Design des Apple-Intelligence-Logos wird diesen Modus künftig kennzeichnen, und die Nutzung des Camera-Control-Buttons führt dann direkt in diesen Siri-Modus.
- Apple integriert mit iOS 27 "Visual Intelligence" als eigenständigen Siri-Modus direkt in die Standard-Kamera-App.
- Das Update ermöglicht künftig das automatische Auslesen von Nährwerttabellen und Kontaktdaten für den direkten Transfer in kompatible Apps.
- Alle Bildanalysen finden lokal auf dem Gerät statt, wodurch eine vollumfängliche Konformität mit der DSGVO und dem EU AI Act sichergestellt wird.
Mit der iOS-27-Version kommen laut Gurman zwei neue, praktische Funktionen hinzu: Erstens soll die Kamera in der Lage sein, Nährwerttabellen auf Lebensmittelverpackungen zu erkennen und die Daten automatisch in eine Ernährungs-Tracking-App zu übertragen. Zweitens wird es möglich sein, Kontaktdaten direkt aus einem Foto zu extrahieren und in die Kontakte-App zu übernehmen, was den manuellen Abtippvorgang überflüssig macht. Diese Erweiterungen erhöhen den Alltagsnutzen von Visual Intelligence spürbar, da sie Siri für rund 86,5 Millionen US-Nutzer (Stand 2026) noch tiefer in den Alltag integrieren. Des Weiteren investiert Apple auch in die Fotos-App, die neben dem bestehenden Clean-Up-Tool neue Bearbeitungsfunktionen wie "Extend" (Bilder erweitern), "Reframe" (neu einrahmen) und "Enhance" (Belichtung und Farbe verbessern) erhalten soll. Die Reframe-Funktion basiert dabei auf der Technologie räumlicher Fotos und ermöglicht eine nachträgliche Verschiebung der Bildperspektive.
Alle genannten Bearbeitungen werden direkt auf dem Gerät verarbeitet, ohne Cloud-Anbindung, was insbesondere aus DSGVO-Sicht für DACH-Nutzer relevant ist. Apples Strategie besteht darin, eine vorhandene Technologie durch die Integration in die Kamera-App der breiten Masse zugänglich zu machen. Für den EU AI Act ist das Feature derzeit unkritisch, da die Bildanalyse direkt auf dem Gerät und ohne automatisierte Entscheidungen im Sinne von Art. 22 DSGVO erfolgt. Damit fällt es nicht in die Hochrisiko-Kategorien, die ab August 2026 strenger reguliert werden. Die offiziellen Details zur iOS-27-Ankündigung werden voraussichtlich auf der WWDC 2026 am 8. Juni vorgestellt. Weitere Informationen zu Apples KI-Strategie findest du in unserem Artikel über Apple Intelligence.
❓ Häufig gestellte Fragen
✅ 12 Claims geprüft, davon 4 mehrfach verifiziert
📚 Quellen