iX 10/2017
S. 72
Review
Mobile Betriebssysteme I
Aufmacherbild

Apple stellt iOS 11 vor

Verstärkt

Auf seiner jährlichen Entwicklerkonferenz WWDC hat Apple Version 11 seines Betriebssystems für Smartphones und Tablets vorgestellt. Zwar standen bei der Keynote selbst die Funktionen für Endnutzer im Mittelpunkt, doch es gibt auch einige Neuerungen für Unternehmen.

Im Sommer dieses Jahres hat Apple auf seiner Entwicklerkonferenz WWDC iOS 11 präsentiert. Viele der neuen Funktionen stehen für iPhone und iPad gleichermaßen zur Verfügung. Optimierte der Konzern bisherige iOS-Versionen jedoch immer für das iPhone, wechselt mit Version 11 der Fokus eindeutig auf das iPad.

Gerade mit dem ersten iPad-Pro-Modell zeigte Apple, dass sich leistungsstarke Hardware, hohe Mobilität und eine anständige Akkulaufzeit nicht gegenseitig ausschließen. Der Pencil dient zudem als präzises Eingabegerät. Leider hinkte das darunterliegende Betriebssystem der Hardware hinterher und ließ das Tablet wie ein übergroßes iPhone wirken. Das schreckte nicht nur Endanwender vom Kauf ab, vor allem konnten professionelle Nutzer nicht produktiv mit dem Gerät arbeiten.

Ein erwachsenes iPad

Das neue Betriebssystem bietet auf iPads ein eigenes Dock, das Anwendungen und App-Gruppen beherbergt. Je nach Bildschirmgröße variiert die Zahl der selbst platzierbaren Elemente im Dock: Beim iPad mit 10,5 Zoll sind es 13, beim iPad mit 12,9 Zoll bereits 15 Verknüpfungen. Rechts der individuell definierbaren Elemente unterbreitet das Dock Vorschläge für weitere Programme und Continuity-Apps. Ferner kann der Nutzer aus dem Dock heraus Applikationen im Splitscreen- oder im Slide-over-Modus starten. Letzterer zeigt die zweite App als eigenes Fenster an, ersterer stellt zwei Anwendungen gleichberechtigt auf dem Bildschirm dar.

Mit iOS 11 erhält das iPad erstmals ein Dock, wie es Anwender bereits aus macOS kennen (Abb. 1).

Um das Dock einzublenden, muss der Anwender mit dem Finger vom unteren Bildschirmrand leicht nach oben wischen (siehe Abbildung 1). Zieht er den Finger weiter nach oben, erscheint zusätzlich der komplett überarbeitete App-Switcher. Er kombiniert das ehemalige Kontrollzentrum mit der „Mission-Control“-Darstellung, die viele Nutzer bereits von macOS kennen. Sie zeigt alle im Hintergrund laufenden Anwendungen und App-Spaces an. Letztere kombinieren zwei Apps in der Split-View-Darstellung. Jedes Programm lässt sich allerdings bloß einem App-Space zuordnen.

Das Kontrollzentrum hat Apple fundamental verändert, alle Elemente stellt iOS in einer Ansicht dar. Die Auswahl und Positionierung der Systemfunktionen kann der Anwender selbst konfigurieren.

Sicheres Drag-and-Drop

Mit iOS 11 hält endlich Drag-and-Drop Einzug auf dem iPad – App-übergreifend. Elemente kann der Nutzer innerhalb eines Programms oder zwischen ihnen verschieben. Auch mit dem App-Switcher oder den Symbolen im Dock kann er so interagieren. Hinzu kommen weitere Neuerungen der Gestenbedienung: Der Anwender kann mehrere Elemente gleichzeitig einsammeln, und während er sie mit einer Hand festhält, kann er mit der anderen Hand das System frei bedienen. Damit beim Drag-and-Drop die Sicherheit der App-Sandboxen erhalten bleibt, basiert die Technik im Hintergrund auf APFS File Cloning. Die Daten stehen der Ziel-App, unter Beachtung der jeweiligen App-Restriktionen, direkt zur Verfügung.

Auch an den Apps selbst hat Apple gearbeitet, teilweise in Anlehnung an Microsofts Surface-Serie. Tippt der Anwender zweimal mit dem Pencil auf den Sperrbildschirm des iPads, gelangt er direkt zu seinen Notizen. Abgesehen von der Option, einfache Tabellen anzulegen, bietet die Notizen-App nun einen Dokumentenscanner mit automatischer Schnitt- und Begradigungsfunktion. Für freihändige Eingaben per Pencil beherrscht iOS 11 zumindest auf englischen Geräten eine Handschrifterkennung. Wann der Konzern sie auf deutschen Geräten ebenfalls aktiviert, hat er noch nicht bekannt gegeben.

Die Markierungswerkzeuge, die iOS 10 für angehängte Bilder in der Mail-App vorhielt, kann der Nutzer nun an vielen Stellen im System einsetzen. So kann er eine PDF-Datei von einer kompletten Webseite erzeugen und später annotieren oder Bildschirmfotos direkt nach der Aufnahme bearbeiten. Ein frisch erstelltes Bild erscheint in iOS 11 links unten als Vorschau. Von hier aus kann der Nutzer es schnell öffnen und bearbeiten. Die Home-Taste pausiert das Bearbeiten und belässt das Bildschirmfoto in der linken unteren Ecke. Anwender können auch mehrere Screenshots stapeln und später gemeinsam bearbeiten oder an andere Apps weiterleiten.

Files als Dateimanager

Mit Files veröffentlicht Apple seinen ersten Dateimanager für iOS. Er ersetzt iCloud Drive, das mit iOS 10 Einzug hielt. Die Files-App stellt den zentralen Einstiegspunkt zur Interaktion mit dem lokalen Speicher des iOS-Geräts und kompatiblen Apps dar.

Mit Files ähnelt das iPad stärker einem PC als jemals zuvor. Abgesehen vom direkten Anlegen von Dateien und Ordnern, kann der Nutzer seine Dateien und Ordner mit einem Tag versehen, sie verschieben oder kopieren. Ferner kann er Dateien aus unterschiedlichen Unterordnern per Drag-and-Drop sammeln. Die zugrunde liegenden File-Provider führte Apple bereits mit iOS 8 ein, sie setzten sich aber in den letzten Jahren nicht in Gänze durch. Mit Files versucht der Konzern einen neuen Start für die Technik.

Apple verwendet maschinelles Lernen nicht mehr nur für seine eigenen Dienste wie Siri, sondern stellt sie mit CoreML auch Entwicklern zur Verfügung. Das vereinfacht das Einbinden trainierter neuronaler Netze in bestehende Apps und führt sie optimiert auf dem Smartphone oder Tablet aus. Da es für mathematische Modelle einige populäre Formate gibt, hat Apple einen Konverter für das hauseigene mlmodel als Open-Source-Software freigegeben. Für ein Format, das der Konzern noch nicht unterstützt, lässt sich das Konvertierungswerkzeug leicht anpassen. Fertig trainierte Modelle können Interessierte bei Apple selbst oder frei aus dem Internet beziehen (siehe „Alle Links“). Das Trainieren von Netzen findet allerdings nicht auf dem iOS-Gerät statt.

Für zwei besondere Anwendungsfälle stellt Apple zusätzliche Frameworks auf CoreML-Basis bereit. Vision erlaubt es Entwicklern, in Bildern und Videos Barcodes zu identifizieren, Landschaften und Gesichter inklusive ihrer Gesichtszüge (Augenbrauen, Augen, Nase, Mund und Kinn) zu analysieren und andere Objekte zu erkennen und sogar zu verfolgen. Mit Natural Language Processing lässt sich geschriebener Text einfacher auswerten. Das Framework identifiziert die verwendete Sprache sowie die Orthografie eines Textes und gestattet den Zugriff auf einzelne enthaltene Wörter, Sätze oder Abschnitte. Ferner kann ein Programmierer per API Wörter anhand ihrer Wortart (Substantive, Verben oder Adjektive) unterscheiden sowie Formen wie Einzahl oder Mehrzahl und die Zeit auswerten lassen.