Erhalten Sie Zugang zu diesem und mehr als 300000 Büchern ab EUR 5,99 monatlich.
Erfahren Sie, wie Apples bahnbrechende KI-Technologie Geschäftsprozesse auf iPhone, Mac und Vision Pro transformiert. Erfahren Sie praxisnah, wie visuelle Intelligenz, innovative Schreibunterstützung und Siri-Integration Ihre Produktivität steigern und Unternehmensprozesse optimieren. Neben der technischen Architektur erhalten Sie fundierte Einordnungen zu zentralen Themen wie Sicherheit, Datenschutz und Mitbestimmung nach Betriebsratsanforderungen sowie die Einordnung nach dem EU-AI-Act. Von der erfolgreichen Integration in bestehende IT-Systeme bis hin zur Erfüllung etwaiger gesetzlicher Vorgaben bietet Ihnen dieses Buch alles, was Sie wissen müssen, um das volle Potenzial von Apple Intelligence im professionellen Umfeld effizient auszuschöpfen. Gestalten Sie jetzt Ihre digitale Transformation mit der nächsten Generation intelligenter Unternehmenslösungen von Apple! Dies ist ein Praxisratgeber, ich bin weder Jurist noch Datenschutzbeauftragter von Beruf, verfüge aber über einen reichen Wissensschatz, den ich seit dem Erscheinen des ersten iPhones kontinuierlich vertieft habe.
Sie lesen das E-Book in den Legimi-Apps auf:
Seitenzahl: 278
Veröffentlichungsjahr: 2025
Das E-Book (TTS) können Sie hören im Abo „Legimi Premium” in Legimi-Apps auf:
Vorwort
Danksagung
Abgrenzung und Haftungsausschluss
Sachverhalt
Apple Intelligence
Verfügbare Funktionen und Anwendungsbereiche (Stand Anfang 2025)
Unterstützung in Apple-Geräten und Systemen
Vorteile gegenüber klassischen Systemfunktionen
Architektur von Apple Intelligence
Effizienzsteigerung durch Apple Intelligence im Unternehmensumfeld
Der EU-AI-Act
Einordnung von Apple Intelligence als Modell oder System
Rechtliche Stellung der beteiligten Unternehmen (Anbieter/Betreiber/Importeur)
Einordnung von Apple Intelligence in eine Risiko-Klasse gemäß AI-Act
Weitere Bereiche rund um KI
Arbeitsrechtliche Aspekte
Schutzrechte bei der Nutzung von KI-Systemen
Haftungsfragen
Verträge und Willenserklärungen
Ethische Aspekte beim KI-Einsatz
Datenschutz (DSGVO)
Datenverarbeitung durch Apple Intelligence: Rollen und Grundlagen
Transparenz, Informationspflichten und Zweckbindung
Betroffenenrechte (Art.15 ff. DSGVO) und automatisierte Entscheidungen
Auftragsverarbeitung (Art.28 DSGVO) und Drittlandtransfers
Ergebnis der datenschutzrechtlichen Bewertung
DSGVO und Auftragsverarbeitung
Verarbeitung personenbezogener Daten durch Apple Intelligence
Datenschutz-Architektur: On-Device und Private Cloud Compute
Ist eine Auftragsverarbeitungsvereinbarung notwendig?
Apple als Auftragsverarbeiter im Unternehmensumfeld
Abschluss einer ADV mit Apple (Apple Business Manager)
EU-Standardvertragsklauseln (SCCs) bei internationalen Datenübermittlungen
Apple Intelligence in der MDM-Verwaltung von Apple-Geräten
Funktionsweise eines MDM Systems
Konfigurationsparameter für Apple Intelligence
Zusammenfassung und Ausblick
Quellenverzeichnis
Künstliche Intelligenz ist längst mehr als ein Trend – sie revolutioniert die Art und Weise, wie wir arbeiten, kommunizieren und Entscheidungen treffen. Mit Apple Intelligence präsentiert Apple erstmals ein eigenes KI-System, das tief in seine Plattformen – iPhone, iPad, Mac und Vision Pro – integriert ist. Die Ankündigung erfolgte im Juni 2024 auf der WWDC; mit iOS 18.4 ist Apple Intelligence Anfang 2025 auch offiziell in Europa verfügbar – inklusive deutscher Sprachunterstützung und Integration in zahlreiche Anwendungen. Für viele Nutzer bedeutet dies einen deutlichen Produktivitätsgewinn. Für Unternehmen ergeben sich jedoch grundlegende Fragen.
Welche Implikationen ergeben sich, wenn ein KI-System direkt auf dienstlich genutzten Geräten operiert und Zugriff auf E-Mails, Notizen, Kalender und vertrauliche Informationen hat? Welche regulatorischen Anforderungen ergeben sich aus dem AI-Act der EU und der DSGVO? Und wie können Unternehmen sicherstellen, dass Apple Intelligence rechtskonform, sicher und verantwortungsvoll eingesetzt wird?
Ich begleite solche Fragen aus technischer Sicht beruflich seit über 15 Jahren. Als Leiter des Center of Excellence Mobile bei einem großen deutschen Energieversorger arbeite ich mit meinem Team daran, mobile Technologien strategisch, sicher und sinnvoll im Unternehmen zu etablieren. Dabei begegne ich Innovationen wie Apple Intelligence regelmäßig lange vor ihrem breiten Einsatz. Durch meine Tätigkeiten als Autor, Referent und technischer Analyst beschäftige ich mich frühzeitig und intensiv mit neuen Entwicklungen – kritisch, praxisnah und mit Blick auf ihre Umsetzbarkeit in Organisationen.
In den vergangenen Jahren habe ich zahlreiche Fachartikel zu Themen wie Mobile Device Management und Datenschutz in renommierten Fachzeitschriften veröffentlicht. Als Referent habe ich auf nationalen Konferenzen über die Herausforderungen und Chancen der Digitalisierung im Umfeld mobiler Endgeräte gesprochen.
Dieses Buch entstand parallel zur Einführung von Apple Intelligence und wird nun zur Veröffentlichung fertiggestellt. Es versteht sich als lebendiges Dokument, das ich in zukünftigen Auflagen gerne weiterentwickle.
Meine Motivation: Orientierung schaffen. Denn Apple Intelligence ist mehr als eine neue Funktion – sie markiert den Beginn eines Paradigmenwechsels, bei dem Technologie, Regulierung und Unternehmenskultur neu gedacht werden müssen.
Bei der Erstellung dieses Buches habe ich bewusst moderne Werkzeuge wie DeepL Write Pro und die Schreibfunktionen von Apple Intelligence eingesetzt, um einen einheitlichen Stil zu gewährleisten. Die OpenAI-Tools halfen auch bei der Erstellung des Covers und Napkin.AI bei der Erstellung der Diagramme im Buch. Dadurch fließen die Vorteile dieser Technologien direkt in den Entstehungsprozess ein und demonstrieren ihren praktischen Nutzen.
Ich lade Sie herzlich ein, Ihre Gedanken und Anregungen zu diesem Buch mit mir zu teilen. Ihr Feedback ist für die kontinuierliche Weiterentwicklung und Verbesserung dieses Werkes von unschätzbarem Wert.
Mein besonderer Dank gilt dem Heise-Verlag, insbesondere Inge Schwabe, Ben Schwan, Stephan Ehrmann und Ute Roos, die mir frühzeitig das Vertrauen schenkten und mir ermöglichten, mich als Fachautor zu etablieren. Durch diese Plattform konnte ich mein Wissen vertiefen, veröffentlichen und im Dialog mit einer anspruchsvollen Leserschaft weiterentwickeln.
Ein großer Dank gilt auch Ronny Sackmann, der mich bei meinem allerersten Artikel unterstützt und diesen gemeinsam mit mir veröffentlicht hat. Ohne seine fachliche Begleitung und Ermutigung wäre mein Einstieg in das Schreiben sicherlich nicht so reibungslos und motivierend verlaufen.
Ebenso danke ich dem Heinemann Verlag, der ComConsult sowie den IDG-Medien, allen voran Manfred Bremmer, für die langjährige Zusammenarbeit, inspirierende Gespräche und die Möglichkeit, komplexe IT-Themen einem breiteren Publikum als Artikel, Podcast oder Seminar zugänglich zu machen.
Ein besonderer Dank gilt Wolfgang Reibenspies, ehemals Chief Information Security Officer der EnBW AG, der mich mit seinem Leitsatz „Man muss vor der Welle sein!” nachhaltig geprägt hat. Sein strategisches Denken und sein feines Gespür für IT-Sicherheit waren für mich eine stetige Quelle der Motivation.
Ein weiterer Dank geht an Stephan Kempf für sein wertvolles Feedback zu diesem Buch. Seine Impulse haben wesentlich dazu beigetragen, die Inhalte zu schärfen und praxisnah aufzubereiten.
Wenn man es ganz genau nimmt, gilt ein besonderer Dank auch der Apple Inc. – und im Speziellen Steve Jobs, der leider viel zu früh verstorben ist. Ohne die Vorstellung des iPhones im Jahr 2007 hätte ich mich vermutlich nie so tief der mobilen Lösungsentwicklung verschrieben. Die Präsentation dieses ersten „Telefons” war für mich ein Schlüsselmoment, der eine bis heute anhaltende Begeisterung für moderne – und inzwischen allgegenwärtig mobile – Technologien ausgelöst hat.
Dieses Buchprojekt basiert auf meinen persönlichen Erfahrungen, Einschätzungen und fachlichen Bewertungen im Kontext mobiler Technologien und deren Einsatz im betrieblichen Umfeld. Es handelt sich um eine private Veröffentlichung ohne Anspruch auf Vollständigkeit oder Rechtsverbindlichkeit. Die Inhalte dienen der allgemeinen Information und Diskussion – sie stellen ausdrücklich keine Rechtsberatung dar.
Ich weise darauf hin, dass die technologischen, regulatorischen und rechtlichen Rahmenbedingungen einem ständigen Wandel unterliegen. Eine Haftung für die Aktualität, Richtigkeit und Vollständigkeit der zur Verfügung gestellten Informationen kann trotz sorgfältiger Recherche nicht übernommen werden. Gleiches gilt für eventuelle Folgen, die sich aus der Verwendung der dargestellten Inhalte ergeben.
Die Inhalte geben meine persönliche Meinung wieder und stellen nicht notwendigerweise die Position meines Arbeitgebers oder anderer Organisationen dar. Die Nennung von Produkten, Marken oder Unternehmen dient ausschließlich der Veranschaulichung – es besteht keine wirtschaftliche Verbindung, sofern nicht ausdrücklich anders gekennzeichnet.
Rechtliche Fragen sind stets im Einzelfall mit entsprechend qualifizierten Juristinnen und Juristen zu klären. Für sachliche Hinweise auf Fehler, Unklarheiten oder neue Entwicklungen bin ich dankbar und nehme diese gerne in eine überarbeitete Fassung auf.
Apple hat mit iOS 18 eine neue KI-basierte Funktionalität namens Apple Intelligence eingeführt. Diese Suite von KI-Funktionen ist fest in das Betriebssystem integriert und soll die Nutzer beim Verfassen von Texten, Organisieren von Informationen und anderen Aufgaben unterstützen. Zu den Funktionen gehören u. a. „Writing Tools” (Schreibassistenten), die Texte überprüfen, umformulieren oder zusammenfassen können, automatische Priorisierung von Nachrichten (wichtige Benachrichtigungen und E-Mails werden hervorgehoben), Zusammenfassungen von E-Mails und Telefongesprächen sowie generative KI-Anwendungen wie die Erzeugung von Bildern („Image Playground”). Bemerkenswert ist die Integration von OpenAI ChatGPT: Siri und die Schreibfunktionen können bei komplexen Anfragen auf ChatGPT zurückgreifen, z. B. um Fragen zu beantworten oder Inhalte zu generieren. Diese Integration erfolgt nur mit Zustimmung des Nutzers; Apple stellt klar, dass der Nutzer vor der Integration von ChatGPT gefragt wird und die Kontrolle behält.
Aufgrund regulatorischer Abklärungen – insbesondere im Hinblick auf EU-Vorgaben – war Apple Intelligence in der EU zunächst deaktiviert. Mit iOS 18.4, das Anfang April 2025 veröffentlicht wurde, ist Apple Intelligence nun auch für Nutzer in Deutschland offiziell freigeschaltet. Gleichzeitig erhält die Software u. a. eine deutsche Sprachunterstützung, so dass die KI-Funktionen (Schreibassistent, Zusammenfassungen etc.) auch mit deutschen Inhalten arbeiten können. Unternehmen, die z. B. Microsoft 365 (O365) Anwendungen wie Outlook, Teams, Word und Excel auf dem iPhone einsetzen, können diese KI-Funktionen jetzt ebenfalls nutzen. In der Praxis bedeutet das beispielsweise, dass sich ein Mitarbeiter auf seinem iPhone von Apple Intelligence eine E-Mail in Outlook zusammenfassen lassen kann oder beim Schreiben in Word Textvorschläge erhält. Technisch sind die Schreibassistenten systemweit verfügbar, auch in Apps von Drittanbietern. Voraussetzung ist allerdings, dass die jeweilige App diese Integration zulässt – so war z. B. die Apple Intelligence-Funktion in Microsoft Word für iPad zunächst gesperrt, bis Microsoft sie freigeschaltet hat (ein Hinweis auf die notwendige Kooperation der App-Anbieter).
Gerade in kritischen Infrastrukturen (KRITIS) werden erhöhte Anforderungen an neue IT-Funktionen gestellt. Hier verarbeiten Mitarbeiterinnen und Mitarbeiter häufig sensible Unternehmens- und Personendaten (z. B. Kundendaten oder interne Planungsunterlagen). Der Einsatz von Apple Intelligence in solchen Unternehmen muss daher unter Datenschutz- und Sicherheitsaspekten sorgfältig geprüft werden. Ein KRITIS Unternehmen müsste z. B. klären, ob vertrauliche Informationen – z. B. aus E-Mails oder Dokumenten – durch Apple Intelligence außerhalb des Geräts verarbeitet oder an Dritte (z. B. OpenAI) weitergegeben werden, was Compliance-Risiken bergen könnte. Unternehmen werden auch zu prüfen haben, inwieweit Apple Intelligence rechtlich als „KI-System” im Sinne der geplanten EU-Verordnung (AI-Act) einzuordnen und ob die Nutzung als risikoreich oder risikoarm einzustufen ist. Schließlich sind datenschutzrechtliche Vorgaben – insbesondere die Datenschutz-Grundverordnung (DSGVO) – zu beachten. Hier stellen sich Fragen nach der Rechtsgrundlage und Zweckbindung der Datenverarbeitung durch Apple Intelligence, der Transparenz gegenüber den Nutzern, der Wahrung der Betroffenenrechte sowie den Anforderungen an eine Auftragsverarbeitung (Art. 28 DSGVO) und mögliche Übermittlungen in Drittstaaten (vornehmlich an US-Dienste wie OpenAI).
Unter Apple Intelligence versteht Apple ein neues, systemweit integriertes KI-System, das leistungsstarke generative Modelle mit dem persönlichen Kontext des Nutzers kombiniert. Mit anderen Worten: Apple bringt die Möglichkeiten der KI direkt auf iPhone, iPad, Mac (und sogar auf das Headset Vision Pro) und lässt sie mit den persönlichen Daten und Gewohnheiten des Nutzers interagieren – unter strikter Wahrung der Privatsphäre. Apple Intelligence wird erstmals 2024 mit iOS 18, iPadOS 18 und macOS Sequoia vorgestellt und ist tief in diese Betriebssysteme integriert. Sie nutzt die besonderen Fähigkeiten der Apple-Chips (wie die Neural Engine), um Sprache und Bilder zu verstehen und zu generieren, Aktionen in Apps auszuführen und alltägliche Aufgaben spürbar zu beschleunigen. Wichtig ist Apple dabei vor allem, dass dies alles in einer für den Nutzer nützlichen, relevanten und datenschutzfreundlichen Art und Weise geschieht. Apple-CEO Tim Cook bezeichnete Apple Intelligence als „neues Kapitel” der Apple-Innovation, in dem generative KI mit dem persönlichen Kontext der Nutzer „für eine wirklich nützliche Art von Intelligenz” kombiniert wird. Apple Intelligence ist somit Apples Ansatz, Künstliche Intelligenz nahtlos in die eigenen Produkte zu integrieren – als persönlicher Assistenten und Co-Pilot im Alltag der Nutzer.
Die erfolgreiche Integration von Apple Intelligence in bestehende Unternehmensinfrastrukturen erfordert eine sorgfältige Planung und die Berücksichtigung verschiedener Implementierungsszenarien. Dieses Kapitel beleuchtet die verschiedenen Möglichkeiten zur Integration von Apple Intelligence in Unternehmensumgebungen und bietet praktische Lösungsansätze für typische Herausforderungen.
Vor der Implementierung von Apple Intelligence sollte ein Unternehmen eine umfassende Bestandsaufnahme seiner bestehenden IT-Infrastruktur durchführen:
Apple Intelligence umfasst bereits eine Reihe konkreter Funktionen, die über verschiedene Apps und Systembereiche verteilt sind. Dabei ist zu beachten, dass es sich ausschließlich um Funktionen handelt, die von Apple selbst entwickelt wurden und nicht um Dienste von Drittanbietern. Im Folgenden wird ein Überblick über die wichtigsten Funktionen gegeben, die Apple Intelligence derzeit bietet und wie sie dem Benutzer begegnen.
Ein Schwerpunkt von Apple Intelligence sind neue Werkzeuge für Text und Kommunikation. Systemweit stehen sogenannte Writing Tools zur Verfügung, die den Nutzer beim Verfassen, Korrigieren und Verstehen von Text unterstützen. Praktisch überall, wo Text eingegeben werden kann – sei es in Mail, Notizen, Pages oder sogar in Anwendungen von Drittanbietern – kann die Textgestaltung durch KI verbessert werden. So kann man einen geschriebenen Absatz automatisch umformulieren lassen (Rewrite), um insbesondere den Ton anzupassen oder eine professionellere Formulierung zu erreichen. Ebenso steht eine Proofread-Funktion zur Verfügung, die Grammatik, Wortwahl und Satzbau überprüft und dem Benutzer Korrekturvorschläge mit Erklärungen anbietet. Mit einem einfachen Tipp können diese Verbesserungen dann übernommen werden. Weiterhin können längere Texte oder Notizen von der KI zusammengefasst werden (Summarize) – je nach Bedarf als kompakter Fließtext, als Auflistung von Stichpunkten oder sogar in tabellarischer Form. Diese Funktionen helfen, z. B. E-Mails oder Notizen schneller auf den Punkt zu bringen und Texte leichter lesbar zu machen.
Gerade in der Mail-App zeigen sich die Stärken dieser intelligenten Schreibfunktionen im Alltag, denn wichtig erscheinende E-Mails werden automatisch als „Priority Messages” gekennzeichnet und in einem eigenen Bereich ganz oben im Posteingang hervorgehoben. So übersieht der Entscheider keine zeitkritischen Mails mehr, wie eine Einladung für den gleichen Tag oder eine dringende Erinnerungsnachricht. Zudem muss nicht mehr jede Nachricht vollständig geöffnet werden, da Apple Intelligence bei längeren Mails auf Wunsch eine kurze Zusammenfassung generiert, die direkt in der Mailvorschau angezeigt wird. Gerade bei umfangreichen E-Mail-Konversationen (langen Threads) kann man so auf einen Blick die wichtigsten Punkte herausfiltern, ohne den gesamten Verlauf lesen zu müssen. Hilfreich ist auch Smart Reply, denn das System analysiert eingehende E-Mails und schlägt dem Nutzer fertige Antwortvorschläge vor. Fragt beispielsweise jemand in einer Mail nach mehreren Terminvorschlägen, erkennt Apple Intelligence die Fragen und bietet passende Kurzantworten an, die alle Punkte abdecken. Der Nutzer muss dann nur noch den gewünschten Vorschlag auswählen und gegebenenfalls anpassen – das spart Zeit bei der Routinekorrespondenz.
Auch die Benachrichtigungen profitieren von Apples Intelligenz. Auf dem iPhone werden eingehende Nachrichten jetzt intelligenter sortiert und zusammengefasst. Wichtige Nachrichten – etwa persönliche Mitteilungen, die sofortige Aufmerksamkeit erfordern – erscheinen als Priority Notifications ganz oben in der Mitteilungszentrale. Gleichzeitig generiert das System für eingehende Nachrichten oft automatisch eine Zusammenfassung in einem Satz, die den Kern der Nachricht wiedergibt. So kann man z. B. schon auf dem Sperrbildschirm eines iPhones erahnen, worum es in einer neuen Chat-Nachricht geht, ohne sie vollständig lesen zu müssen. In Situationen, in denen man ungestört arbeiten möchte, hilft der neue Fokusmodus Reduce Interruptions, der nur potenziell dringende Nachrichten durchlässt und alles andere vorübergehend ausblendet. So kommt unter anderem die SMS vom Kindergarten, dass das Kind heute früher abgeholt werden muss, weiterhin an – während unwichtige Social-Media-Benachrichtigungen in diesem Modus stumm bleiben. Insgesamt erlebt der Nutzer so weniger Unterbrechungen und Ablenkungen im Arbeitsalltag, ohne wichtige Informationen zu verpassen.
Eine weitere Funktion im Bereich Kommunikation ist die automatische Transkription und Zusammenfassung von Audio. Sowohl in der Notizen-App als auch in der Telefon-App können nun Audioaufnahmen gemacht werden, die von Apple Intelligence sofort in Text umgewandelt werden. Zeichnet man insbesondere ein Meeting oder ein Telefonat auf (alle Teilnehmer werden darüber informiert), erhält man anschließend nicht nur das Transkript des Gesprächs, sondern auch eine KI-generierte Zusammenfassung der wichtigsten Punkte. Für viel beschäftigte Entscheidungsträger bedeutet dies, dass sie ein längeres Telefongespräch aufzeichnen können und anschließend auf einen Blick die Kernaussagen erhalten, ohne selbst das komplette Protokoll durchgehen zu müssen. Diese Funktion erspart manuelle Notizen und erleichtert die Nachbereitung von Besprechungen enorm.
Apple Intelligence hilft nicht nur bei Texten, sondern erweitert auch die Möglichkeiten im Umgang mit Bildern, Fotos und Medien. Hier hat Apple gleich mehrere neue Features eingeführt, die Kreativität und Produktivität fördern – von automatisch generierten Grafiken bis zur intelligenten Fotobearbeitung.
Ein Highlight ist Image Playground, eine direkt in das System integrierte Bildgenerierungsfunktion. Damit können Nutzer in Sekundenschnelle eigene Bilder per KI erstellen – einfach durch Texteingabe und ein paar Einstellungen. Image Playground bietet drei grundlegende Ausgabestile (Animation, Illustration oder Skizze). Der Dienst ist sehr benutzerfreundlich, da er unter anderem direkt in der Messaging-Anwendung erscheint. So kann man im Chat-Kontext schnell ein lustiges Bild erstellen und mit Freunden teilen. Gleichzeitig gibt es Image Playground auch als eigenständige App auf dem iPad, wenn man mehr experimentieren möchte. Der Nutzer kann ein gewünschtes Motiv entweder in eigenen Worten beschreiben oder aus vorgeschlagenen Konzepten auswählen – etwa aus Kategorien wie Themen, Kostüme, Accessoires oder Orte. Sogar eine Person aus der eigenen Fotobibliothek kann in das generierte Bild integriert werden, um insbesondere einen Freund in einer Cartoon-Szene darzustellen. Bemerkenswert ist, dass alle diese Bilder rein auf dem Gerät erzeugt werden – es muss also nichts in eine Cloud hochgeladen werden. Dies ermöglicht eine uneingeschränkte Nutzung (keine Kontingente) und garantiert, dass auch hier die Privatsphäre gewahrt bleibt. Im Alltag nutzen Nutzerinnen und Nutzer Image Playground beispielsweise, um Chats mit spontan erstellten Bildern aufzulockern. Unterhält sich eine Gruppe etwa über den nächsten Wanderausflug, schlägt das System kontextbezogene Motive vor – wie die Berglandschaft des geplanten Ziels oder ein witziges Bild der Wandergruppe –, die sofort generiert und geteilt werden können.
Verwandt damit ist der Image Wand in der Notizen-App, mit der Skizzen transformiert werden können. Zeichnet der Nutzer mit dem Apple Pencil eine grobe Skizze in eine Notiz, kann er diese mit dem „Zauberstab” (Image Wand) umfahren. Apple Intelligence interpretiert dann die Zeichnung und den umgebenden Kontext der Notiz und erzeugt daraus automatisch ein passendes, ausgereiftes Bild. Auch wenn man nur einen leeren Bereich markiert, kann das System aus den umliegenden Notizinhalten selbstständig ein thematisch passendes Bild erzeugen. Ein Beispiel dafür ist, dass man Ideen für ein Produktdesign notiert und eine grobe Skizze kritzelt – die KI kann daraus einen professionell aussehenden Entwurf generieren. Diese Funktion macht Notizen viel visueller und aussagekräftiger. Image Wand ist nicht nur in Notizen verfügbar, sondern auch in anderen Apple-Apps mit Zeichenfunktion (wie Keynote, Freeform und Pages) und kann über eine API von Drittanwendungen genutzt werden. Für Entscheiderinnen und Entscheider bedeutet dies zum Beispiel, dass Ideen, Konzepte oder Projektskizzen schneller in präsentationsreife Grafiken umgesetzt werden können, ohne dass ein Designer eingeschaltet werden muss.
Einen Schritt weiter geht Genmoji, eine KI-Erweiterung für Emojis. Damit können die Nutzer eigene Emojis – Apple nennt sie Genmojis – erstellen, die es in keinem Standardsatz gibt. Man gibt einfach eine Beschreibung ein („lächelnder Smiley mit Sonnenbrille auf einem Berggipfel”) und erhält ein passendes, neu generiertes Emoji-Bild. Oft werden mehrere Varianten zur Auswahl angeboten. Besonders beeindruckend ist, dass es sogar möglich ist, Emojis zu erstellen, die auf realen Personen basieren, indem man ein Foto einer Person aus der Mediathek verwendet. So könnte man unter anderem ein Emoji des eigenen Firmenchefs oder eines Teammitglieds erstellen, um sich in Chats humorvoll auf diese Person zu beziehen. Die GenMojis können wie herkömmliche Emojis direkt im Text oder als Sticker oder Tapback-Reaktion in iMessage verwendet werden. Damit hebt Apple die Ausdrucksmöglichkeiten in Nachrichten auf eine neue Ebene – Nutzer sind nicht mehr auf den vorgegebenen Emoji-Katalog beschränkt, sondern können für jede Situation ein passendes Symbol erstellen. Im geschäftlichen Kontext könnte insbesondere ein spezifisches Projekt-Icon als Genmoji erstellt und im Teamchat verwendet werden.
Auch die klassische Fotos-App hat Apple mit intelligenten Funktionen aufgerüstet. Die Suche innerhalb der Fotos ist deutlich intelligenter geworden, denn statt nur nach Personen oder Orten kann nun in natürlicher Sprache nach Bildinhalten gesucht werden. Gibt man zum Beispiel „Foto von Maria beim Skateboarden im Batikshirt” ein, findet die Suche genau die Bilder, auf die diese Beschreibung zutrifft. Die KI erkennt also komplexe Merkmale und Kombinationen (Person + Tätigkeit + Kleidung) in den Bildern. Ebenso ist es möglich, nach abstrakteren Dingen zu suchen („Fotos von Sonnenuntergängen mit Boot” etc.), ohne dass diese jemals manuell verschlagwortet wurden – Apple Intelligence versteht den Bildinhalt. Videos werden auch inhaltlich durchsuchbar, so dass die Foto-App bei Eingabe einer Szene oder Handlung direkt zu dem passenden Moment im Video springt, der dieser Beschreibung entspricht. Diese natürlichsprachliche Suche spart viel Zeit beim Auffinden bestimmter Aufnahmen und funktioniert in Tests bereits erstaunlich gut im Alltag, da man einfach beschreibt, was man im Kopf hat, statt mühsam durch Alben zu scrollen.
Eine weitere Neuerung in Fotos ist das Clean Up Tool. Dieses Tool erkennt störende Objekte im Hintergrund eines Fotos und kann diese mit einem Fingertipp entfernen – ähnlich, wie es separate Apps oder konkurrierende Dienste anbieten. Das Besondere ist, dass Clean Up dabei sehr präzise vorgeht und das Hauptmotiv unangetastet lässt. Hat man also ein nahezu perfektes Porträtfoto, auf dem aber ein unpassendes Objekt im Hintergrund ablenkt (z. B. ein Mülleimer oder eine fremde Person), kann Apple Intelligence diesen Hintergrundfehler automatisch korrigieren. Für Unternehmen, die viel mit Bildern arbeiten – etwa im Marketing oder in Social Media – ist das ein großer Vorteil, da schnelle Korrekturen ohne externe Bildbearbeitung direkt in der Standard-Fotoanwendung möglich sind.
Schließlich bietet Apple Intelligence in Fotos auch die Möglichkeit, automatische Videozusammenstellungen – sogenannte Memories – nach eigenen Vorgaben zu erstellen. Bislang generierte die Fotos-App solche Rückblick-Videos nur selbstständig aus Datum und Gesichtern; nun kann der Nutzer per Textbeschreibung selbst vorgeben, welche Geschichte erzählt werden soll. Man tippt zum Beispiel „Sommerfest unserer Firma mit Teambuilding-Aktivitäten” – die Apple Intelligence durchsucht daraufhin die Mediathek nach passenden Fotos und Videos (etwa vom Sommerfest der Firma) und erstellt daraus einen zusammengeschnittenen Erinnerungsfilm. Dabei ordnet die KI die Inhalte thematisch und chronologisch sinnvoll an, erkennt bestimmte Kapitel (zum Beispiel „Begrüßung”, „Teamspiele”, „Abendessen”) und unterlegt das Ganze auf Wunsch mit einem passenden Musiktitel aus Apple Music. Das Ergebnis ist ein personalisiertes Video mit rotem Faden – etwas, das manuell nur mit großem Aufwand zu erstellen wäre. Alle für die Erstellung notwendigen Analysen finden auf dem Gerät selbst statt, Fotos und Videos verlassen das Gerät nicht. Für den Anwender bedeutet das Innerhalb weniger Minuten kann z. B. aus den Bildern einer Projektveranstaltung ein professionell wirkendes Highlight-Video erstellt werden, ohne sich mit Schnittsoftware auseinandersetzen zu müssen.
Apple Intelligence läutet auch für den Sprachassistenten Siri eine neue Ära ein. Siri wird durch KI-Funktionen deutlich leistungsfähiger und hilfreicher, als man es bisher gewohnt war. Apple hat Siri mit Apple Intelligence weitestgehend generalüberholt – von der Spracherkennung über die Dialogfähigkeit bis zum Wissen.
Zunächst fällt die natürlichere Interaktion auf. Siri versteht nun auch komplexere und umgangssprachliche Eingaben, ohne dass der Nutzer seine Frage künstlich einfach formulieren muss. Die Assistentin kann den Kontext beibehalten, d. h. Folgefragen sind kein Problem mehr. Ein Beispiel dafür ist, dass man Siri zunächst bittet, einen Termin für das Teammeeting am Freitag zu erstellen, und direkt danach anweist, diesen um zwei Tage zu verschieben. Siri weiß dank des Kontexts, dass mit „ihm” der eben erstellte Termin gemeint ist. Solche kontextbezogenen Unterhaltungen waren bisher kaum möglich und machen die Nutzung deutlich effizienter. Auch Versprecher oder Korrekturen versteht Siri indessen besser („Alarm – nein, Timer – auf 10 Minuten stellen”). All dies macht die Kommunikation mit Siri flüssiger und ähnelt mehr einem echten Dialog.
Neu ist auch, dass man Siri jetzt zudem chatten kann. Auf iPhone und iPad kann Siri mit einer einfachen Geste – einem Doppeltipp auf den unteren Bildschirmrand – aufgerufen werden, woraufhin die Anfrage als Text eingegeben werden kann. Das ist praktisch, wenn man gerade nicht sprechen kann oder will – zum Beispiel in einem Meeting. Man kann sogar nahtlos zwischen gesprochener und getippter Eingabe wechseln. In diesem Modus zeigt Siri ihre Antworten auch als Text an, ähnlich wie ein Chatbot, was in manchen Situationen diskreter sein kann.
Auch optisch hat Siri ein Facelifting erhalten, denn statt einer bunten Kugel in der Mitte des Bildschirms erscheint indessen ein eleganter, leuchtender Rand um den Bildschirm, wenn Siri aktiv ist. Diese dezente Darstellung unterstreicht, dass Siri jetzt tiefer in das System integriert ist, gewissermaßen als unsichtbare Intelligenz im Hintergrund, die man jederzeit ansprechen kann, ohne dass sie den ganzen Bildschirm einnimmt.
Vor allem aber hat Siri durch Apple Intelligence viele neue Fähigkeiten erlernt. Sie soll wohl erst in den nächsten Monaten direkt auf Inhalte und Funktionen verschiedener Apps zugreifen können, auch übergreifend. Apple wirbt damit, dass Siri „Hunderte neuer Aktionen” in Apple-Apps und sogar in Apps von Drittanbietern ausführen kann. Beispielsweise kann man Siri soeben bitten, die Fotos vom Grillfest am Samstag an Julia zu senden – Siri versteht, welche Fotos gemeint sind, sucht in der Mediathek nach den passenden Aufnahmen vom letzten Samstag und teilt diese direkt in einer Nachricht. Oder man bittet Siri, den Artikel über Zikaden aus der eigenen Leseliste zu öffnen – Siri erkennt den gewünschten Webartikel in der gespeicherten Leseliste des Browsers und öffnet ihn. Solche Cross-App-Aktionen gab es in dieser Form bisher nicht. Für den Nutzer entfällt damit das manuelle Suchen und Tippen über mehrere Apps hinweg; Siri erledigt die verknüpfte Aufgabe auf Zuruf.
Ein weiterer Sprung ist die Fähigkeit von Siri, auf persönliche Informationen des Nutzers zurückzugreifen, um maßgeschneiderte Hilfestellungen zu geben. Fairerweise muss man sagen, dass diese Funktion zwar angekündigt und beworben wurde, aber bisher nicht in der Realität angekommen ist.
Da Apple Intelligence mit den auf dem Gerät vorhandenen Daten arbeiten kann, beantwortet Siri nun auch Fragen, die sich auf den persönlichen Kontext beziehen. Man könnte zum Beispiel fragen, ob Siri den Podcast abspielt, den Jörg empfohlen hat. Siri durchsucht dazu die eigenen Nachrichten oder E-Mails nach einer entsprechenden Empfehlung und spielt den passenden Podcast ab, ohne dass man sich selbst daran erinnern muss, wo der Hinweis zu finden war. Auch Anfragen wie „Wann landet Mamas Flug?” sind möglich. Siri erkennt, dass in den Kalender- oder Maildaten ein Flug für „Mama” vermerkt ist, ruft die hinterlegte Flugnummer ab und kombiniert diese mit Live-Daten, um die Ankunftszeit mitzuteilen. Auch bei anstehenden Terminen oder Reservierungen kann Siri den Nutzer proaktiv erinnern und Details liefern, indem die Termineinträge mit aktuellen Informationen verknüpft werden. Diese Kontextfähigkeit macht Siri zu einem echten persönlichen Assistenten, der relevante Informationen genau dann liefert, wenn sie benötigt werden – etwas, das klassische Systemfunktionen bisher nicht leisten konnten.
Nicht zuletzt verfügt Siri nun über „Onscreen Awareness”, also das Verstehen des Bildschirms. Diese Funktion ist technisch vorhanden, aber meines Wissens bisher nicht aktiviert. Das bedeutet, dass Siri den gerade angezeigten Inhalt einer App in seine Aktionen einbeziehen kann. Schickt unter anderem ein Kollege einem iPhone-Nutzer per iMessage eine neue Adresse, kann man Siri direkt darum bitten, diese Adresse zu den Kontakten hinzuzufügen. Siri erkennt die Adresse auf dem Bildschirm und aktualisiert automatisch den entsprechenden Kontakteintrag. Früher hätte man dazu manuell kopieren und einfügen müssen. Diese Funktion befand sich Ende 2024 noch in der Entwicklung, soll aber per Software-Update nachgeliefert werden. Daran zeigt sich, wohin die Reise geht – Siri versteht den Kontext dessen, was der Nutzer gerade sieht, und kann darauf bezogene Anweisungen umsetzen. Das ist ein weiterer Unterschied zu den eher starren klassischen Systemfunktionen.
Eine Besonderheit von Apple Intelligence – vorwiegend im Vergleich zu früheren Systemfunktionen – ist die Integration von ChatGPT in verschiedene Bereiche. Apple hat sich dafür entschieden, das umfangreiche „Weltwissen” von ChatGPT kontrolliert zur Ergänzung der eigenen Funktionen zu nutzen. Konkret bedeutet dies, dass sowohl Siri als auch die Schreibfunktionen bei Bedarf auf ChatGPT zurückgreifen können, um komplexere oder allgemeinere Anfragen zu beantworten, für die die rein lokale KI nicht ausreicht. Stellt ein Nutzer Siri beispielsweise eine sehr umfangreiche Wissensfrage („Plane ein 5-Gänge-Menü mit Gerichten für jeden Geschmack, ich habe Lachs, Zitronen und Tomaten”), erkennt Siri, dass ChatGPT hier hilfreich sein könnte. Siri leitet die Anfrage dann an ChatGPT weiter und präsentiert die Antwort in gewohnter Siri-Manier, nachdem der Nutzer sein Einverständnis gegeben hat. Dabei ist es wichtig zu wissen, dass Apple betont, dem Nutzer jederzeit die Kontrolle zu überlassen. Bevor Siri Inhalte (sei es eine Frage, ein Dokument oder ein Foto) an ChatGPT sendet, wird der Nutzer um Erlaubnis gefragt. Damit soll verhindert werden, dass persönliche Daten ungefragt ins Netz gestellt werden. Wird die Erlaubnis erteilt, erhält man die Ergebnisse von ChatGPT direkt in das Siri-Fenster integriert, ohne eine separate App öffnen zu müssen. Im obigen Menü-Beispiel könnte Siri also nach Zustimmung mit Hilfe von ChatGPT einen kompletten Menüvorschlag mit Rezeptideen liefern.
ChatGPT ist auch in den Writing Tools verfügbar, dort in einem Modus namens Compose. Während die Schreibfunktionen eher auf das Umschreiben oder Zusammenfassen bestehender Texte ausgelegt sind, geht Compose einen Schritt weiter und kann gänzlich neue Inhalte generieren. Ein Benutzer kann Compose beispielsweise verwenden, um sich beim Schreiben eines längeren Aufsatzes helfen zu lassen. Man gibt einen groben Auftrag („Schreibe eine kurze Geschichte über ein Kind, das Rätsel löst”). Im Hintergrund läuft ChatGPT. Compose liefert einen ersten Entwurf des Textes. Zusätzlich kann Compose mit Hilfe von ChatGPT auch Bilder vorschlagen oder erzeugen, die zum geschriebenen Inhalt passen. In Pages (Apples Textverarbeitung) erscheint dann unter anderem die Empfehlung, eine impressionistische Illustration der Szene hinzuzufügen. Diese tiefe Verknüpfung von Text- und Bild-KI ist einzigartig, denn der Nutzer erhält sozusagen aus einer Hand sowohl den geschriebenen Inhalt als auch die begleitende Grafik. Ein eigener OpenAI-Account ist nicht erforderlich – Apple ermöglicht den Zugriff auf ChatGPT direkt über die Systemfunktionen. Jeder Nutzer mit einem unterstützten Gerät kann ChatGPT-basierte Features kostenlos nutzen, ohne sich an einem anderen Ort anmelden zu müssen. Für Power-User besteht optional die Möglichkeit, einen bestehenden ChatGPT-Plus-Account zu verknüpfen, um auf kostenpflichtige Zusatzfunktionen (z. B. schnellere Antworten oder größere Modellausgaben) zugreifen zu können. Insgesamt bietet Apple hier einen kontrollierten und komfortablen Zugang zur generativen KI von OpenAI, eingebettet in die Apple-Umgebung.
Seit dem ersten Quartal 2025 wurde Apple Intelligence erheblich erweitert:
Spracherweiterung: Apple Intelligence ist in mehreren Sprachen und Regionen über US-Englisch hinaus verfügbar, was die globale Nutzbarkeit im Unternehmenskontext deutlich verbessert.
Apple Vision Pro Integration: Mit visionos 2.4 (März 2025) wurde Apple Intelligence in Apple Vision Pro integriert, wodurch Funktionen wie Writing Tools, Image Playground Genmoji auf dieser Plattform verfügbar sind.
Auf allen wichtigen Apple-Plattformen ist Apple Intelligence präsent. Allerdings erfordert die rechenintensive KI auch entsprechend leistungsfähige Hardware. Zum Start ist Apple Intelligence nur auf Geräten mit neueren Apple-Chips verfügbar. iPhones ab Modell 15 Pro (A17 Pro Chip) sowie die neu vorgestellten iPhone 16 Modelle mit A18 Chip unterstützen die Funktionen, während ältere iPhones (z. B. iPhone 14 oder 15 non-Pro) außen vor bleiben. Beim iPad werden alle Modelle mit Apple Silicon (also mindestens A17 Pro oder M1 Chip) unterstützt. Ähnlich verhält es sich bei Macs, für die mindestens ein M1-Chip erforderlich ist. Apple begründet dies mit der hohen Rechenleistung, die die On-Device-Modelle benötigen, da die Ausführung der KI-Modelle auf älteren CPUs so lange dauern würde, dass sie praktisch nicht nutzbar wären. In der Praxis hat Apple also eine klare Grenze gezogen, um ein flüssiges Nutzererlebnis zu gewährleisten. Für Entscheider bedeutet das, dass nur die neueste Hardware das volle Potenzial von Apple Intelligence ausschöpfen kann. Im Zweifelsfall sind daher Upgrades auf neuere iPhone- oder Mac-Modelle notwendig, um diese KI-Funktionen nutzen zu können.
Apple Intelligence ist softwareseitig Bestandteil von iOS 18, iPadOS 18 und macOS Sequoia (macOS Version 2024). Die Funktionen wurden über Updates wie iOS 18.1 bis 18.4 sukzessive verfeinert und erweitert. In einigen Regionen und Sprachen lief Apple Intelligence Ende 2024 noch im Betatest. Mittlerweile, also Anfang 2025, ist die Unterstützung jedoch bereits recht breit aufgestellt. Neben Englisch wurden unter anderem auch Deutsch, Französisch, Japanisch, Spanisch und weitere Sprachen für die KI-Funktionen freigeschaltet. Auch Apples neues Mixed-Reality-Headset Vision Pro (mit M2-Chip) erhält Apple Intelligence – zunächst als Beta unter visionOS 2.4 – damit Nutzer z. B. in AR/VR-Umgebungen mit Siri und KI effizienter arbeiten können.
Zusammengefasst ist Apple Intelligence auf allen aktuellen Apple-Geräten verfügbar, die die nötige Hardwarevoraussetzung erfüllen. Unternehmen, die Apple-Hardware einsetzen, sollten daher prüfen, welche Geräte im Bestand kompatibel sind, um die neuen KI-Funktionen nutzen zu können.
Apple Intelligence bietet deutliche Vorteile gegenüber herkömmlichen, „statischen” Systemfunktionen früherer Generationen. Ein zentraler Unterschied liegt in der Kontextualität und Personalisierung. Wo klassische Funktionen meist nur auf vordefinierte Abläufe reagieren, kann Apple Intelligence die aktuelle Situation und die persönlichen Daten des Nutzers einbeziehen. Das führt zu deutlich relevanteren Ergebnissen. So zeigte die Erinnerungs-App früher alle eingehenden Nachrichten gleichrangig an, Apple Intelligence priorisiert nun nach Dringlichkeit. Ein weiteres Beispiel zeigt sich beim Bearbeiten von Fotos, denn früher musste der Nutzer selbst feststellen, was im Bild stört, und manuell das Retusche-Tool verwenden. Jetzt hingegen erkennt die KI störende Objekte automatisch und entfernt sie auf Wunsch mit nur einem Tipp. Das spart Zeit und erfordert kein spezielles Know-how in der Bildbearbeitung. Generell übernimmt Apple Intelligence viele Routinearbeiten, die bisher manuell oder mit separaten Werkzeugen erledigt werden mussten. Die neuen Schreibfunktionen ersetzen etwa externe Grammatik-Plugins oder das wiederholte Korrekturlesen durch Kolleginnen und Kollegen, da Korrekturvorschläge und alternative Formulierungen sofort zur Verfügung stehen. Siri als intelligenter Assistent erspart das Suchen in Menüs und das Auswendiglernen von Sprachbefehlen – man sagt einfach in natürlicher Sprache, was man möchte, und Siri setzt es um.
Für Entscheider und Professionals bedeutet das ganz konkret produktivere Arbeit. Viele kleine Zeiteinheiten, die man früher fürs Zusammentragen von Informationen oder für Routineeingaben aufwenden musste, werden durch Apple Intelligence automatisiert. Die KI fasst lange Texte oder Besprechungen in Sekunden zusammen – etwas, wofür ein Mitarbeiter vielleicht eine halbe Stunde benötigt hätte. Meetings werden durch transkribierte Mitschriften und KI-Notizen effizienter verwertbar. Und kreative Aufgaben, die besondere Fachkenntnis erforderten (Grafikerstellung, Videoerstellung), rücken in greifbare Nähe des normalen Nutzers. Dieser Empowerment-Effekt – dass jeder Anwender mit Hilfe der KI Dinge tun kann, die früher Spezialisten vorbehalten waren – stellt einen klaren Mehrwert dar.
Ein weiterer Vorteil gegenüber externen KI-Lösungen ist die tiefe Integration ins Apple-Ökosystem. Statt zwischen verschiedenen Programmen zu wechseln oder Cloud-Dienste von Drittanbietern einzubinden, sind die intelligenten Funktionen eingebaut. Das macht sie einfacher nutzbar und konsistent im Verhalten. Beispielsweise funktioniert das Summarize-Feature ähnlich in Mail, in Notizen oder in Pages – es ist überall das gleiche Interface und die gleiche KI-Logik. Das reduziert Einarbeitungsaufwand und potentielle Fehlerquellen. Zudem kann die KI dank der Integration geräteübergreifend arbeiten, denn ein mit Apple Intelligence erstellter Genmoji oder ein in Notizen generiertes Bild steht sofort auf allen Geräten des Nutzers zur Verfügung – ganz automatisch über die iCloud-Synchronisierung, ohne dass zusätzliches Zutun erforderlich ist.
Schließlich betont Apple selbst einen wichtigen Punkt, nämlich dass Apple Intelligence eine Form von Intelligenz liefern soll, der die Nutzer vertrauen können. Damit spielt Apple auf das Thema Datenschutz und Verlässlichkeit an – Bereiche, in denen klassische KI-Lösungen oft Defizite haben. Und genau hier setzt Apple einige besondere Akzente.