Warum Apple sich mit Gemini aus der ChatGPT-Abhängigkeit befreien könnte und sollte
iOS 27 könnte der Moment werden, in dem Apple starke KI bekommt, ohne die eigene Datenschutz-Story weiter an OpenAI zu binden.
Apple steht mit iOS 27 vor einem entscheidenden KI-Moment.
Es reicht nicht mehr, Siri einfach nur irgendwie aufzuholen. Apple muss zeigen, dass die eigene KI-Strategie nicht nur leistungsfähig ist, sondern auch zur Haltung der Marke passt. Und genau deshalb wirkt die mögliche Gemini-Lösung auf Apple-Infrastruktur gerade so spannend. Berichten zufolge hat Apple Google prüfen lassen, ob Gemini-Modelle auf Servern in Apples eigenen Rechenzentren laufen können. Sollte das so kommen, wäre das für Apple ein deutlich saubererer Weg als eine tiefere Abhängigkeit von OpenAI.
Das Entscheidende daran ist: Das wäre nicht einfach ein Wechsel von OpenAI zu Google. Das wäre ein Wechsel von einem Modell, bei dem Apple sich an mehreren Stellen auf externe Zusagen verlassen muss, hin zu einem Modell, bei dem Apple deutlich mehr Kontrolle zurückholt. Und genau das passt sehr viel besser zu der Haltung, die Apple seit Jahren nach außen vertritt: Datenschutz, Kontrolle, möglichst wenig Datenabfluss und möglichst viel Verarbeitung in einer Architektur, die Apple selbst definiert. Apple beschreibt Private Cloud Compute selbst als cloudbasierte KI-Verarbeitung, die speziell mit Privacy- und Sicherheitsgarantien gebaut wurde.
Dass ChatGPT für Apple nie der ideale Endzustand war, sieht man schon an der bisherigen Integration. Apple hat ChatGPT bewusst nicht als tief eingebauten Siri-Kern gestaltet, sondern als abgesicherte Erweiterung. Die Funktion ist standardmäßig aus, muss aktiv eingeschaltet werden, und Apple sagt selbst, dass Nutzer vor dem Senden von Anfragen gefragt werden können und bei Fotos oder Dateien immer eine ausdrückliche Freigabe nötig ist. Apple betont außerdem, dass die IP-Adresse gegenüber ChatGPT verschleiert wird und ohne Login keine Apple-Account-Verknüpfung stattfindet. Das wirkt nicht wie tiefes Vertrauen, sondern eher wie eine bewusst kontrollierte Übergangslösung und trotzdem und vielleicht auch gerade durch die Zusammenarbeit mit Apple ist ChatGPT für viele Applenutzer der Chatbot Nr. 1.
Genau da beginnt das Problem mit OpenAI.
Das Problem ist nicht nur Technik. Das größere Problem ist Haltung. Apple hat über Jahre gezeigt, dass Datenschutz, Kontrolle und klare Grenzen Teil der eigenen Marke sind. Und selbst Anthropic (Claude) hat in den letzten Monaten bei heiklen Fragen eine deutlich klarere Linie gezogen als OpenAI. Anthropic sagte öffentlich, die roten Linien gegenüber dem Pentagon lägen bei Massenüberwachung im Inland und bei vollautonomen Waffen. Genau an diesen Punkten seien die Gespräche eskaliert.
OpenAI hat den Regierungsdeal dagegen angenommen und danach erklärt, man habe Schutzmechanismen ergänzt. Sam Altman schrieb, der Vertrag sei angepasst worden und OpenAI-Dienste würden nicht für bestimmte Geheimdienstnutzungen wie durch die NSA eingesetzt, außer über eine separate spätere Vertragsänderung. Das Problem daran ist nicht automatisch, dass diese Aussage falsch wäre. Das Problem ist, dass sie von außen nur begrenzt überprüfbar ist. Die Öffentlichkeit kennt weder die vollständigen Vertragsdetails noch die genaue technische Umsetzung. Für Apple ist schon diese Unklarheit ein Problem.
Und dann kommt noch das Werbethema dazu.
OpenAI baut ChatGPT gerade sichtbar in Richtung Werbeplattform aus. Erst wurde angekündigt, Anzeigen in den USA für Nutzer der Free- und Go-Pläne zu testen, dann folgte die Ausweitung auf alle Free- und Go-Nutzer in den USA. Inzwischen liegen Berichte vor, wonach OpenAI intern mit gewaltigen Werbeumsätzen für die kommenden Jahre plant. Das ist kein Nebenthema mehr, sondern ein klarer Teil der Produktstrategie.
Anthropics Werbung zu ChatGPT’s Ankündigung Werbung in Chats einzublenden:
OpenAI sagt zwar, Anzeigen würden Antworten nicht beeinflussen und Gespräche blieben gegenüber Werbekunden privat. Das ist wichtig. Aber es löst den eigentlichen Konflikt nicht. Denn sobald ein KI-System, das Menschen zunehmend auch für persönliche und sensible Themen nutzen, in Richtung Werbeprodukt entwickelt wird, entsteht automatisch eine neue Vertrauensfrage. Axios berichtete, dass sich die Nutzung von ChatGPT im Consumer-Bereich zuletzt stärker von beruflichen zu persönlichen Themen verschoben hat - und genau das macht Werbung in so einem System noch heikler. Denn selbst wenn OpenAI sensible Inhalte nicht direkt an Werbekunden weitergibt, steht trotzdem die Sorge im Raum, dass Anzeigen irgendwann aus Nutzungskontexten abgeleitet oder darauf abgestimmt wirken könnten, die viele Menschen als privat empfinden würden. Und genau das steht quer zu Apples bisherigem Ansatz.
Ein KI-System, das für persönliche Fragen genutzt wird, ist etwas anderes als ein soziales Netzwerk oder eine Suchmaschine.
Sobald dort Werbung einzieht, verändert sich nicht nur das Geschäftsmodell - es verändert sich das Vertrauensverhältnis.
Auch hier ist der Kontrast zu Anthropic spannend. Anthropic hat das Werbethema sogar offensiv gegen OpenAI ausgespielt und Claude als werbefreie Alternative positioniert. Das ist natürlich auch Marketing. Aber es zeigt, wie zentral das Thema inzwischen geworden ist: Werbung in KI wird längst nicht mehr nur als Monetarisierung gesehen, sondern als Frage von Vertrauen, Nähe und Einfluss.
Wenn man all das zusammennimmt, wird die mögliche Gemini-Lösung für Apple plötzlich sehr logisch. Nicht, weil Google der perfekte Partner wäre. Sondern weil Apple im Fall von Gemini offenbar versucht, das Modell näher an die eigene Infrastruktur und damit näher an die eigene Privacy-Architektur zu holen. Sollte Apple Gemini wirklich auf Apple-eigenen Servern oder in einer vergleichbaren Struktur betreiben, wäre das aus Apple-Sicht vermutlich der sauberere Weg: starke KI von außen, aber mehr Kontrolle bei Apple.
Der eigentliche Punkt ist deshalb nicht, ob Apple ChatGPT komplett rauswirft.
Wahrscheinlicher ist, dass ChatGPT als optionale Erweiterung bleibt. Die spannendere Frage ist, ob Apple OpenAI endlich aus dem Zentrum der eigenen KI-Story herausschiebt. Genau das würde zu Apple passen: ChatGPT weiter als kontrollierte Option, Gemini näher an der Kernarchitektur und Apple selbst als Instanz, die entscheidet, welche Daten wohin gehen und welche Modelle überhaupt in sensible Systemfunktionen eingreifen dürfen.
Fazit
Apple braucht für iOS 27 starke KI. Aber Apple braucht vor allem eine KI-Strategie, die zur eigenen Haltung passt.
Und genau daran wird OpenAI zunehmend zum Problem. Nicht nur wegen Datenschutz im engen technischen Sinn, sondern wegen der größeren Richtung: Regierungsdeals mit nachträglichen Zusicherungen statt glasklarer roter Linien, die Entwicklung von ChatGPT zur Werbeplattform und der Umbau von OpenAI hin zu einer eigenen Consumer-Plattform mit potenziell eigener Hardware. Für Apple ist das ein Partnerprofil, das immer schwerer zur eigenen Marke passt.
Wenn Apple Gemini auf eigener Infrastruktur laufen lässt, wäre das deshalb weniger ein Sieg für Google als eine strategische Emanzipation von OpenAI.




