• Digitales Leben

Apple goes Gemini

Mit viel Elan gestartet, letztendlich doch gescheitert: Apple nutzt in Zukunft Gemini als Unterbau für seine KI-Ambitionen.

In einem knappen Statement ist passiert, was sich schon seit Monaten abzeichnete: Apple wird bei der zukünftigen Entwicklung seiner Apple Intelligence ab sofort auf Google setzen. Das gaben beide Unternehmen in einer gemeinsamen Aussendung bekannt. Wirklich verwunderlich ist das nicht: Apple konnte die eigenen Erwartungen an seine KI-Ambitionen nicht und nicht erreichen, während Google mit Gemini 3 die Branche in Aufregung versetzt. Aber was bedeutet die Kooperation genau? - Hier die wichtigsten Punkte.
Apple und Google haben eine mehrjährige Kooperation vereinbart, im Rahmen derer die nächste Generation der Apple Foundation Models auf Googles Gemini-Modellen und Cloud-Technologie basieren wird. Diese Modelle werden zukünftige Apple Intelligence-Funktionen ermöglichen, darunter ein personalisierteres Siri, das noch in diesem Jahr eingeführt wird.
Gemeinsames Statement Apple und Google

1. Gemini als "Motor" (Foundation Model)

Der entscheidende Unterschied zu früheren Integrationen (wie der von ChatGPT) ist die Tiefe der Zusammenarbeit. Apple nutzt Gemini nicht nur als optionalen Chatbot, sondern lizenziert die Gemini-Modelle von Google als technisches Fundament für die nächste Generation von Apple Intelligence.
  • Zweck: Vor allem die neue Generation von Siri (erwartet im Laufe des Jahres 2026, vermutlich mit iOS 27) soll darauf basieren, um komplexere Aufgaben, Kontextverständnis und logische Schlüsse besser zu bewältigen.
  • Infrastruktur: Berichten zufolge laufen diese angepassten Gemini-Modelle dabei oft auf Apples eigener Infrastruktur ("Private Cloud Compute") oder lokal auf den Geräten, um Apples Datenschutzstandards zu wahren. Google liefert also eher die Architektur und das Training des Gehirns, während Apple die Kontrolle über die Daten behält.

2. Abgrenzung zu ChatGPT

Es ist wichtig, zwei verschiedene Arten der KI-Nutzung bei Apple zu unterscheiden, die oft verwechselt werden:
  • Der "Joker" (ChatGPT): Bereits seit iOS 18.2 können Nutzer Siri erlauben, bei bestimmten Fragen ChatGPT (von OpenAI) hinzuzuziehen. Das ist eher eine Art "Weiterleitung" für Fragen, die Siri nicht beantworten kann.
  • Das "Fundament" (Gemini): Die neue Partnerschaft mit Google zielt darauf ab, dass die eigene Intelligenz von Siri (also das, was Siri selbst "denkt") durch Gemini ersetzt oder massiv aufgewertet wird. Es ist also eine tiefere Integration in das System.

3. Warum macht Apple das?

Apple stand unter großem Druck, da die eigene KI-Entwicklung Berichten zufolge Schwierigkeiten hatte, mit der rasanten Entwicklung von OpenAI oder Gemini Schritt zu halten. Eine Konsequenz draus war sogar, dass der Apples KI-Chef John Giannandrea das Unternehmen im Dezember verlassen musste. Der Deal mit Google ist ein pragmatischer Schritt:
  • Zeitgewinn: Apple kauft sich Spitzen-Technologie ein, um sofort konkurrenzfähig zu sein.
  • Kosten: Es ist effizienter, ein bereits trainiertes Top-Modell zu lizenzieren, als den enormen Rückstand rein intern aufzuholen.

4. Inwiefern wird sich Siri und Apple Intelligence mit der Kooperation verbessern?

Durch den Wechsel auf Gemini als Fundament (statt der bisherigen, oft begrenzten Apple-Eigenentwicklungen) sollte Siri einen spürbaren Sprung machen. Die Funktionen, die für iOS 26  versprochen wurden, werden dadurch erst richtig möglich:
  • Echtes Kontext-Verständnis (Personal Context): Siri versteht Zusammenhänge über Apps hinweg. Du kannst fragen: "Wann landet Mama?" Siri schaut in deine Mails nach der Flugbestätigung, prüft den aktuellen Flugstatus im Web und gibt dir die Antwort – alles in einem Schritt. Das war vorher oft nur eine Google-Suche, jetzt ist es eine echte Antwort.
  • Bildschirm-Bewusstsein (On-Screen Awareness): Wenn du dir gerade ein Foto oder eine Webseite ansiehst, kannst du sagen: "Schick das an Peter" oder "Erklär mir, was hier zu sehen ist". Siri "sieht", was du siehst, da das Gemini-Modell multimodal ist (Text und Bild gleichzeitig versteht).
  • Aktionen in Apps: Siri kann nun Knöpfe für dich drücken. Statt nur Apps zu öffnen, kann es konkrete Befehle ausführen, z. B.: "Mach das Foto heller und schick es per Mail an mein Team." Das erfordert ein logisches Verständnis von App-Menüs, das Gemini sehr gut beherrscht.

Apple kooperiert mit Google | Fazit

Apple nutzt in Zukunft Gemini, um Siri von einem eher mäßigen Befehlsempfänger zu einem vollwertigen Assistenten zu machen. Der Preis ist hoch: Apple begibt sich damit in Abhängigkeit von Google. Zudem wird einem recht drastisch vor Augen geführt, wie aufwendig es ist, eine gute KI auf die Beine zu stellen: Ein Milliardenkonzern wie Apple scheitert daran, ein eigenes Modell zu entwickeln. Google baut seine Marktmacht weiter aus. Das bedeutet für uns Konsumenten, in Zukunft am digitalen Markt noch mehr von nur einer Handvoll Unternehmen abhängig zu sein.
  • Digitales Leben

Schlauer statt schneller: Gemini 3 ist da

  • Digitales Leben

Nano Banana Pro: Großes KI-Update

  • Smartphones

iOS 26: Diese 10 Tipps machen dein iPhone smarter & dein Leben einfacher

Formular

Öffentliche Seitenkommentare und Antworten

Seitenkommentare