Apple goes Gemini - A1 Blog
In einem knappen Statement ist passiert, was sich schon seit Monaten abzeichnete: Apple wird bei der zukünftigen Entwicklung seiner Apple Intelligence ab sofort auf Google setzen. Das gaben beide Unternehmen in einer gemeinsamen Aussendung bekannt. Wirklich verwunderlich ist das nicht: Apple konnte die eigenen Erwartungen an seine KI-Ambitionen nicht und nicht erreichen, während Google mit Gemini 3 die Branche in Aufregung versetzt. Aber was bedeutet die Kooperation genau? - Hier die wichtigsten Punkte.
1. Gemini als "Motor" (Foundation Model)
Der entscheidende Unterschied zu früheren Integrationen (wie der von ChatGPT) ist die Tiefe der Zusammenarbeit. Apple nutzt Gemini nicht nur als optionalen Chatbot, sondern lizenziert die Gemini-Modelle von Google als technisches Fundament für die nächste Generation von Apple Intelligence.- Zweck: Vor allem die neue Generation von Siri (erwartet im Laufe des Jahres 2026, vermutlich mit iOS 27) soll darauf basieren, um komplexere Aufgaben, Kontextverständnis und logische Schlüsse besser zu bewältigen.
- Infrastruktur: Berichten zufolge laufen diese angepassten Gemini-Modelle dabei oft auf Apples eigener Infrastruktur ("Private Cloud Compute") oder lokal auf den Geräten, um Apples Datenschutzstandards zu wahren. Google liefert also eher die Architektur und das Training des Gehirns, während Apple die Kontrolle über die Daten behält.
2. Abgrenzung zu ChatGPT
Es ist wichtig, zwei verschiedene Arten der KI-Nutzung bei Apple zu unterscheiden, die oft verwechselt werden:- Der "Joker" (ChatGPT): Bereits seit iOS 18.2 können Nutzer Siri erlauben, bei bestimmten Fragen ChatGPT (von OpenAI) hinzuzuziehen. Das ist eher eine Art "Weiterleitung" für Fragen, die Siri nicht beantworten kann.
- Das "Fundament" (Gemini): Die neue Partnerschaft mit Google zielt darauf ab, dass die eigene Intelligenz von Siri (also das, was Siri selbst "denkt") durch Gemini ersetzt oder massiv aufgewertet wird. Es ist also eine tiefere Integration in das System.
3. Warum macht Apple das?
Apple stand unter großem Druck, da die eigene KI-Entwicklung Berichten zufolge Schwierigkeiten hatte, mit der rasanten Entwicklung von OpenAI oder Gemini Schritt zu halten. Eine Konsequenz draus war sogar, dass der Apples KI-Chef John Giannandrea das Unternehmen im Dezember verlassen musste. Der Deal mit Google ist ein pragmatischer Schritt:- Zeitgewinn: Apple kauft sich Spitzen-Technologie ein, um sofort konkurrenzfähig zu sein.
- Kosten: Es ist effizienter, ein bereits trainiertes Top-Modell zu lizenzieren, als den enormen Rückstand rein intern aufzuholen.
4. Inwiefern wird sich Siri und Apple Intelligence mit der Kooperation verbessern?
Durch den Wechsel auf Gemini als Fundament (statt der bisherigen, oft begrenzten Apple-Eigenentwicklungen) sollte Siri einen spürbaren Sprung machen. Die Funktionen, die für iOS 26 versprochen wurden, werden dadurch erst richtig möglich:- Echtes Kontext-Verständnis (Personal Context): Siri versteht Zusammenhänge über Apps hinweg. Du kannst fragen: "Wann landet Mama?" Siri schaut in deine Mails nach der Flugbestätigung, prüft den aktuellen Flugstatus im Web und gibt dir die Antwort – alles in einem Schritt. Das war vorher oft nur eine Google-Suche, jetzt ist es eine echte Antwort.
- Bildschirm-Bewusstsein (On-Screen Awareness): Wenn du dir gerade ein Foto oder eine Webseite ansiehst, kannst du sagen: "Schick das an Peter" oder "Erklär mir, was hier zu sehen ist". Siri "sieht", was du siehst, da das Gemini-Modell multimodal ist (Text und Bild gleichzeitig versteht).
- Aktionen in Apps: Siri kann nun Knöpfe für dich drücken. Statt nur Apps zu öffnen, kann es konkrete Befehle ausführen, z. B.: "Mach das Foto heller und schick es per Mail an mein Team." Das erfordert ein logisches Verständnis von App-Menüs, das Gemini sehr gut beherrscht.
Seitenkommentare