Siri op je iPhone wordt straks een heel stuk slimmer dankzij Google
In dit artikel:
Bloomberg meldt dat Apple een veel krachtigere versie van Siri ontwikkelt en daarvoor Google’s Gemini inhuurt. Apple zou ongeveer 1 miljard dollar per jaar betalen voor een door Google gebouwd AI-model met rond 1,2 biljoen parameters. Dit model moet Siri beter maken in taken zoals samenvatten, plannen en het uitvoeren van meerstapsopdrachten; voor andere functies blijven door Apple gebouwde modellen gebruikt worden.
Het Gemini-model gebruikt een Mixture‑of‑Experts-architectuur: het totale aantal parameters is enorm, maar per vraag wordt slechts een deel geactiveerd, waardoor grote rekenkracht mogelijk is zonder evenredige verwerkingskosten. Apple laat het model draaien op zijn eigen, afgesloten servers zodat Google geen toegang krijgt tot bedrijfsgegevens of gebruikersdata.
Apple onderzocht ook intern ontwikkelde modellen en alternatieven zoals Anthropic, maar koos Gemini mede vanwege kosten en bestaande zakelijke banden met Google—Google betaalt Apple al ongeveer 20 miljard dollar per jaar om als standaardzoekmachine op iPhones te fungeren. Tegelijk blijft Apple werken aan eigen grootschalige modellen; er wordt gewerkt aan een cloudmodel van circa 1 biljoen parameters dat mogelijk in 2026 beschikbaar komt, zodat op termijn naar een interne oplossing geschakeld kan worden.
De verbeterde Siri-functionaliteit wordt verwacht met iOS 26.4 in het voorjaar van 2026.