Apple's krachtig AI-framework lokaal beschikbaar
In dit artikel:
Apple heeft met iOS 26, iPadOS 26 en macOS 26 het Foundation Models-framework uitgebracht: een on-device groot taalmodel dat AI-functies rechtstreeks op Apple‑apparaten laat draaien. Omdat alle inferentie lokaal gebeurt op Apple silicon (CPU, GPU en Neural Engine samenwerken), blijven gebruikersdata op het toestel, neemt de vertraging af, werkt het ook offline en ontstaan er geen extra kosten voor cloud‑inference.
Ontwikkelaars kunnen via een geïntegreerde Swift‑API snel functies als tekstgeneratie, samenvattingen, classificatie en semantische zoekopdrachten toevoegen. Belangrijke mogelijkheden zijn stateful sessions (het model onthoudt context over een gesprek heen) en tool calling, waarbij het model zelfstandig app‑functies kan aanroepen om live informatie of acties te gebruiken. Daardoor ontstaan meer contextbewuste en interactieve ervaringen met relatief weinig code.
Het framework wordt nu al toegepast in uiteenlopende apps: gezondheids‑ en fitnessapps (bijv. SmartGym) leveren gepersonaliseerde trainingsplannen; dagboekapps zoals Stoic genereren reflecties op basis van stemming; educatieve apps bieden adaptieve uitleg; creatieve tools zoals VLLO combineren het met Vision voor automatische muziek- en stickerkeuzes; en productiviteitsapps (Stuff, OmniFocus) doen contextueel taakadvies. Apple ondersteunt meerdere talen (onder meer Engels, Frans, Duits, Chinees, Japans, Koreaans) hoewel sommige functies nog regionaal of taalspecifiek beperkt kunnen zijn.
Kort gezegd verschuift generatieve AI met dit framework van de cloud naar het apparaat, wat privacy, snelheid en gebruiksgemak verbetert en ontwikkelaars in staat stelt om rijke, gepersonaliseerde en contextgevoelige apps te bouwen.