Apple probeert gelijktijdig twee complexe vraagstukken op te lossen die vrijwel altijd botsen in de wereld van Kunstmatige Intelligentie: snel vooruitgang boeken zonder het overzicht te verliezen. Op de korte termijn erkent het bedrijf een ongemakkelijke realiteit voor iedereen die zijn eigen platform wil domineren: om Siri en Apple Intelligence geloofwaardig te laten springen, kan het nodig zijn — al is het maar tijdelijk — om gebruik te maken van toonaangevende modellen van derden. Tegelijkertijd versnelt Apple het plan waarin het excelleert: het integreren van hardware, software en diensten met eigen technologie, dit keer met een helder doel in de AI-achtergrond: serverschips voor inferentie.
De meest opvallende aanwijzing van deze hybride strategie kwam met de aankondiging van een samenwerking tussen Apple en Google. In een gezamenlijke verklaring uit 2024 gaven beide bedrijven aan dat “de volgende generatie Apple Foundation Models gebaseerd zal zijn op Google’s Gemini-modellen en cloudtechnologie”, en benadrukten bovendien dat de privacy gewaarborgd zou blijven doordat gebruikersgegevens niet voor het trainen van modellen zouden worden gebruikt. Deze zet werd geïnterpreteerd als een “brug” om de ontwikkeling van ervaringen zoals Siri te ondersteunen terwijl Apple haar eigen AI-stack verder ontwikkelt.
Toch lijkt Apple niet permanent afhankelijk te willen blijven. Het bedrijf heeft in eerdere transities — van Intel naar Apple Silicon, en op weg naar 5G — aangetoond dat het voorkeur geeft aan het ‘leasen’ van oplossingen voor zolang dat nodig is. Bij AI is de drijfveer zelfs groter: het model en de ervaring vormen niet slechts een extra laag in het product, maar worden de kernmotor van wat het apparaat kan doen, hoe het zich integreert met het besturingssysteem en welk verhaal de gebruiker ervan ervaart.
Daar past de tweede zet bij: door Apple ontworpen serverschips voor AI. Reuters meldde dat Apple samen met Broadcom werkte aan een chip voor AI-servers, met de codenaam “Baltra”, gepland voor productie in 2026. Het doel is niet om het verwerkingsvermogen in de iPhone of Mac te vervangen, maar om de inferentie in de backend te versterken: het reageren op verzoeken, uitvoeren van modellen, filteren en organiseren van informatie, en pieken in vraag opvangen met voorspelbare kosten en energieverbruik.
De keuze voor Broadcom is geen toeval. In het datacenter-ecosysteem speelt Broadcom een grote rol in connectiviteit, netwerken en gespecialiseerde siliciumtechnologie. Voor Apple kan een partner van dat calibre het proces van idee tot implementatie aanzienlijk versnellen, vooral omdat de sector niet meer alleen worstelt met GPU’s: ook energiebeheer, koeling, geavanceerde behuizingen, performantie per watt en logistiek spelen een cruciale rol in schaalbaarheid zonder de rekening te laten exploderen.
Dit eigen siliciumplan sluit aan bij een ander initiatief van Apple: infrastructuur voor “Private Cloud Compute”, onderdeel van Apple Intelligence. Het bedrijf benadrukt dat bepaalde AI-taken op het apparaat zelf draaien, en dat alleen wanneer nodig de workload wordt opgeschaald naar de cloud onder strikte controle. In dat kader bevatte recente aankondigingen over industriële investeringen in de VS plannen om servers te bouwen in Houston voor deze ‘private compute’ laag, met verzending vanaf 2026 gepland. De boodschap is duidelijk: Apple wil dat het ‘cloud’ deel van haar AI-werking qua filosofie vergelijkbaar is met haar ‘on-device’ aanpak: geïntegreerd, gecontroleerd en eigen ontwerp.
Deze strategische koers heeft bredere implicaties dan alleen Apple. Als de ‘Baltra-achtige’ chips succesvol worden, versterkt dat een trend die de sector aan het herdefiniëren is: grote platforms willen controle over de kostprijs per AI-reactie, elektrisch verbruik per inferentie en de ultieme latency. Het gaat niet alleen om het model, maar over de infrastructuur.
Daarnaast speelt er een reputatierisico: wanneer een bedrijf belooft een ‘native’ AI-ervaring te bieden, is de druk om dat ook waar te maken ontzettend groot. In 2026 ligt de lat niet meer simpel op ‘het moet werken’, maar op snelheid, context, bruikbare antwoorden en privacybescherming. Daarom lijkt Apple te kiezen voor een pragmatische aanpak: tactische allianties om tijd te winnen, gecombineerd met verticale integratie om niet te blijven steken.
Samengevat: Apple beweegt op twee snelheden. Op het gebied van de gebruiksinterface probeert het de mogelijkheden te versnellen met ondersteuning van Gemini. Aan de basis bereidt het zich voor op een schaalbare en duurzame AI-structuur: servers, efficiëntie, kostencontrole en eigen silicium. Als alles volgens plan verloopt, zal de ‘Apple AI’ minder een functie zijn en meer een volledig platform, met hetzelfde DNA dat Apple Silicon mogelijk maakte.
Veelgestelde vragen (FAQ)
Wat is een serverschip voor inferentie in AI en waarom is het belangrijk?
Het is de processor die getrainde modellen uitvoert om antwoorden te genereren (inferentie). Het is belangrijk omdat het de kosten per vraag, de latency, het energieverbruik en de schaalbaarheid bepaalt.
Wat betekent het dat Apple Gemini gebruikt en tegelijkertijd eigen chips ontwikkelt?
Dat probeert snelheidswinst te behalen met toonaangevende modellen (korte termijn), zonder het controleverlies op de infrastructuur en eigen silicium (middellange termijn) te riskeren. Het vermindert technologische afhankelijkheid en optimaliseert kosten.
Hoe verschilt ‘on-device’ AI van cloud-AI bij Apple Intelligence?
On-device wordt op het apparaat zelf uitgevoerd (meer privacy, minder latency). Cloud wordt ingezet voor complexere taken, en Apple stelt voor die met een eigen, veilige ‘private cloud’ laag te doen voor privacy- en veiligheidswaarborging.
Wanneer wordt verwacht dat de ‘Baltra’ serverschips in productie gaan?
Volgens Reuters zou dat in 2026 moeten zijn, al kunnen de planning en productie later verschuiven door capaciteitsproblemen of productprioriteiten.
