Raspberry Pi wil dat de generatieve AI niet meer afhankelijk is van de cloud: zo is de nieuwe AI HAT+ 2 voor Raspberry Pi 5

Jarenlang werd “AI aan de rand” op Raspberry Pi vooral geassocieerd met computer vision: het detecteren van objecten, het inschatten van poses of het segmenteren van scènes met behulp van een camera en een speciale versneller. Maar in 2026 is de discussie veranderd. De populariteit van generatieve modellen — vooral taalmodellen (LLM) en visie-taalmodellen (VLM) — heeft de verwachting verschoven van “herkent wat het ziet” naar “begrijpt, antwoordt en ondersteunt”. En die sprong vereiste tot nu toe vaak het gebruik van clouddiensten, met terugkerende kosten en privacy-implicaties.

In dat kader heeft Raspberry Pi de Raspberry Pi AI HAT+ 2 geïntroduceerd, een nieuwe uitbreidingskaart voor Raspberry Pi 5 die specifiek is ontworpen om de leemte in lokale generatieve AI op te vullen: inferenties uitvoeren zonder internetverbinding, met lage latentie en zonder abonnement op externe API’s. De kern van de nieuwe aanpak is een belangrijke wijziging ten opzichte van het vorige model: een nieuwe versneller, meer rekenkracht voor generatieve AI en vooral, ingebouwde dedicated geheugen.

Van “Versnelde visie” naar “Lokale generatieve AI”

Het bedrijf herinnert eraan dat de eerste AI HAT+ iets meer dan een jaar geleden werd gelanceerd als een add-on voor Raspberry Pi 5 met acceleratoren Hailo-8 (26 TOPS) en Hailo-8L (13 TOPS), bedoeld om alle verwerking “op de plaat” te laten plaatsvinden. Dit ontwerp bood voordelen qua privacy en onafhankelijkheid van cloudservices, maar was geoptimaliseerd voor visionneuronale netwerken en niet voor de explosieve groei van generatieve modellen.

De AI HAT+ 2 is specifiek voor dat nieuwe scenario ontwikkeld. Het beschikt over de Hailo-10H en belooft 40 TOPS (INT4) rekenkracht voor inferentie, gericht op het praktisch laten passen van generatieve AI-workloads op een Raspberry Pi 5. Daarbovenop komt een cruciaal element: 8 GB ingebouwd dedicated RAM, ontworpen om grotere modellen te kunnen verwerken dan gebruikelijk in edge-omgevingen, waardoor de Raspberry Pi minder geheugenbelasting krijgt. Ook blijft de lokale uitvoering — zonder internetverbinding — behouden, met als doel: lage latentie, privacy en kostenbeheersing in vergelijking met API-gebruik.

Tezelfdertijd benadrukt Raspberry Pi dat de nieuwe HAT niet ten koste gaat van de prestaties op het gebied van computer vision: voor modellen als YOLO, pose-estimatie of scene-segmentatie blijft de performance op een vergelijkbaar niveau met de 26 TOPS AI HAT+, deels dankzij het ingebouwde RAM. Daarnaast blijft de compatibiliteit intact: de AI HAT+ 2 integreert nog steeds met het camerosysteem (libcamera, rpicam-apps en Picamera2), zodat gebruikers van het vorige ecosysteem geen ingrijpende veranderingen hoeven te verwachten.

Vergelijkingstabel: AI HAT+ versus AI HAT+ 2

EigenschapRaspberry Pi AI HAT+Raspberry Pi AI HAT+ 2
VersnellerHailo-8 / Hailo-8LHailo-10H
Prestaties (inferenties)26 TOPS / 13 TOPS40 TOPS (INT4)
HoofdfocusVisionmodellenLLM, VLM en GenAI (zonder verlies van vision)
Ingebouwd RAM8 GB
Camera-integratieJaJa (libcamera, rpicam-apps, Picamera2)
Gerapporteerde prijs130 dollar

Welke modellen kunnen bij lancering worden geïnstalleerd?

Om het concept tastbaar te maken, geeft Raspberry Pi aan dat er bij de lancering verschillende LLM’s beschikbaar zullen zijn voor installatie (met afmetingen die geschikt zijn voor edge-omgevingen). De initiële lijst bevat onder meer:

  • DeepSeek-R1-Distill (1.500 miljoen parameters)
  • Llama 3.2 (1.000 miljoen)
  • Qwen 2.5-Coder (1.500 miljoen)
  • Qwen 2.5-Instruct (1.500 miljoen)
  • Qwen 2 (1.500 miljoen)

Daarnaast verwacht het bedrijf dat twee meer modellen en grotere versies later beschikbaar zullen komen via updates.

Bij demonstraties gebruikt Raspberry Pi een backend voor LLM’s genaamd hailo-ollama en een webinterface in chatstijl met Open WebUI, waarmee je vanuit een browser kunt werken alsof het een traditionele assistent is. Voorbeelden die getoond werden: alledaagse vragen en antwoorden, programmeertaken met codegerichte modellen, eenvoudige vertalingen en een VLM die een scène beschrijft op basis van live camerabeelden. Alles wordt lokaal uitgevoerd op een Raspberry Pi 5 met de AI HAT+ 2.

De ware rand van edge: kleine modellen, maar zeer aanpasbaar

Raspberry Pi benadrukt ook een vaak over het hoofd geziene realiteit: de cloud-LLM’s van grote spelers zoals OpenAI, Meta of Anthropic opereren op een andere schaal. Volgens het bedrijf bewegen die in de orde van 500 miljard tot 2 biljoen parameters, terwijl de modellen die voor AI HAT+ 2 bedoeld zijn meestal tussen de 1 en 7 miljard parameters zitten, om binnen de beschikbare geheugenruimte te blijven.

Dit betekent onvermijdelijk dat deze “compacte” modellen niet concurreren in breedte van kennis, maar wel in nuttigheid binnen een gerichter gegevens- en doelgebied. Om dat te compenseren ondersteunt de AI HAT+ 2 fine-tuning met LoRA (Low-Rank Adaptation) en het gebruik van de Hailo Dataflow Compiler om adapters te compileren en modellen op maat te maken voor specifieke taken (bijvoorbeeld vertalingen, spraak-naar-tekst of scenesbeschrijvingen). In de praktijk brengt dit het product dichter bij een “industrieel” en eindproductgerichte aanpak: minder belofte van algemene intelligentie, meer specialisatie per toepassing.

Beschikbaarheid, montage en toepassingsgebieden

De Raspberry Pi AI HAT+ 2 wordt verkocht voor 130 dollar en is vooral bedoeld voor Raspberry Pi 5, mede vanwege de communicatie via PCI Express naast de GPIO. Het technische document noemt ook een optionele koeler voor intensieve workloads, en geeft aan dat het product minimaal tot januari 2036 in productie blijft.

Qua toepassingen past het concept van “GenAI zonder cloud” in scenario’s waar connectiviteit niet altijd mogelijk of wenselijk is: offline procescontrole, veilige data-analyse, beheer van faciliteiten of robotica. Dit zijn geen toevallige voorbeelden; het gaat vooral om sectoren waar de kosten per cloudopvraging, de latentie of de gevoeligheid van gegevens een goede implementatie van prototypes in de weg kunnen staan.


Veelgestelde vragen

Waarvoor is de Raspberry Pi AI HAT+ 2 bedoeld, nu er al een AI HAT+ bestaat?
Het originele AI HAT+ was geoptimaliseerd voor visiontoepassingen (objectdetectie, segmentatie, etc.). De AI HAT+ 2 voegt een accelerator toe die gericht is op generatieve AI en biedt 8 GB aan ingebouwd RAM, waarmee het mogelijk wordt om LLM’s en VLM’s lokaal uit te voeren op een Raspberry Pi 5.

Welke taalmodellen kunnen bij lancering worden geïnstalleerd en hoe groot zijn ze?
Bij de lancering worden modellen zoals DeepSeek-R1-Distill (1.500 miljoen), Llama 3.2 (1.000 miljoen) en verschillende varianten van Qwen (1.500 miljoen) genoemd, met plannen om later grotere modellen toe te voegen.

Wat zijn de voordelen van een lokale assistent op Raspberry Pi in plaats van via een cloud-API?
Vooral privacy van data, lagere latentie, offline functioneren en kostencontrole (geen betalingsverplichtingen per gebruik en geen afhankelijkheid van externe providers). Dit is vooral relevant in industriële, educatieve of IoT-omgevingen.

Kunnen modellen worden gepersonaliseerd voor specifieke taken met de AI HAT+ 2?
Zeker. Raspberry Pi ondersteunt LoRA voor fine-tuning van taalmodellen en het gebruik van de Hailo Dataflow Compiler om adapters te compileren en modellen op maat te maken voor bijvoorbeeld vertaalopdrachten, spraak-naar-tekst of scene-analyse.

vía: raspberrypi

Scroll naar boven