Kog AI stimuleert een revolutie in inferentie met AMD MI300X: tot 3,5 keer sneller dan huidige motoren

Franse startup redefinieert de grenzen van AI-inferentie met geoptimaliseerde architectuur

In de wereld van kunstmatige intelligentie (AI) heeft de Franse startup Kog AI een belangrijke stap gezet in het verbeteren van inferentie voor AI-modellen. Het bedrijf heeft aangekondigd dat hun inferentiemotor een token-generatiesnelheid tot 3,5 keer sneller kan bereiken dan toonaangevende oplossingen zoals vLLM en TensorRT-LLM, gebruikmakend van AMD Instinct™ MI300X GPU’s. Deze vooruitgang plaatst Kog aan de top van de nieuwe generatie inferentieplatforms en versterkt de Europese inzet voor een digitale infrastructuur die onafhankelijk en soeverein is.

Een nieuw paradigma voor realtime AI-snelheid

In het tijdperk van generatieve kunstmatige intelligentie is het knelpunt niet langer de training, maar de inferentie. De capaciteit om snelle sequentiële antwoorden te genereren is cruciaal geworden voor autonome agents, virtuele assistenten, realtime spraakapplicaties en geavanceerde redeneer-modellen. Desondanks zijn de meest gebruikte inferentiemotoren nog steeds geoptimaliseerd voor massale chattoepassingen, wat ten koste gaat van de prestaties bij complexe individuele stromen.

Kog AI heeft de eerste resultaten van hun tests gepresenteerd, waarin blijkt dat hun motor de concurrentie op alle belangrijke gebieden overtreft. Enkele opvallende gegevens zijn:

  • Tot 3,5× sneller in token-generatie dan de huidige motoren op MI300X.
  • Consistentie bij alle modelgroottes, van 1 miljard tot 32 miljard parameters (zoals Llama, Mistral, Qwen).
  • Recordinter-GPU-latentie van 4 microseconden, waardoor de gebruikelijke tijden in bestaande communicatielibraries tot vier keer worden gereduceerd.

Kog’s inferentiemotor toont uitzonderlijke prestaties met compacte modellen (1B tot 7B), die, indien goed geconfigureerd, de precisie van veel grotere modellen in specifieke taken kunnen evenaren of zelfs overtreffen, terwijl de infrastructuurkosten drastisch worden verlaagd en de snelheid met tien wordt vermenigvuldigd.

Een radicale benadering: van assembleren naar digitale soevereiniteit

In tegenstelling tot andere oplossingen heeft Kog niet alleen geoptimaliseerd op bestaande frameworks. Het bedrijf heeft zijn motor vanaf de grond af ontworpen, gebruikmakend van C++ en hooggeoptimaliseerde assemblertaal om knelpunten op zowel hardware- als software-niveau te elimineren.

Een van hun belangrijkste innovaties is de KCCL (Kog Collective Communications Library), een intern ontwikkelde communicatielibrary die heeft geleid tot de laagste latenties ooit geregistreerd in gedistribueerde inferentie tussen GPU’s.

Het resultaat is een systeem dat in verschillende omgevingen kan worden ingezet — lokaal, in de cloud of hybride — verpakt in API’s of Docker-containers, en voorbereid op kritieke gebruikstoepassingen zoals realtime spraaktranscriptie, autonome agents en contextuele assistenten met geavanceerd redeneren.

Europa komt in opstand in het nieuwe AI-landschap

De aankondiging van Kog AI is niet alleen een technische vooruitgang; het is ook een声明 van intenties. De Franse startup vertegenwoordigt een nieuwe golf van technologische innovatie in Europa die streeft naar een verminderde afhankelijkheid van Amerikaanse of Aziatische infrastructuren en de ontwikkeling van een soevereine, wendbare en hooggespecialiseerde kunstmatige intelligentie.

“Moderne AI-toepassingen kunnen zich geen hoge latenties of inefficiënte infrastructuren veroorloven,” zegt Kog. “Ons doel is om realtime inferentie tot de standaard te maken, niet tot een uitzondering.”

In een context waarin de kosten van inferentie zijn gestegen en de latentieproblemen de gebruikerservaring bedreigen, komt Kog met een schaalbaar, efficiënt en soeverein alternatief. Hun samenwerking met AMD en het gebruik van de MI300X, een van de krachtigste AI-versnellers op de markt, bewijst dat Europa niet alleen kan concurreren, maar ook kan leiden in het ontwerp van toonaangevende oplossingen voor de volgende generatie kunstmatige intelligentie.

Bron: AMD

Scroll naar boven