Sora, het videomodel van OpenAI, lekt uit en veroorzaakt controverse.

Een protestgroep die zichzelf «Sora PR Puppets» noemt heeft op Hugging Face de toegang tot het nog niet officieel uitgebrachte Sora videomodel van OpenAI gelekt. Deze lek heeft significante vooruitgang in de capaciteiten van het model onthuld, maar heeft ook kritiek uitgelokt op de praktijken van het bedrijf met betrekking tot hun programma van vroege toegang.

Een onverwachte en tijdelijke lek

Het gelekte model was enkele uren beschikbaar op het platform Hugging Face voordat het werd verwijderd. Gedurende die tijd konden gebruikers videoclips van maximaal 10 seconden in 1080p resolutie genereren, opvallend vanwege de aanzienlijk kortere rendertijden dan de 10 minuten die voorheen waren gerapporteerd.

Hoewel de video’s watermerken van OpenAI bevatten, bood de tijdelijke implementatie gebruikers een eerste blik op het potentieel van Sora. Volgens geruchten is OpenAI bezig met het trainen van een nieuwe versie van het model dat geavanceerde functies zou bevatten zoals in-painting (beelden invullen) en het genereren van beelden uit video’s.

Middelpunt van controverse: onbetaalde artiesten

De lek onthulde niet alleen het model, maar ook de onderliggende spanningen in de ontwikkeling van het project. De groep «Sora PR Puppets» beschuldigt OpenAI ervan honderden kunstenaars te hebben gerekruteerd voor tests zonder financiële compensatie, terwijl ze een strikte controle houden over de gegenereerde inhoud en de distributie ervan.

Deze kritiek heeft het debat over de afhankelijkheid van grote techbedrijven van onbetaalde creatieve samenwerking en de ethische implicaties van dergelijke praktijken nieuw leven ingeblazen.

Concurrentie op de videokunstmatige intelligentie markt

Terwijl concurrerende bedrijven de ontwikkeling en lancering van videotoepassingen gebaseerd op kunstmatige intelligentie versnellen, heeft OpenAI er voor gekozen om Sora in een gesloten testfase te houden. Dit heeft de nieuwsgierigheid aangewakkerd over hoe hun technologie zich verhoudt tot bestaande alternatieven in de markt.

Hoewel de capaciteiten van Sora veelbelovend lijken, zijn deskundigen het erover eens dat het geen baanbrekende vooruitgang betekent ten opzichte van de reeds beschikbare oplossingen. Echter, de lek zou OpenAI kunnen dwingen hun lanceringsstrategie te versnellen en te reageren op de kritiek op hun relatie met creatieve medewerkers.

De impact op OpenAI

De lek van Sora benadrukt de inherente spanningen tussen technologische innovatie en artistieke samenwerking. Voor OpenAI vertegenwoordigt dit incident niet alleen een technische uitdaging, maar ook een reputatie-uitdaging, naarmate de ethiek achter hun ontwikkelings- en testmodel in vraag wordt gesteld.

Het blijft af te wachten hoe deze controverse de perceptie van OpenAI zal beïnvloeden en of zij hun aanpak zullen aanpassen om hun technologische vooruitgang in evenwicht te brengen met meer inclusieve en ethische praktijken in de ontwikkeling van kunstmatige intelligentie.

Referenties: Kunstmatige Intelligentie Nieuws, Twitter @rowancheung en Hugging Face.

Scroll naar boven