Vi trente denne modellen til å snu enhetsøkonomien til bildeteksting, merking og videosøk. Behandling av 1B-rammer pleide å koste i størrelsesorden millioner, men er nå levedyktig for team som ikke er de største selskapene. Vi ser at dette låser opp videobiblioteker i petabyte+-skala, som tidligere var umulige å søke, kategorisere eller trekke ut klipp fra. Vi har allerede distribuert denne modellen i internettskala i samarbeid med @grass. Hvis du har en brukssak for denne modellfotograferingen, bruk en dm. Vi beveger oss ekstremt raskt.
Inference
Inference15. aug., 02:02
Introducing ClipTagger-12b. A state-of-the-art video annotation model trained in collaboration with @grass. ClipTagger-12b delivers video annotation capabilities on par with Claude 4 and GPT-4.1 at 17x lower cost. Learn more:
7,13K