Abbiamo addestrato questo modello per ribaltare l'economia unitaria della didascalia dei frame, dell'etichettatura e della ricerca video. L'elaborazione di 1 miliardo di frame costava milioni, ma ora è fattibile per team che non sono le aziende più grandi. Vediamo questo sbloccare biblioteche video di oltre un petabyte, che in precedenza erano impossibili da cercare, categorizzare o estrarre clip. Abbiamo già implementato questo modello su scala internet in collaborazione con @grass. Se hai un caso d'uso per questo modello, inviaci un dm. Ci muoviamo estremamente velocemente.
Inference
Inference15 ago, 02:02
Introducing ClipTagger-12b. A state-of-the-art video annotation model trained in collaboration with @grass. ClipTagger-12b delivers video annotation capabilities on par with Claude 4 and GPT-4.1 at 17x lower cost. Learn more:
7,14K