🚨Tým DeepSeek prolomil levný dlouhý kontext pro LLM: ~3,5x levnější předvyplnění a ~10x levnější dekódování při 128k kontextu při inferenci se stejnou kvalitou. Nemůžu si pomoct, ale miluji jedinou hraniční laboratoř umělé inteligence, která publikuje otevřený model a skvělý otevřený výzkum!
Technická zpráva:
62,46K