vLLM + open-webui in esecuzione gpt-oss-120b su una tinybox green v2 Basta `vllm serve openai/gpt-oss-120b --tensor-parallel-size 4 --async-scheduling` e hai una API OpenAI locale di cui ti puoi fidare.
25,97K