vLLM + open-webui draait gpt-oss-120b op een tinybox green v2 Gewoon `vllm serve openai/gpt-oss-120b --tensor-parallel-size 4 --async-scheduling` en je hebt een lokale OpenAI API waarop je kunt vertrouwen.
29,63K