vLLM + open-webui kör GPT-OSS-120b på en tinybox grön v2 Bara 'vllm serve openai/gpt-oss-120b --tensor-parallel-size 4 --async-scheduling' och du har ett lokalt OpenAI API som du kan lita på.
29,64K