所以让我理清楚这一点。 Inference 拥有: 1. 一个去中心化的网络,以电价提供 LLM 推理 2. 模型训练和服务的能力,使模型特别便宜,尤其是针对专业任务 3. 与数据中心达成协议,以大幅折扣租用未充分利用的容量 4. 一个设计用于扩展到数十亿请求的批量推理 API 而 @paulg 仍然不关注我们? 这真是太荒谬了。
3.04K