A sintaxe ainda é um pouco desajeitada, mas em breve as camadas LLM, o acúmulo de gradiente e os loops de treinamento não serão escritos com loops for do Python. Parafraseando Halide: "separe a especificação dos detalhes de compilação e programação", exceto que especificaremos execuções de treinamento inteiras de US $ 100 milhões.
18,56K