現在透過循環融合且沒有重新計算。如果你能構建一個"編譯器",讓閃存注意力自然而然地出現,想像一下它還可以融合什麼其他內容。
Eitan Turok @ICML 2025
Eitan Turok @ICML 20258月4日 04:34
我對 tinygrad 的閃存注意力內核進行了註釋,以確保我理解它。 自動生成這個通用的東西真是太酷了!
29.73K