现在通过循环融合且没有重新计算。如果你能构建一个"编译器",让闪存注意力自然而然地出现,想象一下它还可以融合什么其他内容。
Eitan Turok @ICML 2025
Eitan Turok @ICML 20258月4日 04:34
我对tinygrad的闪存注意力内核进行了注释,以确保我理解它。 自动生成这个通用的功能真是太酷了!
29.74K