在生物學中,縮放法則有效…… ……直到它們不再有效。 對於健身預測,蛋白質語言模型的性能隨著模型大小的增加而提高,直到達到平臺,然後開始下降。 隨著訓練損失(NLL)的降低,模型開始預測更高的序列可能性,並與潛在的健身相關性降低。 這是為什麼生物學中的人工智慧需要仔細考慮潛在分佈、訓練目標和其他數十個細節的第10,001個例子。 這兩個學科的交集非常豐富,但需要在兩者之間進行仔細的工作。
哥倫比亞大學的沈實驗室展現了出色的偵探工作:
12.98K