Me encantaría ver que esto suceda también. Pero en la práctica, no estoy seguro de cómo implementar algo así. ¿El gobierno federal simplemente subsidia el costo para que los laboratorios abiertos adquieran este hardware? Esto sería un subsidio continuo (necesitan nuevo hardware con frecuencia ahora), y ¿cómo seleccionar qué laboratorios reciben el subsidio? Un cálculo aproximado para 10,000 H200s probablemente supere los $300 millones si usamos la suposición simple de ~$30,000 por H200. Y esto es solo la adquisición de hardware GPU. Necesitas un lugar para ejecutar estos junto con los gastos operativos para mantenerlos. Si obligas a los propietarios de computación existentes a destinar una parte de su suministro para proporcionar a estos laboratorios, también necesitarán alguna forma de subsidio. La mayoría de estas empresas dicen que están limitadas en su suministro en este momento también. En cualquier caso, parece que nos dirigimos hacia la creación de un nuevo paradigma de computación. El paradigma hasta ahora ha girado en torno a escalar la computación co-localizada. Sin duda, todavía habrá construcciones de centros de datos del tamaño de Manhattan en los EE. UU. y en otros lugares. Pero también habrá islas de computación más pequeñas de diferentes tamaños, que estarán conectadas con fibra, etc. Cuando estas sean las nuevas/estándar limitaciones y restricciones fundamentales, empujará a la comunidad de investigación en IA más amplia hacia nuevas direcciones inexploradas. El impacto a largo plazo de esto podría significar una gran y creciente divergencia entre la investigación, arquitecturas de modelos, economías, etc., producidas entre los laboratorios de IA más grandes y cerrados (aquellos que trabajan con efectivamente enormes centros de datos únicos) y aquellos (probablemente académicos y empresas de IA descentralizadas) que utilizan clústeres de computación más distribuidos (es decir, las pequeñas pero numerosas islas de computación). No está claro cómo resultará para cada lado (y, en última instancia, para los consumidores de los modelos producidos por cada uno), pero parece que esa es la dirección hacia la que nos dirigimos. Incluso podrías argumentar que ya hemos visto vislumbres de esto. Los laboratorios chinos tienen restricciones de computación fundamentalmente diferentes a las de OpenAI, por ejemplo. Estos laboratorios chinos tuvieron que innovar en técnicas de entrenamiento/inferencia debido a esto. No es una analogía perfecta, pero tal vez pueda ayudar a esclarecer cómo se ven los "pequeños pasos" hacia un nuevo paradigma, y con el tiempo, estos pequeños pasos se acumulan y producen algo que se ve/funciona de manera bastante diferente a lo que produce el otro camino.
Nathan Lambert
Nathan Lambert4 ago, 22:08
To solve this, the key resource threshold is to have multiple open labs with 10000+ GPUs each. Multiple labs makes it so we are not beholden to big technology co's good graces to want to release models. These institutions increases innovation + derisks this crucial technology.
706