realmente gostei deste artigo da openai sobre como as pessoas usam o chatgpt. a demanda por inferência vai continuar a explodir nos próximos 1-2 anos. está claro que uma parte significativa disso vai exigir acesso em tempo real à web. hoje, as opções que as empresas de IA têm são: raspar o google, raspar o bing (que matou sua API), ou reclassificar resultados de busca em cache/raspados com redes neurais (algumas startups estão fazendo isso). nenhuma dessas realmente escala. hoje, o Grass é usado por empresas para entregar quantidades incríveis de dados de treinamento (2-3 petabytes por dia), a maior parte dos quais é multimodal. à medida que a demanda de computação para inferência inverte o treinamento, esperamos que a mesma infraestrutura que está sendo usada para coletar dados de treinamento seja usada para Recuperação de Contexto ao Vivo.