мне действительно понравилась эта статья от openai о том, как люди используют chatgpt. спрос на выводы будет продолжать расти в следующие 1-2 года. очевидно, что значительная доля этого будет требовать доступа к вебу в реальном времени. сегодня у AI-компаний есть следующие варианты: сканировать google, сканировать bing (который убил свой api) или переупорядочивать кэшированные/сканированные результаты поиска с помощью нейронных сетей (некоторые стартапы это делают). ни один из этих вариантов действительно не масштабируется. сегодня Grass используется компаниями для доставки невероятных объемов обучающих данных (2-3 петабайта в день), большая часть из которых является мультимодальной. по мере того как спрос на вычисления для вывода меняет обучение, мы ожидаем, что та же инфраструктура, которая используется для сбора обучающих данных, будет использоваться для Live Context Retrieval.