Актуальные темы
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Все предполагают, что память ChatGPT — это какая-то сложная система RAG с векторными базами данных и семантическим поиском.
Мантхан провел обратную инженерии. Фактическая архитектура почти разочаровывающе проста: метаданные сессии, которые истекают, явные факты, хранящиеся в виде текста, легкие резюме чата и скользящее окно.
Никаких встраиваний. Никакого поиска по сходству. Никакого извлечения в масштабе.
Интересная часть? Это объясняет, почему это кажется таким быстрым. Традиционные системы RAG встраивают каждое сообщение, выполняют поиск по сходству для каждого запроса, извлекают полные контексты. ChatGPT просто внедряет заранее рассчитанные резюме напрямую. Они жертвуют детальным историческим контекстом ради задержки.
Это тот же урок, который продолжает появляться в инфраструктуре ИИ: когда вы контролируете весь стек, кураторская простота часто превосходит сложную сложность. OpenAI не нужно строить общую систему извлечения. Им просто нужна такая, которая работает для ChatGPT.
Четырехуровневая архитектура (метаданные сессии → хранящиеся факты → резюме разговоров → скользящее окно) по сути является ручной иерархией памяти. Каждый уровень имеет разную устойчивость и разные цели. Метаданные сессии адаптируются в реальном времени. Факты сохраняются навсегда. Резюме обеспечивают непрерывность. Окно поддерживает согласованность.
Система памяти Anthropic использует аналогичный шаблон. Модели, которые кажутся наиболее личными, не те, у которых наиболее сложное извлечение. Это те, которые хранят правильные вещи и внедряют их в нужное время.
Топ
Рейтинг
Избранное
