5 уровней эволюции AI-агентов. За последние несколько лет мы прошли путь от простых LLM → к полноценным агентным системам с рассуждениями, памятью и использованием инструментов. Вот пошаговый разбор. 1) LLM с небольшим контекстным окном - Вход: Текст → LLM → Выход: Текст - Ранние чат-боты на основе трансформеров. - Могли обрабатывать только небольшие объемы входных данных (короткие разговоры). - Когда вышел ChatGPT, у него было контекстное окно всего 4k токенов. 2) LLM с большим контекстным окном - Вход: Большой текст/документы → LLM → Выход: Текст - Модели, такие как Claude/ChatGPT, были обновлены для обработки тысяч токенов. - Позволили анализировать более крупные документы и более длинные разговоры. 3) LLM + использование инструментов (эра RAG) - Вход: Текст → LLM + Извлечение/Инструмент → Выход: Текст - Генерация с увеличением извлечения предоставила доступ к свежим + внешним данным. - Инструменты, такие как API поиска, калькуляторы и базы данных, увеличили выходные данные LLM. 4) Мультимодальный LLM + использование инструментов + память - Вход: Текст + Изображения + другие модальности → LLM + Инструмент + Память → Выход: Мультимодальный - Агенты могли обрабатывать несколько типов данных (текст, изображения, аудио). - Память обеспечила постоянство взаимодействий. 5) Агенты с рассуждениями и памятью - Вход: Мультимодальный → LLM → Решение → Выход: Мультимодальный - Оснащены: → Краткосрочной, Долгосрочной и Эпизодической памятью → Вызовом инструментов (поиск, API, действия) → Рассуждениями и принятием решений на основе ReAct - По сути, это эра AI-агентов, в которой мы живем сегодня. 👉 Ваш ход: Как вы думаете, как будет выглядеть следующий уровень?
14,91K