Интересные / перспективные модели ИИ

Sleepwalker

Let the galaxy burn
Команда форума
#1
Всем ку

Сегодня очень поразился выходу локальной модельки / агенту с функцией памяти контекста.
Этого очень не хватало, это бомба, если работает.
Я пока не гонял, у меня нет нормального мака / линя с большим объемом памяти.

Топик буду обновлять.
 

Sleepwalker

Let the galaxy burn
Команда форума
#2
mem-agent — агент с памятью в стиле Obsidian

Лёгкая LLM-модель, которая умеет хранить знания в человеко-читаемой памяти (Markdown-файлы) и использовать их для ответов. Агент не просто отвечает на запросы, а действительно «помнит» факты и обновляет их по ходу работы.

Это агент на 4B с локальной, совместимой памятью для Claude, ChatGPT и LM Studio.

Как работает память:
- Вся информация лежит в Markdown: memory/user.md и отдельные файлы для сущностей.
- Связи между файлами сделаны как в Obsidian: [[entity]].
- Агент может извлекать факты, обновлять их или задавать уточняющие вопросы, если запрос неполный.

Вместо огромных контекстов и упора в лимиты, Mem-Agent извлекает нужные фрагменты из локальных документов, сжимает их и передаёт агенту.

Как обучали:
- Базовая модель: Qwen3-4B-Thinking-2507.
- Использовали метод онлайн-RL (GSPO).
- Тестировали на md-memory-bench.

Результаты:
- mem-agent уверенно решает задачи памяти, близко к уровню больших моделей.
- Даже в сжатых версиях (4-bit и 8-bit) сохраняет почти то же качество.

Чем хорош:
- Память можно читать и редактировать вручную.
- Агент работает быстро и эффективно, даже в маленьком размере.
- Удобен как компонент в более крупных системах (например, через MCP).

Model: https://huggingface.co/driaforall/mem-agent
Blog: https://huggingface.co/blog/driaforall/mem-agent
Repo: https://github.com/firstbatchxyz/mem-agent-mcp

@ai_machinelearning_big_data