Протестировал один запрос на разных языковых моделях, получилось очень наглядно. Запрос:
Вот они слева направо: Gemini Flash 2.0, Gemma 3 27b, Mistral Small 3.1 24b, o3-mini и Claude 3.7. Думаю, победитель очевиден
Напиши полный код красивого веб-сайта, посвященного кулинарии. Сделай этот сайт в виде ленты, в которой можно листать и просматривать рецепты, ставить лайки и дизлайки. Сайт выглядит так: есть крупные картинки и небольшой текст снизу. Сайт должен быть максимально функциональным, удобным, красивым и современным. Добавь несколько постов для примера. В корневой папке есть три картинки.
Вот они слева направо: Gemini Flash 2.0, Gemma 3 27b, Mistral Small 3.1 24b, o3-mini и Claude 3.7. Думаю, победитель очевиден
❤8
Только что вышла новая версия Deepseek V3. Выглядит многообещающе, сейчас буду активно тестировать. На openrouter можно пользоваться бесплатно
👍5
curse-of-knowledge
Протестировал один запрос на разных языковых моделях, получилось очень наглядно. Запрос: Напиши полный код красивого веб-сайта, посвященного кулинарии. Сделай этот сайт в виде ленты, в которой можно листать и просматривать рецепты, ставить лайки и дизлайки.…
Протестировал V3 на том же запросе, что и раньше, и получилось это! Выглядит не хуже, а может даже и лучше, чем Claude Sonnet 3.7!
Неужели будет бесплатный SoTA? Надо тестировать в Cline или Roo Code, на более сложных задачах
Неужели будет бесплатный SoTA? Надо тестировать в Cline или Roo Code, на более сложных задачах
👍17
🔥 Вышла UI-TARS — мультимодальная AI-модель для автоматизации браузера и рабочего стола!
UI-TARS — это open-source модель от ByteDance, обученная взаимодействовать с интерфейсами через визуальное восприятие. Она обучена автоматизировать действия в браузере, Microsoft Office, VS Code и других приложениях.
Модель вышла в трех размерах: 2B, 7B и 72B, доступна на Hugging Face и на OpenRouter.
UI-TARS — это open-source модель от ByteDance, обученная взаимодействовать с интерфейсами через визуальное восприятие. Она обучена автоматизировать действия в браузере, Microsoft Office, VS Code и других приложениях.
Модель вышла в трех размерах: 2B, 7B и 72B, доступна на Hugging Face и на OpenRouter.
🔥5👍2
🚀 Мой новый проект: AI Fact Checker
Я начал разработку AI Fact Checker — умного помощника для проверки фактов с помощью искусственного интеллекта.
Пишите на @xkcd0000, если хотите присоединиться к разработке или поддержать проект!
Я начал разработку AI Fact Checker — умного помощника для проверки фактов с помощью искусственного интеллекта.
Пишите на @xkcd0000, если хотите присоединиться к разработке или поддержать проект!
🔥10
🚀 Gemini 2.5 Pro — новый стандарт для генерации кода
По моему опыту работы с Gemini 2.5 Pro от Google могу сказать, что это прорыв для разработчиков, особенно для тех, кто устал от ограничений других LLM. Вот почему она идеальна для написания кода:
1. Пишет огромные модули кода за один запрос
В отличие от конкурентов (Claude 3.7, GPT-4o, DeepSeek R1), Gemini 2.5 Pro генерирует целые модули или даже небольшие приложения без разбивки на части. Если задать достаточно детальный запрос, то количество строк кода в одном сообщении может доходить до 4 тысяч! Это максимально экономит время на сборку и отладку фрагментов.
2. Контекст в 1 млн токенов
Это в 5–10 раз больше, чем у других моделей (Claude — 200K, GPT-4o — 128K). Можно:
- Загрузить весь репозиторий и просить вносить правки
- Анализировать документацию + код одновременно
3. Мультимодальность для разработки
Можно загружать:
- Скриншоты интерфейса — чтобы получить код для вёрстки.
- Диаграммы архитектуры — для генерации соответствующего кода.
- Видео с демонстрацией работы — модель предложит реализацию
4. Бесплатный доступ
Google открыл бесплатный доступ к Gemini 2.5 Pro через AI Studio с лимитом 50 запросов/день — даже при очень активном использовании, я ещё ни разу не дошёл до лимита. Можно также использовать модель на gemini.google.com, однако там сильно ограничена длина чата, в отличие от AI Studio, где чат ограничивается только длиной контекста модели. Для использования в API модель также доступна бесплатно, как в AI Studio, так и на OpenRouter.
P.S. Кто уже пробовал? Делитесь впечатлениями в комментах!
По моему опыту работы с Gemini 2.5 Pro от Google могу сказать, что это прорыв для разработчиков, особенно для тех, кто устал от ограничений других LLM. Вот почему она идеальна для написания кода:
1. Пишет огромные модули кода за один запрос
В отличие от конкурентов (Claude 3.7, GPT-4o, DeepSeek R1), Gemini 2.5 Pro генерирует целые модули или даже небольшие приложения без разбивки на части. Если задать достаточно детальный запрос, то количество строк кода в одном сообщении может доходить до 4 тысяч! Это максимально экономит время на сборку и отладку фрагментов.
2. Контекст в 1 млн токенов
Это в 5–10 раз больше, чем у других моделей (Claude — 200K, GPT-4o — 128K). Можно:
- Загрузить весь репозиторий и просить вносить правки
- Анализировать документацию + код одновременно
3. Мультимодальность для разработки
Можно загружать:
- Скриншоты интерфейса — чтобы получить код для вёрстки.
- Диаграммы архитектуры — для генерации соответствующего кода.
- Видео с демонстрацией работы — модель предложит реализацию
4. Бесплатный доступ
Google открыл бесплатный доступ к Gemini 2.5 Pro через AI Studio с лимитом 50 запросов/день — даже при очень активном использовании, я ещё ни разу не дошёл до лимита. Можно также использовать модель на gemini.google.com, однако там сильно ограничена длина чата, в отличие от AI Studio, где чат ограничивается только длиной контекста модели. Для использования в API модель также доступна бесплатно, как в AI Studio, так и на OpenRouter.
P.S. Кто уже пробовал? Делитесь впечатлениями в комментах!
openrouter.ai
Gemini 2.5 Pro Experimental
This model has been deprecated by Google in favor of the (paid Preview model)[google/gemini-2.5-pro-preview]
Gemini 2. Run Gemini 2.5 Pro Experimental with API
Gemini 2. Run Gemini 2.5 Pro Experimental with API
👍11
🔥 Firebase Studio — новая среда для разработки с AI от Google
Только что Google анонсировала Firebase Studio — облачную IDE, которая объединяет лучшие фичи Firebase, Gemini и Genkit. Вот что в ней интересного:
Что умеет?
- Генерация приложений из описания — просто говоришь что нужно (например, "интернет-магазин с корзиной"), и получаешь рабочий прототип на Next.js
- Полная интеграция с Gemini — можно править код через чат ("добавь авторизацию через Google")
- Встроенные Firebase-инструменты — деплой в один клик, превью на устройствах, Firestore и Cloud Functions из коробки
Почему это круто?
✅ Не нужно настраивать среду — всё работает прямо в браузере
✅ Можно импортировать существующие проекты с GitHub
✅ Есть шаблоны для React, Flutter, Node.js и других популярных стеков
Как попробовать?
Пока доступен ранний доступ:
🔗 https://firebase.google.com/docs/studio
P.S. Кто уже успел потестировать? Делитесь впечатлениями в комментах! Особенно интересно, как работает генерация кода по сравнению с тем же Roo Code
Только что Google анонсировала Firebase Studio — облачную IDE, которая объединяет лучшие фичи Firebase, Gemini и Genkit. Вот что в ней интересного:
Что умеет?
- Генерация приложений из описания — просто говоришь что нужно (например, "интернет-магазин с корзиной"), и получаешь рабочий прототип на Next.js
- Полная интеграция с Gemini — можно править код через чат ("добавь авторизацию через Google")
- Встроенные Firebase-инструменты — деплой в один клик, превью на устройствах, Firestore и Cloud Functions из коробки
Почему это круто?
✅ Не нужно настраивать среду — всё работает прямо в браузере
✅ Можно импортировать существующие проекты с GitHub
✅ Есть шаблоны для React, Flutter, Node.js и других популярных стеков
Как попробовать?
Пока доступен ранний доступ:
🔗 https://firebase.google.com/docs/studio
P.S. Кто уже успел потестировать? Делитесь впечатлениями в комментах! Особенно интересно, как работает генерация кода по сравнению с тем же Roo Code
Firebase
Firebase Studio
Rapidly prototype, build, and ship full-stack AI-infused apps quickly and efficiently, right from your browser.
🔥4👍3
🚀 Kilo Code — быстрый и простой AI-ассистент для VS Code
Недавно протестировал Kilo Code — форк Roo Code, и он меня приятно удивил. Да, у него меньше функций, чем у Roo Code (например, нет интеграции с MCP), но зато он работает значительно быстрее и не перегружен лишним. Вот ключевые отличия:
⚡ Почему Kilo Code?
- Оптимизирован для Claude 3.7 Sonnet (бесплатные $20 токенов при регистрации) .
- Минималистичный интерфейс — нет лишних настроек, которые тормозят работу.
Кому подойдёт Kilo Code?
- Тем, кто ценит скорость — для быстрого прототипирования или повседневного кодинга.
- Новичкам — меньше сложных настроек, проще начать.
- Фанатам Claude — встроенная бесплатная квота токенов.
Недавно протестировал Kilo Code — форк Roo Code, и он меня приятно удивил. Да, у него меньше функций, чем у Roo Code (например, нет интеграции с MCP), но зато он работает значительно быстрее и не перегружен лишним. Вот ключевые отличия:
⚡ Почему Kilo Code?
- Оптимизирован для Claude 3.7 Sonnet (бесплатные $20 токенов при регистрации) .
- Минималистичный интерфейс — нет лишних настроек, которые тормозят работу.
Кому подойдёт Kilo Code?
- Тем, кто ценит скорость — для быстрого прототипирования или повседневного кодинга.
- Новичкам — меньше сложных настроек, проще начать.
- Фанатам Claude — встроенная бесплатная квота токенов.
GitHub
GitHub - Kilo-Org/kilocode: Open Source AI coding assistant for planning, building, and fixing code. We're a superset of Roo, Cline…
Open Source AI coding assistant for planning, building, and fixing code. We're a superset of Roo, Cline, and our own features. Follow us: kilocode.ai/social - Kilo-Org/kilocode
👍4🔥2
🚀 Boomerang Tasks в Roo Code: как автоматизировать разработку с помощью «умного» делегирования
Недавно протестировал Boomerang Tasks в Roo Code. Вот как это работает и почему стоит попробовать:
🪃 Что такое Boomerang Tasks?
Это система автоматического делегирования задач внутри Roo Code. Вместо того чтобы вручную разбивать проект на части, вы даёте один сложный запрос (например, *«Создай веб-приложение для учета задач»*), а Boomerang:
1. Разбивает его на подзадачи (архитектура, фронтенд, бэкенд, тесты).
2. Назначает каждую подзадачу специализированному ассистенту (например,
3. Собирает результаты в готовый проект .
🔥 3 главных преимущества
1. Фокус на качестве
Каждый ассистент работает в изолированном контексте, избегая ошибок из-за «перекрестного загрязнения» задач .
2. Скорость
Например, для приложения-трекера Boomerang может параллельно:
- Генерировать API (
- Рисовать архитектуру (
- Писать тесты (
🛠 Как включить?
1. Установите Roo Code в VS Code.
2. Активируйте режим Orchestrator в панели Roo Code.
Недавно протестировал Boomerang Tasks в Roo Code. Вот как это работает и почему стоит попробовать:
🪃 Что такое Boomerang Tasks?
Это система автоматического делегирования задач внутри Roo Code. Вместо того чтобы вручную разбивать проект на части, вы даёте один сложный запрос (например, *«Создай веб-приложение для учета задач»*), а Boomerang:
1. Разбивает его на подзадачи (архитектура, фронтенд, бэкенд, тесты).
2. Назначает каждую подзадачу специализированному ассистенту (например,
architect
, code
, tdd
). 3. Собирает результаты в готовый проект .
🔥 3 главных преимущества
1. Фокус на качестве
Каждый ассистент работает в изолированном контексте, избегая ошибок из-за «перекрестного загрязнения» задач .
2. Скорость
Например, для приложения-трекера Boomerang может параллельно:
- Генерировать API (
code
-режим) - Рисовать архитектуру (
architect
) - Писать тесты (
tdd
) . 🛠 Как включить?
1. Установите Roo Code в VS Code.
2. Активируйте режим Orchestrator в панели Roo Code.
🔥8
MemOS: Как операционная система для памяти сделает ИИ умнее и адаптивнее
Недавно наткнулся на крутую статью про MemOS — операционную систему для памяти больших языковых моделей (LLM). Если коротко, это прорыв в управлении знаниями ИИ, который решает главные боли современных LLM: забывчивость, негибкость и высокие затраты на обновление.
🔥 Главные инсайты
1. Память как системный ресурс
— Сейчас память в LLM — это либо статические параметры модели, либо кратковременный контекст (как в RAG). MemOS превращает её в управляемый ресурс, как оперативку в компьютере.
— MemCube — базовая единица памяти, которая хранит не только данные, но и метаданные: версии, права доступа, частоту использования. Это позволяет ИИ «решать», что сохранить, а что забыть.
2. Три типа памяти в одной системе
— Plaintext: внешние знания (например, статьи или диалоги).
— Activation: кэш промежуточных состояний модели (KV-cache), который ускоряет работу.
— Parameter: долгосрочные знания в весах модели.
— MemOS позволяет переключаться между ними динамически. Например, часто используемые plaintext-факты можно сжать в параметры модели для эффективности.
3. Ускорение работы через KV-cache
— Обычно LLM каждый раз заново обрабатывают длинный контекст, что медленно. MemOS кэширует ключевые данные в формате KV (key-value) и вставляет их прямо в механизм внимания модели.
— Результат: время ответа сокращается на 60–90% без потери качества (см. таблицы в статье).
4. Память для реальных задач
— Мультидиалог: ИИ запоминает бюджет и предпочтения пользователя даже через 20 сообщений.
— Персонализация: модель адаптируется под стиль и роли (например, «врач» vs. «менеджер»).
— Обновление знаний: новые данные (например, законы) добавляются без переобучения всей модели.
5. MemStore — «App Store» для памяти
— Эксперты могут публиковать готовые блоки знаний (например, медицинские рекомендации), а пользователи — устанавливать их в свои LLM, как приложения.
— Это открывает путь к децентрализованному рынку знаний, где память становится товаром.
💡 Что это значит на практике?
— Для разработчиков: больше не нужно городить костыли вроде RAG или тонкой настройки под каждую задачу. MemOS даёт единый API для управления памятью.
— Для бизнеса: LLM смогут запоминать клиентов, обновлять знания без downtime и масштабироваться дешевле.
— Для пользователей: чат-боты перестанут «тупить» и забывать, о чём вы говорили на прошлой неделе.
Ссылки:
— Код на GitHub
— Статья
Недавно наткнулся на крутую статью про MemOS — операционную систему для памяти больших языковых моделей (LLM). Если коротко, это прорыв в управлении знаниями ИИ, который решает главные боли современных LLM: забывчивость, негибкость и высокие затраты на обновление.
🔥 Главные инсайты
1. Память как системный ресурс
— Сейчас память в LLM — это либо статические параметры модели, либо кратковременный контекст (как в RAG). MemOS превращает её в управляемый ресурс, как оперативку в компьютере.
— MemCube — базовая единица памяти, которая хранит не только данные, но и метаданные: версии, права доступа, частоту использования. Это позволяет ИИ «решать», что сохранить, а что забыть.
2. Три типа памяти в одной системе
— Plaintext: внешние знания (например, статьи или диалоги).
— Activation: кэш промежуточных состояний модели (KV-cache), который ускоряет работу.
— Parameter: долгосрочные знания в весах модели.
— MemOS позволяет переключаться между ними динамически. Например, часто используемые plaintext-факты можно сжать в параметры модели для эффективности.
3. Ускорение работы через KV-cache
— Обычно LLM каждый раз заново обрабатывают длинный контекст, что медленно. MemOS кэширует ключевые данные в формате KV (key-value) и вставляет их прямо в механизм внимания модели.
— Результат: время ответа сокращается на 60–90% без потери качества (см. таблицы в статье).
4. Память для реальных задач
— Мультидиалог: ИИ запоминает бюджет и предпочтения пользователя даже через 20 сообщений.
— Персонализация: модель адаптируется под стиль и роли (например, «врач» vs. «менеджер»).
— Обновление знаний: новые данные (например, законы) добавляются без переобучения всей модели.
5. MemStore — «App Store» для памяти
— Эксперты могут публиковать готовые блоки знаний (например, медицинские рекомендации), а пользователи — устанавливать их в свои LLM, как приложения.
— Это открывает путь к децентрализованному рынку знаний, где память становится товаром.
💡 Что это значит на практике?
— Для разработчиков: больше не нужно городить костыли вроде RAG или тонкой настройки под каждую задачу. MemOS даёт единый API для управления памятью.
— Для бизнеса: LLM смогут запоминать клиентов, обновлять знания без downtime и масштабироваться дешевле.
— Для пользователей: чат-боты перестанут «тупить» и забывать, о чём вы говорили на прошлой неделе.
Ссылки:
— Код на GitHub
— Статья
GitHub
GitHub - MemTensor/MemOS: MemOS (Preview) | Intelligence Begins with Memory
MemOS (Preview) | Intelligence Begins with Memory. Contribute to MemTensor/MemOS development by creating an account on GitHub.
2🔥5
📘 Читая книгу "Мышление и речь" Льва Выготского, выделил для себя интересную фразу: "Мысль не выражается в слове, а совершается в слове". В целом можно получить интересный опыт, сопоставляя мнение автора, опубликованное 90 лет назад, с вопросами, которые возникают сейчас, с развитием ИИ. Буду продолжать чтение и публиковать здесь какие-то инсайты по теме.
🔥5💯1
This media is not supported in your browser
VIEW IN TELEGRAM
Claude набросал веб-приложение для борьбы с тревожностью. Получилось неплохо, минималистичный интерфейс намного удобнее, чем большинство приложений по этой теме в Google Play
👍5
Forwarded from PORTENTUM🌈 (Svetlana Stark)
Ребята, хочу сказать, что наблюдать за разработкой проекта PORTENTUM теперь можно на нескольких платформах:
VK: https://vk.com/portentum_game
Boosty: https://boosty.to/portentum
Telegram: https://t.me/PORTENTUMGAME
Также есть отдельный телеграмм канал, где ведётся дневник разработки видеоигр: https://t.me/gamedevswamp
Будем рады видеть вас!🌷
VK: https://vk.com/portentum_game
Boosty: https://boosty.to/portentum
Telegram: https://t.me/PORTENTUMGAME
Также есть отдельный телеграмм канал, где ведётся дневник разработки видеоигр: https://t.me/gamedevswamp
Будем рады видеть вас!🌷