Пусть наступающее приходит само.
Без спешки — и вовремя.
Пусть путь будет лёгким,
а всё нужное — уже рядом.
🎄
Без спешки — и вовремя.
Пусть путь будет лёгким,
а всё нужное — уже рядом.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤🔥6 4👏1
Forwarded from Адель и МЛь
Claude выращивает томат. 🍅
Интересный эксперимент, где Claude вот уже 37 дней выращивает томат в контролируемой среде.
У него есть датчики температуры, влажности воздуха и почвы, давления, уровня СО2, температуры листьев.
И он может управлять светом, подогревом почвы (через подогрев коврика), вентиляцией, подачей воды.
Посмотреть, что там сейчас и почитать лог можно тут: https://autoncorp.com/biodome/
Автономные теплицы все ближе!
Автор
Интересный эксперимент, где Claude вот уже 37 дней выращивает томат в контролируемой среде.
У него есть датчики температуры, влажности воздуха и почвы, давления, уровня СО2, температуры листьев.
И он может управлять светом, подогревом почвы (через подогрев коврика), вентиляцией, подачей воды.
Посмотреть, что там сейчас и почитать лог можно тут: https://autoncorp.com/biodome/
Автономные теплицы все ближе!
Автор
Forwarded from Сиолошная
Первая новостная заметка от TheInformation в новом году: OpenAI наращивает усилия по разработке аудио-моделей в преддверии выпуска новых девайсов. Тезисно:
— Когда пользователи общаются с ChatGPT голосом, чат-бот использует аудиомодель, отличную от текстовой. Голосовая 4o не получила никаких обновлений после выхода GPT-5, она не умеет думать итд.
— Более того фича общения голосом хоть и относительно популярная, всё равно большая часть пользователей использует текст. OpenAI должны сначала приучить пользователей общаться вслух с такими продуктами, как ChatGPT, чтобы перейти к выпуску девайсов.
— По словам одного из источников, за последние два месяца OpenAI объединила несколько инженерных, продуктовых и исследовательских команд для работы над улучшением аудиомоделей для будущих устройств компании. Компания планирует выпустить новую аудиомодель в первом квартале 2026 года.
— Новая архитектура аудиомодели позволяет генерировать ответы, которые звучат более естественно и эмоционально, а также предоставлять более точную и полную информацию, сообщил источник. Новая модель сможет говорить одновременно с пользователем (чего не умеют текущие модели) и будет лучше реагировать, когда её перебивают.
— по словам нескольких источников, OpenAI разрабатывает не одно устройство, а целое семейство девайсов, которые планируется выпускать постепенно. Среди идей, которые обсуждала компания — умные очки и смарт-динамик без дисплея. Ожидается, что взаимодействие с этим устройством будет осуществляться преимущественно с помощью голоса.
— Когда пользователи общаются с ChatGPT голосом, чат-бот использует аудиомодель, отличную от текстовой. Голосовая 4o не получила никаких обновлений после выхода GPT-5, она не умеет думать итд.
— Более того фича общения голосом хоть и относительно популярная, всё равно большая часть пользователей использует текст. OpenAI должны сначала приучить пользователей общаться вслух с такими продуктами, как ChatGPT, чтобы перейти к выпуску девайсов.
— По словам одного из источников, за последние два месяца OpenAI объединила несколько инженерных, продуктовых и исследовательских команд для работы над улучшением аудиомоделей для будущих устройств компании. Компания планирует выпустить новую аудиомодель в первом квартале 2026 года.
— Новая архитектура аудиомодели позволяет генерировать ответы, которые звучат более естественно и эмоционально, а также предоставлять более точную и полную информацию, сообщил источник. Новая модель сможет говорить одновременно с пользователем (чего не умеют текущие модели) и будет лучше реагировать, когда её перебивают.
— по словам нескольких источников, OpenAI разрабатывает не одно устройство, а целое семейство девайсов, которые планируется выпускать постепенно. Среди идей, которые обсуждала компания — умные очки и смарт-динамик без дисплея. Ожидается, что взаимодействие с этим устройством будет осуществляться преимущественно с помощью голоса.
❤🔥4 2
Forwarded from Сиолошная
ВОСЕМЬ советов от создателя Claude Code, чтобы перестать вайбкодить в Новом году и стать 10x инженером:
1) Запускать 5 терминалов в параллель + 5-10 вкладок на веб-сайте
2) Использовать только Opus 4.5 с размышлениями, который хоть и медленнее, но лучше остальных
3) Файл CLAUDE.md общий для всей команды проекта и обновляется несколько раз в неделю: туда заносятся типовые ошибки и способы их решения (например: «всегда используй Х» или «вместо Y всегда пиши Z»)
4) Изменения в CLAUDE.md пусть вносит сам Claude — можно даже тегнуть его в PR или в слаке и заставить описать проблему
5) Начинать почти все сессии в режиме планирования, детально обсуждать требования и тонкости имплементации. После этого переключиться в режим принятия правок, и обычно Claude с первого раза делает что нужно и как нужно
6) Задолбались по 10 раз в день делать одно и то же? Автоматизируйте рутину через слеш-команды для простых скриптовых задач и суб-агентов для задач чуть сложнее.
7) Если вы не крейзи чтобы использовать
8) Самое главное: дайте инструменту возможность проверять свою работу. С такой обратной связью качество может вырасти в 2-3 раза. А если вы занимаетесь веб-разработкой — используйте Claude Chrome. Для всего другого нужно придумать и написать тесты — тогда дело начнёт спориться, а вы не будете тупить над ошибками (над ними будет работать Claude)
Забирай себе на стену и ищи успеха в 2026-м году!
1) Запускать 5 терминалов в параллель + 5-10 вкладок на веб-сайте
2) Использовать только Opus 4.5 с размышлениями, который хоть и медленнее, но лучше остальных
3) Файл CLAUDE.md общий для всей команды проекта и обновляется несколько раз в неделю: туда заносятся типовые ошибки и способы их решения (например: «всегда используй Х» или «вместо Y всегда пиши Z»)
4) Изменения в CLAUDE.md пусть вносит сам Claude — можно даже тегнуть его в PR или в слаке и заставить описать проблему
5) Начинать почти все сессии в режиме планирования, детально обсуждать требования и тонкости имплементации. После этого переключиться в режим принятия правок, и обычно Claude с первого раза делает что нужно и как нужно
6) Задолбались по 10 раз в день делать одно и то же? Автоматизируйте рутину через слеш-команды для простых скриптовых задач и суб-агентов для задач чуть сложнее.
7) Если вы не крейзи чтобы использовать
--dangerously-skip-permissions, но не хотите каждые 5 минут дергаться и читать команды в баше — настройте список одобреных команд8) Самое главное: дайте инструменту возможность проверять свою работу. С такой обратной связью качество может вырасти в 2-3 раза. А если вы занимаетесь веб-разработкой — используйте Claude Chrome. Для всего другого нужно придумать и написать тесты — тогда дело начнёт спориться, а вы не будете тупить над ошибками (над ними будет работать Claude)
Забирай себе на стену и ищи успеха в 2026-м году!
Forwarded from Константин Доронин
Media is too big
VIEW IN TELEGRAM
Hindsight – интересный проект, показывающий, как можно организовать память для AI-агента.
Проект Open Source. Ставится из официального репозитория в docker.
Всё, что требуется от пользователя – заполнить API Key для OpenAI (или другого провайдера). Как альтернатива – можно поднять Hindsight на локальных моделях.
Её (память) разделили на 4 типа:
1. Факты о мире, которые формируются на основании загруженных пользователем документов.
2. Опыт агента. Факты, которые агент знает о себе. То, что делал он сам. Давал рекомендации, совершал действия и т.д.
3. Мнения. Это суждения и взгляды агента на окружающий мир. Здесь у каждого мнения может быть показатель уверенности от 0 до 1. Чем ниже значение, тем выше вероятность, что AI-агент подвергнет конкретное суждение пересмотру.
4. Наблюдения. Сводки о сущностях, которые система формирует в фоновом режиме.
При этом опыт, мнения и наблюдения формируются в процессе взаимодействия с пользователем. То есть мы имеем обучающуюся и развивающуюся систему, которая изменяется при взаимодействии с пользователем.
В любой момент можно посмотреть, в результате чего сформировался опыт или мнение агента.
Модель достаточно быстро формирует записи в графе. 1000+ "воспоминаний" загрузились буквально за пару минут. Что достаточно быстро для темпорального графа.
С другой стороны, извлечение информации AI-агентом из системы мне показалось медленным. Но это то, что мы имеем из коробки. Я планирую к API Hindsight подключить собственную систему AI-агентов и посмотреть, насколько эффективным будет работа с такой системой памяти.
Если хотите глубже изучить теоретическую базу, которая лежит в основе Hindsight, статья на arxiv в помощь.
Проект Open Source. Ставится из официального репозитория в docker.
Всё, что требуется от пользователя – заполнить API Key для OpenAI (или другого провайдера). Как альтернатива – можно поднять Hindsight на локальных моделях.
Её (память) разделили на 4 типа:
1. Факты о мире, которые формируются на основании загруженных пользователем документов.
2. Опыт агента. Факты, которые агент знает о себе. То, что делал он сам. Давал рекомендации, совершал действия и т.д.
3. Мнения. Это суждения и взгляды агента на окружающий мир. Здесь у каждого мнения может быть показатель уверенности от 0 до 1. Чем ниже значение, тем выше вероятность, что AI-агент подвергнет конкретное суждение пересмотру.
4. Наблюдения. Сводки о сущностях, которые система формирует в фоновом режиме.
При этом опыт, мнения и наблюдения формируются в процессе взаимодействия с пользователем. То есть мы имеем обучающуюся и развивающуюся систему, которая изменяется при взаимодействии с пользователем.
В любой момент можно посмотреть, в результате чего сформировался опыт или мнение агента.
Модель достаточно быстро формирует записи в графе. 1000+ "воспоминаний" загрузились буквально за пару минут. Что достаточно быстро для темпорального графа.
С другой стороны, извлечение информации AI-агентом из системы мне показалось медленным. Но это то, что мы имеем из коробки. Я планирую к API Hindsight подключить собственную систему AI-агентов и посмотреть, насколько эффективным будет работа с такой системой памяти.
Если хотите глубже изучить теоретическую базу, которая лежит в основе Hindsight, статья на arxiv в помощь.
This media is not supported in your browser
VIEW IN TELEGRAM
Новый open-source проект на GitHub показывает, как SmolVLM (500M) + llama.cpp могут делать распознавание видео с веб-камеры в реальном времени — всё локально без облака.
Please open Telegram to view this post
VIEW IN TELEGRAM