А еще с CodeFest подъехал доклад - https://youtu.be/ot2GnweKrp8?si=iuDFrqC3c_5O-QPW
YouTube
Лев Немировский. Применение архитектурных стилей в проектировании сложных систем
Тезисы
При проектировании информационных систем часто возникает ситуация, когда архитектурные решения принимаются уже после завершения этапа анализа. Это приводит к выявлению проблем на поздних стадиях, что значительно увеличивает затраты на их устранение.…
При проектировании информационных систем часто возникает ситуация, когда архитектурные решения принимаются уже после завершения этапа анализа. Это приводит к выявлению проблем на поздних стадиях, что значительно увеличивает затраты на их устранение.…
❤2👍2🔥1
С LLM-ками я уже давно — всё началось ещё с первой волны хайпа вокруг ChatGPT. В прошлом году на волне впечатлений от того, как индустрия несётся вперёд, даже взял себе MacBook с 120 гигами оперативки — думал, буду гонять модели локально.
Ну и как обычно бывает: посмотрел на результаты локальных моделей с небольшим количеством параметров, погрустил. А чтобы запустить что-то серьёзное — нужны уже совсем другие мощности. Макбук стал просто хорошим макбуком.
А потом случилось. Моя стажёрка подключила MCP Яндекс.Трекера к LLM — чтобы проще искать задачи и обрабатывать данные. И тут я понял: так, стоп, я же могу быстро закрывать вопрос с Release Notes! Потому что по заголовкам задач ничего не понятно, приходится кликать в каждую и разбираться, что там вообще делали.
Первая итерация вышла неплохо. Но мне захотелось большего — добавить статистику: сколько часов потрачено, сколько SP, сколько дефектов, всякие базовые метрики для быстрых выводов. И вот тут MCP сдулся. Задачи с подзадачами он собирал через раз — для каких-то работает, для каких-то нет.
Долго не думал: сдул пыль с LLM Studio, скачал модельку на 120B параметров — и понеслось. До четырёх утра сидел на чистом кайфе от кодинга и результата. И знаете, в этот момент я окончательно понял, почему разработчики стали пихать LLM вообще везде.
Схема «нормализуешь данные кодом, а сверху полируешь LLM-кой» — реально работает. Однозначно буду продолжать эксперименты.
#ai #llm
Ну и как обычно бывает: посмотрел на результаты локальных моделей с небольшим количеством параметров, погрустил. А чтобы запустить что-то серьёзное — нужны уже совсем другие мощности. Макбук стал просто хорошим макбуком.
А потом случилось. Моя стажёрка подключила MCP Яндекс.Трекера к LLM — чтобы проще искать задачи и обрабатывать данные. И тут я понял: так, стоп, я же могу быстро закрывать вопрос с Release Notes! Потому что по заголовкам задач ничего не понятно, приходится кликать в каждую и разбираться, что там вообще делали.
Первая итерация вышла неплохо. Но мне захотелось большего — добавить статистику: сколько часов потрачено, сколько SP, сколько дефектов, всякие базовые метрики для быстрых выводов. И вот тут MCP сдулся. Задачи с подзадачами он собирал через раз — для каких-то работает, для каких-то нет.
Долго не думал: сдул пыль с LLM Studio, скачал модельку на 120B параметров — и понеслось. До четырёх утра сидел на чистом кайфе от кодинга и результата. И знаете, в этот момент я окончательно понял, почему разработчики стали пихать LLM вообще везде.
Схема «нормализуешь данные кодом, а сверху полируешь LLM-кой» — реально работает. Однозначно буду продолжать эксперименты.
#ai #llm
🔥12👍3⚡1
Тут в чате менторов, проскочила потрясающая история.
Оказывается в Европе можно запросить все перс. данные о себе, в том числе заметки интервьюера и прочие вещи. А вторым запросам потребовать уничтожение этих данных (сомневаюсь что работает в реальности).
А третьим шагом идут снова на собес.
Оказывается в Европе можно запросить все перс. данные о себе, в том числе заметки интервьюера и прочие вещи. А вторым запросам потребовать уничтожение этих данных (сомневаюсь что работает в реальности).
А третьим шагом идут снова на собес.
❤4😱1
Прикольное исследование 10 фронденд фреймворков - https://www.lorenstew.art/blog/10-kanban-boards/
Next генерирует самые медленные приложения
Компиляция (Svelte, Solid) или частичная гидратация (Qwik, Marko) работают быстрее
Меньше JS, быстрее сайт. Особенно на мобилках (Ваш КЭП).
Next генерирует самые медленные приложения
Компиляция (Svelte, Solid) или частичная гидратация (Qwik, Marko) работают быстрее
Меньше JS, быстрее сайт. Особенно на мобилках (Ваш КЭП).
Loren Stewart
I Built the Same App 10 Times: Evaluating Frameworks for Mobile Performance | Loren Stewart
I needed to choose a framework for a mobile-first app at work. I started comparing Next.js, SolidStart, and SvelteKit, then expanded to 10 frameworks. The measurements revealed dramatic differences in bundle sizes, performance, and the real cost of framework…
Последний день года — хороший повод подвести итоги. Начну, пожалуй, с итогов канала.
По результатам — всё видно на картинке. Из ключевого: прирост подписчиков в два раза (план в 3000 так и не выполнил, просто потому что активным продвижением не занимался). Однозначно горжусь тем, что 99% подписчиков читают посты канала. И я написал почти 300 постов. По большей части удавалось выдерживать график — 5 постов в неделю, но далеко не всегда. Самый популярный пост - конечно #пятничныйюмор
Теперь к профессиональному. Самое большое достижение — я постоянно вёл план и почти не срывался на работу без него. Было тяжеловато, но эффективно.
Следующий год будет годом метрик и ИИ. Хочу опираться на цифры при принятии решений. Уйти от истории, при которой всё на чуйке, точно будет тяжело, но результаты думаю получу интересные. Последние две недели уже собираю данные по текущему году, чтобы было на что опереться на старте.
Почему ИИ — тоже думаю понятно, актуально. Буду использовать узко, для решения своих задач, а не ради хайпа. Надеюсь и свои задачи решу и портфолио соберу.
В праздники буду писать не регулярно(если вообще буду), не теряйте. Всех обнял!
По результатам — всё видно на картинке. Из ключевого: прирост подписчиков в два раза (план в 3000 так и не выполнил, просто потому что активным продвижением не занимался). Однозначно горжусь тем, что 99% подписчиков читают посты канала. И я написал почти 300 постов. По большей части удавалось выдерживать график — 5 постов в неделю, но далеко не всегда. Самый популярный пост - конечно #пятничныйюмор
Теперь к профессиональному. Самое большое достижение — я постоянно вёл план и почти не срывался на работу без него. Было тяжеловато, но эффективно.
Следующий год будет годом метрик и ИИ. Хочу опираться на цифры при принятии решений. Уйти от истории, при которой всё на чуйке, точно будет тяжело, но результаты думаю получу интересные. Последние две недели уже собираю данные по текущему году, чтобы было на что опереться на старте.
Почему ИИ — тоже думаю понятно, актуально. Буду использовать узко, для решения своих задач, а не ради хайпа. Надеюсь и свои задачи решу и портфолио соберу.
В праздники буду писать не регулярно(если вообще буду), не теряйте. Всех обнял!
🔥16❤4👍2
Зацените какую классную штуку с Китая привез.
Она угловая на самом деле (из трех частей), но я только дома понял что так поставить не смогу - у меня у стола сзади карман для проводов открывается, поэтому поставил только две. Но и так получилось не плохо, теперь надеюсь на столе ничего валяться не будет.
Она угловая на самом деле (из трех частей), но я только дома понял что так поставить не смогу - у меня у стола сзади карман для проводов открывается, поэтому поставил только две. Но и так получилось не плохо, теперь надеюсь на столе ничего валяться не будет.
👍9🔥8
Снимок экрана 2026-01-18 в 20.14.24.png
56.1 KB
В ВШЭ активно оценивают преподавателей по каждой дисциплине.
В прошлом семестре этого учебного года у меня получился рекорд - оценка 4.82. Посмотрим, удастся улучшить результат в новом семестре или хотя бы сохранить.
Спасибо студентам, которые меня тоже читают, за высокую оценку!
P.S. Придеться в следующем году тоже преподавать, не смогу после такой оценки бросить.
В прошлом семестре этого учебного года у меня получился рекорд - оценка 4.82. Посмотрим, удастся улучшить результат в новом семестре или хотя бы сохранить.
Спасибо студентам, которые меня тоже читают, за высокую оценку!
P.S. Придеться в следующем году тоже преподавать, не смогу после такой оценки бросить.
🔥39❤10
Есть такой инструмент - https://github.com/github/gh-ost.
Он позволяет делать миграции, без даунтайма. Использует binlog stream, вместо триггеров.
Полезен когда например Alter table нужно сделать для миллионов строк. В обычной жизни лучше продолжать использовать Goose или migrator.
Он позволяет делать миграции, без даунтайма. Использует binlog stream, вместо триггеров.
Полезен когда например Alter table нужно сделать для миллионов строк. В обычной жизни лучше продолжать использовать Goose или migrator.
GitHub
GitHub - github/gh-ost: GitHub's Online Schema-migration Tool for MySQL
GitHub's Online Schema-migration Tool for MySQL. Contribute to github/gh-ost development by creating an account on GitHub.
👍3⚡2🔥2
Надо теперь акуратно быть с ссылками которые вы получили через chatgpt и кому-то скидываете. Помечает source, например: https://github.com/getsentry/sentry-javascript/issues/13127?utm_source=chatgpt.com
👍5
Я думаю, почему после возращения с каникул у меня мышка (MX Master 3) стала как-то плохо работать.
Оказалось все просто - Logitech забыла продлить сертификат разработчика. Из-за этого по всему миру не работали устройства коректно (установка приложения на мак обязательно для установки).
При этом само не чинится, нужно скачивать патч.
Оказалось все просто - Logitech забыла продлить сертификат разработчика. Из-за этого по всему миру не работали устройства коректно (установка приложения на мак обязательно для установки).
При этом само не чинится, нужно скачивать патч.
😁2🕊2
Claude предлагает попробовать Cowork. Это специальный режим в deskptop версии, который позволяет работать с нейросетью не только программистам.
Это какие-то базовые вещи, как в видео — организовывать файлы. Или дать доступ к записи встречи и попросить шасшировать.
В целом, выглядит достаточно полезно, чтобы облегчать ежедневную рутину.
Но есть одна большая проблема, о которой предупреждают и сами создатели - LLM может например удалить файлы или изменить, а вы не сможете откатиться к прошлой версии. Это нужно учитывать.
Это какие-то базовые вещи, как в видео — организовывать файлы. Или дать доступ к записи встречи и попросить шасшировать.
В целом, выглядит достаточно полезно, чтобы облегчать ежедневную рутину.
Но есть одна большая проблема, о которой предупреждают и сами создатели - LLM может например удалить файлы или изменить, а вы не сможете откатиться к прошлой версии. Это нужно учитывать.
Сейчас решаю кейс с балансировкой PostgreSQL в ситуации, когда на программном уровне быстро не завести. В итоге пришел к компромиссному варианту: минимум доработок в приложении, но при этом нормальный масштабируемый HA кластер: Odyssey → HAProxy → PostgreSQL → Patroni.
Odyssey закрывает вопрос с пуллингом соединений, HAProxy маршрутизирует трафик и разводит чтение и запись, Patroni управляет кластером PostgreSQL — лидер, реплики, failover. В итоге даём два адреса подключения: один строго под запись, второй под чтение.
Есть вариант отказаться от Patroni: в HAProxy есть runtime-команды, поэтому можно переключать мастер и реплики на основе health-check’ов. Рабоче, но вся логика failover’а и крайние случаи остаются на вас.
Ещё вариант — Pgpool-II. Им можно заменить Odyssey + HAProxy (и частично Patroni), но компонент тяжёлый в настройке и поддержке.
Odyssey закрывает вопрос с пуллингом соединений, HAProxy маршрутизирует трафик и разводит чтение и запись, Patroni управляет кластером PostgreSQL — лидер, реплики, failover. В итоге даём два адреса подключения: один строго под запись, второй под чтение.
Есть вариант отказаться от Patroni: в HAProxy есть runtime-команды, поэтому можно переключать мастер и реплики на основе health-check’ов. Рабоче, но вся логика failover’а и крайние случаи остаются на вас.
Ещё вариант — Pgpool-II. Им можно заменить Odyssey + HAProxy (и частично Patroni), но компонент тяжёлый в настройке и поддержке.
У меня почему-то перестала проходить оплата в ChatGPT на подписку. Вообще не одна карта не проходит.
app-screen.avif
92.4 KB
Вышла новая версия LM Studio 0.4.0 — это один из самых удобных способов запускать ИИ локально.
Главное обновление — программу разделили на интерфейс и отдельный движок. Теперь ИИ можно запускать не только с GUI, но и в терминале (в том числе на сервере). Интерфейс тоже обновили: он стал аккуратнее, можно открывать несколько чатов сразу и сохранять диалоги в файл.
Главное обновление — программу разделили на интерфейс и отдельный движок. Теперь ИИ можно запускать не только с GUI, но и в терминале (в том числе на сервере). Интерфейс тоже обновили: он стал аккуратнее, можно открывать несколько чатов сразу и сохранять диалоги в файл.
👍3🔥2
Alibaba представила ИИ-модель Qwen3-Max-Thinking, которая превзошла GPT-5.2 от OpenAI и Gemini 3 Pro от Google в ключевых тестах на рассуждение.
Интересно, на Macbook Pro Max запустится...
Интересно, на Macbook Pro Max запустится...
❤1👍1