GitHub stars больше не показатель. Их просто покупают
Исследование показало: около 6 миллионов звёзд, поставленных недавно на GitHub могут быть накрученными. Это 18 617 репозиториев и 300 000+ аккаунтов.
Рынок уже сформировался:
• звезда стоит от $0.03 до $0.85
• продаётся через фриланс-платформы, вроде Fiverr и через Telegram
• накрутка делается пачками под запуск или «рост» проекта
Проблема в том, что инвесторы и алгоритмы до сих пор смотрят на звёзды как на сигнал качества и популярности.
Реальный показатель сейчас - разрыв между метриками:
• если звёзд много, а форков и watchers почти нет
• если никто не копирует код и не следит за обновлениями
• если нет активности в issues и PR
https://awesomeagents.ai/news/github-fake-stars-investigation/
Исследование показало: около 6 миллионов звёзд, поставленных недавно на GitHub могут быть накрученными. Это 18 617 репозиториев и 300 000+ аккаунтов.
Рынок уже сформировался:
• звезда стоит от $0.03 до $0.85
• продаётся через фриланс-платформы, вроде Fiverr и через Telegram
• накрутка делается пачками под запуск или «рост» проекта
Проблема в том, что инвесторы и алгоритмы до сих пор смотрят на звёзды как на сигнал качества и популярности.
Реальный показатель сейчас - разрыв между метриками:
• если звёзд много, а форков и watchers почти нет
• если никто не копирует код и не следит за обновлениями
• если нет активности в issues и PR
https://awesomeagents.ai/news/github-fake-stars-investigation/
❤4👍4🥰1
🔥 Что на самом деле хотят услышать на DevOps собесе
На собеседованиях по DevOps очень любят спрашивать: "Как у вас устроен мониторинг в проекте?"
И многие отвечают слишком коротко:
Prometheus, Grafana, CloudWatch.
Ответ вроде правильный.
Но для сильного собеседования этого мало.
Интервьюеру обычно важно понять не просто названия инструментов, а всю цепочку:
- как собираются логи
- куда они попадают дальше
- как долго хранятся
- как собираются метрики
- как считается SLA
- и почему архитектура сделана именно так
Именно это показывает разницу между человеком, который просто пользовался готовым стеком, и тем, кто реально поднимал мониторинг в production.
Например, в enterprise-проекте на EKS мониторинг может выглядеть так:
Есть два типа нагрузок:
- микросервисы на Fargate
- stateful-приложение в StatefulSet
И подход к ним разный.
Для Fargate удобно использовать OpenTelemetry add-on.
Он автоматически собирает логи со всех Fargate-подов и отправляет их в CloudWatch. Это простой и удобный вариант, когда не хочется отдельно городить сбор логов внутри каждого сервиса.
Для StatefulSet чаще нужен более гибкий контроль.
Тут можно использовать Fluent Bit как sidecar-контейнер:
он читает логи из общего тома, фильтрует их, форматирует и отправляет в CloudWatch.
Это особенно важно в банках и других регулируемых системах, где есть требования к структуре логов, аудиту и хранению данных.
Дальше пайплайн может быть таким:
CloudWatch → Lambda для форматирования → Kinesis Firehose → OpenSearch
Зачем это нужно:
- Lambda может нормализовать и обогащать логи
- Firehose умеет батчить и стабильно доставлять данные
- OpenSearch удобен для поиска и анализа
- S3 подходит для долгого и дешёвого хранения
Пример хранения:
- 7 дней в OpenSearch
- 30 дней в CloudWatch
- полный архив в S3
С метриками история другая.
Обычно используют Prometheus, который ходит в
Чтобы Prometheus понимал, что именно скрейпить в Kubernetes, для сервисов настраивают
Дальше Grafana показывает всё в дашбордах.
Хорошая практика - свести в Grafana сразу несколько источников:
- Prometheus для технических метрик
- CloudWatch для инфраструктуры и логов
- OpenSearch для поиска по событиям и ошибкам
Тогда в одном месте можно увидеть:
- CPU и memory
- latency и error rate
- логи по времени инцидента
- состояние сервиса по SLA
И вот тут начинается взрослая часть мониторинга.
SLA - это не абстрактная цифра на слайде.
Это конкретный лимит простоя.
Например, 99.1% uptime в месяц означает, что сервис может быть недоступен примерно 6.4 часа за месяц.
Если это вынесено в Grafana, то и команда, и бизнес видят состояние системы в реальном времени, а не узнают о проблеме постфактум.
Поэтому на собеседовании лучше рассказывать не просто набор инструментов, а целую историю:
не "у нас Prometheus и Grafana",
а "вот как у нас собираются логи, вот куда они идут, вот почему выбран именно такой маршрут, вот как мы храним данные, вот как считаем SLA и что видит бизнес".
Именно такой ответ звучит как опыт production-уровня.
https://uproger.com/samyj-populyarnyj-vopros-na-sobesedovaniyah-devops-kak-u-vas-ustroen-monitoring-v-proekte/
На собеседованиях по DevOps очень любят спрашивать: "Как у вас устроен мониторинг в проекте?"
И многие отвечают слишком коротко:
Prometheus, Grafana, CloudWatch.
Ответ вроде правильный.
Но для сильного собеседования этого мало.
Интервьюеру обычно важно понять не просто названия инструментов, а всю цепочку:
- как собираются логи
- куда они попадают дальше
- как долго хранятся
- как собираются метрики
- как считается SLA
- и почему архитектура сделана именно так
Именно это показывает разницу между человеком, который просто пользовался готовым стеком, и тем, кто реально поднимал мониторинг в production.
Например, в enterprise-проекте на EKS мониторинг может выглядеть так:
Есть два типа нагрузок:
- микросервисы на Fargate
- stateful-приложение в StatefulSet
И подход к ним разный.
Для Fargate удобно использовать OpenTelemetry add-on.
Он автоматически собирает логи со всех Fargate-подов и отправляет их в CloudWatch. Это простой и удобный вариант, когда не хочется отдельно городить сбор логов внутри каждого сервиса.
Для StatefulSet чаще нужен более гибкий контроль.
Тут можно использовать Fluent Bit как sidecar-контейнер:
он читает логи из общего тома, фильтрует их, форматирует и отправляет в CloudWatch.
Это особенно важно в банках и других регулируемых системах, где есть требования к структуре логов, аудиту и хранению данных.
Дальше пайплайн может быть таким:
CloudWatch → Lambda для форматирования → Kinesis Firehose → OpenSearch
Зачем это нужно:
- Lambda может нормализовать и обогащать логи
- Firehose умеет батчить и стабильно доставлять данные
- OpenSearch удобен для поиска и анализа
- S3 подходит для долгого и дешёвого хранения
Пример хранения:
- 7 дней в OpenSearch
- 30 дней в CloudWatch
- полный архив в S3
С метриками история другая.
Обычно используют Prometheus, который ходит в
/metrics каждого приложения, например каждые 30 секунд.Чтобы Prometheus понимал, что именно скрейпить в Kubernetes, для сервисов настраивают
ServiceMonitor.Дальше Grafana показывает всё в дашбордах.
Хорошая практика - свести в Grafana сразу несколько источников:
- Prometheus для технических метрик
- CloudWatch для инфраструктуры и логов
- OpenSearch для поиска по событиям и ошибкам
Тогда в одном месте можно увидеть:
- CPU и memory
- latency и error rate
- логи по времени инцидента
- состояние сервиса по SLA
И вот тут начинается взрослая часть мониторинга.
SLA - это не абстрактная цифра на слайде.
Это конкретный лимит простоя.
Например, 99.1% uptime в месяц означает, что сервис может быть недоступен примерно 6.4 часа за месяц.
Если это вынесено в Grafana, то и команда, и бизнес видят состояние системы в реальном времени, а не узнают о проблеме постфактум.
Поэтому на собеседовании лучше рассказывать не просто набор инструментов, а целую историю:
не "у нас Prometheus и Grafana",
а "вот как у нас собираются логи, вот куда они идут, вот почему выбран именно такой маршрут, вот как мы храним данные, вот как считаем SLA и что видит бизнес".
Именно такой ответ звучит как опыт production-уровня.
https://uproger.com/samyj-populyarnyj-vopros-na-sobesedovaniyah-devops-kak-u-vas-ustroen-monitoring-v-proekte/
❤9👍3
⚡️ Вы слышали про Rust. Знаете, что он быстрый, безопасный и что за ним будущее.
Осталось одно: сесть и выучить.
Этот курс со Stepik- кратчайший путь от «знаю что такое Rust» до «пишу на нём».
6 модулей, 50 уроков, 143 теста. Ownership, borrowing, traits, async, Tokio, Axum, макросы, WASM — всё разложено по полочкам и закреплено практикой.
Никакого видео на 40 минут ради одной мысли. Подробный текст, много кода, реальные задачи после каждого урока. На выходе — портфолио из 10+ проектов: от CLI-утилит до REST API с базой данных.
48 часов действует скидка 55 процентов: stepik.org/course/269250
Осталось одно: сесть и выучить.
Этот курс со Stepik- кратчайший путь от «знаю что такое Rust» до «пишу на нём».
6 модулей, 50 уроков, 143 теста. Ownership, borrowing, traits, async, Tokio, Axum, макросы, WASM — всё разложено по полочкам и закреплено практикой.
Никакого видео на 40 минут ради одной мысли. Подробный текст, много кода, реальные задачи после каждого урока. На выходе — портфолио из 10+ проектов: от CLI-утилит до REST API с базой данных.
48 часов действует скидка 55 процентов: stepik.org/course/269250
❤3🖕3👍1🔥1
📌 15 лучших CI/CD инструментов для DevOps в 2026 году
Jenkins
https://github.com/jenkinsci/jenkins
GitLab CI (Community Edition)
https://github.com/gitlabhq/gitlabhq
Drone CI
https://github.com/harness/drone
Concourse CI
https://github.com/concourse/concourse
Woodpecker CI
https://github.com/woodpecker-ci/woodpecker
Argo Workflows
https://github.com/argoproj/argo-workflows
Argo CD (GitOps CD)
https://github.com/argoproj/argo-cd
Tekton Pipelines
https://github.com/tektoncd/pipeline
Spinnaker
https://github.com/spinnaker/spinnaker
GoCD
https://github.com/gocd/gocd
Zuul CI
https://github.com/zuul/zuul
Screwdriver CI
https://github.com/screwdriver-cd/screwdriver
Brigade
https://github.com/brigadecore/brigade
Dagger
https://github.com/dagger/dagger
Flux CD (GitOps)
https://github.com/fluxcd/flux2
Jenkins
https://github.com/jenkinsci/jenkins
GitLab CI (Community Edition)
https://github.com/gitlabhq/gitlabhq
Drone CI
https://github.com/harness/drone
Concourse CI
https://github.com/concourse/concourse
Woodpecker CI
https://github.com/woodpecker-ci/woodpecker
Argo Workflows
https://github.com/argoproj/argo-workflows
Argo CD (GitOps CD)
https://github.com/argoproj/argo-cd
Tekton Pipelines
https://github.com/tektoncd/pipeline
Spinnaker
https://github.com/spinnaker/spinnaker
GoCD
https://github.com/gocd/gocd
Zuul CI
https://github.com/zuul/zuul
Screwdriver CI
https://github.com/screwdriver-cd/screwdriver
Brigade
https://github.com/brigadecore/brigade
Dagger
https://github.com/dagger/dagger
Flux CD (GitOps)
https://github.com/fluxcd/flux2
❤3👍3
Быстрый Linux совет 🐧
Если сложно читать содержимое переменной $PATH - разнеси её по строкам.
По умолчанию там всё в одну линию через двоеточие, поэтому быстро понять структуру почти нереально.
Просто прогоняешь через tr:
$ echo $PATH | tr ":" "\n"
Теперь каждый путь отображается с новой строки.
Мелочь, но сильно ускоряет разбор окружения и поиск проблем.
Сохрани, пригодится.
Если сложно читать содержимое переменной $PATH - разнеси её по строкам.
По умолчанию там всё в одну линию через двоеточие, поэтому быстро понять структуру почти нереально.
Просто прогоняешь через tr:
$ echo $PATH | tr ":" "\n"
Теперь каждый путь отображается с новой строки.
Мелочь, но сильно ускоряет разбор окружения и поиск проблем.
Сохрани, пригодится.
👍18❤7🔥4
🎮 Учись программировать через игры — это реально работает
Если скучно учить код по книжкам - попробуй формат, где ты сразу применяешь знания на практике
Вот 10 крутых платформ:
1. Kubernetes
http://k8sgames.com
2. DevOps
http://devops.games
3. Linux
http://overthewire.org
4. Git
http://ohmygit.org
5. Python
http://codecombat.com
6. CSS & HTML
http://codepip.com
7. Кибербезопасность
http://picoctf.org
8. Мобильное обучение (как Duolingo)
http://sololearn.com
9. Для новичков с нуля
http://scratch.mit.edu
10. 25+ языков программирования
http://codingame.com
Почему это работает:
- сразу практика, а не теория
- есть цель и геймификация
- быстрее запоминается
- не выгораешь
Если ты только начинаешь или застрял —
это один из самых быстрых способов прокачаться
Если скучно учить код по книжкам - попробуй формат, где ты сразу применяешь знания на практике
Вот 10 крутых платформ:
1. Kubernetes
http://k8sgames.com
2. DevOps
http://devops.games
3. Linux
http://overthewire.org
4. Git
http://ohmygit.org
5. Python
http://codecombat.com
6. CSS & HTML
http://codepip.com
7. Кибербезопасность
http://picoctf.org
8. Мобильное обучение (как Duolingo)
http://sololearn.com
9. Для новичков с нуля
http://scratch.mit.edu
10. 25+ языков программирования
http://codingame.com
Почему это работает:
- сразу практика, а не теория
- есть цель и геймификация
- быстрее запоминается
- не выгораешь
Если ты только начинаешь или застрял —
это один из самых быстрых способов прокачаться
❤9👍1
👉 Поднимите приватный инференс на выделенном железе
В Selectel сделали поддержку видеокарт в управляемых кластерах Kubernetes на выделенных серверах.
Теперь модели можно запускать на отдельном железе: стабильная производительность, изоляция данных и конфигурации под разные задачи. По стоимости — до 40% дешевле, чем использовать ускорители в облачных серверах.
Попробуйте сами, на тест дают до 30 000 бонусных рублей: https://slc.tl/bwbx2
Реклама. АО "Селектел". erid:2W5zFGKKZF7
В Selectel сделали поддержку видеокарт в управляемых кластерах Kubernetes на выделенных серверах.
Теперь модели можно запускать на отдельном железе: стабильная производительность, изоляция данных и конфигурации под разные задачи. По стоимости — до 40% дешевле, чем использовать ускорители в облачных серверах.
Попробуйте сами, на тест дают до 30 000 бонусных рублей: https://slc.tl/bwbx2
Реклама. АО "Селектел". erid:2W5zFGKKZF7
❤3👍2👎1🔥1
Можно разрабатывать cloud-приложения… вообще без интернета 🤯
Да, теперь тебе не нужен AWS, чтобы тестировать S3.
Появился инструмент - gofakes3
Это лёгкий клон S3, который работает прямо у тебя локально.
Что это даёт:
• 💸 Ноль затрат
никаких счетов от AWS за тесты
• 📴 Полностью оффлайн
можешь разрабатывать даже без интернета
• ⚡ Быстрое тестирование
никаких задержек и сетевых лагов
Как это используют на практике:
👉 тестируешь загрузку файлов
👉 проверяешь интеграции с S3
👉 гоняешь edge-кейсы без риска
И всё это — локально.
💡 Почему это важно
Раньше:
локальная разработка ≠ прод
Теперь:
👉 ты можешь воспроизвести поведение облака у себя
🔥 Особенно полезно если ты:
- пишешь backend
- работаешь с файлами
- строишь SaaS
- тестируешь интеграции
🚀 Инсайт
Чем больше инфраструктуры ты переносишь локально
→ тем быстрее ты разрабатываешь
И тем меньше платишь.
Такие инструменты тихо убивают зависимость от облаков
на этапе разработки.
github.com/johannesboyne/gofakes3/
🖥 Полезные Linux ресурсы 🚀 Max
@DevOPSitsec
Да, теперь тебе не нужен AWS, чтобы тестировать S3.
Появился инструмент - gofakes3
Это лёгкий клон S3, который работает прямо у тебя локально.
Что это даёт:
• 💸 Ноль затрат
никаких счетов от AWS за тесты
• 📴 Полностью оффлайн
можешь разрабатывать даже без интернета
• ⚡ Быстрое тестирование
никаких задержек и сетевых лагов
Как это используют на практике:
👉 тестируешь загрузку файлов
👉 проверяешь интеграции с S3
👉 гоняешь edge-кейсы без риска
И всё это — локально.
💡 Почему это важно
Раньше:
локальная разработка ≠ прод
Теперь:
👉 ты можешь воспроизвести поведение облака у себя
🔥 Особенно полезно если ты:
- пишешь backend
- работаешь с файлами
- строишь SaaS
- тестируешь интеграции
🚀 Инсайт
Чем больше инфраструктуры ты переносишь локально
→ тем быстрее ты разрабатываешь
И тем меньше платишь.
Такие инструменты тихо убивают зависимость от облаков
на этапе разработки.
github.com/johannesboyne/gofakes3/
@DevOPSitsec
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5🔥5❤1😁1
🚀 Ты всё ещё называешь обёртку над ChatGPT «AI-продуктом»?
Пока ты пишешь промпты - рынок уже ушёл дальше.
Сейчас выигрывают не те, кто умеет красиво формулировать запросы, а те, кто строит агентные системы:
- принимают решения сами
- ходят в API
- работают с Postgres и Redis
- управляют браузером через Playwright
- доводят задачи до результата без человека
И вот правда, о которой мало говорят:
90% таких систем умирают между ноутбуком и продом.
Работает локально. Ломается в реальности.
Нет архитектуры. Нет устойчивости. Нет деплоя.
AI Agents Engineering - курс со Stepik, который закрывает этот разрыв.
- LangGraph, AutoGen, Computer Use
- архитектура агентов, а не «скрипты на коленке»
- LLMOps, логирование, стабильность
- деплой в Docker и работа в проде
8 модулей, 120+ шагов, всё через практику.
На выходе не «сертификат ради галочки», а:
- рабочий production-агент
- понимание, как строить такие системы с нуля
- навыки, за которые уже платят
Сейчас самое окно входа.
Через полгода это станет базой, а не преимуществом.
Скидка 55% действует ещё 48 часов: https://stepik.org/a/276971/
Пока ты пишешь промпты - рынок уже ушёл дальше.
Сейчас выигрывают не те, кто умеет красиво формулировать запросы, а те, кто строит агентные системы:
- принимают решения сами
- ходят в API
- работают с Postgres и Redis
- управляют браузером через Playwright
- доводят задачи до результата без человека
И вот правда, о которой мало говорят:
90% таких систем умирают между ноутбуком и продом.
Работает локально. Ломается в реальности.
Нет архитектуры. Нет устойчивости. Нет деплоя.
AI Agents Engineering - курс со Stepik, который закрывает этот разрыв.
- LangGraph, AutoGen, Computer Use
- архитектура агентов, а не «скрипты на коленке»
- LLMOps, логирование, стабильность
- деплой в Docker и работа в проде
8 модулей, 120+ шагов, всё через практику.
На выходе не «сертификат ради галочки», а:
- рабочий production-агент
- понимание, как строить такие системы с нуля
- навыки, за которые уже платят
Сейчас самое окно входа.
Через полгода это станет базой, а не преимуществом.
Скидка 55% действует ещё 48 часов: https://stepik.org/a/276971/
🤣5❤1👍1🔥1
🗺 Kubernetes Key Commands Map - карта ключевых команд Kubernetes, которую стоит сохранить
Если работаешь с Kubernetes, очень легко утонуть в количестве команд.
Но на практике чаще всего нужны не сотни команд, а понятная база, которая закрывает основные сценарии каждый день.
Эта карта охватывает 7 важных направлений:
1. Управление Pod'ами
2. Управление кластером
3. Управление сервисами
4. Мониторинг ресурсов
5. Работа с namespace
6. Управление deployment
7. Конфигурации и secrets
Важно понимать:
это не полный список команд Kubernetes.
Здесь собраны именно ключевые команды, которые чаще всего нужны в реальной работе - для диагностики, деплоя, проверки состояния и повседневного администрирования.
Сохрани себе, если работаешь с DevOps, Cloud или Kubernetes - такая шпаргалка реально экономит время.
54K+ человек уже читают мою рассылку про DevOps и Cloud:
https://techopsexamples.com/subscribe
🖥 Полезные Linux ресурсы 🚀 Max
@DevOPSitsec
Если работаешь с Kubernetes, очень легко утонуть в количестве команд.
Но на практике чаще всего нужны не сотни команд, а понятная база, которая закрывает основные сценарии каждый день.
Эта карта охватывает 7 важных направлений:
1. Управление Pod'ами
2. Управление кластером
3. Управление сервисами
4. Мониторинг ресурсов
5. Работа с namespace
6. Управление deployment
7. Конфигурации и secrets
Важно понимать:
это не полный список команд Kubernetes.
Здесь собраны именно ключевые команды, которые чаще всего нужны в реальной работе - для диагностики, деплоя, проверки состояния и повседневного администрирования.
Сохрани себе, если работаешь с DevOps, Cloud или Kubernetes - такая шпаргалка реально экономит время.
54K+ человек уже читают мою рассылку про DevOps и Cloud:
https://techopsexamples.com/subscribe
@DevOPSitsec
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5😁1
🐳 Пока все ждали GPT-5.5, DeepSeek без шума обвалил рынок!
Никаких стримов, никакого пафоса. Просто вечером китайцы выложили V4 в открытый доступ и пошли спать. А утром индустрия проснулась в новой реальности.
В релизе две модели. V4-Pro на 1.6T параметров с 49B активных и V4-Flash на 284B с 13B активных. Обе с миллионом токенов контекста по дефолту. Оба варианта уже качаются с Hugging Face, работают в API и на chat.deepseek.com.
Фокус в новой архитектуре внимания: токенная компрессия плюс собственная DeepSeek Sparse Attention. Благодаря этому миллион контекста перестал быть премиум-опцией за конские деньги и стал дефолтом. Весь ваш кодбейс, вся документация, вся история переписки влезают в один запрос и не разоряют.
А теперь главное. Независимая Arena.ai уже прогнала модели вслепую. V4-Pro встал третьим среди открытых моделей в агентном кодинге и идёт вровень с GPT-5.4-high и Gemini 3.1 Pro. То есть открытые веса впервые по-настоящему догнали фронтир закрытых лабораторий. Не на бумажке и не в маркетинге, а на реальных запросах пользователей.
Отдельно DeepSeek потроллили Anthropic. В треде релиза прямо написано: V4 «бесшовно интегрируется с Claude Code». Вчера у Anthropic вышел пост-мортем про сломанный харнесс, сегодня им предлагают подменить модель и заодно сэкономить. Больно.
И вишенка. DeepSeek честно сказали, что Pro сейчас работает на ограниченных мощностях: топовых ускорителей не хватает. Во второй половине года они переезжают на Huawei Atlas 950 SuperPoD и обещают снова уронить цену. Санкции не остановили китайский AI, они просто заставили его пересесть на собственное железо.
Итог простой. Вчера миллион токенов контекста был роскошью. Сегодня это стандарт с открытыми весами. А закрытые лаборатории теперь должны объяснить, за что они берут свои деньги.
Тестим: https://huggingface.co/collections/deepseek-ai/deepseek-v4https://chat.deepseek.com/
https://huggingface.co/collections/deepseek-ai/deepseek-v4
Никаких стримов, никакого пафоса. Просто вечером китайцы выложили V4 в открытый доступ и пошли спать. А утром индустрия проснулась в новой реальности.
В релизе две модели. V4-Pro на 1.6T параметров с 49B активных и V4-Flash на 284B с 13B активных. Обе с миллионом токенов контекста по дефолту. Оба варианта уже качаются с Hugging Face, работают в API и на chat.deepseek.com.
Фокус в новой архитектуре внимания: токенная компрессия плюс собственная DeepSeek Sparse Attention. Благодаря этому миллион контекста перестал быть премиум-опцией за конские деньги и стал дефолтом. Весь ваш кодбейс, вся документация, вся история переписки влезают в один запрос и не разоряют.
А теперь главное. Независимая Arena.ai уже прогнала модели вслепую. V4-Pro встал третьим среди открытых моделей в агентном кодинге и идёт вровень с GPT-5.4-high и Gemini 3.1 Pro. То есть открытые веса впервые по-настоящему догнали фронтир закрытых лабораторий. Не на бумажке и не в маркетинге, а на реальных запросах пользователей.
Отдельно DeepSeek потроллили Anthropic. В треде релиза прямо написано: V4 «бесшовно интегрируется с Claude Code». Вчера у Anthropic вышел пост-мортем про сломанный харнесс, сегодня им предлагают подменить модель и заодно сэкономить. Больно.
И вишенка. DeepSeek честно сказали, что Pro сейчас работает на ограниченных мощностях: топовых ускорителей не хватает. Во второй половине года они переезжают на Huawei Atlas 950 SuperPoD и обещают снова уронить цену. Санкции не остановили китайский AI, они просто заставили его пересесть на собственное железо.
Итог простой. Вчера миллион токенов контекста был роскошью. Сегодня это стандарт с открытыми весами. А закрытые лаборатории теперь должны объяснить, за что они берут свои деньги.
Тестим: https://huggingface.co/collections/deepseek-ai/deepseek-v4https://chat.deepseek.com/
https://huggingface.co/collections/deepseek-ai/deepseek-v4
🔥25👎5❤2👍1🤨1
Венец open-source эволюции: кто-то создал Shreknux - Linux-дистрибутив, полностью посвященный Шреку.
Тут все как надо: болотная эстетика, интерфейс в стиле мультфильма и вход в систему через кнопку «Enter the swamp». Не баг, а культурное наследие.
Кажется, у нас наконец появился действительно веский повод перейти на Linux.
https://archive.org/details/ShrekLinux-x86-64
Тут все как надо: болотная эстетика, интерфейс в стиле мультфильма и вход в систему через кнопку «Enter the swamp». Не баг, а культурное наследие.
Кажется, у нас наконец появился действительно веский повод перейти на Linux.
https://archive.org/details/ShrekLinux-x86-64
❤10🔥5👍3😁2
This media is not supported in your browser
VIEW IN TELEGRAM
Kubernetes-кластер состоит из двух основных частей.
Первая - Control Plane. Это мозг системы, который управляет кластером и принимает решения. Вторая часть - Worker Nodes. Это серверы, на которых запускаются контейнеры и реальные приложения.
В Control Plane несколько ключевых компонентов. API Server является точкой входа в кластер - через него проходят все команды и запросы. Scheduler выбирает, на каком узле запускать новые Pod. Controller Manager следит за состоянием системы и автоматически восстанавливает сервисы при сбоях. etcd хранит конфигурацию и текущее состояние всего кластера.
Worker Nodes выполняют приложения.
Pod - это минимальная единица развертывания, внутри которой работают контейнеры. Container Runtime запускает контейнеры на сервере. kubelet является агентом узла и следит за тем, чтобы контейнеры работали как описано в конфигурации. kube-proxy отвечает за сетевое взаимодействие и маршрутизацию трафика внутри кластера.
Если упростить, Control Plane управляет кластером, а Worker Nodes запускают контейнеры и приложения.
Кластер Kubernetes
Control Plane
API Server - точка входа в кластер
Scheduler - назначает Pod на узлы
Controller Manager - поддерживает состояние кластера
etcd - хранилище конфигурации и состояния
Worker Nodes
Pods - минимальная единица развертывания
Container Runtime - запускает контейнеры
kubelet - агент узла
kube-proxy - сеть и маршрутизация
https://www.youtube.com/shorts/OtNY1e4LGts
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7❤6🔥2