Представь фэнтези-мир, где заклинания - это SQL-запросы, а древние артефакты спрятаны в таблицах и JSON-документах.
🧙Ты - боевой дата-аналитик, который с помощью SQL, Python, ETL и визуализаций охотится за харизматичным злодеем Архивариусом Пакостусом, что ломает индексы, крадёт данные и готовит “шторм данных” на столицу.🔮
В каждом эпизоде тебя ждут: выборы с последствиями, хитрые задачи от простых SELECT до рекурсивных CTE и BigQuery, юмор, эпик и неожиданные повороты.
Хочешь проверить, сможешь ли ты спасти королевство не мечом, а запросами? Тогда добро пожаловать в SQL-квест.
🪄 Начать квест: https://uproger.com/sql-kvest-fentezijnoe-priklyuchenie-dlya-analitikov-dannyh/
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤13🔥10👍2⚡1😁1
Курс по Docker, написанный программистами для программистов. Мы выкинули историю контейнеризации и скучную теорию.
Вместо этого жесткая практика: ментальные модели через ООП, анатомия Linux-процессов, написание Dockerfile, docker-compose и подготовка к продакшену.
Экономь время: учись только тому, что реально используется в индустрии
https://uproger.com/docker-bolshoj-ischerpyvayushhij-kurs-glava-1-arhitektura-ponyatiya-i-pervyj-zapusk/
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5👍4🔥2
🔥 На stepik вышел курс, который учит Создавать настоящие AI-сервисы, а не просто запускать скрипты?
Этот практический курс по Python и FastAPI покажет, как собрать полноценное приложение с ИИ, базой данных, автогенерацией контента и Telegram-ботом.
Ты пройдёшь путь от первого HTTP-запроса до рабочего сервиса, который сам генерирует текст через ИИ, сохраняет данные, отправляет результаты по расписанию и отвечает пользователям.
Никакой теории ради теории - только практические шаги, из которых рождается реальный продукт.
🎁 48 часов действует новогодняя скидка в 40% процентов
👉 Начать учиться на Stepik
Этот практический курс по Python и FastAPI покажет, как собрать полноценное приложение с ИИ, базой данных, автогенерацией контента и Telegram-ботом.
Ты пройдёшь путь от первого HTTP-запроса до рабочего сервиса, который сам генерирует текст через ИИ, сохраняет данные, отправляет результаты по расписанию и отвечает пользователям.
Никакой теории ради теории - только практические шаги, из которых рождается реальный продукт.
🎁 48 часов действует новогодняя скидка в 40% процентов
👉 Начать учиться на Stepik
❤4👍2🥰1
Идея: не просто добавить индекс на один столбец, а так подобрать порядок полей, чтобы запрос вообще не ходил в таблицу, а читал всё из индекса. Это даёт огромный буст на "горячих" таблицах.
Допустим, у тебя часто есть такой запрос:
SELECT
id,
created_at,
total_amount
FROM orders
WHERE user_id = 123
AND status = 'paid'
ORDER BY created_at DESC
LIMIT 20;
Типичная ошибка - делать что-то вроде:
CREATE INDEX idx_orders_user ON orders (user_id);
CREATE INDEX idx_orders_status ON orders (status);
CREATE INDEX idx_orders_created ON orders (created_at);
Планировщику всё равно приходится лазить в таблицу и склеивать условия. Гораздо эффективнее один правильный составной индекс:
CREATE INDEX idx_orders_user_status_created_at
ON orders (user_id, status, created_at DESC)
INCLUDE (total_amount);
Почему это полезно:
user_id, status - фильтруют строки
created_at DESC - сразу даёт нужный порядок для ORDER BY ... DESC
INCLUDE (total_amount) - позволяет взять сумму прямо из индекса
В результате PostgreSQL (и другие СУБД с подобной механикой) могут сделать index-only scan: прочитать подходящие строки в нужном порядке из одного индекса и почти не трогать основную таблицу.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍19
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️ ИИ для SQL: пусть он объяснит «почему запрос тормозит»
Профессиональный лайфхак:
не проси ИИ «оптимизировать запрос» вслепую.
Вместо этого — давай ему EXPLAIN / EXPLAIN ANALYZE и структуру таблиц.
ИИ отлично умеет:
- разбирать план выполнения
- находить узкие места (Seq Scan, лишние JOIN, сортировки)
- предлагать индексы и переписывание запроса по факту, а не наугад
Алгоритм простой:
1️⃣ запускаешь EXPLAIN ANALYZE
2️⃣ прикладываешь схему таблиц
3️⃣ спрашиваешь: *где bottleneck и что бы ты поменял?*
Так ты получаешь не магию, а обоснованные рекомендации с пониманием, зачем они нужны.
https://www.youtube.com/shorts/LcLMwpVMKNQ
Профессиональный лайфхак:
не проси ИИ «оптимизировать запрос» вслепую.
Вместо этого — давай ему EXPLAIN / EXPLAIN ANALYZE и структуру таблиц.
ИИ отлично умеет:
- разбирать план выполнения
- находить узкие места (Seq Scan, лишние JOIN, сортировки)
- предлагать индексы и переписывание запроса по факту, а не наугад
Алгоритм простой:
1️⃣ запускаешь EXPLAIN ANALYZE
2️⃣ прикладываешь схему таблиц
3️⃣ спрашиваешь: *где bottleneck и что бы ты поменял?*
Так ты получаешь не магию, а обоснованные рекомендации с пониманием, зачем они нужны.
пример «правильного» запроса к ИИ с реальными данными
-- запрос
SELECT *
FROM orders o
JOIN customers c ON c.id = o.customer_id
WHERE o.created_at > NOW() - INTERVAL '30 days'
AND c.country = 'US'
ORDER BY o.created_at DESC
LIMIT 100;
-- план выполнения
EXPLAIN ANALYZE
SELECT ...
-- (сюда вставь полный план: Seq Scan / Index Scan / сортировки и т.п.)
-- схема таблиц (важно!)
\d orders
\d customers
-- вопрос ИИ:
"Разбери план выполнения.
Где узкие места?
Нужны ли индексы и какие именно?
Можно ли переписать запрос быстрее, не меняя логику?"
https://www.youtube.com/shorts/LcLMwpVMKNQ
🔥16❤2👍1
This media is not supported in your browser
VIEW IN TELEGRAM
🐳 Как запустить DeepSeek у себя на ПК через Python
Главная ошибка новичков - сразу ставить огромные модели.
Начни с компактной версии, проверь, что всё запускается, и только потом увеличивай размер.
Алгоритм простой:
1) ставим зависимости
2) качаем лёгкую модель DeepSeek
3) проверяем, что она отвечает
4) при необходимости включаем GPU или берём квантизованную версию
Так ты избежишь вылетов, перегрузки памяти и быстрее получишь рабочий результат.
https://uproger.com/kak-zapustit-deepseek-u-sebya-na-pk/
Главная ошибка новичков - сразу ставить огромные модели.
Начни с компактной версии, проверь, что всё запускается, и только потом увеличивай размер.
Алгоритм простой:
1) ставим зависимости
2) качаем лёгкую модель DeepSeek
3) проверяем, что она отвечает
4) при необходимости включаем GPU или берём квантизованную версию
Так ты избежишь вылетов, перегрузки памяти и быстрее получишь рабочий результат.
установить зависимости
pip install transformers accelerate torch sentencepiece
# пример запуска DeepSeek из Python
from transformers import AutoModelForCausalLM, AutoTokenizer
import torch
model_name = "deepseek-ai/deepseek-coder-6.7b-base"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype=torch.float16,
device_map="auto" # если есть GPU — модель сама её использует
)
prompt = "Напиши на Python функцию, которая проверяет, простое ли число."
inputs = tokenizer(prompt, return_tensors="pt").to(model.device)
outputs = model.generate(
**inputs,
max_new_tokens=160,
temperature=0.4
)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
https://uproger.com/kak-zapustit-deepseek-u-sebya-na-pk/
❤7👍4🥰1
This media is not supported in your browser
VIEW IN TELEGRAM
Отменяем все мемы про дроп базы
😁13👍8❤4🔥2⚡1
Прокачай навыки на задачах, которые встречаются в реальной работе.
Бот в Telegram помогает тренироваться каждый день: задания обновляются, сложность растёт, а ошибки разбираются.
✔ практические кейсы
✔ удобный эмулятор работы Аналитика бесплатно
✔ пополняем задачами с реальных собеседований
✔ собираем фидбек и улучшаем тренажёр вместе с вами
Готов работать с данными уверенно? Попробуй симулятор и расти как аналитик.
t.me/Analitics_databot
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥10👍6❤5😁1
Бесплатный курс по Claude Code от Anthropic.
Внутри 15 лекций примерно по часу каждая. Обещают, что за это время ты разберёшься:
• как эффективно управлять контекстом и не «тратить» токены зря
• как расширять Claude Code через MCP-серверы
• как писать собственные хуки
• как подключать GitHub и автоматизировать ревью и рутинные задачи
В конце — дают сертификат вайбкодера, который можно показать маме 😁
Курс - хороший способ быстро понять, как превращать Claude Code из просто помощника в полноценного рабочего инструмента.
https://anthropic.skilljar.com/claude-code-in-action
Внутри 15 лекций примерно по часу каждая. Обещают, что за это время ты разберёшься:
• как эффективно управлять контекстом и не «тратить» токены зря
• как расширять Claude Code через MCP-серверы
• как писать собственные хуки
• как подключать GitHub и автоматизировать ревью и рутинные задачи
В конце — дают сертификат вайбкодера, который можно показать маме 😁
Курс - хороший способ быстро понять, как превращать Claude Code из просто помощника в полноценного рабочего инструмента.
https://anthropic.skilljar.com/claude-code-in-action
❤5👍2🥰1💊1
100 технических вопросов для интервью Data Analyst / Data Scientist (Middle/Senior)
В этом руководстве мы подробно разберем 100 реальных технических вопросов, которые часто встречаются на собеседованиях для аналитиков данных и специалистов по данным уровня middle и senior.
Вопросы сгруппированы по типам компаний (FAANG, стартапы, финтех, консалтинг), по уровню позиции (middle или senior) и по ключевым категориям знаний.
Используя этот гайд, вы сможете оценить свой уровень подготовки, понять глубину ответов, ожидаемую от опытных кандидатов, и избежать популярных ошибок. Давайте перейдем к вопросам. FAANG: Интервью в крупных технокомпаниях (FAANG – Amazon, Apple, Netflix, Google и аналогичные крупные IT-компании) Middle-уровень – FAANG
SQL – примеры вопросов (Middle, FAANG)
https://uproger.com/100-tehnicheskih-voprosov-dlya-intervyu-data-analyst-data-scientist-middle-senior/
В этом руководстве мы подробно разберем 100 реальных технических вопросов, которые часто встречаются на собеседованиях для аналитиков данных и специалистов по данным уровня middle и senior.
Вопросы сгруппированы по типам компаний (FAANG, стартапы, финтех, консалтинг), по уровню позиции (middle или senior) и по ключевым категориям знаний.
Используя этот гайд, вы сможете оценить свой уровень подготовки, понять глубину ответов, ожидаемую от опытных кандидатов, и избежать популярных ошибок. Давайте перейдем к вопросам. FAANG: Интервью в крупных технокомпаниях (FAANG – Amazon, Apple, Netflix, Google и аналогичные крупные IT-компании) Middle-уровень – FAANG
SQL – примеры вопросов (Middle, FAANG)
https://uproger.com/100-tehnicheskih-voprosov-dlya-intervyu-data-analyst-data-scientist-middle-senior/
❤7👍2🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Для тех, кто хочет не просто играться с AI, а зарабатывать на них от $1500 за проект🔥
Бесплатный эфир
«Как запустить своё AI-агентство и выйти на стабильный доход без кода и техбэкграунда»
17 января (суббота)
в 12:00 по мск
📌 Увидите, на чём именно зарабатывают фрилансеры уже сейчас:
— AI-боты для бизнеса
— контент-фабрики
— AI-лендинги
— аналитические и продающие ассистенты
— агенты и автоматизация
— vibe coding и prompting
УЗНАТЬ ПОДРОБНЕЕ
💰 Один такой проект = $500–2500
⌛️ Сборка – 20–60 минут
📈 5–7 проектов в месяц = $1500–5000+ стабильно
❌ Не нужно быть программистом
❌ Не нужно разбираться в коде
❌ Не нужно бегать за заказами
✅ Нужно понять простую модель
✅ Взять готовые шаблоны
✅ Упаковать AI-решение и продать его как продукт
ХОЧУ НА ЭФИР
🎁 Только для тех, кто будет на эфире до конца:
500+ готовых шаблонов, которые можно сразу продавать
170+ AI-ассистентов под реальные бизнес-задачи
17+ локальных нейронок
Готовые open-source решения, на которых уже зарабатывают
А ещё:
🎟 5 сертификатов по 12 000₽ (для 3 участников)
🔥 3 годовые подписки на все нейросети (для 3 участников)
Это мероприятие для тех, кто устал быть «исполнителем» и хочет зарабатывать по-взрослому 😎
Участие пока что бесплатное.
Жмите на ссылку и регистрируйтесь.
👉🏼 https://t.me/Neuron_PromtMaster_bot?start=ch8
Бесплатный эфир
«Как запустить своё AI-агентство и выйти на стабильный доход без кода и техбэкграунда»
17 января (суббота)
в 12:00 по мск
📌 Увидите, на чём именно зарабатывают фрилансеры уже сейчас:
— AI-боты для бизнеса
— контент-фабрики
— AI-лендинги
— аналитические и продающие ассистенты
— агенты и автоматизация
— vibe coding и prompting
УЗНАТЬ ПОДРОБНЕЕ
💰 Один такой проект = $500–2500
⌛️ Сборка – 20–60 минут
📈 5–7 проектов в месяц = $1500–5000+ стабильно
❌ Не нужно быть программистом
❌ Не нужно разбираться в коде
❌ Не нужно бегать за заказами
✅ Нужно понять простую модель
✅ Взять готовые шаблоны
✅ Упаковать AI-решение и продать его как продукт
ХОЧУ НА ЭФИР
🎁 Только для тех, кто будет на эфире до конца:
500+ готовых шаблонов, которые можно сразу продавать
170+ AI-ассистентов под реальные бизнес-задачи
17+ локальных нейронок
Готовые open-source решения, на которых уже зарабатывают
А ещё:
🎟 5 сертификатов по 12 000₽ (для 3 участников)
🔥 3 годовые подписки на все нейросети (для 3 участников)
Это мероприятие для тех, кто устал быть «исполнителем» и хочет зарабатывать по-взрослому 😎
Участие пока что бесплатное.
Жмите на ссылку и регистрируйтесь.
👉🏼 https://t.me/Neuron_PromtMaster_bot?start=ch8
😁3😢2❤1
В этом бесплатном курсе вы шаг за шагом научитесь собирать данные с веб-сайтов с помощью Python. Мы начнём с основ парсинга (скрапинга) - автоматического сбора информации с веб-страниц – и постепенно перейдём к более продвинутым темам.
Материал разбит на модули с понятными примерами и практическими заданиями после каждой темы. Курс рассчитан на начинающих и продолжающих (junior/middle) разработчиков, знакомых с основами Python.
📌 Гайд
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥2😁1
✅ Как правильно разворачивать БАЗУ ДАННЫХ перед стартом любого проекта
Ошибки с БД на старте проекта потом стоят дороже всего:
плавающие миграции, разные схемы у команды, потерянные данные, “а у меня работает”.
Правильный подход простой - БД должна подниматься одинаково у всех:
локально, на CI и в проде.
Что делаем всегда:
1) Поднимаем БД через Docker (одинаковая среда для всех)
2) Храним все настройки в
3) Схема меняется только через миграции (Flyway / Liquibase / EF / Alembic)
4) Добавляем init-скрипты + seed данные (опционально)
5) Делаем healthcheck, чтобы сервис не стартовал раньше БД
6) Добавляем backup/restore команды (минимум — дамп)
Итог:
- один репозиторий = одна база
- любые изменения схемы воспроизводимы
- новый разработчик стартует за 3 минуты
Ошибки с БД на старте проекта потом стоят дороже всего:
плавающие миграции, разные схемы у команды, потерянные данные, “а у меня работает”.
Правильный подход простой - БД должна подниматься одинаково у всех:
локально, на CI и в проде.
Что делаем всегда:
1) Поднимаем БД через Docker (одинаковая среда для всех)
2) Храним все настройки в
.env3) Схема меняется только через миграции (Flyway / Liquibase / EF / Alembic)
4) Добавляем init-скрипты + seed данные (опционально)
5) Делаем healthcheck, чтобы сервис не стартовал раньше БД
6) Добавляем backup/restore команды (минимум — дамп)
Итог:
- один репозиторий = одна база
- любые изменения схемы воспроизводимы
- новый разработчик стартует за 3 минуты
1) Создай .env (пример)
cat > .env << 'EOF'
POSTGRES_DB=app
POSTGRES_USER=app
POSTGRES_PASSWORD=app123
POSTGRES_PORT=5432
EOF
# 2) docker-compose.yml для Postgres + healthcheck
cat > docker-compose.yml << 'EOF'
services:
postgres:
image: postgres:16
container_name: app-postgres
restart: unless-stopped
environment:
POSTGRES_DB: ${POSTGRES_DB}
POSTGRES_USER: ${POSTGRES_USER}
POSTGRES_PASSWORD: ${POSTGRES_PASSWORD}
ports:
- "${POSTGRES_PORT}:5432"
volumes:
- pgdata:/var/lib/postgresql/data
healthcheck:
test: ["CMD-SHELL", "pg_isready -U ${POSTGRES_USER} -d ${POSTGRES_DB}"]
interval: 5s
timeout: 3s
retries: 20
volumes:
pgdata:
EOF
3) Запуск
docker compose up -d
4) Проверка
docker compose ps
5) Дамп (на всякий)
docker exec -t app-postgres pg_dump -U app app > backup.sql
6) Восстановление
cat backup.sql | docker exec -i app-postgres psql -U app -d app
❤11🔥6👍2😁1