Real-time — это не обязательно Kafka, ZooKeeper и зоопарк сервисов.
Redis Streams даёт очередь, автодоставку и группировку воркеров в одном бинарнике.Python делает остальное. Ниже — рабочая схема, которая живёт в проде годами.
import redis
r = redis.Redis()
r.xadd("events:log", {
"level": "info",
"msg": "service started"
})
С этого момента у тебя есть real-time поток.
events = r.xread({"events:log": "$"}, block=0)
for stream, items in events:
for event_id, data in items:
print(event_id, data)$ = читать только новые сообщения.Идеально для live-обработчиков: телеметрия, алертинг, IoT.
try:
r.xgroup_create("events:log", "log_workers", "$")
except:
pass
events = r.xreadgroup(
"log_workers", "worker-1",
{"events:log": ">"},
block=5000
)
> — бери только необработанные записи для группы.Каждое сообщение попадёт ровно одному воркеру.
for event_id, data in events[0][1]:
handle(data)
r.xack("events:log", "log_workers", event_id)
XACK Redis будет думать, что воркер завис.ACK — обязательный шаг любого real-time пайплайна.
🧹 5. Держим только последние N событий
r.xadd("events:log",
{"msg": "slow request"},
maxlen=1000)Идеально для журналов и сенсорных потоков.
producer.py
r.xadd("sensor:data", {
"temp": "22.1",
"humidity": "44"
})worker.py
while True:
events = r.xreadgroup(
"sensors", "worker-3",
{"sensor:data": ">"},
block=3000
)
if not events:
continue
for event_id, data in events[0][1]:
store(data) # запись в БД
r.xack("sensor:data", "sensors", event_id)
Работает быстро, стабильно и без лишних сервисов.
length = r.xlen("sensor:data")
if length > 50000:
throttle() # временно уменьшаем частоту отправки🛰 8. Репликация для отказоустойчивости
Redis Streams прекрасно работает на Redis-кластерe:
replica-of host port
redis-cli xinfo stream sensor:data
redis-cli xinfo groups sensor:data
redis-cli xinfo consumers sensor:data group
Без этого real-time не существует.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5❤3
Сколько здесь нулей:
1000000000? Миллиард? Сто миллионов? Приходится считать пальцем по экрану.Python позволяет использовать знак подчеркивания
_ прямо внутри чисел для разделения разрядов. Интерпретатор просто игнорирует эти знаки.
# Обычная запись
salary = 5000000
# Читаемая запись
salary = 5_000_000 # Сразу видно — 5 миллионов
# Работает и с float, и в hex
pi = 3.141_592_653
color = 0xFF_FF_FF
Please open Telegram to view this post
VIEW IN TELEGRAM
❤12🔥3
Раньше, чтобы объединить два словаря, мы использовали метод
.update() (который меняет исходный словарь) или сложную распаковку {**dict1, **dict2}.Начиная с Python 3.9, появился красивый оператор слияния
| (pipe).
settings_default = {"theme": "light", "notifications": True}
user_settings = {"theme": "dark"}
# Объединяем! Значения из второго словаря перезапишут первые
config = settings_default | user_settings
print(config)
# {'theme': 'dark', 'notifications': True}
Please open Telegram to view this post
VIEW IN TELEGRAM
❤9👍4🔥2
В большинстве языков (C++, Java, JS), чтобы проверить, находится ли число в диапазоне, нужно писать два условия. В Python всё гораздо изящнее.
❌ Как пишут обычно:
age = 25
if age > 18 and age < 60:
print("Трудоспособный возраст")
✅ Как можно в Python:
age = 25
# Прямо как в математике!
if 18 < age < 60:
print("Трудоспособный возраст")
Это работает с любым количеством операторов:
x = 5
y = 10
z = 15
if x < y < z:
print("Порядок возрастания соблюден!")
and) — меньше.Please open Telegram to view this post
VIEW IN TELEGRAM
❤5👍3
Допустим, у вас есть список имен и список зарплат. Вам нужно вывести их парами. Не нужно использовать индексы!
В Python есть встроенная функция
zip(), которая "сшивает" списки как молнию на куртке.
names = ["Alice", "Bob", "Charlie"]
salaries = [50000, 60000, 70000]
# name берется из names, salary из salaries
for name, salary in zip(names, salaries):
print(f"{name} зарабатывает {salary}")
С помощью
zip можно мгновенно создать словарь из двух списков:
data_dict = dict(zip(names, salaries))
# {'Alice': 50000, 'Bob': 60000, ...}
Минимум кода — максимум пользы.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍14❤1
Вам нужно узнать, сколько раз каждый символ встречается в строке или сколько раз слово встречается в списке? Не пишите циклы и словари вручную!
В модуле
collections есть идеальный инструмент — Counter.
from collections import Counter
text = "abracadabra"
stats = Counter(text)
print(stats)
# Counter({'a': 5, 'b': 2, 'r': 2, 'c': 1, 'd': 1})
Он работает как словарь, но умеет больше. Например, метод
.most_common() сразу покажет топ элементов:
# Вывести 2 самых частых символа
print(stats.most_common(2))
# [('a', 5), ('b', 2)]
Please open Telegram to view this post
VIEW IN TELEGRAM
:=Странное название, но очень полезная суть. Оператор
:= (он похож на глаза и клыки моржа) позволяет присвоить значение переменной прямо внутри выражения (например, внутри if или while).Задача:
Получить данные от функции (или пользователя) и проверить, не пустые ли они.
❌ Без моржа (3 строки):
text = input("Введите слово: ")
if len(text) > 5:
print(f"Длинное слово: {text}")
✅ С моржом (2 строки):
# Мы и присваиваем text, и сразу проверяем его длину
if len(text := input("Введите слово: ")) > 5:
print(f"Длинное слово: {text}")
Переменная
text останется доступной и внутри блока if, и после него. Это отлично экономит место и делает код компактнее.Please open Telegram to view this post
VIEW IN TELEGRAM
❤10👍6
Как запускать десятки сетевых запросов одновременно, не тормозя программу? Писать многопоточный код?
Используйте
async и await с библиотекой asyncio.import asyncio
async def fetch_data(n):
print(f"Запрос {n} стартовал")
await asyncio.sleep(1) # имитация сетевого запроса
print(f"Запрос {n} завершён")
return n * 2
async def main():
# запускаем все задачи одновременно
results = await asyncio.gather(*(fetch_data(i) for i in range(5)))
print("Результаты:", results)
asyncio.run(main())
asyncio.gather запускает все задачи параллельноPlease open Telegram to view this post
VIEW IN TELEGRAM
❤4👍2
Как выполнять математические операции над большими массивами без циклов Python? Писать
for и append? Используйте векторизацию NumPy.
import numpy as np
# создаём массив чисел
a = np.arange(1, 6)
b = np.arange(10, 15)
# сложение массивов поэлементно
c = a + b
print("Сумма массивов:", c)
# умножение каждого элемента на 2
d = a * 2
print("Умножение на 2:", d)
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4❤3
Как быстро подсчитать суммы, средние и максимум по категориям без цикла? Писать
for и if? Используйте
groupby и агрегации.import pandas as pd
# создаём DataFrame
data = pd.DataFrame({
"Компания": ["A", "B", "A", "B", "C"],
"Доход": [100, 200, 150, 120, 300],
"Расход": [50, 80, 60, 70, 150]
})
# группируем по компании и считаем суммарный доход и средний расход
summary = data.groupby("Компания").agg({
"Доход": "sum",
"Расход": "mean"
})
print(summary)
groupby позволяет группировать данные по ключуagg выполняет несколько операций сразуPlease open Telegram to view this post
VIEW IN TELEGRAM
👍7❤3
Как найти минимум функции или решить систему нелинейных уравнений, не переписывая всё вручную? Писать цикл и градиенты самому?
Используйте
scipy.optimize.from scipy.optimize import minimize, fsolve
import numpy as np
# --- Минимизация функции ---
# функция с минимумом
def func(x):
return (x - 3)**2 + np.sin(x)*5
# ищем минимум
res = minimize(func, x0=0) # x0 - начальное приближение
print("Минимум функции:", res.x, "Значение:", res.fun)
# --- Решение системы нелинейных уравнений ---
# система: x^2 + y^2 = 1, x - y = 0.5
def system(vars):
x, y = vars
return [x**2 + y**2 - 1, x - y - 0.5]
solution = fsolve(system, [0, 0]) # начальное приближение [x0, y0]
print("Решение системы:", solution)
minimize ищет минимум любой функции, можно задавать ограничения и методыfsolve решает системы нелинейных уравнений с произвольной сложностьюPlease open Telegram to view this post
VIEW IN TELEGRAM
❤3👍2
Как выбирать, изменять и считать элементы массивов без циклов, с полной гибкостью? Писать
for и if? Используйте булевы маски и broadcasting.
import numpy as np
# создаём массив случайных чисел
data = np.random.randint(0, 100, size=(5, 5))
print("Массив:\n", data)
# выбираем все элементы >50
mask = data > 50
print("Элементы >50:\n", data[mask])
# умножаем все >50 на 2 (broadcasting)
data[mask] *= 2
print("После умножения >50 на 2:\n", data)
# fancy indexing: выбираем 1, 3 и 4 строки, 0 и 2 столбцы
subset = data[[1,3,4], :][:, [0,2]]
print("Подмассив (fancy indexing):\n", subset)
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5❤2🥰2
Вам нужно найти общие элементы в двух списках или узнать, чем они отличаются? Не спешите писать вложенные циклы
for — это медленно и некрасиво.Используйте множества (
set). Они поддерживают математические операции "из коробки".Пример:
Есть два списка разработчиков:
frontend = {"Anna", "Bob", "Alice"}
backend = {"Bob", "John", "Alice"}
Что можно сделать одной строкой:
1️⃣ Кто фуллстек? (пересечение
&)
print(frontend & backend)
# {'Alice', 'Bob'}
2️⃣ Кто только фронтендер? (разность
-)
print(frontend - backend)
# {'Anna'}
3️⃣ Кто работает только на одной стороне? (симметрическая разность
^)
print(frontend ^ backend)
# {'Anna', 'John'}
Это работает очень быстро (почти мгновенно) даже на больших объемах данных.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤8👍3
Вам наверняка приходилось писать код, где ошибку нужно просто проигнорировать.
Например, удалить файл, если он есть (а если нет — ну и ладно).
❌ Обычно это выглядит так:
import os
try:
os.remove("temp.txt")
except FileNotFoundError:
pass # Выглядит не очень красиво
✅ Pythonic way:
Используйте контекстный менеджер
suppress из модуля contextlib.
import os
from contextlib import suppress
with suppress(FileNotFoundError):
os.remove("temp.txt")
Это делает намерение программиста очевидным: "Попробуй выполнить, но если вылетит эта ошибка — подави её". Код становится чище и читаемее.
#python #cleancode #refactoring #tips
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5❤3👎2
Допустим, у вас есть словарь, и нужно поменять местами ключи и значения (инвертировать его).
Исходные данные:
currencies = {'USD': 1, 'EUR': 0.9, 'GBP': 0.8}
Вместо того чтобы создавать пустой словарь и запускать цикл, используйте Dict Comprehension:
# {значение: ключ}
inverted = {value: key for key, value in currencies.items()}
print(inverted)
# {1: 'USD', 0.9: 'EUR', 0.8: 'GBP'}
Синтаксис
{k: v for ...} работает так же мощно, как и для списков. Можно даже добавить условия:
# Оставим только валюты с курсом меньше 1
cheap = {k: v for k, v in currencies.items() if v < 1}
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4👍3
Если у вас есть функция, которая выполняет тяжелые вычисления (или рекурсию) с одними и теми же аргументами, вы можете мгновенно её ускорить.
Импортируем декоратор `@lru_cache` из модуля
functools.Пример (классический Фибоначчи):
from functools import lru_cache
@lru_cache(maxsize=None) # <--- Вся магия здесь
def fib(n):
if n < 2:
return n
return fib(n-1) + fib(n-2)
print(fib(50))
Без кэша: Python будет считать это вечность (миллиарды вызовов).
С кэшем: Результат выведется мгновенно.
Декоратор запоминает результаты вызова функции. Если функцию вызовут снова с теми же аргументами, Python не будет считать заново, а просто возьмет готовый ответ из памяти.
#python #performance #optimization #functools
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6
Обычные кортежи (`tuple`) экономят память, но обращаться к данным по индексу — неудобно.
point[0] — что это? Координата X? Широта? ID пользователя?Используйте `NamedTuple` из модуля
typing (или `collections`). Это как класс, только легче.
from typing import NamedTuple
class Point(NamedTuple):
x: int
y: int
p = Point(10, 20)
# Теперь можно обращаться по имени!
print(p.x, p.y) # 10 20
# Но поведение кортежа сохраняется
print(p[0]) # 10
Это делает код "самодокументируемым". Идеально для возврата нескольких значений из функции.
#python #typing #structures #tips
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6
🤯 Математика с булевыми значениями
А вы знали, что в Python
Поэтому такой код абсолютно валиден:
Или даже так (используем как индекс):
💡 Примечание: в продакшене лучше так не писать, но знать об этом полезно!
#python #funfacts #underTheHood
А вы знали, что в Python
True и False — это на самом деле просто замаскированные 1 и 0? Тип bool наследуется от int.Поэтому такой код абсолютно валиден:
x = True + True + 5
print(x)
# Вывод: 7 (1 + 1 + 5)
Или даже так (используем как индекс):
options = ["Нет", "Да"]
is_agreed = True
print(options[is_agreed])
# Вывод: "Да" (потому что options[1])
#python #funfacts #underTheHood
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8❤3
Media is too big
VIEW IN TELEGRAM
В этом видео автор на практике разбирает, как взаимодействовать с внешними сервисами и данными через API. Вы научитесь отправлять GET и POST-запросы, обрабатывать ответы в формате JSON, а также работать с заголовками и параметрами с помощью универсальной библиотеки requests.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4👍2
Когда логи занимают гигабайты, а дампы БД не помещаются на диск, сжатие становится must-have. Но не нужно сжимать вручную — Python умеет работать со сжатыми файлами напрямую, как с обычными.
Модуль
gzip даёт тот же интерфейс, что и open(), но прозрачно сжимает:import gzip
import json
# ПИШЕМ сжатый JSON одной строкой
with gzip.open('data.json.gz', 'wt', encoding='utf-8') as f:
json.dump({'users': [{'id': i, 'name': f'user_{i}'} for i in range(10000)]}, f)
# Файл data.json.gz весит в 5-10 раз меньше
# ЧИТАЕМ как обычный файл
with gzip.open('data.json.gz', 'rt', encoding='utf-8') as f:
data = json.load(f)
print(f"Загружено {len(data['users'])} пользователей") # 10000
'rt'/'wt' для текста, 'rb'/'wb' для бинарных данных. Сжатие происходит на лету — не нужно держать в памяти весь несжатый файл.Для архивов, где важна степень сжатия, а не скорость:
import lzma
import pickle
# Сохраняем сжатый pickle
data = [{'x': i, 'y': i**2} for i in range(100000)]
with lzma.open('data.pickle.xz', 'wb') as f:
pickle.dump(data, f)
print("Файл сохранён с максимальным сжатием")
# Загружаем обратно
with lzma.open('data.pickle.xz', 'rb') as f:
loaded = pickle.load(f)
print(f"Загружено {len(loaded)} объектов")
lzma (формат .xz) сжимает лучше gzip, но работает медленнее. Идеально для долгосрочного хранения дампов.import gzip, lzma, os
import random
# Генерируем тестовые данные (повторяющиеся строки хорошо сжимаются)
text = '\n'.join(str(random.randint(1000, 9999)) for _ in range(50000))
# Сохраняем в разных форматах
with open('raw.txt', 'w') as f:
f.write(text)
with gzip.open('test.gz', 'wt') as f:
f.write(text)
with lzma.open('test.xz', 'wt') as f:
f.write(text)
# Сравниваем размеры
for name in ['raw.txt', 'test.gz', 'test.xz']:
print(f"{name}: {os.path.getsize(name)} байт")
# raw.txt: 345678 байт
# test.gz: 45678 байт (в ~7.5 раз меньше)
# test.xz: 23456 байт (в ~14.7 раз меньше)
lzma сжимает в 2-3 раза эффективнее gzip, но занимает больше CPU и времени. Выбирай по ситуации.Создадим универсальный инструмент, который сам определяет формат по расширению:
import bz2 # ещё один формат сжатия
def smart_open(filename, mode='r', **kwargs):
"""Открывает файл, автоматически определяя сжатие по расширению."""
if filename.endswith('.gz'):
return gzip.open(filename, mode, **kwargs)
elif filename.endswith('.xz') or filename.endswith('.lzma'):
return lzma.open(filename, mode, **kwargs)
elif filename.endswith('.bz2'):
return bz2.open(filename, mode, **kwargs)
else:
return open(filename, mode, **kwargs)
# Используем единообразно
with smart_open('data.json.gz', 'rt') as f:
data = json.load(f)
with smart_open('dump.sql', 'w') as f:
f.write('SELECT * FROM users;')
Сжимаем данные прямо при передаче по сети или в пайплайнах:
import gzip
import io
def compress_chunks(chunks):
"""Сжимает поток чанков на лету."""
buffer = io.BytesIO()
with gzip.GzipFile(fileobj=buffer, mode='wb') as f:
for chunk in chunks:
f.write(chunk.encode() if isinstance(chunk, str) else chunk)
buffer.seek(0)
return buffer
# Пример: сжимаем логи построчно
log_lines = [f"[INFO] Event {i}\n" for i in range(1000)]
compressed = compress_chunks(log_lines)
# Результат уже сжат
print(f"Исходно: {sum(len(l) for l in log_lines)} байт")
print(f"После сжатия: {len(compressed.getvalue())} байт")
gzip.open() для быстрого сжатия логов и lzma.open() для максимального сжатия дампов. Пиши контекстные менеджеры для единого интерфейса.Please open Telegram to view this post
VIEW IN TELEGRAM
❤8
Media is too big
VIEW IN TELEGRAM
try, except, finallyВ этом видео автор подробно разбирает, как предсказуемо управлять ошибками в программах с помощью конструкции try-except. Вы научитесь перехватывать конкретные типы исключений, корректно освобождать ресурсы в блоке
finally и создавать собственные классы ошибок для большей ясности кода.Please open Telegram to view this post
VIEW IN TELEGRAM
👍6❤2