🧭 LinkedIn запускает новую систему поиска людей на базе ИИ — для всех своих 1.3 млрд пользователей.
Как это работает:
- ИИ переводит обычный запрос в связанные навыки и области.
Например, запрос *«curing cancer»* найдёт не только учёных, но и экспертов в онкологии и геномике — и при этом учитывает, насколько человек достижим в вашей сети.
Как обучали:
- Команда вручную собрала “золотой” набор из нескольких сотен–тысяч пар «запрос–профиль».
- На нём сгенерировали синтетические данные и обучили 7B модель-судью.
- Затем дистиллировали её в 1.7B учителя релевантности и отдельных учителей для пользовательских действий (connect, follow).
- Итоговая модель обучалась на мягких оценках через KL-дивергенцию.
Как устроен поиск:
- Первый этап — широкая выборка с помощью 8B модели.
- Второй — компактный ранкер, который обеспечивает точность и при этом дешёв в продакшене.
- Ранкер ужали с 440M до 220M параметров с потерей менее 1% качества — это позволило держать систему дешёвой на таком масштабе.
Технические решения:
- Индексацию пришлось перенести с CPU на GPU — граф людей ведёт себя иначе, чем поиск вакансий.
- RL-сжатие контекста уменьшает ввод почти в 20 раз, а связка ранкера и сжатия даёт ускорение в 10 раз.
- Отдельный LLM-router решает, использовать ли семантический стек или откатиться к классическому лексическому поиску.
Источник: venturebeat.com/ai/inside-linkedins-generative-ai-cookbook-how-it-scaled-people-search-to-1-3
@python_be1
Как это работает:
- ИИ переводит обычный запрос в связанные навыки и области.
Например, запрос *«curing cancer»* найдёт не только учёных, но и экспертов в онкологии и геномике — и при этом учитывает, насколько человек достижим в вашей сети.
Как обучали:
- Команда вручную собрала “золотой” набор из нескольких сотен–тысяч пар «запрос–профиль».
- На нём сгенерировали синтетические данные и обучили 7B модель-судью.
- Затем дистиллировали её в 1.7B учителя релевантности и отдельных учителей для пользовательских действий (connect, follow).
- Итоговая модель обучалась на мягких оценках через KL-дивергенцию.
Как устроен поиск:
- Первый этап — широкая выборка с помощью 8B модели.
- Второй — компактный ранкер, который обеспечивает точность и при этом дешёв в продакшене.
- Ранкер ужали с 440M до 220M параметров с потерей менее 1% качества — это позволило держать систему дешёвой на таком масштабе.
Технические решения:
- Индексацию пришлось перенести с CPU на GPU — граф людей ведёт себя иначе, чем поиск вакансий.
- RL-сжатие контекста уменьшает ввод почти в 20 раз, а связка ранкера и сжатия даёт ускорение в 10 раз.
- Отдельный LLM-router решает, использовать ли семантический стек или откатиться к классическому лексическому поиску.
Источник: venturebeat.com/ai/inside-linkedins-generative-ai-cookbook-how-it-scaled-people-search-to-1-3
@python_be1
На GitHub собрали почти 6000 готовых шаблонов для n8n: можно моментально запустить своего ИИ-агента под любую задачу.
Внутри — готовые боты для Telegram, инвестиционные советники, ИИ-ученые и многое другое. Все поможет автоматизировать рутину на работе и учебе.
Забираем по ссылке (https://github.com/nusquama/n8nworkflows.xyz?tab=readme-ov-file).
@python_be1
Внутри — готовые боты для Telegram, инвестиционные советники, ИИ-ученые и многое другое. Все поможет автоматизировать рутину на работе и учебе.
Забираем по ссылке (https://github.com/nusquama/n8nworkflows.xyz?tab=readme-ov-file).
@python_be1
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️ ПРИЁМ ДЛЯ ГЛАДКОЙ ПЕРЕДАЧИ ДАННЫХ В ASYNCIO
В сетевом Python можно «мягко» ограничивать скорость передачи данных без троттлинга на уровне сокета.
Приём - отправлять данные кусками и вставлять короткий `await asyncio sleep` после каждого drain(): это отдаёт управление циклу, даёт шанс другим корутинам и предотвращает монополизацию CPU.
Полезно в высоконагруженных стримерах.
```
простой «мягкий» троттлинг передачи данных
import asyncio
CHUNK = 32_000
async def send_smooth(writer, data: bytes):
for i in range(0, len(data), CHUNK):
writer.write(data[i:i+CHUNK])
await writer.drain()
await asyncio.sleep(0) # отдаём управление циклу
async def handle(reader, writer):
payload = b"x" * 5_000_000
await send_smooth(writer, payload)
writer.close()
await writer.wait_closed()
async def main():
srv = await asyncio.start_server(handle, "0.0.0.0", 8888)
async with srv:
await srv.serve_forever()
asyncio.run(main())
```
@python_be1
В сетевом Python можно «мягко» ограничивать скорость передачи данных без троттлинга на уровне сокета.
Приём - отправлять данные кусками и вставлять короткий `await asyncio sleep` после каждого drain(): это отдаёт управление циклу, даёт шанс другим корутинам и предотвращает монополизацию CPU.
Полезно в высоконагруженных стримерах.
```
простой «мягкий» троттлинг передачи данных
import asyncio
CHUNK = 32_000
async def send_smooth(writer, data: bytes):
for i in range(0, len(data), CHUNK):
writer.write(data[i:i+CHUNK])
await writer.drain()
await asyncio.sleep(0) # отдаём управление циклу
async def handle(reader, writer):
payload = b"x" * 5_000_000
await send_smooth(writer, payload)
writer.close()
await writer.wait_closed()
async def main():
srv = await asyncio.start_server(handle, "0.0.0.0", 8888)
async with srv:
await srv.serve_forever()
asyncio.run(main())
```
@python_be1
Media is too big
VIEW IN TELEGRAM
Как работает память в Python
🐍 t.me/ - наш телеграм канал с уроками Python
🔥 https://t.me/+Ti3Kid-S7mxlNzNi - лучшие ии инструмент и гайды по работе с ними у меня в телеграме, подпишись, не пожалеешь
📌 https://t.me/addlist/8vDUwYRGujRmZjFi - А здесь собрана папка отборных материалов по работе с ИИ
🧠 Как работает память в Python 3.14 — простыми словами
Python 3.14 — это самый крупный пересмотр модели памяти за много лет из-за free-threading (возможность исполнять Python-код в нескольких потоках одновременно без GIL).
Это потребовало переработать несколько фундаментальных механизмов:
1) 📦 Pymalloc → стал потокобезопасным и менее конфликтным
В CPython объекты малого размера (до 512 байт) выделяются через pymalloc.
Раньше он использовал глобальные структуры → блокировал треды.
@python_be1
🐍 t.me/ - наш телеграм канал с уроками Python
🔥 https://t.me/+Ti3Kid-S7mxlNzNi - лучшие ии инструмент и гайды по работе с ними у меня в телеграме, подпишись, не пожалеешь
📌 https://t.me/addlist/8vDUwYRGujRmZjFi - А здесь собрана папка отборных материалов по работе с ИИ
🧠 Как работает память в Python 3.14 — простыми словами
Python 3.14 — это самый крупный пересмотр модели памяти за много лет из-за free-threading (возможность исполнять Python-код в нескольких потоках одновременно без GIL).
Это потребовало переработать несколько фундаментальных механизмов:
1) 📦 Pymalloc → стал потокобезопасным и менее конфликтным
В CPython объекты малого размера (до 512 байт) выделяются через pymalloc.
Раньше он использовал глобальные структуры → блокировал треды.
@python_be1
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️ Революция — вышла нейронка MeshCoder, которая превращает любые 3D-объекты в редактируемый код! Она преобразует облака точек в Python-скрипты для Blender.
Теперь 3D-моделями можно полностью управлять через код: менять форму, анимировать, генерировать кучу вариаций за раз и автоматизировать создание 3D-объектов.
Прорыв доступен всем — тут. (https://github.com/InternRobotics/MeshCoder)
@python_be1
Теперь 3D-моделями можно полностью управлять через код: менять форму, анимировать, генерировать кучу вариаций за раз и автоматизировать создание 3D-объектов.
Прорыв доступен всем — тут. (https://github.com/InternRobotics/MeshCoder)
@python_be1
Ловите годноту «CodeChef» платформа для практики и соревнований
Здесь вы найдёте кучу задач от лёгких до «мозг взрывает». Писать можно на чем угодно: C, C++, Java, Python и ещё десятках языков
И да — каждый месяц тут проходят крутые контесты, где можно посоревноваться с ребятами со всего света 💪
☝️ Ссылка источник (https://www.codechef.com/learn)
@python_be1
Здесь вы найдёте кучу задач от лёгких до «мозг взрывает». Писать можно на чем угодно: C, C++, Java, Python и ещё десятках языков
И да — каждый месяц тут проходят крутые контесты, где можно посоревноваться с ребятами со всего света 💪
☝️ Ссылка источник (https://www.codechef.com/learn)
@python_be1
This media is not supported in your browser
VIEW IN TELEGRAM
✨ Превращай математику в живые анимации с Manim
Статические слайды — это хорошо, но сложные идеи гораздо легче объяснить через динамические визуализации.
Manim позволяет создавать профессиональные математические анимации в Python — такие же, как в видео 3Blue1Brown.
Что делает Manim мощным:
• MathTex — задаёт формулы в LaTeX
• Transform — плавно превращает одну формулу в другую
• play() и wait() — управляют ходом анимации
• Рендеринг одной командой:
`manim -p -ql script.py`
Manim — идеальный инструмент, когда нужно не просто показать формулу, а *объяснить идею* так, чтобы она оживала на экране.
https://docs.manim.community/en/stable/reference/manim.mobject.geometry.html#module-manim.mobject.geometry
@python_be1
Статические слайды — это хорошо, но сложные идеи гораздо легче объяснить через динамические визуализации.
Manim позволяет создавать профессиональные математические анимации в Python — такие же, как в видео 3Blue1Brown.
Что делает Manim мощным:
• MathTex — задаёт формулы в LaTeX
• Transform — плавно превращает одну формулу в другую
• play() и wait() — управляют ходом анимации
• Рендеринг одной командой:
`manim -p -ql script.py`
Manim — идеальный инструмент, когда нужно не просто показать формулу, а *объяснить идею* так, чтобы она оживала на экране.
https://docs.manim.community/en/stable/reference/manim.mobject.geometry.html#module-manim.mobject.geometry
@python_be1
⚡️ Google релизнули Gemini 3.0 — самую мощную модель на сегодня.
Главное:
🟢 По всем бенчам опережает конкурентов Sonnet 4.5 и GPT-5.1, иногда в разы. Так, на ARC-AGI-2, тесте на «общий интеллект», набирает 31,1% — это почти в 2 раза больше GPT-5.1!
🟢 Еще довольно сильно выделяется модель на Vending Bench 2 — тесте на долгосрочное планирование, когда ИИ управляет симуляцией торгового автомата. Gemini тут заработала 5.500 $, до этого рекорд до этого был у Sonnet — 3.800 $
🟢 Плюс улучшилась способность понимать изображения и производительность в агентных задачах.
🟢 Контекст — 1 млн токенов, знания до января 2025-го. Модель полностью обучена с нуля, архитектура MoE.
Модель генерирует игры и сайты с одного промпта и может эмулировать целые ОС!
Уже доступна (https://aistudio.google.com/prompts/new_chat?model=gemini-3-pro-preview) через AI Studio доступна! Бежим тестить 🏃♂️
@python_be1
Главное:
🟢 По всем бенчам опережает конкурентов Sonnet 4.5 и GPT-5.1, иногда в разы. Так, на ARC-AGI-2, тесте на «общий интеллект», набирает 31,1% — это почти в 2 раза больше GPT-5.1!
🟢 Еще довольно сильно выделяется модель на Vending Bench 2 — тесте на долгосрочное планирование, когда ИИ управляет симуляцией торгового автомата. Gemini тут заработала 5.500 $, до этого рекорд до этого был у Sonnet — 3.800 $
🟢 Плюс улучшилась способность понимать изображения и производительность в агентных задачах.
🟢 Контекст — 1 млн токенов, знания до января 2025-го. Модель полностью обучена с нуля, архитектура MoE.
Модель генерирует игры и сайты с одного промпта и может эмулировать целые ОС!
Уже доступна (https://aistudio.google.com/prompts/new_chat?model=gemini-3-pro-preview) через AI Studio доступна! Бежим тестить 🏃♂️
@python_be1
В сети нашли BookGraph — это интерактивная карта по поиску книг.
Просто загружаете или вводите свои любимые книги, а сервис сам строит карту, ищет пересечения и предлагает похожие книги, которые вам должны понравиться по темам, авторам и другим фильтрам.
Книжные черви, забираем (https://bookgraph.lovable.app/)📖
@python_be1
Просто загружаете или вводите свои любимые книги, а сервис сам строит карту, ищет пересечения и предлагает похожие книги, которые вам должны понравиться по темам, авторам и другим фильтрам.
Книжные черви, забираем (https://bookgraph.lovable.app/)📖
@python_be1
Айтишник из США в свои 28 лет накопил (https://www.teamblind.com/post/should-i-just-retire-at-28-ws2txmyq) $15 млн или ₽1,2 млрд на пенсию — но переживает: вдруг этого не хватит.
В комментах советуют не паниковать, но добавили, что к 28 надо бы уже $50 млн, а лучше $100. Иначе стыдно перед чатом.
человек с ₽1,2 млрд всерьёз боится остаться без пенсии 😱
@python_be1
В комментах советуют не паниковать, но добавили, что к 28 надо бы уже $50 млн, а лучше $100. Иначе стыдно перед чатом.
человек с ₽1,2 млрд всерьёз боится остаться без пенсии 😱
@python_be1
Вышла Nano Banana Pro — теперь это лучшая модель для создания картинок и полноценный ИИ-фотошоп.
Новая модель на базе Gemini 3 Pro за пару секунд создает реалистичные изображения без артефактов и отлично справляется с генерацией текста. Качество редактирования по сравнению с Nano Banana выросло в разы.
Доступно бесплатно в чат-боте Gemini (https://gemini.google.com/app) и скоро появится в AI Studio (https://aistudio.google.com/prompts/new_chat).
@python_be1
Новая модель на базе Gemini 3 Pro за пару секунд создает реалистичные изображения без артефактов и отлично справляется с генерацией текста. Качество редактирования по сравнению с Nano Banana выросло в разы.
Доступно бесплатно в чат-боте Gemini (https://gemini.google.com/app) и скоро появится в AI Studio (https://aistudio.google.com/prompts/new_chat).
@python_be1
Media is too big
VIEW IN TELEGRAM
✔️ HunyuanVideo 1.5 - новая открытая модель для генерации видео, которая сейчас считается самым сильным open-source решением в этой области.
Построенная на архитектуре DiT, модель поднимает планку по качеству и доступности.
Что важно:
⚡️ Всего 8.3B параметров - модель можно запускать даже на потребительских GPU с 14GB VRAM
🖥️ Качество: генерирует 5–10 секунд видео в 480p/720p, а через суперразрешение —ё- до 1080p с киношной детализацией
SOTA-качество с очень низкими требованиями к железу.
🟠Проект: hunyuan.tencent.com/video/zh
🟠GitHub: github.com/Tencent-Hunyuan/HunyuanVideo-1.5
🟠Hugging Face: huggingface.co/tencent/HunyuanVideo-1.5
@python_be1
Построенная на архитектуре DiT, модель поднимает планку по качеству и доступности.
Что важно:
⚡️ Всего 8.3B параметров - модель можно запускать даже на потребительских GPU с 14GB VRAM
🖥️ Качество: генерирует 5–10 секунд видео в 480p/720p, а через суперразрешение —ё- до 1080p с киношной детализацией
SOTA-качество с очень низкими требованиями к железу.
🟠Проект: hunyuan.tencent.com/video/zh
🟠GitHub: github.com/Tencent-Hunyuan/HunyuanVideo-1.5
🟠Hugging Face: huggingface.co/tencent/HunyuanVideo-1.5
@python_be1
Качаем ВЕСЬ Телеграм с помощью СУПЕРЗАГРУЗЧИКА — Telegram Downloader умеет парсить инфу даже из ЗАКРЫТЫХ чатов.
• Сервис помогает легально, быстро и легко скачать ЛЮБЫЕ файлы даже из защищенных каналов и чатов, где ЗАПРЕЩЕНА пересылка контента.
• Качает даже тяжелые файлы за секунды.
• Загрузки экспортирует в JSON-формат прямо на ваш диск.
• Может быстро и без проблем загружать ТЕРАБАЙТЫ данных. Ограничений НЕТ!
• Работает локально — вся инфа о загрузках будет только на вашем компе. Никто не получит доступ к данным.
• Еще раз: ОФИЦИАЛЬНО, БЕЗ ограничений, БЕЗ нарушений политики Телеграма. Можете свободно юзать тулзу.
😶😶😶😶😶😶😶😶😶
Суперполезный сервис — тут. (https://github.com/iyear/tdl/)
👍
@python_be1
• Сервис помогает легально, быстро и легко скачать ЛЮБЫЕ файлы даже из защищенных каналов и чатов, где ЗАПРЕЩЕНА пересылка контента.
• Качает даже тяжелые файлы за секунды.
• Загрузки экспортирует в JSON-формат прямо на ваш диск.
• Может быстро и без проблем загружать ТЕРАБАЙТЫ данных. Ограничений НЕТ!
• Работает локально — вся инфа о загрузках будет только на вашем компе. Никто не получит доступ к данным.
• Еще раз: ОФИЦИАЛЬНО, БЕЗ ограничений, БЕЗ нарушений политики Телеграма. Можете свободно юзать тулзу.
😶😶😶😶😶😶😶😶😶
Суперполезный сервис — тут. (https://github.com/iyear/tdl/)
👍
@python_be1
This media is not supported in your browser
VIEW IN TELEGRAM
❌ НЕЛЬЗЯ ТАК ИСПОЛЬЗОВАТЬ LAMBDA В PYTHON
Главная ошибка - превращать lambda в свалку логики: добавлять туда побочные эффекты, вызовы print, длинные условия и вычисления.
Такие лямбды плохо читаются, их невозможно нормально отлаживать, и они нарушают саму идею — быть короткой и чистой функцией. Всё сложное нужно выносить в обычную функцию. Подписывайся, больше фишек каждый день !
@python_be1
Главная ошибка - превращать lambda в свалку логики: добавлять туда побочные эффекты, вызовы print, длинные условия и вычисления.
Такие лямбды плохо читаются, их невозможно нормально отлаживать, и они нарушают саму идею — быть короткой и чистой функцией. Всё сложное нужно выносить в обычную функцию. Подписывайся, больше фишек каждый день !
@python_be1
This media is not supported in your browser
VIEW IN TELEGRAM
Быстрый Linux совет 🐧💡
Если нужно найти все файлы, которые содержат определённую строку, используй:
grep -rl string .
• -r выполняет рекурсивный поиск
• -l выводит только список файлов, где найдено совпадение
Изучай Linux с удовольствием 😎
@python_be1
Если нужно найти все файлы, которые содержат определённую строку, используй:
grep -rl string .
• -r выполняет рекурсивный поиск
• -l выводит только список файлов, где найдено совпадение
Изучай Linux с удовольствием 😎
@python_be1
This media is not supported in your browser
VIEW IN TELEGRAM
🔥Python: САМЫЙ ЭФФЕКТИВНЫЙ АЛГОРИТМ ДЛЯ ПОИСКА
Нет «одного» идеального алгоритма на все случаи жизни, но для поиска по отсортированным данным классика — бинарный поиск с сложностью О лог н.
Вместо того чтобы проходить весь список по очереди, он каждый раз делит диапазон пополам и быстро сужает область поиска.
Главное правило: если можешь отсортировать данные и потом искать — почти всегда лучше использовать бинарный поиск, а не линейный проход.
@python_be1
Нет «одного» идеального алгоритма на все случаи жизни, но для поиска по отсортированным данным классика — бинарный поиск с сложностью О лог н.
Вместо того чтобы проходить весь список по очереди, он каждый раз делит диапазон пополам и быстро сужает область поиска.
Главное правило: если можешь отсортировать данные и потом искать — почти всегда лучше использовать бинарный поиск, а не линейный проход.
@python_be1
🧵 CPython 3.15 делает распаковку данных намного быстрее
В новой версии CPython улучшили производительность декомпрессии:
- Zstandard (zstd) распаковывается на 25–30% быстрее
- zlib — на 10–15% быстрее, если размер данных больше 1 MiB
Такого ускорения добились за счёт более эффективной работы с выходными буферами во время распаковки.
Подробнее: emmatyping.dev/decompression-is-up-to-30-faster-in-cpython-315.html
@python_be1
В новой версии CPython улучшили производительность декомпрессии:
- Zstandard (zstd) распаковывается на 25–30% быстрее
- zlib — на 10–15% быстрее, если размер данных больше 1 MiB
Такого ускорения добились за счёт более эффективной работы с выходными буферами во время распаковки.
Подробнее: emmatyping.dev/decompression-is-up-to-30-faster-in-cpython-315.html
@python_be1
🖥 Понятное объяснение Docker Networking Models
Docker поддерживает несколько сетевых моделей - от полной изоляции до работы напрямую с сетью хоста. Выбор нужного варианта влияет на безопасность, производительность и масштабируемость приложения.
1) Bridge (по умолчанию)
→ Docker создаёт виртуальный мост docker0.
→ Контейнеры общаются друг с другом по внутренним IP.
→ Чтобы получить доступ извне, нужно пробрасывать порты (-p 8080:80).
→ Идеально для локальной разработки и одиночных хостов.
2) Host
→ Контейнер использует сетевой стек хоста напрямую.
→ Нет виртуальной сети и NAT - максимум производительности.
→ Минимальная изоляция.
→ Применяется для мониторинга, логгинга, высокоскоростных сервисов.
3) None
→ У контейнера вообще нет сети.
→ Нет доступа ни к интернету, ни к другим контейнерам.
→ Используется для задач, где требуется полная изоляция.
4) Overlay
→ Сеть, работающая поверх нескольких хостов или в Docker Swarm.
→ Контейнеры на разных серверах могут общаться как будто они в одной сети.
→ Основа для распределённых микросервисных систем.
5) Macvlan
→ Каждый контейнер получает свой MAC-адрес и «видится» как отдельная машина.
→ Контейнеры становятся полноценными участниками вашей физической сети.
→ Полезно, когда контейнеры должны быть напрямую доступны по LAN.
6) IPvlan
→ Похоже на Macvlan, но проще управляет IP-адресами на уровне L3.
→ Хорошо подходит для масштабных систем с жёсткими требованиями к маршрутизации.
Дополнительно:
Сервис-дискавери
→ Внутри Docker работает собственный DNS - контейнеры могут общаться по имени сервиса, а не по IP.
Проброс портов
→ Стандартный вариант доступа извне:
-p 8080:80
Драйверы сетей
→ bridge
→ host
→ overlay
→ macvlan
→ ipvlan
Как выбрать модель?
→ Bridge — одиночный хост, локалка.
→ Host — максимум скорости, минимум изоляции.
→ Overlay — распределённые микросервисы.
→ Macvlan — нужны «настоящие» сетевые адреса.
→ None — полная изоляция без сети.
Правильный выбор сетевой модели Docker напрямую влияет на безопасность, структуру архитектуры и производительность. Чтобы уверенно работать с контейнерами и микросервисами - эти модели нужно знать.
@python_be1
Docker поддерживает несколько сетевых моделей - от полной изоляции до работы напрямую с сетью хоста. Выбор нужного варианта влияет на безопасность, производительность и масштабируемость приложения.
1) Bridge (по умолчанию)
→ Docker создаёт виртуальный мост docker0.
→ Контейнеры общаются друг с другом по внутренним IP.
→ Чтобы получить доступ извне, нужно пробрасывать порты (-p 8080:80).
→ Идеально для локальной разработки и одиночных хостов.
2) Host
→ Контейнер использует сетевой стек хоста напрямую.
→ Нет виртуальной сети и NAT - максимум производительности.
→ Минимальная изоляция.
→ Применяется для мониторинга, логгинга, высокоскоростных сервисов.
3) None
→ У контейнера вообще нет сети.
→ Нет доступа ни к интернету, ни к другим контейнерам.
→ Используется для задач, где требуется полная изоляция.
4) Overlay
→ Сеть, работающая поверх нескольких хостов или в Docker Swarm.
→ Контейнеры на разных серверах могут общаться как будто они в одной сети.
→ Основа для распределённых микросервисных систем.
5) Macvlan
→ Каждый контейнер получает свой MAC-адрес и «видится» как отдельная машина.
→ Контейнеры становятся полноценными участниками вашей физической сети.
→ Полезно, когда контейнеры должны быть напрямую доступны по LAN.
6) IPvlan
→ Похоже на Macvlan, но проще управляет IP-адресами на уровне L3.
→ Хорошо подходит для масштабных систем с жёсткими требованиями к маршрутизации.
Дополнительно:
Сервис-дискавери
→ Внутри Docker работает собственный DNS - контейнеры могут общаться по имени сервиса, а не по IP.
Проброс портов
→ Стандартный вариант доступа извне:
-p 8080:80
Драйверы сетей
→ bridge
→ host
→ overlay
→ macvlan
→ ipvlan
Как выбрать модель?
→ Bridge — одиночный хост, локалка.
→ Host — максимум скорости, минимум изоляции.
→ Overlay — распределённые микросервисы.
→ Macvlan — нужны «настоящие» сетевые адреса.
→ None — полная изоляция без сети.
Правильный выбор сетевой модели Docker напрямую влияет на безопасность, структуру архитектуры и производительность. Чтобы уверенно работать с контейнерами и микросервисами - эти модели нужно знать.
@python_be1
Linux Хитрая и полезная консольная фишка 🐧💡
Если хочешь быстро повторить последнюю команду, но с небольшой правкой, не нужно заново её печатать.
Используй:
fc
Эта команда откроет последнюю введённую команду в твоём $EDITOR (обычно nano или vim).
Исправляешь, сохраняешь — и она автоматически выполняется.
Пример:
1. Ты написал команду с ошибкой
2. Вводишь fc
3. Правишь одну букву
4. Сохраняешь
5. Команда запускается сразу с исправлением
Очень удобно, когда работаешь с длинными командами, которые сложно повторять вручную.
@python_be1
Если хочешь быстро повторить последнюю команду, но с небольшой правкой, не нужно заново её печатать.
Используй:
fc
Эта команда откроет последнюю введённую команду в твоём $EDITOR (обычно nano или vim).
Исправляешь, сохраняешь — и она автоматически выполняется.
Пример:
1. Ты написал команду с ошибкой
2. Вводишь fc
3. Правишь одну букву
4. Сохраняешь
5. Команда запускается сразу с исправлением
Очень удобно, когда работаешь с длинными командами, которые сложно повторять вручную.
@python_be1