Python_BE1
9 subscribers
747 photos
251 videos
7 files
672 links
Канал по Python, полезный и интересный контент для всех уровней.
По вопросам сотрудничества @cyberJohnny
Download Telegram
🚀 VibeThinker: Новый стандарт в моделях с малым количеством параметров

Это 1.5B модель, которая демонстрирует выдающиеся способности в решении математических задач, соперничая с гораздо более крупными моделями. Используя инновационную методику постобучения, она достигает результатов, сопоставимых с открытыми моделями, такими как GPT OSS-20B Medium, при значительно меньших затратах.

🚀Основные моменты:
- Эффективность: 1.5B параметров, производительность на уровне 1000B+ моделей.
- Инновационная методология: "Spectrum-to-Signal Principle" для улучшения разнообразия выходных данных.
- Выдающиеся результаты: Превосходит модели, в 10-600 раз большие.
- Экономичность: Разработка модели стоит всего $7,800 против сотен тысяч для конкурентов.

📌 GitHub: https://github.com/WeiboAI/VibeThinker

#python

@python_be1
Запоминаем

@python_be1
This media is not supported in your browser
VIEW IN TELEGRAM
Посмотрите, что творит Gemini 3. Такие лендинги раньше продавали за кругленькие суммы 😮‍💨

Промт:

```
Сделай необруталистичный веб-сайт, максимально креативный, насколько это возможно — на пределе. Добавь плавные анимации при прокрутке, яркие цвета и стили Tailwind CSS. Сделай его адаптивным. Название страницы — dorksense.
```

Можно потыкать самостоятельно: gemini.google.com/share/b086dc0eedf7

@python_be1
🧭 LinkedIn запускает новую систему поиска людей на базе ИИ — для всех своих 1.3 млрд пользователей.

Как это работает:
- ИИ переводит обычный запрос в связанные навыки и области.
Например, запрос *«curing cancer»* найдёт не только учёных, но и экспертов в онкологии и геномике — и при этом учитывает, насколько человек достижим в вашей сети.

Как обучали:
- Команда вручную собрала “золотой” набор из нескольких сотен–тысяч пар «запрос–профиль».
- На нём сгенерировали синтетические данные и обучили 7B модель-судью.
- Затем дистиллировали её в 1.7B учителя релевантности и отдельных учителей для пользовательских действий (connect, follow).
- Итоговая модель обучалась на мягких оценках через KL-дивергенцию.

Как устроен поиск:
- Первый этап — широкая выборка с помощью 8B модели.
- Второй — компактный ранкер, который обеспечивает точность и при этом дешёв в продакшене.
- Ранкер ужали с 440M до 220M параметров с потерей менее 1% качества — это позволило держать систему дешёвой на таком масштабе.

Технические решения:
- Индексацию пришлось перенести с CPU на GPU — граф людей ведёт себя иначе, чем поиск вакансий.
- RL-сжатие контекста уменьшает ввод почти в 20 раз, а связка ранкера и сжатия даёт ускорение в 10 раз.
- Отдельный LLM-router решает, использовать ли семантический стек или откатиться к классическому лексическому поиску.

Источник: venturebeat.com/ai/inside-linkedins-generative-ai-cookbook-how-it-scaled-people-search-to-1-3

@python_be1
На GitHub собрали почти 6000 готовых шаблонов для n8n: можно моментально запустить своего ИИ-агента под любую задачу.

Внутри — готовые боты для Telegram, инвестиционные советники, ИИ-ученые и многое другое. Все поможет автоматизировать рутину на работе и учебе.

Забираем по ссылке (https://github.com/nusquama/n8nworkflows.xyz?tab=readme-ov-file).

@python_be1
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️ ПРИЁМ ДЛЯ ГЛАДКОЙ ПЕРЕДАЧИ ДАННЫХ В ASYNCIO

В сетевом Python можно «мягко» ограничивать скорость передачи данных без троттлинга на уровне сокета.

Приём - отправлять данные кусками и вставлять короткий `await asyncio sleep` после каждого drain(): это отдаёт управление циклу, даёт шанс другим корутинам и предотвращает монополизацию CPU.

Полезно в высоконагруженных стримерах.

```

простой «мягкий» троттлинг передачи данных

import asyncio

CHUNK = 32_000

async def send_smooth(writer, data: bytes):
for i in range(0, len(data), CHUNK):
writer.write(data[i:i+CHUNK])
await writer.drain()
await asyncio.sleep(0) # отдаём управление циклу

async def handle(reader, writer):
payload = b"x" * 5_000_000
await send_smooth(writer, payload)
writer.close()
await writer.wait_closed()

async def main():
srv = await asyncio.start_server(handle, "0.0.0.0", 8888)
async with srv:
await srv.serve_forever()

asyncio.run(main())
```

@python_be1
Media is too big
VIEW IN TELEGRAM
Как работает память в Python
🐍 t.me/ - наш телеграм канал с уроками Python
🔥 https://t.me/+Ti3Kid-S7mxlNzNi - лучшие ии инструмент и гайды по работе с ними у меня в телеграме, подпишись, не пожалеешь
📌 https://t.me/addlist/8vDUwYRGujRmZjFi - А здесь собрана папка отборных материалов по работе с ИИ
🧠 Как работает память в Python 3.14 — простыми словами

Python 3.14 — это самый крупный пересмотр модели памяти за много лет из-за free-threading (возможность исполнять Python-код в нескольких потоках одновременно без GIL).

Это потребовало переработать несколько фундаментальных механизмов:

1) 📦 Pymalloc → стал потокобезопасным и менее конфликтным

В CPython объекты малого размера (до 512 байт) выделяются через pymalloc.
Раньше он использовал глобальные структуры → блокировал треды.

@python_be1
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️ Революция — вышла нейронка MeshCoder, которая превращает любые 3D-объекты в редактируемый код! Она преобразует облака точек в Python-скрипты для Blender.

Теперь 3D-моделями можно полностью управлять через код: менять форму, анимировать, генерировать кучу вариаций за раз и автоматизировать создание 3D-объектов.

Прорыв доступен всем — тут. (https://github.com/InternRobotics/MeshCoder)

@python_be1
Ловите годноту «CodeChef» платформа для практики и соревнований

Здесь вы найдёте кучу задач от лёгких до «мозг взрывает». Писать можно на чем угодно: C, C++, Java, Python и ещё десятках языков

И да — каждый месяц тут проходят крутые контесты, где можно посоревноваться с ребятами со всего света 💪
☝️ Ссылка источник (https://www.codechef.com/learn)

@python_be1
This media is not supported in your browser
VIEW IN TELEGRAM
Превращай математику в живые анимации с Manim

Статические слайды — это хорошо, но сложные идеи гораздо легче объяснить через динамические визуализации.

Manim позволяет создавать профессиональные математические анимации в Python — такие же, как в видео 3Blue1Brown.

Что делает Manim мощным:

• MathTex — задаёт формулы в LaTeX
• Transform — плавно превращает одну формулу в другую
• play() и wait() — управляют ходом анимации
• Рендеринг одной командой:
`manim -p -ql script.py`

Manim — идеальный инструмент, когда нужно не просто показать формулу, а *объяснить идею* так, чтобы она оживала на экране.

https://docs.manim.community/en/stable/reference/manim.mobject.geometry.html#module-manim.mobject.geometry

@python_be1
⚡️ Google релизнули Gemini 3.0 — самую мощную модель на сегодня.

Главное:
🟢 По всем бенчам опережает конкурентов Sonnet 4.5 и GPT-5.1, иногда в разы. Так, на ARC-AGI-2, тесте на «общий интеллект», набирает 31,1% — это почти в 2 раза больше GPT-5.1!

🟢 Еще довольно сильно выделяется модель на Vending Bench 2 — тесте на долгосрочное планирование, когда ИИ управляет симуляцией торгового автомата. Gemini тут заработала 5.500 $, до этого рекорд до этого был у Sonnet — 3.800 $

🟢 Плюс улучшилась способность понимать изображения и производительность в агентных задачах.

🟢 Контекст — 1 млн токенов, знания до января 2025-го. Модель полностью обучена с нуля, архитектура MoE.

Модель генерирует игры и сайты с одного промпта и может эмулировать целые ОС!

Уже доступна (https://aistudio.google.com/prompts/new_chat?model=gemini-3-pro-preview) через AI Studio доступна! Бежим тестить 🏃‍♂️

@python_be1
В сети нашли BookGraph — это интерактивная карта по поиску книг.

Просто загружаете или вводите свои любимые книги, а сервис сам строит карту, ищет пересечения и предлагает похожие книги, которые вам должны понравиться по темам, авторам и другим фильтрам.

Книжные черви, забираем (https://bookgraph.lovable.app/)📖

@python_be1
Айтишник из США в свои 28 лет накопил (https://www.teamblind.com/post/should-i-just-retire-at-28-ws2txmyq) $15 млн или ₽1,2 млрд на пенсию — но переживает: вдруг этого не хватит.

В комментах советуют не паниковать, но добавили, что к 28 надо бы уже $50 млн, а лучше $100. Иначе стыдно перед чатом.

человек с ₽1,2 млрд всерьёз боится остаться без пенсии 😱

@python_be1
Вышла Nano Banana Pro — теперь это лучшая модель для создания картинок и полноценный ИИ-фотошоп.

Новая модель на базе Gemini 3 Pro за пару секунд создает реалистичные изображения без артефактов и отлично справляется с генерацией текста. Качество редактирования по сравнению с Nano Banana выросло в разы.

Доступно бесплатно в чат-боте Gemini (https://gemini.google.com/app) и скоро появится в AI Studio (https://aistudio.google.com/prompts/new_chat).

@python_be1
Media is too big
VIEW IN TELEGRAM
✔️ HunyuanVideo 1.5 - новая открытая модель для генерации видео, которая сейчас считается самым сильным open-source решением в этой области.

Построенная на архитектуре DiT, модель поднимает планку по качеству и доступности.

Что важно:
⚡️ Всего 8.3B параметров - модель можно запускать даже на потребительских GPU с 14GB VRAM
🖥️ Качество: генерирует 5–10 секунд видео в 480p/720p, а через суперразрешение —ё- до 1080p с киношной детализацией

SOTA-качество с очень низкими требованиями к железу.

🟠Проект: hunyuan.tencent.com/video/zh
🟠GitHub: github.com/Tencent-Hunyuan/HunyuanVideo-1.5
🟠Hugging Face: huggingface.co/tencent/HunyuanVideo-1.5

@python_be1
2015.г IT-рынок в СНГ🍿

@python_be1
Качаем ВЕСЬ Телеграм с помощью СУПЕРЗАГРУЗЧИКА — Telegram Downloader умеет парсить инфу даже из ЗАКРЫТЫХ чатов.

• Сервис помогает легально, быстро и легко скачать ЛЮБЫЕ файлы даже из защищенных каналов и чатов, где ЗАПРЕЩЕНА пересылка контента.
• Качает даже тяжелые файлы за секунды.
• Загрузки экспортирует в JSON-формат прямо на ваш диск.
• Может быстро и без проблем загружать ТЕРАБАЙТЫ данных. Ограничений НЕТ!
• Работает локально — вся инфа о загрузках будет только на вашем компе. Никто не получит доступ к данным.
• Еще раз: ОФИЦИАЛЬНО, БЕЗ ограничений, БЕЗ нарушений политики Телеграма. Можете свободно юзать тулзу.

😶😶😶😶😶😶😶😶😶

Суперполезный сервис — тут. (https://github.com/iyear/tdl/)
👍

@python_be1
This media is not supported in your browser
VIEW IN TELEGRAM
НЕЛЬЗЯ ТАК ИСПОЛЬЗОВАТЬ LAMBDA В PYTHON

Главная ошибка - превращать lambda в свалку логики: добавлять туда побочные эффекты, вызовы print, длинные условия и вычисления.

Такие лямбды плохо читаются, их невозможно нормально отлаживать, и они нарушают саму идею — быть короткой и чистой функцией. Всё сложное нужно выносить в обычную функцию. Подписывайся, больше фишек каждый день !

@python_be1