Python/ django
62.4K subscribers
2.37K photos
170 videos
48 files
3.1K links
по всем вопросам @haarrp

@itchannels_telegram - 🔥 все ит каналы

@ai_machinelearning_big_data -ML

@ArtificialIntelligencedl -AI

@datascienceiot - 📚

@pythonlbooks

РКН: clck.ru/3FmxmM
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
🖥 Python-совет: не проверяйте длину — проверяйте объект


Python умеет проверять «пустоту» объектов напрямую - быстрее и читаемее.

Многие новички пишут так:


if len(items) > 0:
process(items)


Это лишняя операция.

Правильный способ — использовать truthiness.

Почему это лучше:
- Короче и понятнее
- Работает для списков, строк, словарей, set и других коллекций
- Соответствует Pythonic-стилю
- Не делает лишний вызов len()

Пример:


# Плохо
if len(items) > 0:
process(items)

# Хорошо
if items:
process(items)

# Проверка на пустоту
if not items:
print("Empty")

# Работает для разных типов
data = {}
if data:
print("Has data")
Please open Telegram to view this post
VIEW IN TELEGRAM
👍289🔥4😱2🤩1
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️ LavaSR - улучшение речи в 4000× быстрее реального времени

В open-source выложили LavaSR - модель для улучшения качества речи, которая работает с экстремальной скоростью.

Что умеет модель:

- Скорость — до 4000× realtime
(обрабатывает часы аудио за секунды)
- Универсальность — поддержка любого аудио от 8 kHz до 48 kHz
- Размер — всего ~50 МБ, можно запускать практически везде
- Качество — сопоставимо с более крупными моделями

Где это может пригодиться

- очистка шума в записях
- улучшение качества звонков
- подготовка аудио для ASR / speech-to-text
- подкасты, стримы, voice-боты
- обработка аудио на edge-устройствах

Лёгкая модель + высокая скорость = удобно для реальных production-задач.

Репозиторий: https://github.com/ysharma3501/LavaSR

📲Max

@pythonl
Please open Telegram to view this post
VIEW IN TELEGRAM
21👍11🔥4
💸 AI, который должен зарабатывать… или обанкротится

Исследователи представили ClawWork - систему, где модель работает в условиях реальной экономики.

Стартовые условия:
- баланс: $10
- каждая генерация = реальные расходы на токены
- никакого безлимита
- не заработал - банкрот

Как это работает:

→ AI получает реальные профессиональные задачи
(финансы, медицина, юриспруденция, аналитика)
→ Сам создаёт полноценные результаты с нуля
→ Качество оценивается GPT-5.2 по профессиональным критериям
→ Оплата рассчитывается по формуле:
качество × оценка часов × средняя зарплата (BLS)
→ Каждый API-запрос уменьшает баланс

Результаты:
- $10K заработано за 7 часов
- 0 участия человека
- 220 задач
- 44 профессии
- лучшие модели - $1500+ в час (эквивалент)

Это уже не просто бенчмарк.
Это экономический тест на выживание.

Модель должна принимать решения:
- быстро выполнять задачи ради кэша
- или тратить ресурсы на обучение, чтобы зарабатывать больше позже

Дополнительно:

AI может работать как живой сотрудник в
Telegram, Slack, Discord и WhatsApp —
и каждое сообщение стоит реальных денег.

Проект полностью open-source (MIT).

Следующий этап оценки AI - не тесты и бенчмарки.
А способность приносить деньги в реальной экономике.

https://github.com/HKUDS/ClawWork

📲Max

@pythonl
Please open Telegram to view this post
VIEW IN TELEGRAM
14🔥9😁2👍1
This media is not supported in your browser
VIEW IN TELEGRAM
🚀 REAL-TIME СЕРВЕРЫ БЕЗ ЛИШНЕЙ СЛОЖНОСТИ

Если нужно быстро запускать веб-приложения с высокой производительностью и минимальной задержкой - посмотрите на WebRockets.

WebRockets — это лёгкий и быстрый фреймворк для создания веб-приложений и API с акцентом на скорость, простоту и минимальный overhead. Он подойдёт для проектов, где важны real-time взаимодействие и высокая нагрузка.

Когда полезно:

- Real-time приложения (чаты, уведомления, стриминг данных)
- Высоконагруженные API
- Dashboards и live-аналитика
- Backend для игр или trading-систем
- Любые сервисы, где важна низкая задержка

Что умеет:

- Работа через WebSocket для постоянного соединения
- Минимальная задержка и высокая пропускная способность
- Простая настройка и запуск
- Подходит для real-time архитектур
- Лёгкая интеграция в существующие backend-системы

Главная идея:

Обычный HTTP работает по принципу «запрос-ответ».
WebSocket держит постоянное соединение, позволяя серверу отправлять данные мгновенно без новых запросов — это основа современных real-time сервисов.


# Клонируем репозиторий
git clone https://github.com/ploMP4/webrockets.git
cd webrockets

# Установка зависимостей (если используется Node.js)
npm install

# Запуск сервера
npm start

# Пример простого WebSocket-сервера
const WebSocket = require("ws");

const wss = new WebSocket.Server({ port: 3000 });

wss.on("connection", (ws) => {
console.log("Client connected");

ws.send("Welcome!");

ws.on("message", (message) => {
console.log("Received:", message.toString());
ws.send(`Echo: ${message}`);
});
});

console.log("WebSocket server running on port 3000");


https://github.com/ploMP4/webrockets

@pythonl
10👍4🔥1
Python-баг, который выглядит безобидно… но ломает логику 👇


fruits = ["apple", "lime", "orange",
"pineapple", "orange"]

for f in fruits:
if f == "orange":
fruits.remove(f)

print(fruits)


Ожидание: оба orange удалятся.

Реальность: один orange остаётся.

Почему так происходит?

Ты изменяешь список во время итерации.
После удаления элементы сдвигаются, и цикл пропускает следующий элемент.

Это классический сценарий продакшн-багов:

• код выглядит правильно
• тесты могут пройти
• но данные обрабатываются неправильно

Правильный вариант:

fruits = [f for f in fruits if f != "orange"]


Мораль:
Изменяешь коллекцию во время обхода -Deploy first. Pray later.

#junior #python

@pythonl
120👍9😁4🔥2
✔️ Scrapling v0.4 - веб-скрапинг на Python без боли и переписывания кода

Вышел Scrapling 0.4 - адаптивный Python-фреймворк для парсинга, который работает от одного запроса до полноценных масштабных краулеров.

Главная проблема скрапинга знакома всем:
сайт обновился - селекторы сломались - всё перестало работать.

Scrapling решает это по-умному.

Парсер учится на изменениях страницы и автоматически находит нужные элементы, даже если структура сайта изменилась.

Что внутри:

- обход современных антибот-систем (включая Cloudflare Turnstile) из коробки
- встроенный spider для параллельных многосессионных обходов
- pause/resume для долгих краулов
- автоматическая ротация прокси
- запуск масштабного парсинга в несколько строк Python

Плюс:
- высокая скорость
- статистика в реальном времени
- потоковая обработка данных

Фактически это уровень Scrapy + антибот + адаптивный парсер, но с гораздо более простым стартом.

Инструмент сделан скраперами для скраперов - и подойдёт как для быстрых задач, так и для production-краулеров.

https://github.com/D4Vinci/Scrapling

@pythonl
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍169🔥6
🖥 Большинство “парсеров” умирают через 2 дня.
Ты научишься делать те, которые живут в проде.

Это не про BeautifulSoup ради галочки.
Это про системы сбора данных, которые:

• не падают от мелких правок на сайте
• собирают данные в разы быстрее
• обновляют всё сами по расписанию
• обходят ограничения и баны
• выглядят как сервис, а не хаос из файлов

Ты начнёшь видеть сайты не как страницы, а как источники данных, к которым можно подключиться.

В итоге ты сможешь:

• забирать данные для своих проектов
• автоматизировать чужую рутину
• делать инструменты для аналитики
• брать коммерческие заказы на сбор данных

Это навык, который напрямую превращается в деньги.
Не “знаю Python”, а умею добывать данные из интернета профессионально.

🎁 48 часов скидка 50% на Stepik: https://stepik.org/a/269942/
Please open Telegram to view this post
VIEW IN TELEGRAM
6👍2🔥2
🚀 Погружение в алгоритмы AI без магии

no-magic — это коллекция однофайловых, независимых реализаций алгоритмов, которые лежат в основе современных ИИ. Каждый скрипт является самодостаточной программой, обучающей модель с нуля и выполняющей предсказания, без использования сложных библиотек.

🚀 Основные моменты:
- Один файл — один алгоритм, без внешних зависимостей.
- Полное обучение и предсказание в каждом скрипте.
- Читаемый код с обязательными комментариями для понимания.
- Работает на обычном CPU за разумное время.

📌 GitHub: https://github.com/Mathews-Tom/no-magic

#python
13👍6🔥3
🎥 Генерация видео с FireRed-OpenStoryline

FireRed-OpenStoryline упрощает создание видео, превращая его в интуитивный процесс общения. Система автоматически генерирует сценарии, подбирает музыку и шрифты, а также позволяет редактировать видео с помощью естественных языковых команд.

🚀 Основные моменты:
- 🌐 Умный поиск и организация медиа
- ✍️ Интеллектуальная генерация сценариев
- 🎵 Рекомендации по музыке и озвучке
- 💬 Редактирование через разговорные команды
- Архивирование навыков редактирования

📌 GitHub: https://github.com/FireRedTeam/FireRed-OpenStoryline

@pythonl
9👍1😱1🤩1
Ваш домен может стоить один рубль

Переносите и продлевайте домены в Selectel и платите за это всего по одному рублю. Бонусом получите бесплатный DNS-хостинг и SSL-сертификаты, а еще возможность развернуть полноценную IT-инфраструктуру проекта в одном окне браузера.

Успейте перенести и продлить домены в Selectel по рублю до 30.06 →

Реклама. АО "Селектел". erid:2W5zFJqGwih
5👍1😢1
This media is not supported in your browser
VIEW IN TELEGRAM
🖥 Регулярные выражения для извлечения ссылок из HTML с помощью Python

Сохрани себе: извлечение всех ссылок со страницы с помощью регулярных выражений - это быстро и просто. Вот пример кода, который поможет тебе в этом.



import re
import requests
def extract_links(url):
response = requests.get(url)
html_content = response.text
links = re.findall(r'href=["\']?(https?://[^"\'>]+)', html_content)
return links
url = 'https://example.com'
all_links = extract_links(url)
print(all_links)
Please open Telegram to view this post
VIEW IN TELEGRAM
👍125
В Python 3.14 появилось решение, которое помогает избавиться от SQL-инъекций - t-strings 🔒

Проблема

Когда вы используете f-strings для SQL:


query = f"SELECT * FROM users WHERE name = '{user_input}'"

пользовательский ввод напрямую попадает в запрос.

Если злоумышленник передаст:


admin'; DROP TABLE users; --

— база выполнит вредоносную команду.

Это классическая SQL injection.

Почему это неудобно сейчас

Безопасный способ — параметризованные запросы:


cursor.execute(
"SELECT * FROM users WHERE name = %s",
(user_input,)
)

Но приходится:

• запускать шаблон отдельно
• передавать значения отдельно
• поддерживать две структуры

Что изменилось в Python 3.14

Появились template string literals (t-strings).

В отличие от f-strings, они:

• не возвращают готовую строку

• возвращают объект Template

• отдельно хранят текст и подставленные значения

Пример:

query = t"SELECT * FROM users WHERE name = {user_input}"


Теперь можно:

• получить все интерполяции
• проверить значения
• экранировать или валидировать их
• и только потом собрать финальный SQL


safe = safe_sql(query)

Результат:

• вредоносный ввод очищается
• SQL-инъекции блокируются
• таблицы остаются на месте

Почему это важно

f-strings - быстрые, но опасные для SQL.

t-strings позволяют сохранить удобство шаблонов и добавить контроль безопасности.

Python движется к безопасным шаблонам по умолчанию, меньше ручной защиты, меньше уязвимостей в продакшене.

📲Max

@pythonl
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥22👍72😢1
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️ Как изучать любой GitHub-репозиторий за 5 минут с DeepWiki

Если ты открываешь чужой репозиторий и не понимаешь, с чего начать - не читай файлы вручную. Спроси код.

DeepWiki автоматически строит AI-wiki для любого проекта и позволяет задавать вопросы прямо к исходникам.

Как использовать:

1. Открой нужный репозиторий на GitHub
2. Замени в адресе:
github.comdeepwiki.com
3. Задай вопросы:
- Как устроена архитектура?
- С чего начинается запуск?
- Где реализована основная логика?
- Как работает конкретная функция?

Почему это работает:
- Документация может быть устаревшей
- README часто поверхностный
- Код — единственный источник истины

DeepWiki анализирует структуру проекта и объясняет её простым языком.

Когда особенно полезно:
- Быстрый онбординг в новый проект
- Подготовка к собеседованию
- Разбор open-source
- Понимание сложных библиотек
- Работа AI-агентов с кодом

Главная мысль:
Не читай сотни файлов — задавай вопросы репозиторию.

Пример

GitHub
https://github.com/karpathy/nanochat

// DeepWiki
https://deepwiki.com/karpathy/nanochat

Примеры вопросов:
- How does training work?
- Where is the main entry point?
- How is inference implemented?
- What are the key modules?
👍16🔥106
🎥🚀 MOVA: Инновационная генерация видео и аудио

MOVA — это открытая модель, которая синхронно генерирует видео и аудио, устраняя проблемы каскадных пайплайнов. Она обеспечивает высокое качество и точную синхронизацию губ и звуковых эффектов, предлагая пользователям мощный инструмент для создания контента.

🚀Основные моменты:
- Бимодальная генерация: видео и аудио создаются одновременно.
- Высокая точность синхронизации губ и звуковых эффектов.
- Полностью открытый исходный код и доступные веса модели.
- Архитектура с асимметричными двойными башнями для лучшего взаимодействия модальностей.

📌 GitHub: https://github.com/OpenMOSS/MOVA

#python
Please open Telegram to view this post
VIEW IN TELEGRAM
6👍4🔥4
Python: синтаксис тебя не убьёт.

Зато логика - без предупреждения.
🔥33😁11👍82
🌟 Создайте свой пиксельный офис с Star Office UI

Star Office UI — это интерактивная панель для многопользовательского сотрудничества, визуализирующая статус ваших AI помощников в реальном времени. Вы можете видеть, кто чем занят, что было сделано вчера и кто сейчас онлайн.

🚀 Основные моменты:
- Визуализация статусов AI: idle, writing, syncing и др.
- "Вчерашние заметки" для краткого обзора выполненной работы.
- Поддержка приглашения других участников в офис.
- Адаптивный интерфейс для мобильных устройств.
- Гибкие варианты публичного доступа.

📌 GitHub: https://github.com/ringhyacinth/Star-Office-UI

#python

@pythonl
🔥116👍4😁3
erid: 2W5zFH4RZRb

Градиентный спуск — это фундамент, на котором держится почти всё машинное обучение (machine learning) и глубокое обучение (deep learning). Как только модель не сходится, уходит в осцилляции или застревает — без понимания механики вы остаетесь без инструментов.

12 марта в 20:00 МСК на открытом уроке мы разберём, как модель на самом деле движется по многомерному ландшафту ошибок, почему путь к минимуму редко бывает прямым и какую роль играет шаг обучения.

🚀 Вы поймёте, как выбирать коэффициент скорости обучения (learning rate), чем отличаются классический, стохастический и продвинутые варианты градиентного спуска, как диагностировать сходимость и отличать реальное обучение от блуждания. Все ключевые идеи будут показаны на наглядных примерах на языке программирования Питон (Python) — без абстракций и чёрных ящиков.

➡️ Встречаемся в рамках курса «Machine Learning». Регистрация: https://otus.pw/m7LW/
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
4😁3
🔧 Инструмент для тестирования безопасности

RaspyJack - это портативный инструмент для авторизованного тестирования безопасности с интерфейсом на LCD, веб-интерфейсом и интегрированной IDE для создания полезных нагрузок. Подходит для исследований и образовательных целей.

🚀 Основные моменты:
- LCD-интерфейс для управления
- Категории полезных нагрузок (разведка, перехват и др.)
- Веб-интерфейс для удаленного управления
- Интеграция инструментов DNS-спуфинга и WiFi-атак

📌 GitHub: https://github.com/7h30th3r0n3/Raspyjack

@pythonl
8🤩3👍2