Про ruff (3/5)
Теперь про скорость. Действительно ли
На том же проекте на 500к строк кода (это много) на моей машине ванильный
Запуск
А давайте теперь добавим несколько плагинов. Голый линтер нам же не особо интересен, да? Устанавливаю
Почему он быстрее? Ну, во-первых, потому что написан на низкоуровневом языке, без жирных объектов в памяти и без сборки мусора. Во-вторых, не делает лишней работы — все проверки выполняются за один проход. Ровно одно чтение каждого файла, ровно один разбор AST/CST каждого файла, и на этом работают вообще все проверки внутри тулзы (и не только проверки, читай дальше). В противовес, модульному
Мелочь ли это? Ну хз. Я за 20 секунд успеваю заскучать и переключиться в телегу, что практически гарантировано выключит меня из состояния потока. И уж точно я буду стараться запускать этот медленный линтер как можно реже, а значит буду получать меньше обратной связи. С другой стороны,
Теперь про скорость. Действительно ли
ruff
такой быстрый?На том же проекте на 500к строк кода (это много) на моей машине ванильный
flake8
заканчивает работу примерно за 6.2 секунды, потребляя при этом 700% cpu. То есть он попытался отожрать почти все ядра. Вывод линтера я отправляю в /dev/null
, чтобы измерять именно работу линтера, а не время печатания простыни ошибок в stdout. Перезапускаешь линтер — и снова те же самые 6.2 секунды, потому что во flake8
нет никакого кэширования, он каждый раз делает всё заново.Запуск
ruff
занимает 0,42 секунды и потребляет примерно 500% cpu. Оп, в 15 раз быстрее, проца использует меньше. Второй запуск ruff
занимает уже всего 0,1 секунды, потому что он берёт все результаты из кэша. Оп, в 62 раза быстрее. Если поменять один файл, то ruff
пересчитает этот один файл, а все остальные результаты всё равно возьмёт из кэша, и суммарное время будет те же 0,1 секунды.А давайте теперь добавим несколько плагинов. Голый линтер нам же не особо интересен, да? Устанавливаю
flake8-bugbear
, flake8-logging-format
, flake8-pytest-style
. Количество ошибок от flake8
вырастает до 5443, а время работы до 9.4 секунды. Включаю эти же 3 набора правил в ruff
. Количество ошибок 5648 (чёт разница увеличилась, странно). Время работы на холодную колеблется в интервале 0,4-0,6 секунд, а с прогретым кэшем отрабатывает стабильно за всё те же 0,1 секунды. Здесь разница по скорости уже почти в 100 раз, и это я добавил относительно лёгкие плагины. Добавляем ещё несколько плагинов, и flake8
уже работает дольше 20 секунд, а ruff
примерно как и раньше. Вообще, скорость работы flake8
довольно быстро деградирует.Почему он быстрее? Ну, во-первых, потому что написан на низкоуровневом языке, без жирных объектов в памяти и без сборки мусора. Во-вторых, не делает лишней работы — все проверки выполняются за один проход. Ровно одно чтение каждого файла, ровно один разбор AST/CST каждого файла, и на этом работают вообще все проверки внутри тулзы (и не только проверки, читай дальше). В противовес, модульному
flake8
зачастую приходится делать эту же работу несколько раз, потому что некоторым проверкам недостаточно просто AST дерева, им приходится самостоятельно читать и разбирать файлы, чтобы вычленить больше информации. В-третьих, здесь сразу сделали кэш. Блин, это же очевидная оптимизация. Почему во flake8
этого до сих пор нет?Мелочь ли это? Ну хз. Я за 20 секунд успеваю заскучать и переключиться в телегу, что практически гарантировано выключит меня из состояния потока. И уж точно я буду стараться запускать этот медленный линтер как можно реже, а значит буду получать меньше обратной связи. С другой стороны,
ruff
можно запускать хоть на каждую новую строчку кода. У него даже есть режим --watch
, когда он висит в фоне и перезапускает проверки на каждое изменение.Про ruff (4/5)
Помните я упоминал про звёздочки в выводе
Да, в этом режиме он сам выкинет неиспользуемые импорты, сам отсортирует импорты по алфавиту. Получается, что
Вы всё ещё думаете, что ваш нынешний линтер хорошо делает свою работу? А я вот уже не уверен. Я определенно пересмотрел свои ожидания от линтера.
Помните я упоминал про звёздочки в выводе
ruff
? После всех ошибок внизу есть ещё сноска, которая объясняет эти звёздочки:Found 1986 errors.То есть можно запустить
[*] 1209 potentially fixable with the --fix option.
ruff check --fix
и он не просто отрепортит ошибки, он сам ещё и пофиксит большую часть из них. Ни flake8
, ни pylint
так делать не умеют. Автор ruff
очень упорот. Он не просто переписал все эти 400 правил с Python на Rust, но он ещё и научил свой линтер фиксить эти ошибки. Насколько вижу, примерно половина правил имеют эту звёздочку. Это. Просто. Офигенно.Да, в этом режиме он сам выкинет неиспользуемые импорты, сам отсортирует импорты по алфавиту. Получается, что
isort
уже можно не запускать, а это минус несколько секунд из пайплайна. Полноценно форматировать код ruff
пока не научился, но у них есть амбиция заменить собой даже black
. И я почему-то верю, что у ruff
получится. Это реально какой-то комбайн-мультитул, который всасывает в себя всё больше разных инструментов, причём попутно делая их быстрее и лучше. Автор тулзы уже и про тайп-чекинг тоже задумывается.Вы всё ещё думаете, что ваш нынешний линтер хорошо делает свою работу? А я вот уже не уверен. Я определенно пересмотрел свои ожидания от линтера.
ruff
просто задает новую планку. В хорошее влюбляешься очень быстро.GitHub
Implement autoformat capabilities · Issue #1904 · charliermarsh/ruff
This issue is the public kickoff for Ruff's autoformatting effort. A few comments on how I'm thinking about the desired end-state: The goal is to enable users to replace Black with Ruff. So...
Про ruff (5/5)
Давайте и про минусы тоже поговорим. Не бывает же всё только хорошо.
1. Нет поддержки структурного паттерн-матчинга из 3.10. Линтер просто не понимает эту синтаксическую конструкцию. Так что если вы прогрессивные и у вас уже весь код на
2. Написано на Rust. Это не только плюс, но и минус. Так просто код почитать уже не зайдёшь, баг-фикс левой пяткой не отправишь. Тут думать придётся, Rust учить, а это довольно высокий порог входа и крутая кривая обучения. Автор, конечно, максимально дружелюбен, и приглашает всех приходить и делать фиксы, даже если вы только-только начали учить язык и не уверены в правильности подходов. За плохой код обещает не гнобить, оказывать всяческую моральную поддержку. Он сам питонист и далеко не эксперт в расте, и это вообще его первый серьёзный проект.
3. Написано на Rust. Как рядовой пользователь, вы этого скорее всего даже и не заметите, потому что линтер легко устанавливается через
4. Нет системы плагинов, пока что. Сейчас автор сконцентрирован на том, чтобы затащить как можно больше уже существующих правил внутрь тулзы. Но он отдаёт отчёт, что все на свете проверки заимплементить невозможно, и нужно дать юзерам возможность иметь свои кастомные правила, которые не будут жить внутри
5. Проект все ещё на очень ранней стадии. Новые релизы выкладывает почти каждый день, и каждый из них потенциально несёт в себе ломающие изменения, потому что никаких гарантий обратной совместимости на этом этапе дать нельзя. Использовать только смелым и отчаянным. Когда исправят проблему с паттерн-матчингом, то сделают стабильный релиз.
Сначала я вообще не понял идею и был настроен очень скептически. А сейчас под впечатлением, что такую простую вещь, как линтер, можно, оказывается, сделать намного лучше. Ненавижу эти кликбейтные заголовки по шаблону "X — убийца Y?", но тут реально иначе и не скажешь.
Исходники и документация вот здесь: https://github.com/charliermarsh/ruff
Ставьте и делитесь впечатлениями!
Давайте и про минусы тоже поговорим. Не бывает же всё только хорошо.
1. Нет поддержки структурного паттерн-матчинга из 3.10. Линтер просто не понимает эту синтаксическую конструкцию. Так что если вы прогрессивные и у вас уже весь код на
match-case
, то вам пока придётся подождать. Хотя я слышал про людей, которые просто отказались от match-case
как раз из-за ruff
— преимущества линтера перевесили пользу от паттерн-матчинга. Линтер использует парсер из RustPython
— это такой интерпретатор Python, написанный на Rust, проект-долгострой. Только парсер, сам интерпретатор не используется. А у RustPython
есть отставание от CPython по фичам и поддерживаемому синтаксису.2. Написано на Rust. Это не только плюс, но и минус. Так просто код почитать уже не зайдёшь, баг-фикс левой пяткой не отправишь. Тут думать придётся, Rust учить, а это довольно высокий порог входа и крутая кривая обучения. Автор, конечно, максимально дружелюбен, и приглашает всех приходить и делать фиксы, даже если вы только-только начали учить язык и не уверены в правильности подходов. За плохой код обещает не гнобить, оказывать всяческую моральную поддержку. Он сам питонист и далеко не эксперт в расте, и это вообще его первый серьёзный проект.
3. Написано на Rust. Как рядовой пользователь, вы этого скорее всего даже и не заметите, потому что линтер легко устанавливается через
pip
, есть предсобранные колёса для всех популярных платформ, включая даже Alpine Linux. Но если вам вдруг повезло пользоваться чем-то менее мейнстримным, то будьте готовы ставить весь тулчейн Rust и собирать линтер из исходников. Хотя, у вас, наверное, и без того жизнь сложная. Линтер какой-то скомпилировать — это мелочь.4. Нет системы плагинов, пока что. Сейчас автор сконцентрирован на том, чтобы затащить как можно больше уже существующих правил внутрь тулзы. Но он отдаёт отчёт, что все на свете проверки заимплементить невозможно, и нужно дать юзерам возможность иметь свои кастомные правила, которые не будут жить внутри
ruff
. Говорит, что можно будет писать свои правила как на расте, так и на питоне. Звучит-то хорошо, но я не понял, как он собирается это сделать. И не начнёт ли от этого сильно проседать скорость работы? Посмотрим.5. Проект все ещё на очень ранней стадии. Новые релизы выкладывает почти каждый день, и каждый из них потенциально несёт в себе ломающие изменения, потому что никаких гарантий обратной совместимости на этом этапе дать нельзя. Использовать только смелым и отчаянным. Когда исправят проблему с паттерн-матчингом, то сделают стабильный релиз.
Сначала я вообще не понял идею и был настроен очень скептически. А сейчас под впечатлением, что такую простую вещь, как линтер, можно, оказывается, сделать намного лучше. Ненавижу эти кликбейтные заголовки по шаблону "X — убийца Y?", но тут реально иначе и не скажешь.
ruff
точно закрепится в наборе инструментов рядового питониста и убьёт многих из своих конкурентов, если они срочно не прыгнут выше головы. Как выяснилось, убивать нынешние стагнирующие линтеры совсем не сложно.Исходники и документация вот здесь: https://github.com/charliermarsh/ruff
Ставьте и делитесь впечатлениями!
GitHub
GitHub - astral-sh/ruff: An extremely fast Python linter and code formatter, written in Rust.
An extremely fast Python linter and code formatter, written in Rust. - astral-sh/ruff
И снова про
Чарли Марш — автор инструмента — видит логичным ходом впилить в
Вчера он влил первую пачку изменений. Для пользователей форматтер ещё не доступен, но внутрянка уже подготавливается. В PR перечислено, что уже работает, а что нужно ещё доделать. Это я к тому и пишу, что он, блин, правда начал это делать, и я удивлён. Просто помню, как мучительно
> I'd like the autoformatter to be a little more flexible than Black, which would in theory make it a suitable replacement for Blue too.
И, кстати, наверняка, в этом форматтере будут настройки стиля. Может, не как в
Всё-таки удивительно, как быстро
ruff
.Чарли Марш — автор инструмента — видит логичным ходом впилить в
ruff
автоформаттер, чтобы можно было запустить ruff --fix
и пофиксить все стилистические проблемы, и стало красиво. Вот здесь в ишью уже пришли на обсуждение и мейнтейнеры black
, и мейнтейнеры blue
(это форк black
с одинарными кавычками), кто-то предлагает взять yapf
за ориентир, а Чарли просто отчитывается, что уже начал работу, и его автоформаттер частично проходит тест-сьют из black
.Вчера он влил первую пачку изменений. Для пользователей форматтер ещё не доступен, но внутрянка уже подготавливается. В PR перечислено, что уже работает, а что нужно ещё доделать. Это я к тому и пишу, что он, блин, правда начал это делать, и я удивлён. Просто помню, как мучительно
black
полтора года стабилизировал "магические запятые", и они всё время то появлялись, то исчезали, что в моей голове уже сложилось впечатление, что заново этот путь никто не захочет пройти. Но нет, нашлись отчаянные.> I'd like the autoformatter to be a little more flexible than Black, which would in theory make it a suitable replacement for Blue too.
И, кстати, наверняка, в этом форматтере будут настройки стиля. Может, не как в
yapf
, но как минимум можно будет выбрать стиль кавычек. Что с одной стороны хорошо и удобно, а с другой стороны может снова спровоцировать конфликт между племенами байкшеддеров. Ох.Всё-таки удивительно, как быстро
ruff
развивается. Люди годами делали эти инструменты, а он создаёт их копии за считанные недели. И, блин, наверняка же сделает. В чём секрет, как думаете?GitHub
Implement autoformat capabilities · Issue #1904 · charliermarsh/ruff
This issue is the public kickoff for Ruff's autoformatting effort. A few comments on how I'm thinking about the desired end-state: The goal is to enable users to replace Black with Ruff. So...
В чате-комментах сообщают, что Pydantic поднял бабла 💸
Теперь это не просто библиотечка для парсинга/валидации данных. Это теперь вообще-то корпорация Pydantic Services с автором библиотеки, Samuel Colvin, во главе! Новоиспечённый стартап получил 4.7 миллиона долларов венчурного капитала в рамках seed-раунда. Основным инвестором является знаменитый фонд Sequoia Capital, про который даже я почему-то слышал, хотя я довольно дремуч. Выглядит супер-круто на фоне общего экономического кризиса.
Как я понял, Сэм пока вообще единственный член команды, но на полученные деньги собирается быстро нанять себе ещё несколько крутейших разработчиков, в основном из числа контрибьюторов в библиотеку. По плану, сначала он хочет выпустить Pydantic V2, переписанный на Rust и ускоренный в 17 раз, а затем делать что-то связанное с улучшением DX (developer experience) в облачных технологиях, но что конкретно — не говорит, тайна. А опенсорсный Pydantic будет краеугольным камнем всех остальных разработок компании.
Офигенно, что у Pydantic теперь будет целая команда фулл-тайм разработчиков. Очень любопытно, как они будут монетизироваться. Инвесторы, к сожалению, не ради звёздочек на гитхабе деньги раздают.
Тут пост в блоге Pydantic, а здесь новость на TechCrunch.
Теперь это не просто библиотечка для парсинга/валидации данных. Это теперь вообще-то корпорация Pydantic Services с автором библиотеки, Samuel Colvin, во главе! Новоиспечённый стартап получил 4.7 миллиона долларов венчурного капитала в рамках seed-раунда. Основным инвестором является знаменитый фонд Sequoia Capital, про который даже я почему-то слышал, хотя я довольно дремуч. Выглядит супер-круто на фоне общего экономического кризиса.
Как я понял, Сэм пока вообще единственный член команды, но на полученные деньги собирается быстро нанять себе ещё несколько крутейших разработчиков, в основном из числа контрибьюторов в библиотеку. По плану, сначала он хочет выпустить Pydantic V2, переписанный на Rust и ускоренный в 17 раз, а затем делать что-то связанное с улучшением DX (developer experience) в облачных технологиях, но что конкретно — не говорит, тайна. А опенсорсный Pydantic будет краеугольным камнем всех остальных разработок компании.
Офигенно, что у Pydantic теперь будет целая команда фулл-тайм разработчиков. Очень любопытно, как они будут монетизироваться. Инвесторы, к сожалению, не ради звёздочек на гитхабе деньги раздают.
Тут пост в блоге Pydantic, а здесь новость на TechCrunch.
pydantic.dev
Company Announcement | Pydantic | Pydantic
Python сегодня исполняется 32 года 🎂
20 февраля 1991 года Гвидо опубликовал исходники версии 0.9.0.
20 февраля 1991 года Гвидо опубликовал исходники версии 0.9.0.
Крутая идея про "приватные" переменные — называть их маленькими буквами. При прочтении кода вслух имя переменной произносится шепотом. Пора расширять PEP8!
твит
твит
И снова про
Вот буквально час назад рассказывал коллегам, что
Какая-то невероятная скорость развития инструмента. Становится уже сложно уследить за всеми изменениями.
https://github.com/charliermarsh/ruff/releases/tag/v0.0.250
ruff
.Вот буквально час назад рассказывал коллегам, что
ruff
не понимает синтаксис match-case
, и поэтому мы пока не можем его использовать. А он, оказывается, уже понимает! Меньше суток назад вышел релиз с полной поддержкой нового синтаксиса из Python 3.10 и 3.11. Это был основной блокер, который сильно мешал адопшену инструмента. Теперь ожидаю взрывной рост популярности ruff
!Какая-то невероятная скорость развития инструмента. Становится уже сложно уследить за всеми изменениями.
https://github.com/charliermarsh/ruff/releases/tag/v0.0.250
GitHub
Release v0.0.250 · astral-sh/ruff
What's Changed
Ruff now supports all Python 3.10 and 3.11 language features, including:
Structural Pattern Patching (match statements) (PEP 634)
Exception Groups (except* statements) (PEP 654)...
Ruff now supports all Python 3.10 and 3.11 language features, including:
Structural Pattern Patching (match statements) (PEP 634)
Exception Groups (except* statements) (PEP 654)...
Хороший наброс на тайп-хинты недавно запостили на реддите. Про проблемы и сложности, а не про восхваление, как я обычно люблю. Да, покрывать тайп-хинтами старый код, написанный с расчётом на утиную типизацию, действительно может быть нетривиальным упражнением.
Когда первый раз увидел, как в
Когда первый раз увидел, как в
typeshed
зааннотировали встроенную функцию pow()
(это возведение числа в степень), то до вечера потом ходил под впечатлением. Там описали 30 разных вариантов этой функции, и это всё ещё покрывает не все возможные кейсы. Ну что за жесть. Система типов не может нормально выразить просто гигантский пласт возможностей языка. А потом как-то подумал, что системе типов не обязательно быть идеальной, чтобы быть полезной, и полегчало. Ладно, большую часть проблем ловит. Я не так часто замечаю эти места, где система типов даёт слабину, зато тайп-чекинг каждый день спасает меня от кучи глупых ошибок. Practicality beats purity, короче. Нет, всё-таки не могу не похвалить тайп-чекинг. Полезная штука, обязательно пользуйтесь.Reddit
From the Python community on Reddit
Explore this post and more from the Python community
Недавно в numpy добавили поддержку набора инструкций AVX-512 для процессоров Intel, и это ускорило сортировку массивов в 10-17 раз. Про огромное ускорение — это круто, но в целом история вокруг AVX-512 очень загадочная. Краткий пересказ на скрине, я чёт прям прикрикнул с этого комментария. Intel странные.
Кстати, у PSF дела идут хорошо. В фонд задонатили денег, и благодаря этому появилась возможность на год нанять на фулл-тайм человека, который будет заниматься различными аспектами безопасности CPython, PyPI и других проектов фонда. Ищут подходящего человека. Деньги вроде обещают достойные. Вот тут анонс.
А задонатил деньги в PSF другой фонд, под названием Open Source Security Foundation (OpenSSF), в который собрались примерно 100 айти-гигантов различного размера, которые теперь скоординировано наносят добро и безопасность в разные опенсорсные проекты. Например, они также выдали гранты на безопасность в Rust, Node.js, jQuery и Eclipse. Хорошая инициатива, одобряю.
А задонатил деньги в PSF другой фонд, под названием Open Source Security Foundation (OpenSSF), в который собрались примерно 100 айти-гигантов различного размера, которые теперь скоординировано наносят добро и безопасность в разные опенсорсные проекты. Например, они также выдали гранты на безопасность в Rust, Node.js, jQuery и Eclipse. Хорошая инициатива, одобряю.
Python Software Foundation Blog
The PSF is hiring a Security Developer-in-Residence!
The Python Software Foundation (PSF) is happy to announce the launch of a year-long security enhancement initiative that will include a secu...
Ещё про изменения, которые хотят попасть в 3.12.
Недавно опубликовали PEP 709 – Inlined comprehensions про оптимизацию list, dict & set comprehension'ов. Кстати, как вы называете это по-русски? Списковые включения, словарные включения? Странно звучит. Буду писать "компрехеншн", как обычно говорю.
Сейчас эти компрехеншены создают служебную функцию, которая сразу же вызывается один раз, после чего удаляется сборщиком мусора. Эта функция нужна для того, чтобы изолировать внутренние переменные компрехеншена, чтобы они не были доступны извне. Скорее всего, так было сделано, потому что так было проще всего — переиспользовались готовые, отлаженные механизмы языка.
Идея оптимизации состоит в том, чтобы избежать создания этой одноразовой функции, а изоляции внутренних переменных компрехеншена достигать другими способами. Грубо говоря, обычным удалением этих переменных по завершению работы. И так получается быстрее — микробенчмарки компрехеншенов показывают ускорение работы аж в 2 раза, а в среднем от кода с компрехеншенами можно ожидать ускорение на уровне 11%. Это создание и вызов одноразовой функции с вытекающими операциями над стэком вызовов оказались довольно дорогими.
Такая оптимизация поменяет некоторые детали, на которые, скорее всего, мало кто сильно рассчитывает. Например, стектрейсы от ошибок, возникших в теле компрехеншена, станут на 1 этаж короче из-за отсутствия этой служебной функции.
Оптимизация затронет только компрехеншены, вложенные в функции. Глобальные компрехеншены пока решили не трогать — там особый случай. Генераторные выражения (generator expressions) тоже пока не оптимизируются. Короче, работают по принципу "low effort, high reward".
Автор пропозала работает в Instagram. Видимо, они постепенно выносят удачные идеи из своего performance-oriented форка интерпретатора Cinder в апстрим.
PEP на данный момент находится в статусе черновика. Думаю, что будет принят.
Недавно опубликовали PEP 709 – Inlined comprehensions про оптимизацию list, dict & set comprehension'ов. Кстати, как вы называете это по-русски? Списковые включения, словарные включения? Странно звучит. Буду писать "компрехеншн", как обычно говорю.
Сейчас эти компрехеншены создают служебную функцию, которая сразу же вызывается один раз, после чего удаляется сборщиком мусора. Эта функция нужна для того, чтобы изолировать внутренние переменные компрехеншена, чтобы они не были доступны извне. Скорее всего, так было сделано, потому что так было проще всего — переиспользовались готовые, отлаженные механизмы языка.
Идея оптимизации состоит в том, чтобы избежать создания этой одноразовой функции, а изоляции внутренних переменных компрехеншена достигать другими способами. Грубо говоря, обычным удалением этих переменных по завершению работы. И так получается быстрее — микробенчмарки компрехеншенов показывают ускорение работы аж в 2 раза, а в среднем от кода с компрехеншенами можно ожидать ускорение на уровне 11%. Это создание и вызов одноразовой функции с вытекающими операциями над стэком вызовов оказались довольно дорогими.
Такая оптимизация поменяет некоторые детали, на которые, скорее всего, мало кто сильно рассчитывает. Например, стектрейсы от ошибок, возникших в теле компрехеншена, станут на 1 этаж короче из-за отсутствия этой служебной функции.
Оптимизация затронет только компрехеншены, вложенные в функции. Глобальные компрехеншены пока решили не трогать — там особый случай. Генераторные выражения (generator expressions) тоже пока не оптимизируются. Короче, работают по принципу "low effort, high reward".
Автор пропозала работает в Instagram. Видимо, они постепенно выносят удачные идеи из своего performance-oriented форка интерпретатора Cinder в апстрим.
PEP на данный момент находится в статусе черновика. Думаю, что будет принят.
Это канал Marc Garcia, core-контрибьютора pandas, так что если связаны с анализом данных, то подписывайтесь
Forwarded from datapythonista
#pandas 2.0 will be released soon. I wrote about one of the most important changes we're shipping with it.
https://datapythonista.me/blog/pandas-20-and-the-arrow-revolution-part-i
https://datapythonista.me/blog/pandas-20-and-the-arrow-revolution-part-i
datapythonista blog
pandas 2.0 and the Arrow revolution (part I)
Introduction At the time of writing this post, we are in the process of releasing pandas 2.0. The project has a large number of users,...
Утилита, которая находит неиспользуемые библиотеки в виртуальном окружении. Статически анализирует код, вычленяя из него импорты, и сверяет их со списком зависимостей из
https://github.com/fredrikaverpil/creosote
pyproject.toml
или requirements.txt
.https://github.com/fredrikaverpil/creosote
GitHub
GitHub - fredrikaverpil/creosote: Identify unused dependencies and avoid a bloated virtual environment.
Identify unused dependencies and avoid a bloated virtual environment. - fredrikaverpil/creosote
FastAPI наконец-то поняли, что переводить документацию на разные языки — это путь в никуда, и сделали нормальную всем сразу понятную интернационализацию. Они долго постепенно к этому шли, увеличивая количество эмодзи, и вот наконец перешли полностью 🚀
А, 2 апреля уже? Ну ладно.
А, 2 апреля уже? Ну ладно.
Вышел PyCharm 2023.1 с новым UI.
По дефолту новый UI включен только для новых пользователей Community Edition, а для всех остальных есть возможность переключиться на New UI через настройки. Обратно переключиться на старый интерфейс тоже можно, да.
Сначала было непривычно, но спустя два дня мне эти иконочки кажутся даже более удобными, чем текстовые панели. Много всего запихнуто в заголовок окна — прикольно. Виджет для работы с Git приятно переделали. Compact Mode — тема.
Бесит только, что панель Notifications вышла из слепой зоны, и я стал эти уведомления замечать. Оказывается, у IDE всё время что-то внутри происходит!
https://blog.jetbrains.com/pycharm/2023/03/2023-1/
По дефолту новый UI включен только для новых пользователей Community Edition, а для всех остальных есть возможность переключиться на New UI через настройки. Обратно переключиться на старый интерфейс тоже можно, да.
Сначала было непривычно, но спустя два дня мне эти иконочки кажутся даже более удобными, чем текстовые панели. Много всего запихнуто в заголовок окна — прикольно. Виджет для работы с Git приятно переделали. Compact Mode — тема.
Бесит только, что панель Notifications вышла из слепой зоны, и я стал эти уведомления замечать. Оказывается, у IDE всё время что-то внутри происходит!
https://blog.jetbrains.com/pycharm/2023/03/2023-1/
Вы наверняка видели волну постов про исследование аудитории Telegram неделю назад. Это было примерно в половине каналов, которые я читаю. Это единственное в своём роде исследование такого масштаба, которое проводится в третий раз и уже почти стало традицией. Результаты получаются примерно такие же по интересности, как у отчётов StackOverflow. С прошлого исследования два года назад всё сильно поменялось. Прикольно было бы увидеть свежую картину. Кстати, вот тут результаты за 2021 и 2019 годы.
Так вот, если вы ещё не прошли опрос, то идите заполнять. Занимает примерно 7 минут. Никакой особо личной информации не спрашивают, кроме базовой демографии (пол, возраст, местоположение, род деятельности, уровень дохода,пин-код от карты). Дело полезное.
В процессе заполнения поискал свои самые старые чаты и осознал, что сижу в телеге уже больше 7 лет. И это только на этом аккаунте, а у меня раньше ещё другой вроде был. Кажется, даже смутно помню те времена, когда из стикеров были только эти бледно-синие с Николой Теслой. Словил ностальгию, но ощущения, что "раньше было лучше" тоже нет. В телеге и сейчас вполне себе уютно. А вы давно в телеге сидите?
Так вот, если вы ещё не прошли опрос, то идите заполнять. Занимает примерно 7 минут. Никакой особо личной информации не спрашивают, кроме базовой демографии (пол, возраст, местоположение, род деятельности, уровень дохода,
В процессе заполнения поискал свои самые старые чаты и осознал, что сижу в телеге уже больше 7 лет. И это только на этом аккаунте, а у меня раньше ещё другой вроде был. Кажется, даже смутно помню те времена, когда из стикеров были только эти бледно-синие с Николой Теслой. Словил ностальгию, но ощущения, что "раньше было лучше" тоже нет. В телеге и сейчас вполне себе уютно. А вы давно в телеге сидите?
TGStat.ru
Исследование аудитории Telegram 2023.
Кто же он — пользователь Telegram 2023 года?
Недавно вышла пачка минорных релизов CPython.
Очередная порция исправлений и улучшений попала в 3.11.3. Тем временем, метрика поддержки ветки 3.11 в библиотеках достигла уровня 43.1%, что всё ещё сильно меньше поддержки ветки 3.10 (70.6%).
Впрочем, это не нужно понимать как причину оставаться на 3.10, потому что эта ветка на днях получила последний баг-фикс релиз (3.10.11) и перешла в режим "security fixes only". Всё, больше никакие исправления багов бэкпортироваться не будут, а будут только исправления уязвимостей. Как всегда, переход в этот статус наступает очень внезапно и выглядит как что-то преждевременное. Но и команду разработки тоже могу понять: поддерживать хотя бы даже две параллельные ветки активно развивающегося проекта — это уже сложно, а три — это вообще боль, боль в кубе.
Кстати, а вы знали, что 3.7 через пару месяцев депрекейтнут окончательно? Успели уже везде обновиться?
Очередная порция исправлений и улучшений попала в 3.11.3. Тем временем, метрика поддержки ветки 3.11 в библиотеках достигла уровня 43.1%, что всё ещё сильно меньше поддержки ветки 3.10 (70.6%).
Впрочем, это не нужно понимать как причину оставаться на 3.10, потому что эта ветка на днях получила последний баг-фикс релиз (3.10.11) и перешла в режим "security fixes only". Всё, больше никакие исправления багов бэкпортироваться не будут, а будут только исправления уязвимостей. Как всегда, переход в этот статус наступает очень внезапно и выглядит как что-то преждевременное. Но и команду разработки тоже могу понять: поддерживать хотя бы даже две параллельные ветки активно развивающегося проекта — это уже сложно, а три — это вообще боль, боль в кубе.
Кстати, а вы знали, что 3.7 через пару месяцев депрекейтнут окончательно? Успели уже везде обновиться?
blog.python.org
Python Insider: Python 3.11.3, Python 3.10.11 and 3.12.0 alpha 7 are available