LRUcache (от англ. Least Recently Used cache) — это механизм кэширования, который хранит ограниченное количество результатов вычислений или обращений к данным, и при переполнении освобождает место, удаляя из кэша самый долго неиспользуемый элемент.
Декоратор @cache применяется к функциям и автоматически запоминает результаты их вызовов с конкретными аргументами. Если функция с такими же аргументами вызывается повторно, результат берется из кэша, что значительно ускоряет работу, особенно при дорогих в вычислении функциях.
Декоратор @cache применяется к функциям и автоматически запоминает результаты их вызовов с конкретными аргументами. Если функция с такими же аргументами вызывается повторно, результат берется из кэша, что значительно ускоряет работу, особенно при дорогих в вычислении функциях.
🔥2👍1👎1
❤🔥2👍1👎1
Интерпретатор «замрет», потому что попадет в состояние бесконечного ожидания (deadlock).
С такой ситуацией можно справиться, если добавить аргумент-таймаут:
future = Future() # создаем Future-объект в состоянии pending
print(future.result()) # Просим показать result(), БЛОКИРУЯ
future.set_result("Hello from the future!") # Задаем result
result()
будет ждать, пока результат не будет установлен, но set_result()
никогда не будет вызван, так как выполнение программы остановилось на предыдущей строке.С такой ситуацией можно справиться, если добавить аргумент-таймаут:
future.result(timeout=1)
👍2👎1
🌱 Что выведет код?
Anonymous Quiz
12%
Пустое значение
17%
Будет deadlock
69%
Стоило ожидания!
2%
Error
👍2🤷♂1👎1
Cоздаем объект
Cоздаем новую задачу, которая будет выполняться асинхронно
Она:
- Принимает future как параметр
- Ждет 1 секунду
- Устанавливает результат в future
Ждем, пока future получит результат. Это не блокирует весь интерпретатор, а только текущую корутину:
Это еще называют «Неблокирующим ожиданием».
Future
из модуля asyncio
(это не то же самое, что concurrent.futures.Future
:
future = asyncio.Future()
Cоздаем новую задачу, которая будет выполняться асинхронно
asyncio.create_task(set_after_delay(future))
Она:
- Принимает future как параметр
- Ждет 1 секунду
- Устанавливает результат в future
Ждем, пока future получит результат. Это не блокирует весь интерпретатор, а только текущую корутину:
result = await future
Это еще называют «Неблокирующим ожиданием».
🔥1😐1
👎4👍2🤓1👨💻1
Атрибут
is_monotonic_increasing
возвращает True
, если каждое значение объекта pd.Series
больше предыдущего или равно ему. Приращение значений при этом не обязано быть одинаковым:
print(pd.Series(data = [1, 3, 3, 6]).is_monotonic_increasing) # True
👏2🍌1
🤯4👍1👎1
Метакласс
MyMetaclass
в момент создания MyClass
добавляет в пространство имён метод greeting
. Этот метод становится доступен экземплярам класса MyClass
, как если бы был определён обычным способом.👍2🤓2👎1
👍3👎1
В Python значения по умолчанию для аргументов функции вычисляются один раз при определении функции. В данном случае список
lst
создаётся один раз и используется при каждом вызове функции func, если не передан другой список. Поэтому элементы добавляются в один и тот же список, и результат накапливается.👍4👎1
🥴11❤2👍1😱1
None
не может быть напрямую сравнён с int
в Python 3, поэтому sorted()
вызовет TypeError
.👍7👎1