This media is not supported in your browser
VIEW IN TELEGRAM
Этот трюк нужен, чтобы временно отключить принты не удаляя и не комментируя строки вручную.
На экране простой способ сделать это через контекстный менеджер — без сторонних библиотек и без комментирования строк.
import sys, os
from contextlib import contextmanager
@contextmanager
def suppress_print():
saved = sys.stdout
sys.stdout = open(os.devnull, 'w')
yield
sys.stdout.close()
sys.stdout = saved
Пример:
print("Это видно")
with suppress_print():
print("А это — нет")
print("Снова видно")
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥10🥰3❤2
Forwarded from Анализ данных (Data analysis)
Многие привычные библиотеки (pandas, NumPy, scikit-learn) можно заменить их GPU-версией, сохранив API.
Это даёт прирост скорости в десятки раз.
-
pandas
→ %load_ext cudf.pandas
-
polars
→ .collect(engine="gpu")
-
scikit-learn
→ %load_ext cuml.accel
-
xgboost
→ device="cuda"
-
umap
→ %load_ext cuml.accel
-
hdbscan
→ %load_ext cuml.accel
-
networkx
→ %env NX_CUGRAPH_AUTOCONFIG=True
🚀 Плюсы:
- Минимальные изменения кода (API почти идентичен).
- GPU-ускорение: от 10х до 100х быстрее на больших данных.
- Отлично подходит для ETL, ML и обработки сигналов.
Если ты работаешь с большими данными в Python, достаточно «заменить импорт» и получить колоссальный прирост скорости без боли и переписывания кода.
🚀 Подробнее: developer.nvidia.com/blog/7-drop-in-replacements-to-instantly-speed-up-your-python-data-science-workflows
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤9👍2🔥2
Как сделать помощника, который помнит контекст?
Голосовые ассистенты и LLM-сервисы — это круто, но... они часто не знают контекста. Или забывают, что вы им сказали полминуты назад.
Что, если помощник действительно помнил бы:
— кто вы
— что вы уже спрашивали
— и какие у вас были кейсы в прошлом?
На вебинаре Яндекса расскажут, как это реализовать через RAG + YDB:
🧠 память с помощью эмбеддингов
🔍 векторный поиск с фильтрацией
⚙️ масштабируемое и быстрое решение на SQL
Подходит как для внутренних ИИ-сервисов, так и для клиентских продуктов.
Голосовые ассистенты и LLM-сервисы — это круто, но... они часто не знают контекста. Или забывают, что вы им сказали полминуты назад.
Что, если помощник действительно помнил бы:
— кто вы
— что вы уже спрашивали
— и какие у вас были кейсы в прошлом?
На вебинаре Яндекса расскажут, как это реализовать через RAG + YDB:
🧠 память с помощью эмбеддингов
🔍 векторный поиск с фильтрацией
⚙️ масштабируемое и быстрое решение на SQL
Подходит как для внутренних ИИ-сервисов, так и для клиентских продуктов.