✍️👀 Опубликованы статьи для International Conference on Learning Representations (ICLR)
ICLR известна тем, что освещает передовые исследования методов глубокого обучения, используемых в ИИ и статистике. Конференция пройдёт в апреле 2025 года в Сингапуре, но уже сейчас можно почитать поданные на неё статьи.
👉 Вот ссылка
ICLR известна тем, что освещает передовые исследования методов глубокого обучения, используемых в ИИ и статистике. Конференция пройдёт в апреле 2025 года в Сингапуре, но уже сейчас можно почитать поданные на неё статьи.
👉 Вот ссылка
🔥3
Forwarded from Proglib.academy | IT-курсы
✏️ Разбор задачи с экзамена ШАД
Условие: Линейный оператор φ действует на пространстве многочленов степени не выше 2 с вещественными коэффициентами. Известно, что 1️⃣. Найдите сумму действительных собственных значений оператора φ (сумму следует вычислять с учетом алгебраической кратности собственных значений).
Подсказка:Найдите матрицу данного оператора и её характеристический многочлен.
Решение: Матрица Φ данного оператора в базисе x^2,x,1 удовлетворяет уравнению AΦ^T = B где 2️⃣ откуда 3️⃣ поэтому 4️⃣. Это и есть ответ, так как все собственные значения матрицы Φ^T вещественные. Это следует из того, что ее характеристический многочлен 5️⃣ имеет 3 действительных корня, так как f(0)>0, f(1)<0.
#задачи_шад
Условие: Линейный оператор φ действует на пространстве многочленов степени не выше 2 с вещественными коэффициентами. Известно, что 1️⃣. Найдите сумму действительных собственных значений оператора φ (сумму следует вычислять с учетом алгебраической кратности собственных значений).
Подсказка:
Решение: Матрица Φ данного оператора в базисе x^2,x,1 удовлетворяет уравнению AΦ^T = B где 2️⃣ откуда 3️⃣ поэтому 4️⃣. Это и есть ответ, так как все собственные значения матрицы Φ^T вещественные. Это следует из того, что ее характеристический многочлен 5️⃣ имеет 3 действительных корня, так как f(0)>0, f(1)<0.
#задачи_шад
👍4❤1
💬 Вы когда-нибудь ощущали, что не заслуживаете той зарплаты, которую получаете?
❤️ — да, знакомо это чувство
👍 — я считаю, что получаю ровно столько, сколько заслуживаю
🤔 — мне наоборот кажется, что мне недостаточно много платят
#интерактив
❤️ — да, знакомо это чувство
👍 — я считаю, что получаю ровно столько, сколько заслуживаю
🤔 — мне наоборот кажется, что мне недостаточно много платят
#интерактив
🤔63❤28👍10
❗Вакансии «Библиотеки программиста» — ждем вас в команде!
Мы постоянно растем и развиваемся, поэтому создали отдельную страницу, на которой будут размещены наши актуальные вакансии. Сейчас мы ищем:
👉контент-менеджеров для ведения телеграм-каналов
👉Переводчик и автор оригинальных статей
Подробности тут
Мы предлагаем частичную занятость и полностью удаленный формат работы — можно совмещать с основной и находиться в любом месте🌴
Ждем ваших откликов 👾
Мы постоянно растем и развиваемся, поэтому создали отдельную страницу, на которой будут размещены наши актуальные вакансии. Сейчас мы ищем:
👉контент-менеджеров для ведения телеграм-каналов
👉Переводчик и автор оригинальных статей
Подробности тут
Мы предлагаем частичную занятость и полностью удаленный формат работы — можно совмещать с основной и находиться в любом месте🌴
Ждем ваших откликов 👾
job.proglib.io
Вакансии в медиа «Библиотека программиста»
Количество проектов в редакции постоянно растет, так что нам всегда нужны специалисты
❤️ Вышел PyTorch 2.5
✅ Новый бэкенд CuDNN для SDPA, обеспечивающий ускорение до 75%;
✅ Сокращено время холодного запуска torch.compile благодаря сборке nn.Module без перекомпиляции;
✅ Оптимизирован бэкенд TorchInductor CPP.
🔗 Обо всех подробностях читайте здесь
✅ Новый бэкенд CuDNN для SDPA, обеспечивающий ускорение до 75%;
✅ Сокращено время холодного запуска torch.compile благодаря сборке nn.Module без перекомпиляции;
✅ Оптимизирован бэкенд TorchInductor CPP.
🔗 Обо всех подробностях читайте здесь
🔥6👾2
Forwarded from Proglib.academy | IT-курсы
🤼 Генеративно-состязательная нейросеть: ваша первая GAN-модель на PyTorch
Подробная инструкция построения генеративно-состязательных нейросетей (GAN) на примере двух моделей, реализованных с помощью фреймворка глубокого обучения PyTorch в нашей статье.👇
🔗 Статья
У нас есть курс как для начинающих программистов, так и для тех, кто уже шарит:
🔵 Алгоритмы и структуры данных
Подробная инструкция построения генеративно-состязательных нейросетей (GAN) на примере двух моделей, реализованных с помощью фреймворка глубокого обучения PyTorch в нашей статье.
🔗 Статья
У нас есть курс как для начинающих программистов, так и для тех, кто уже шарит:
Please open Telegram to view this post
VIEW IN TELEGRAM
🤓Turbo-Alignment — библиотека для дообучения и элайнмента LLM от Т-Банка
Основные фичи:
📊 Включает необходимые метрики, в том числе self-bleu.
🛠 Упрощённый процесс деплоя новых методов.
⚡️ Оптимизирована для быстрого инференса с vLLM.
🌐 Поддерживает мультимодальность.
🔍 Есть пайплайн для RAG.
🔗 Ссылка на библиотеку
Основные фичи:
📊 Включает необходимые метрики, в том числе self-bleu.
🛠 Упрощённый процесс деплоя новых методов.
⚡️ Оптимизирована для быстрого инференса с vLLM.
🌐 Поддерживает мультимодальность.
🔍 Есть пайплайн для RAG.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1
Master_SQL.pdf
754.9 KB
✍️ Шпаргалка по SQL
Внутри:
▪️основные виды запросов;
▪️CASE и оконные функции;
▪️вложенные запросы;
▪️виды join;
▪️примеры запросов.
Внутри:
▪️основные виды запросов;
▪️CASE и оконные функции;
▪️вложенные запросы;
▪️виды join;
▪️примеры запросов.
👍9
This media is not supported in your browser
VIEW IN TELEGRAM
👀 Это наглядная визуализация того, как работает написанный Карпаты прямой проход по gpt-2.
❤7
Forwarded from Proglib.academy | IT-курсы
Вот подборка книг для изучения Data Science.
Начать бывает сложно и пугает английский, но эти книги помогут разобраться в основах и понять ключевые концепции. Если у вас есть вопросы или нужны рекомендации, пишите в комментариях — давайте учиться вместе
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7❤3
✍️ Что такое косинусное сходство (cosine similarity) и какие альтернативные методы существуют?
Cosine similarity используется для оценки сходства двух векторов. В сущности, это косинус угла между двумя векторами. Значения cosine similarity варьируются от -1 до 1. Однако для большинства задач с положительными векторами (например, текстовые данные, векторы признаков), значения лежат в диапазоне от 0 до 1. При этом:
▪️ 1 означает полное совпадение (вектора направлены в одну и ту же сторону).
▪️ 0 указывает на отсутствие сходства (вектора перпендикулярны друг другу).
▪️ -1 указывает на полную противоположность (вектора направлены в противоположные стороны).
Как ещё можно оценивать сходство векторов? Вот некоторые способы:
▫️Евклидово расстояние;
▫️Манхэттенское расстояние;
▫️Расстояние Чебышева.
Подробнее о них и о том, как они применимы в LLM, читайте в статье 👈
Cosine similarity используется для оценки сходства двух векторов. В сущности, это косинус угла между двумя векторами. Значения cosine similarity варьируются от -1 до 1. Однако для большинства задач с положительными векторами (например, текстовые данные, векторы признаков), значения лежат в диапазоне от 0 до 1. При этом:
▪️ 1 означает полное совпадение (вектора направлены в одну и ту же сторону).
▪️ 0 указывает на отсутствие сходства (вектора перпендикулярны друг другу).
▪️ -1 указывает на полную противоположность (вектора направлены в противоположные стороны).
Как ещё можно оценивать сходство векторов? Вот некоторые способы:
▫️Евклидово расстояние;
▫️Манхэттенское расстояние;
▫️Расстояние Чебышева.
Подробнее о них и о том, как они применимы в LLM, читайте в статье 👈
👍6🙏5
👾 Подборка материалов по машинному обучению и анализу данных
🔹An Illustrated Guide to Superlearning
Под Superlearning здесь имеется в виду метод объединение множества отдельных алгоритмов для создания единой модели.
🔹Evaluating and enhancing probabilistic reasoning in language models
В этой статье исследователи Google изучают, способны ли LLM к вероятностному мышлению.
🔹Обзор платформы Kaggle для начинающих: от состязаний до менторской программы
🔹Sabotage Evaluations for Frontier Models
Исследователи из Anthropic пытались понять, могут ли LLM вводить пользователей в заблуждение и манипулировать системами оценок.
🔹An Illustrated Guide to Superlearning
Под Superlearning здесь имеется в виду метод объединение множества отдельных алгоритмов для создания единой модели.
🔹Evaluating and enhancing probabilistic reasoning in language models
В этой статье исследователи Google изучают, способны ли LLM к вероятностному мышлению.
🔹Обзор платформы Kaggle для начинающих: от состязаний до менторской программы
🔹Sabotage Evaluations for Frontier Models
Исследователи из Anthropic пытались понять, могут ли LLM вводить пользователей в заблуждение и манипулировать системами оценок.
❤2
Forwarded from Библиотека задач по Data Science | тесты, код, задания
У нас есть модель линейной регрессии с регуляризацией. Какое влияние оказывает увеличение lambda на смещение и дисперсию?
Anonymous Quiz
18%
Увеличивает смещение, увеличивает дисперсию
47%
Увеличивает смещение, уменьшает дисперсию
22%
Уменьшает смещение, увеличивает дисперсию
13%
Уменьшает смещение, уменьшает дисперсию
❤3👍1
🧑💻 Статьи для IT: как объяснять и распространять значимые идеи
Напоминаем, что у нас есть бесплатный курс для всех, кто хочет научиться интересно писать — о программировании и в целом.
Что: семь модулей, посвященных написанию, редактированию, иллюстрированию и распространению публикаций.
Для кого: для авторов, копирайтеров и просто программистов, которые хотят научиться интересно рассказывать о своих проектах.
👉Материалы регулярно дополняются, обновляются и корректируются. А еще мы отвечаем на все учебные вопросы в комментариях курса.
Напоминаем, что у нас есть бесплатный курс для всех, кто хочет научиться интересно писать — о программировании и в целом.
Что: семь модулей, посвященных написанию, редактированию, иллюстрированию и распространению публикаций.
Для кого: для авторов, копирайтеров и просто программистов, которые хотят научиться интересно рассказывать о своих проектах.
👉Материалы регулярно дополняются, обновляются и корректируются. А еще мы отвечаем на все учебные вопросы в комментариях курса.
❤1
Реддитор рассказал, что является родственником одного из первоначальных разработчиков Jupyter Notebooks и Jupyter lab. Он нашёл этот ПК, когда разбирал кладовку дома.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🥰10👍6🔥2❤1