Ничего необычного, просто 16-летний парень и его 5-часовое видео с полным руководством по математике для глубокого обучения
Внутри – все про якобианы, производные, градиенты, алгоритм обратного распространения ошибки, функции активации и др. Автор – Адам Дхалла из Канады, и на момент создания видео ему только исполнилось 16.
Сейчас парню 19, он создал очень перспективный алгоритм для классификации местоположений белков в клетках и уже имеет пожизненное финансирование исследований от Schmidt Futures😦
Внутри – все про якобианы, производные, градиенты, алгоритм обратного распространения ошибки, функции активации и др. Автор – Адам Дхалла из Канады, и на момент создания видео ему только исполнилось 16.
Сейчас парню 19, он создал очень перспективный алгоритм для классификации местоположений белков в клетках и уже имеет пожизненное финансирование исследований от Schmidt Futures
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🤯202👍46❤26🔥21🏆4
Data Secrets
Ничего необычного, просто 16-летний парень и его 5-часовое видео с полным руководством по математике для глубокого обучения Внутри – все про якобианы, производные, градиенты, алгоритм обратного распространения ошибки, функции активации и др. Автор – Адам…
Обычный канадец в детстве
😁144❤17👍13❤🔥3🕊2🌚2💘2⚡1🗿1
This media is not supported in your browser
VIEW IN TELEGRAM
Теперь, помимо нашего второго канала Data Secrets | Карьера, самые свежие вакансии и стажировки в DS и ML вы также сможете найти на нашем сайте!
Там вы будете не только видеть ВСЕ актуальные объявления от проверенных российских и зарубежных работодателей в удобном формате, но и сможете сортировать их по требуемому опыту, направлению и зарплате.
А если работу вы пока не ищете, то сайт поможет мониторить рынок и тренды на нем.
Переходите и пробуйте: datasecrets.ru/jobs
Please open Telegram to view this post
VIEW IN TELEGRAM
11👍45 9 7❤5🤯2❤🔥1💘1
Розыгрыш Machine Learning футболок
В честь запуска сайта с ML-вакансиями команда Data Secrets запускает розыгрыш 10 футболок для истинных любителей глубокого обучения.
Это лимитированная линейка нашего бренда. Каждая футболка – целый альманах, на котором любой найдет любимую архитектуру. Гарантирует +100 очков к прохождению собеса или экзамена
Для участия нужно всего лишь быть подписанным на два наших канала: @data_secrets и @data_secrets_career, – и нажать кнопку "Участвовать" под этим постом.
Итоги подведем 18 сентября в 18:00. Желаем удачи!
В честь запуска сайта с ML-вакансиями команда Data Secrets запускает розыгрыш 10 футболок для истинных любителей глубокого обучения.
Это лимитированная линейка нашего бренда. Каждая футболка – целый альманах, на котором любой найдет любимую архитектуру. Гарантирует +100 очков к прохождению собеса или экзамена
Для участия нужно всего лишь быть подписанным на два наших канала: @data_secrets и @data_secrets_career, – и нажать кнопку "Участвовать" под этим постом.
Итоги подведем 18 сентября в 18:00. Желаем удачи!
2 103🔥54 27❤15👍14🤯2
CEO OpenAI Japan на презентации заявил, что следующий GPT будет в 100 раз мощнее предыдущего, и проговорился, что появится модель в этом году
При этом предполагается, что мощи вырастут не за счет объема вычислительных ресурсов, а в основном благодаря улучшениям в архитектуре и эффективности обучения.
Тадао Нагасаки также упомянул Orion, который недавно был в центре новостей. Он рассказал, что модель обучалась (именно в прошедшем времени) на 10к H100.
При этом предполагается, что мощи вырастут не за счет объема вычислительных ресурсов, а в основном благодаря улучшениям в архитектуре и эффективности обучения.
Тадао Нагасаки также упомянул Orion, который недавно был в центре новостей. Он рассказал, что модель обучалась (именно в прошедшем времени) на 10к H100.
🤔59🔥22😁11❤8👍6🤩3✍2
Просто некоторые цитаты Франсуа Шолле: создателя Keras, ведущего исследователя Google DeepMind и автора книги "Deep Learning with Python"
⚪️ "Исследования в области глубокого обучения — это эволюционный процесс, движимый, на деле, очень плохо понятыми нам случайными эмпирическими результатами."
⚪️ "Математика в статьях по Deep Learning обычно бесполезна и, скорее всего, была помещена в текст исключительно для деловитости."
⚪️ "Ключ к хорошему исследованию – это понимание того, что именно порождает результаты, которые вы получили. Выяснить это не так просто, потому что такой процесс требует глубоких экспериментальных исследований (которые на самом деле проводят или стараются проводить очень немногие)."
Шолее, кстати, – один из учредителей премии ARC Prize, того самого ML-соревнования с призом в $1 млн. Оно нацелено на разработку новых архитектур, которые смогут побороть один из самых сложных существующих ИИ-бенчмарков: ARC AGI.
Шолее, кстати, – один из учредителей премии ARC Prize, того самого ML-соревнования с призом в $1 млн. Оно нацелено на разработку новых архитектур, которые смогут побороть один из самых сложных существующих ИИ-бенчмарков: ARC AGI.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥71👍27❤12
Тем временем Nvidia переживает черную полосу: за день компания потеряла рекордные 280 миллиардов долларов
Все из-за антимонопольной полиции. Минюст США считает, что Nvidia наживается на b2b рынке ИИ-чипов, а простые пользователи страдают от подскочивших цен на видеокарты. Проще говоря: о геймерах во всей этой ИИ-суете забыли😞
Самое смешное: оказывается, с Хуангом уже давно вели переговоры, и он, вероятно, понимал последствия. Поэтому и продал кучу своих акций на пике.
А начиналось так красиво…
Все из-за антимонопольной полиции. Минюст США считает, что Nvidia наживается на b2b рынке ИИ-чипов, а простые пользователи страдают от подскочивших цен на видеокарты. Проще говоря: о геймерах во всей этой ИИ-суете забыли
Самое смешное: оказывается, с Хуангом уже давно вели переговоры, и он, вероятно, понимал последствия. Поэтому и продал кучу своих акций на пике.
А начиналось так красиво…
Please open Telegram to view this post
VIEW IN TELEGRAM
🙈47👏17👍10😁8🤔5❤2❤🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
А пока Nvidia справляется с кризисам, а Хуанга вызывает на ковер Минюст США, давайте посмотрим, как в 2020 году он доставал из какой-то духовки и впервые показывал миру легендарную A100
🔥73👍12❤11❤🔥3😁1🤔1
Только что на просторы интернета выложили новую книжку с математической базой по тензорам
Автор, кстати, оказался любителем «древнего» стиля и оформил книгу в стиле широко известной книжки «The Matrix Cookbook». И название позаимствовал: получился The Tensor Cookbook.
Для любителей в книжке есть много зубодробительной математики. А если вы заинтересованы с практической стороны, то достаточно прочитать эти главы:
Ну что может быть лучше свеженького образовательного материала в сентябре?😋
Автор, кстати, оказался любителем «древнего» стиля и оформил книгу в стиле широко известной книжки «The Matrix Cookbook». И название позаимствовал: получился The Tensor Cookbook.
Для любителей в книжке есть много зубодробительной математики. А если вы заинтересованы с практической стороны, то достаточно прочитать эти главы:
1. Introduction (определения, важные теоремы и общие понятия)
10. Machine Learning Applications (про то, как тензоры работают в привычной нам среде, оптимизацию лоссов и атеншен)
12. Tensorgrad (более глубоко про производные, градиенты и операции над тензорами)
Ну что может быть лучше свеженького образовательного материала в сентябре?
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥59👍23❤7❤🔥1😁1
Финансовый эффект от применения технологии Process Mining для Сбера уже составил 20 млрд рублей и высока вероятность, что российский рынок вырастет еще в 19 раз до 7,3 млрд рублей на конец 2028 года — рассказал старший вице-президент, руководитель блока «Финансы» Сбербанка Тарас Скворцов во время ВЭФ.
Судя по подсчетам анатиликов, среднегодовой темп роста российского рынка Process Mining составит 183%, а зарубежного 142% в год. На данный момент около 24% российских компаний уже используют Process Mining, а в течение ближайших пяти лет еще 42% компаний планируют внедрить этот инструмент.
Судя по подсчетам анатиликов, среднегодовой темп роста российского рынка Process Mining составит 183%, а зарубежного 142% в год. На данный момент около 24% российских компаний уже используют Process Mining, а в течение ближайших пяти лет еще 42% компаний планируют внедрить этот инструмент.
👍22🍌8🔥7🤯3🎉3🌚3
Data Secrets
Компании Safe Superintellgence(SSI) всего 3 месяца, у нее еще нет ни одного продукта, но она уже оценивается в 5 миллиардов. Видимо из-за громких имен в составе и больших... амбиций команды: ранее Илья заявлял, что первым продуктом SSI станет только safe AGI.
Инвестиции завезли NFDG, a16z, Sequoia, DST Global и SV Angel.
А еще компания заявила о том, что нанимает ученых. Кто на собес?
Please open Telegram to view this post
VIEW IN TELEGRAM
👍50 33🔥18😁5🤨2❤1🏆1👨💻1
YandexART научилась создавать короткие видео с движущимися объектами
Яндекс рассказал про процесс обучения своей главной генеративной нейросети, которая учитывает при генерации взаимосвязь между кадрами. Это позволяет ей воссоздавать плавные движения объектов в кадре — такие как бег собаки, падение листа с дерева или взрыв фейерверка.
Пошагово это работает так: на вход модель получает текстовое описание от пользователя о том, что должно быть в кадре, и создаёт картинку, с которой начнётся анимация. Затем модель постепенно превращает цифровой шум в последовательность кадров, опираясь на это изображение и текстовый запрос.
Увидеть нейронку в действии можно в приложении Шедеврум.
Яндекс рассказал про процесс обучения своей главной генеративной нейросети, которая учитывает при генерации взаимосвязь между кадрами. Это позволяет ей воссоздавать плавные движения объектов в кадре — такие как бег собаки, падение листа с дерева или взрыв фейерверка.
Пошагово это работает так: на вход модель получает текстовое описание от пользователя о том, что должно быть в кадре, и создаёт картинку, с которой начнётся анимация. Затем модель постепенно превращает цифровой шум в последовательность кадров, опираясь на это изображение и текстовый запрос.
Увидеть нейронку в действии можно в приложении Шедеврум.
👍27🔥7❤6🙈1
Please open Telegram to view this post
VIEW IN TELEGRAM
😁108👍15❤12🤯5
Помните недавнюю лекцию Эндрю Барто о том, что ML – это всего лишь частный случай RL?
Мы писали про нее месяц назад. Это была лекция Эндрю (отца RL) в рамках самой крупной конференции по RL в мире, дословно она называлась «В начале весь ML был RL».
Так вот, есть хорошая новость и плохая. Плохая: лекцию в открытый доступ так и не выложили. Хорошая: по пересказам присутствовавших и отдельным слайдам мы смогли обобщить то, о чем говорил Барто. Вот главное:
⚪️ RL – это не просто исправление ерроров модели, а глобальный метод проб и ошибок. В первых работах по RL исследователи опирались на базу того, как действует наш мозг: гедонистические нейроны стараются максимизировать удовольствие и минимизируют боль. Для этого синапсы, активные в процессе некоторого действия, становятся "доступными для изменения" — учатся лучше оценивать действие при поощрении окружающей среды, и хуже при наказании.
⚪️ Именно идеи из этих работ затем перекочевали в самые первые древние исследования по нейросетям. Например, A modern theory of adaptive networks with expectation & prediction (1981 год). А если еще глубже погружаться в историю, то оказывается, что сам Алан Тьюринг, прородитель ML, работал, по сути, над RL: речь о его Pleasure-Pain system (1948).
⚪️ Получается, что современный ML – действительно частный случай большой общей идеи RL. Ведь методы обратного распространения ошибки и градиентного спуска, по своей сути, и есть изменение весов под влиянием ограниченной внешней среды (обучающего датасета).
Think about it🤔
Мы писали про нее месяц назад. Это была лекция Эндрю (отца RL) в рамках самой крупной конференции по RL в мире, дословно она называлась «В начале весь ML был RL».
Так вот, есть хорошая новость и плохая. Плохая: лекцию в открытый доступ так и не выложили. Хорошая: по пересказам присутствовавших и отдельным слайдам мы смогли обобщить то, о чем говорил Барто. Вот главное:
Think about it
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥66🤯18👍13❤7😁2👏1
Разработчики PyTorch выкатили прикольный гайд про то, как организовать инференс LLM вообще без CUDA-ядер
Они предлагают заменить все ядра CUDA на рукописные Triton ядра в миксе с torch.compile. Это нужно для совместимости с ГПУ от AMD, Intel и др, а не только с Nvidia + для большей гибкости и низкоуровневости.
В статье подробно описывается, как и что нужно сделать, и в итоге показано, что с помощью некоторых дополнительных оптимизаций и танцев с бубном таким способом можно добиться ~80% производительности CUDA.
Получился интересный, но, к слову, достаточно ироничный гайд, учитывая трудности Nvidia на сегодняшний день😀
Они предлагают заменить все ядра CUDA на рукописные Triton ядра в миксе с torch.compile. Это нужно для совместимости с ГПУ от AMD, Intel и др, а не только с Nvidia + для большей гибкости и низкоуровневости.
В статье подробно описывается, как и что нужно сделать, и в итоге показано, что с помощью некоторых дополнительных оптимизаций и танцев с бубном таким способом можно добиться ~80% производительности CUDA.
Получился интересный, но, к слову, достаточно ироничный гайд, учитывая трудности Nvidia на сегодняшний день
Please open Telegram to view this post
VIEW IN TELEGRAM
😁63👍20❤13🔥5❤🔥1💋1