Где лучше всего учиться ML в Росиии? Конечно же в Школе Анализа Данных от Яндекса.
Но вот проблема: чтобы попасть туда, нужна сильная математическая база и скилл щелкать олимпиадное программирование.
Со всеми теми, кто не хочет упустить возможность усилить свои знания, делимся школой Shad Helper, которая готовит к поступлению в ШАД.
Очень скоро, 25 марта, у них стартует 13-месячная программа под руководством сильной команды (преподаватели кандидаты и доктора из МГУ, МФТИ, ВШЭ). Стоимость – 5999 в неделю, остановить обучение можно в любой момент. В комплекте также система скидок за хорошую успеваемость, чат-бот для студентов и регулярные домашние задания с менторской проверкой.
Остались вопросы? Подключайся к ребятам на вебинар 21 марта в 19:00, чтобы узнать больше про курс и подготовку к ШАД.
Но вот проблема: чтобы попасть туда, нужна сильная математическая база и скилл щелкать олимпиадное программирование.
Со всеми теми, кто не хочет упустить возможность усилить свои знания, делимся школой Shad Helper, которая готовит к поступлению в ШАД.
Очень скоро, 25 марта, у них стартует 13-месячная программа под руководством сильной команды (преподаватели кандидаты и доктора из МГУ, МФТИ, ВШЭ). Стоимость – 5999 в неделю, остановить обучение можно в любой момент. В комплекте также система скидок за хорошую успеваемость, чат-бот для студентов и регулярные домашние задания с менторской проверкой.
Остались вопросы? Подключайся к ребятам на вебинар 21 марта в 19:00, чтобы узнать больше про курс и подготовку к ШАД.
🤯33🙈10🫡9🤨5❤2😁2
Традиционно, воскресно, и в этот раз не очень очевидно. Задача!
Кто готов попробовать свои силы?
В группе первокурсников n человек и они видят друг друга впервые. А в парке аттракционов сегодня дают скидку, если приходит компания ровно из k друзей, среди которых каждый дружит с каждым.
Дружба между любой парой однокурсников независимо возникает с вероятностью р. Ваня, один из первокурсников, хочет пойти на аттракционы со скидкой.
Каким в среднем количеством способов он может это сделать?
Кто готов попробовать свои силы?
👍17❤3
Data Secrets
Как и обещали, Grok появился в опенсурс 😬
Ладно-ладно, теперь серьезно. X.ai выложили веса и код Grok-1. Оказалось, что это опять-таки Mixture of Experts. Поражает только размер: 314 млрд параметров. Для сравнения, в Gemini Pro 100 млрд.
GitHub | HuggingFace
GitHub | HuggingFace
👍31🔥14🤯7❤5
Data Secrets
Ладно-ладно, теперь серьезно. X.ai выложили веса и код Grok-1. Оказалось, что это опять-таки Mixture of Experts. Поражает только размер: 314 млрд параметров. Для сравнения, в Gemini Pro 100 млрд. GitHub | HuggingFace
Разобрали modal.py этого чуда и готовы погрузить вас в архитектуру. Итак, Grok-1 Илона Маска – это:
– 314В параметров, 86В активных. Mixture of Experts, 8 экспертов, 2 активных (то есть по 2 на токен).
– Вместо позиционных эмбеддингов используются Rotary эмбеддинги размерностью 6144.
– Размер словаря токенизатора: 131 072 (в GPT-4, кстати, примерно столько же).
– 64 слоя в трансформере, каждый с декодером (мультихэд внимание + denseblock). Размерность ключей – 128.
– Длина контекста – 8192 токена (bf16).
– 8-битное квантование весов, то есть ~ 314Гб.
Лицензия – Apache 2.0. Вот такие дела.
– 314В параметров, 86В активных. Mixture of Experts, 8 экспертов, 2 активных (то есть по 2 на токен).
– Вместо позиционных эмбеддингов используются Rotary эмбеддинги размерностью 6144.
– Размер словаря токенизатора: 131 072 (в GPT-4, кстати, примерно столько же).
– 64 слоя в трансформере, каждый с декодером (мультихэд внимание + denseblock). Размерность ключей – 128.
– Длина контекста – 8192 токена (bf16).
– 8-битное квантование весов, то есть ~ 314Гб.
Лицензия – Apache 2.0. Вот такие дела.
🎉64🔥16👍10❤2🤨1
erid: LjN8KbxG8
Построение DWH в Yandex Cloud: кейс крупной логистической компании
21 марта в 16.00
На вебинаре эксперты iiii Tech и Yandex Cloud совместно с клиентом Рулог поделятся кейсом, как в рамках локализации отчетности развернуть DWH (КХД) на Yandex Cloud.
Расскажем о:
- современном стеке аналитических инструментов
- бесшовной миграции с международных облачных платформ
- о проекте построения DWH (КХД) на основе дата-контрактов
Вебинар будет полезен CDO, CTO, руководителям направлений по работе с данными, архитекторам данных, аналитиками и дата-инженерам.
Спикеры:
Георгий Цыганков,
руководитель направления BI
Андрей Суренский,
архитектор по работе с партнёрами Yandex Cloud
Венера Никитина, бизнес-аналитик логистической компании Рулог
Зарегистрироваться можно по ссылке
Построение DWH в Yandex Cloud: кейс крупной логистической компании
21 марта в 16.00
На вебинаре эксперты iiii Tech и Yandex Cloud совместно с клиентом Рулог поделятся кейсом, как в рамках локализации отчетности развернуть DWH (КХД) на Yandex Cloud.
Расскажем о:
- современном стеке аналитических инструментов
- бесшовной миграции с международных облачных платформ
- о проекте построения DWH (КХД) на основе дата-контрактов
Вебинар будет полезен CDO, CTO, руководителям направлений по работе с данными, архитекторам данных, аналитиками и дата-инженерам.
Спикеры:
Георгий Цыганков,
руководитель направления BI
Андрей Суренский,
архитектор по работе с партнёрами Yandex Cloud
Венера Никитина, бизнес-аналитик логистической компании Рулог
Зарегистрироваться можно по ссылке
🗿5👍1
Сегодня много движа со стороны Apple. Видимо вспомнили, что скоро выпускать новый IPhone, ну а выпустить без ИИ на борту будет как-то не трендово.
🌟 По данным обозревателя Bloomberg Марка Гурмана, Apple планирует получить у Google лицензию на использование Gemini. Компания хочет добавить ИИ-функции в iOS уже в этом году.
А также пошел слушок, что Apple обсуждала с OpenAI возможность использования их ИИ-модели.
🌟 У техно-гиганта в работе еще одна модель MM1 (статья). Умеет считать объекты на картинке и описывать их, анализирует участки изображения и извлекает текст, может проводить простые математические операции, посчитать примерный вес и размеры айтема.
🌟 В начале года Apple тихо купила стартап Darwin AI вместе с десятком их сотрудников. Главное направление разработок там – делать LLM легче и быстрее (идеально для смартфонов).
В таких реалиях особенно забавно вспоминать о том, что Apple сократила свою ML-команду в размере более 100 человек, которая как раз занималась разработкой Siri.
А также пошел слушок, что Apple обсуждала с OpenAI возможность использования их ИИ-модели.
В таких реалиях особенно забавно вспоминать о том, что Apple сократила свою ML-команду в размере более 100 человек, которая как раз занималась разработкой Siri.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍26🔥7🫡5😁2❤1
Forwarded from XOR
Сам Гейтс до сих пор не нашёл баланс в использовании ИИ. Он отмечает, что с некоторыми задачами нейросети справляются блестяще, но другие делают хуже любого человека. А ещё искусственный интеллект плохо играет в судоку и не может сделать людей счастливыми.
@xor_journal
Please open Telegram to view this post
VIEW IN TELEGRAM
👍35🔥9😁4
Nvidia представила свою новую крышесносно-мощную видеокарту Blackwell
Она в 5(!) раз быстрее предыдущей Hopper, которая кстати вышла всего год назад (ну ничего себе экспонента, да?). Уже известно, что чип будут использовать в OpenAI, Google, Microsoft и Tesla.
Для больших языковых обещают снижение затрат на инференс в 25 раз! А еще Хуанг предложил собирать чипы в кластеры по 100 тысяч ускорителей. Просто представьте, какая это мощь и насколько может изменить индустрию ИИ.
Не зря Альтман и остальные верят, что именно за чипами будущее. Новой эре быть!
Она в 5(!) раз быстрее предыдущей Hopper, которая кстати вышла всего год назад (ну ничего себе экспонента, да?). Уже известно, что чип будут использовать в OpenAI, Google, Microsoft и Tesla.
Для больших языковых обещают снижение затрат на инференс в 25 раз! А еще Хуанг предложил собирать чипы в кластеры по 100 тысяч ускорителей. Просто представьте, какая это мощь и насколько может изменить индустрию ИИ.
Не зря Альтман и остальные верят, что именно за чипами будущее. Новой эре быть!
🔥51👍9😁5🙈1
Data Secrets
Реалии современной науки * статья с картинки 1; статья с картинки 2
Лучше не становится: Google Scholar туда же…
Эх, ну хоть бы промптить нормально научились
Эх, ну хоть бы промптить нормально научились
😁59😨6👌3❤1👍1🤯1
This media is not supported in your browser
VIEW IN TELEGRAM
Рубрика интересные факты 🤓
Коллеги, ну вы поняли, теперь MSE только так называем
Please open Telegram to view this post
VIEW IN TELEGRAM
😁68😨40😐10😎5👍2❤1🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Главное помнить, что мы сами их сотворили
👍52😁24🔥16❤3
Нашли супер полезный сайт с аннотированным кодом популярных моделей
Здесь есть код, например, Stable Diffusion, GPT, ResNet, оптимизатора Adam, Switch Tranformer и много чего другого. Но это не просто код. Фишка сайта вот в чем: каждая строка кода задокументирована и слева на экране отображается соответсвующая каждой строке теория или формулы. Отличный ресурс для изучения!
Здесь есть код, например, Stable Diffusion, GPT, ResNet, оптимизатора Adam, Switch Tranformer и много чего другого. Но это не просто код. Фишка сайта вот в чем: каждая строка кода задокументирована и слева на экране отображается соответсвующая каждой строке теория или формулы. Отличный ресурс для изучения!
❤82👍15❤🔥10
Слышали про квантизацию? Если еще нет, вот подробная статья
По сути квантизация – это способ представить данные в более компактном виде, что поможет сэкономить ресурсы и улучшить пользовательский опыт.
ML-разработчик Яндекса рассказал, как (и вообще зачем) квантизовать модели, с каким данными при этом предстоит работать, а еще представил несколько методов квантизации. Будет полезно не только спецам, но и всем, кто хочет уметь заставлять модели работать эффективнее. Ссылка на Хабр вот тут.
По сути квантизация – это способ представить данные в более компактном виде, что поможет сэкономить ресурсы и улучшить пользовательский опыт.
ML-разработчик Яндекса рассказал, как (и вообще зачем) квантизовать модели, с каким данными при этом предстоит работать, а еще представил несколько методов квантизации. Будет полезно не только спецам, но и всем, кто хочет уметь заставлять модели работать эффективнее. Ссылка на Хабр вот тут.
👍34🔥11❤5🤯2
This media is not supported in your browser
VIEW IN TELEGRAM
Что еще интересного мы увидели от Nvidia?
Пока все восторгаются новым супер-чипом, давайте посмотрим, что еще прикольного показал Хуанг:
1) РОБОТЫ! Корпорация представила GROOT – базовую ML-модель для человекоподобных роботов. Она принимает текстовые команды, видео и фото, на которых учит железки двигаться и обращаться с предметами. Эта модель, по словам CEO, может стать «полноценным GPT для роботов». Результаты выглядят круто👆
2) AI Factory — корпоративное решение (с ИИ конечно), которое объединяет ноутбуки, ПК, системы хранения данных и сетевые устройства. По сути, это долгожданное решение для бизнеса, которое позволит упростить сложный процесс развертывания ИИ в системе предприятия.
Вот так-то. В этом году Nvidia довольно уверенно двигается в ИИ-гонке
Пока все восторгаются новым супер-чипом, давайте посмотрим, что еще прикольного показал Хуанг:
1) РОБОТЫ! Корпорация представила GROOT – базовую ML-модель для человекоподобных роботов. Она принимает текстовые команды, видео и фото, на которых учит железки двигаться и обращаться с предметами. Эта модель, по словам CEO, может стать «полноценным GPT для роботов». Результаты выглядят круто
2) AI Factory — корпоративное решение (с ИИ конечно), которое объединяет ноутбуки, ПК, системы хранения данных и сетевые устройства. По сути, это долгожданное решение для бизнеса, которое позволит упростить сложный процесс развертывания ИИ в системе предприятия.
Вот так-то. В этом году Nvidia довольно уверенно двигается в ИИ-гонке
Please open Telegram to view this post
VIEW IN TELEGRAM
😁17👍11❤5🔥5👌1
Нас ждет GPT-5?
Похоже на то. Об этом пишет Bisuness Insider. По словам их инсайдеров, модель будет «существенно лучшее» предшественников, и, скорее всего, выйдет летом.
❤️ - верю
🤔 - не верю
Похоже на то. Об этом пишет Bisuness Insider. По словам их инсайдеров, модель будет «существенно лучшее» предшественников, и, скорее всего, выйдет летом.
❤️ - верю
🤔 - не верю
❤163🤔52🗿11👾3👍2👨💻1
5 инструментов эффективного DS-инженера
Помните, мы уже рассказывали о том, что хороший ML-инженер – это не просто хороший математик, но и классный разработчик? Да, статистика и теория ML – это еще не все. Код, бизнес-логика, умение рефакторить и дебажить, умение грамотно проводить эксперименты – вот скилы, которые надо качать.
Давайте вспомним немного инструментов, которые упростят вам жизнь: DVC, CML, MLFlow, CI/CD, тесты, конфиг-файлы, docker, etc. Ой, мы сказали немного?...
Да, самому разбираться откровенно сложно и долго. Идеальный вариант познакомиться с этим — новая лекция наших друзей из DeepSchool. 21 марта в 18:00 они расскажут:
– как использовать makefile;
– как писать тесты для моделинга;
– чем хорош lightning и как его использовать;
– как повысить качество кода с помощью линтеров;
– про трекинг и визуализацию в CML.
И также представят программу курса CV Rocket, на котором учат полному циклу решения CV-задач.
В дополнение ребята еще и пришлют список полезных библиотек и сервисов для CV-инженеров. Короче, пропустить нельзя. Регистрация тут.
Помните, мы уже рассказывали о том, что хороший ML-инженер – это не просто хороший математик, но и классный разработчик? Да, статистика и теория ML – это еще не все. Код, бизнес-логика, умение рефакторить и дебажить, умение грамотно проводить эксперименты – вот скилы, которые надо качать.
Давайте вспомним немного инструментов, которые упростят вам жизнь: DVC, CML, MLFlow, CI/CD, тесты, конфиг-файлы, docker, etc. Ой, мы сказали немного?...
Да, самому разбираться откровенно сложно и долго. Идеальный вариант познакомиться с этим — новая лекция наших друзей из DeepSchool. 21 марта в 18:00 они расскажут:
– как использовать makefile;
– как писать тесты для моделинга;
– чем хорош lightning и как его использовать;
– как повысить качество кода с помощью линтеров;
– про трекинг и визуализацию в CML.
И также представят программу курса CV Rocket, на котором учат полному циклу решения CV-задач.
В дополнение ребята еще и пришлют список полезных библиотек и сервисов для CV-инженеров. Короче, пропустить нельзя. Регистрация тут.
👍14❤7🔥7
Memory wall problem: что это такое и почему это проблема
Memory wall problem – это когда мощность процессора превышает его пропускную способность. То есть процессор получает на вход данные, бодро их обрабатывает, а потом просто ждет еще некоторое время, прежде чем данные будут извлечены из памяти.
Таким образом, каким бы мощным не был процессор, если пропускная способность у него слабая, то он теряет эффективность.
А наверху – график, отражающий то, как за последние годы менялось количество параметров в знаковых моделях, и как при этом развивались процессоры. Короче, проблемы начались в 2019, и с тех пор лучше не стало.
Вывод: нет пропускной способности, нетвосстания машин крутого инференса. Надеемся на Nvidia?
Memory wall problem – это когда мощность процессора превышает его пропускную способность. То есть процессор получает на вход данные, бодро их обрабатывает, а потом просто ждет еще некоторое время, прежде чем данные будут извлечены из памяти.
Таким образом, каким бы мощным не был процессор, если пропускная способность у него слабая, то он теряет эффективность.
А наверху – график, отражающий то, как за последние годы менялось количество параметров в знаковых моделях, и как при этом развивались процессоры. Короче, проблемы начались в 2019, и с тех пор лучше не стало.
Вывод: нет пропускной способности, нет
👍45🔥7❤5
Соучредитель Google DeepMind Мустафа Сулейман присоединяется к Microsoft как CEO нового подразделения ИИ
Он будет курировать Copilot, Bing и другие пользовательские ML-продукты.
Напомним, этот тот самый руководитель, против которого Google вели дело об издевательстве над сотрудниками. Наверное, в Microsoft сотрудники стрессоустойчивее.
Он будет курировать Copilot, Bing и другие пользовательские ML-продукты.
Напомним, этот тот самый руководитель, против которого Google вели дело об издевательстве над сотрудниками. Наверное, в Microsoft сотрудники стрессоустойчивее.
🍌41🙈11👍9👀6🔥5❤2