Spark in me
2.2K subscribers
829 photos
48 videos
116 files
2.68K links
Lost like tears in rain. DS, ML, a bit of philosophy and math. No bs or ads.
Download Telegram
Конечно земной поклон, но условия едва стали интересными, и толпы не рванулось.

Интересно, почему?
🏠 Более 7,6 тыс. ИТ-сотрудников получили льготную ипотеку

С момента начала реализации программы по льготной ипотеке подано 32 тыс. заявок. Из них выдано более 7,6 тыс. кредитов на общую сумму 68,6 млрд рублей. На данный момент одобрено 14 тыс. заявок, остальные находятся в обработке.

Программой воспользовались сотрудники ИТ-компаний в 80 регионах России.

Наибольшее число ИТ-ипотек оформлено в регионах:
📍 Москва
📍 Санкт-Петербург
📍 Новосибирская область
📍 Ярославская область
📍 Свердловская область

Программа льготной ипотеки была запущена в апреле 2022 года. Выдача первых ипотечных кредитов началась в мае 2022 года.

Новые условия
В конце января 2023 года изменились правила получения ИТ-ипотеки. Условия для оформления кредита стали проще, требования к зарплате — ниже.

С этого момента количество заявок на ИТ-ипотеку начало активно увеличиваться. Если в декабре 2022 года в банки поступили 2,1 тыс. заявок, то в феврале 2023 года их было подано уже 4,7 тыс. Вдвое выросли темп и объём выдачи — до 500 кредитов в неделю на сумму порядка 5 млрд руб.

@mintsifry
Please open Telegram to view this post
VIEW IN TELEGRAM
Вы не понимаете, это другое!

Понятно, что ОДС, родившийся как комьюнити а-ля "пробиваем лидер-борды вместе" (когда я еще участвовал в соревах, там был сорев с 1000 моделей членов ОДС в ансамбле), не выдержал:

- Наплыва "вайти" и рекламы;
- Отсутствия структуры и модерации;
- Будучи аффилированным со Сбером, зависел от аттракциона неслыханной щедрости Слака;

Я давно не слежу, но его вроде скоро уже добьют таки. И понятно, что люди донатящие организациям со звездочками, начнут сбиваться в кучки и пытаться, когда отлегло, пиариться на костях и "бренде" ОДС, но прося на входе условно "подписаться", что они "хорошие русские".

Но не это удивительно и занятно. Занятно, что я зашел чисто поскроллить и увидел там такой взрыв мозга:

- Некий товарищ сделал своё комьюнити и активно постит во втором;
- В правилах второго написано "Крым - Украина";
- В приветственном треде человек пишет, что он мол блоггер, тренирует LLM и работает ... в Сбере;

Как говорится война войной, а обед по расписанию. Что забавно, в новостях про "отмену" игры Hogwarts Legacy видел такие же сентименты - ярые отменяльщики отменяют, но зарплату прекрасно берут у "плохих" компаний.

Как говорится, вы не понимаете, это другое!
Думаю все, кто хотел, уже пошли Atomic Heart.

Мы абсолютно бесплатно пиарили (я видел уже в чате нашего бота шизофрению на эту тему) игру pro bono, договорившись с издателем.

И даже после прохождения я в принципе не изменил своего мнения, что эта игра это хороший инструмент популяризации советской, российской или русской культуры - кому какой ярлык ближе.

Это просто красивая игра с большим количеством косяков в гейм дизайне и божественной презентацией, и глупо от нее чего-то такого требовать.

Но мне немного показалось, что в конце она продвигает немного неправильные идеи. Интересно, а вы это заметили?
Чувак из Facebook (тоже, блин, империя добра нашлась), пишет разрабу из Байкал Электроникс, что он его патчи в ядро линукса видеть не хочет, ибо, цитата

"Нам некомфортно принимать обновления от людей из вашей организации или связанные с вашей организацией.

Пожалуйста, перестаньте контрибутить до дальнейшего уведомления"

В исходном письме Сёмин изложил, что чем больше они пытались добавить поддержку "Байкала" в ядро, тем больше багов они находили, так что вот вам первые поправочки.

Оказались не нужны ¯\_(ツ)_/¯
PyTorch 2.0: next generation release

Summary:

torch.compile is the main API for PyTorch 2.0, which wraps your model and returns a compiled model.

TorchInductor with Nvidia and AMD GPUs will rely on OpenAI Triton deep learning compiler to generate performant code and hide low level hardware details. OpenAI Triton-generated kernels achieve performance that’s on par with hand-written kernels and specialized cuda libraries such as cublas.

https://pytorch.org/blog/pytorch-2.0-release/
No AMD CPU support for acceleration, which makes sense

[1] [2]
Compatibility with older python and CUDA dropped [1]

Dynamic shapes are flaky [2]
Три наблюдения про CPM на YouTube

Ютуб это 40% времени россиянина в интернете после всех событий. Отсюда понятно, почему кабели не режут, но непонятно, почему VK и Рутуб все ещё нигде, причем согласно блоггерам.

Гипотеза - потому что нигде кроме Ютуба не было реально работающей партнёрки, несмотря на оголтелый техно-, лейбло-, повестко- и цензо- фашизм и adpocalypse с беспочвенными и шадоу банами (готовились?).

Как измерить работу и направленность этой партнерки? Если все эти люди не врут (что не факт), наши развлекательные ютуберы жаловались, что CPM у них был в районе 0.1 доллара и поэтому все ломанулись на патреоны с бусти у нас, и из-за беспричинных удалений каналов у них (я видел аж три таких случая среди своих буржуйских каналов до войны). То есть 10 центов за 1000 просмотров. В США вроде как нормальный CPM даже после adpocalypse все равно выше доллара.

Считайте сами, но продакшн бюджеты трешака типа Mr Beast и загоны многих селебрити стримеров и влоггеров не на пустом месте же возникли.

Если вспомнить, что у Юрия подоляки до войны было 100-200к просмотров на видео максимум, то его откровения про заработок на Ютубе в конце 21 года приводят меня в диапазон CPM 0.5 - 1 доллар.

Третья точка - после войны Ютуб стал безумно пушить украинские каналы, в частности шортсы. С нашим ботом я прямо видел почти одинаковые видосы с просмотрами отличающимися на 3 порядка, и взлетали именно в основном украинские. И что думаете? CPM там совсем крошечный, там 0.01 или 0.001.

В принципе логично, что какие рекламодатели (когда их нет он равен нулю), такой и CPM, но тут или Юрий Подоляка приврал, или я неправильно экстраполировал просмотры его канала до войны, или политота на нашу аудиторию реально была фокусом и получала преференции на Ютубе для войны. Точнее сказать не могу, но вот вам три краевые точки.
⚡️Вакансия, Junior+, Speech, ML от Силеро

Актуально до 30.07.2023

📌 Заниматься надо будет в первую очередь синтезом речи и вспомогательными к нему задачами

🗜 Краткая выжимка

Junior+, Speech, ML, Python
Вилка 50-100к рублей
Только основное место работы
Только выпускники или студенты последнего курса
Удаленка по ssh, встречаемся 1 раз в неделю оффлайн (Москва)
Не рассматриваем сочетание с аспирантурой / работой в лаборатории / и т.п.

🛠 Что реально надо делать

Разработка на питоне
Работа с данными, чистка вилкой, сбор данных
Обучение нейросетей и разработка ML алгоритмов

📚 Идеальный кандидат

Python + PyTorch
Есть понятные пет-проекты или опыт
Курсы это плюс, но они не считаются за опыт / пет-проекты
Прошарен(а) в экосистеме Linux, не боишься работать в консоли
Прочитал(а) seminal papers в какой-то области (CV, NLP, ASR, TTS), имеешь свое аргументированное мнение на эту тему

🔗 Почитать про нас

Наши публикации на Хабре
Публикации на английском языке
Полный список публикаций
Бот с нашим синтезом в Телеграме (2м пользователей)

✉️ Присылайте ваш пет проект / опыт с кратким CV сюда @silero_job
My First Test With Torch 2.0

So I tried running a small model and a large model.

First of all it failed on an STFT module with a plain nn.Module model. No problem, let's try a JIT model, though it is not described in the tutorial.

On AMD CPU - it works, but there absolutely no difference. And the first run does NOT take ages. Then I remembered that AMD was not listed as optimized backend. Looks like it just does not do anything.

Then I tried an Ampere GPU - and still no difference and no "very long first" run. I tried a dynamic shape with real random inputs - and got some cryptic errors.

No conclusions yet. Need more testing on other models / hardware.