Forwarded from Doque Embedded
Парень нашел бродячего котика в саду у подруги, просканировал его флиппером, нашел его хозяев по айди и вернул его им. Оказалось что кот убежал из дома два года назад.
Я считаю что код для сканирования животных это самый добрый код что я писал.
https://discord.com/channels/740930220399525928/746304505879986267/1036339525070356550
Я считаю что код для сканирования животных это самый добрый код что я писал.
https://discord.com/channels/740930220399525928/746304505879986267/1036339525070356550
💋33🔥25😍6👍3
Why can’t programmers tell the difference between Halloween & Christmas? Because oct 31 = dec 25.
👍58👎3💩3🍓3😁1
MagicMix: Semantic Mixing with Diffusion Models
(кажется 8) работа на тему: а давайте как нибудь подумаем как редактировать картинки.
в чем идея этой:
давайте зашумим картинку, затем возьмем и сгенериуем начало шума картинки для нужного концепта, затем шумы складываются и получается что модно управлять и shape и текстурой без потери качества.
paper
(кажется 8) работа на тему: а давайте как нибудь подумаем как редактировать картинки.
в чем идея этой:
давайте зашумим картинку, затем возьмем и сгенериуем начало шума картинки для нужного концепта, затем шумы складываются и получается что модно управлять и shape и текстурой без потери качества.
paper
👍23👎1🔥1
Крутые ребята ищут Senior Product Analyst
Задачи:
- искать связь продуктовых и технических метрик
-растить продуктовые метрики
-строить гипотезы на основе данных
По хардам:
-уметь sql, python, superset и прочее
-если умеешь в NLP - отлично
Бонусом будет если:
-закончили шад/озон мастерс
-уже строили успешные продукты
По деньгам и условиям:
Работа из любой точки мира, страховка, помощь с релокейтом на мальту
без ограничений, все зависит от кандидата, обсуждаем %
Кидать cv @Alexwortegaa
Задачи:
- искать связь продуктовых и технических метрик
-растить продуктовые метрики
-строить гипотезы на основе данных
По хардам:
-уметь sql, python, superset и прочее
-если умеешь в NLP - отлично
Бонусом будет если:
-закончили шад/озон мастерс
-уже строили успешные продукты
По деньгам и условиям:
Работа из любой точки мира, страховка, помощь с релокейтом на мальту
без ограничений, все зависит от кандидата, обсуждаем %
Кидать cv @Alexwortegaa
👍7🤮1
Где бы ты не был, подумай что было тут 100 лет назад, а что будет через 100 лет.
👍34💩4🤮3🕊3
Поговорим про задачу image captioning.
Кто то использует модели? Если да, для чего и на каком языке.
Делитесь в комментариях
Кто то использует модели? Если да, для чего и на каком языке.
Делитесь в комментариях
👍6
вы вообще сами то читаете хуйню которую пишитe
habr
habr
Хабр
Краткий пересказ Towards Pretrained Transformers As universal Computation Engines
Данная статья представляет собой краткий пересказ https://arxiv.org/abs/2103.05247АннотацияДанная статья является разбором свежей статьи от исследователей из университета Беркли "Pretrained...
🤔8🤨4
Love. Death. Transformers.
вы вообще сами то читаете хуйню которую пишитe habr
Sponsored by chat with
okhlopkov.com
okhlopkov.com
Лежат заключённые на нарах, после отбоя. Вдруг, из одного угла слышится: 14.
Вся камера начинает заливисто смеяться.
Из другого угла: 37.
Камера опять ржёт.
Новенький арестант спрашивает у лежащего рядом старожила:
- А че это за цифры из-за которых все в камере смеются?
Старый отвечает:
- Понимаешь, кореш, давно тут сидим, все анекдоты уже рассказали и, чтобы не повторять каждый раз, присвоили им номера. Называет кто-то номер анекдота, а все остальные вспоминают и смеются.
Новенький на всю камеру:
— nan!
—
Новенький был осуждён за убитый трейн.
Вся камера начинает заливисто смеяться.
Из другого угла: 37.
Камера опять ржёт.
Новенький арестант спрашивает у лежащего рядом старожила:
- А че это за цифры из-за которых все в камере смеются?
Старый отвечает:
- Понимаешь, кореш, давно тут сидим, все анекдоты уже рассказали и, чтобы не повторять каждый раз, присвоили им номера. Называет кто-то номер анекдота, а все остальные вспоминают и смеются.
Новенький на всю камеру:
— nan!
—
Kernel panic - not syncing: nvhost_scale_emc_debug_initНовенький был осуждён за убитый трейн.
😁92👍5🤩4❤1🤔1🤮1💩1
Однажды Эрнест хэменгуей поспорил что напишет самую грустную историю из пяти слов:
Годную идею проебал хуевый менджмент
Годную идею проебал хуевый менджмент
❤54😢20🍓6🤔1🤮1
Forwarded from Градиентное погружение (Максим Герасимов)
Kaggle Accelerator
Ещё неделю назад заметил новую фичу на Kaggle, помимо конфигураций P100 (16 гб), TPU v3-8, теперь доступны T4×2 (15 + 15 гб видеопамяти).
P100 они не заменят и будут уступать, но позволят:
1) При должном желании (сложно) запускать 2 эксперимента вместо одного, при этом недельная квота GPU (30-40 часов) общая для T4×2 и P100, а это дополнительные гпу часы.
2) Ускорить инференс/обучение (в некоторых случаях).
3) Тюнить параметры параллельно.
4) Запускать большие модели (до 30 гб).
Кажется что это самый большой плюс.
Да, все ещё неудобно, но лучше чем zero-offload.
Training using 2 T4 with Pytorch DataParallel
Single-Machine Model Parallel Best Practices
Ещё неделю назад заметил новую фичу на Kaggle, помимо конфигураций P100 (16 гб), TPU v3-8, теперь доступны T4×2 (15 + 15 гб видеопамяти).
P100 они не заменят и будут уступать, но позволят:
1) При должном желании (сложно) запускать 2 эксперимента вместо одного, при этом недельная квота GPU (30-40 часов) общая для T4×2 и P100, а это дополнительные гпу часы.
2) Ускорить инференс/обучение (в некоторых случаях).
3) Тюнить параметры параллельно.
4) Запускать большие модели (до 30 гб).
Кажется что это самый большой плюс.
Да, все ещё неудобно, но лучше чем zero-offload.
Training using 2 T4 with Pytorch DataParallel
Single-Machine Model Parallel Best Practices
🔥19❤1👍1
Forwarded from Dan Okhlopkov - канал
Если хотите залипнуть, друзья технари
⚠️ не открывать во время работы ⚠️
🔗 https://www.decisionproblem.com/paperclips/index2.html
⚠️ не открывать во время работы ⚠️
🔗 https://www.decisionproblem.com/paperclips/index2.html
👍2
#чтивонаночь
Решаем любую задачу не зная решения, Composing Ensembles of Pre-trained Models via Iterative Consensus
Идея простая: берем некторый генератор(gpt), берем некоторый scorer и начинаем итеративно генерировать гипотезы, прогоняем их через классификатор и показываем снова генератору, тем самым по сути совершая adversial атаку на gpt.
Неожиданно такой подход бьет SOTA на
-Video QA
В целом подход дает очень хорошие резы практически на всех мультимодальных бенчах включая генерацию картинок(тут генератором выступил GLIDE)
сайт
code - нет, полагаю это довольно медленная штука
paper
Решаем любую задачу не зная решения, Composing Ensembles of Pre-trained Models via Iterative Consensus
Идея простая: берем некторый генератор(gpt), берем некоторый scorer и начинаем итеративно генерировать гипотезы, прогоняем их через классификатор и показываем снова генератору, тем самым по сути совершая adversial атаку на gpt.
Неожиданно такой подход бьет SOTA на
-Video QA
В целом подход дает очень хорошие резы практически на всех мультимодальных бенчах включая генерацию картинок(тут генератором выступил GLIDE)
сайт
code - нет, полагаю это довольно медленная штука
paper
👍8