Love. Death. Transformers.
22.5K subscribers
4.25K photos
498 videos
76 files
2.78K links
❤️☠️🤗

Указанные действия не являются ресерчем, поскольку:
а) Мы не ученые;
б) Оно работает.
@transformerslovedeatch по всем вопросам
Все ситуации вымышлены, любые совпадения с реальности плот вашей фантазии.
Download Telegram
Emergent abilitys ожидание: ну мы сделали sota на всех языках
Emergent abilitys реальность:
👏259😐4🤔3🍓2🤡1💋1
Я изучил программу самых известных программ по DataScience и составил собственный бесплатный курс подготовки senior ресерчеров:


⁃ Начинаем курс с пайки и микроэлетроники - 6 месяцев
⁃ Учимся программировать под arduino - 4 месесяца
- Пишем папиру на диалог/любую русскую конфу - 1 неделя
⁃ Идем в нму дрочить листочки на первый семестр 4 месяца
⁃ Идем работать в макдак, паралельно учим python и torch – 6 мес
⁃ Дальше репетитором по математике, паралельно контрибьютим в любой опенсурс по вкусу – 6 мес
⁃ Завершаем курс написанием статьи на а* – 9 мес

На выходе всего за 3 года получаем закаленного резерчера, который всем нужен.
😁163🤡42🍌224👍4🔥4🤮2👎1
Forwarded from AbstractDL
Attention Heads of LLM — A survey

Трансформеры это всё ещё чёрный ящик или уже нет? За последние несколько лет мы сильно приблизились к пониманию функций отдельных компонент языковых моделей, лучше понимаем, как они приходят к тому или иному выводу, и главное — как можно влиять на процес их "размышений", редактировать отдельные факты в памяти и многое другое.

В этой статье собрали в кучку всё, что известно о функциях голов внимания в LLM с очень красивыми схемами и таблицами. Вот только небольшая часть:
- Associative Memories Head
- Truthfulness Head
- Semantic Induction Head
- Global Retrieval Head
- Subword Merge Head

Поэтому, если хотите погрузиться в интерпретируемость трансформеров — очень рекомендую полистать этот обзор.

Статья
🔥31👍15💯2🆒2
https://songcreator.github.io/

Думаю скоро выйдет udio, а потом и sora дома.
🔥27👍4
1.wav
1.3 MB
Прям звучит тбх. Папира, а кода пока нет.
👍11👎7
3😁111💅12🌭2
кодомакакам привет, остальным соболезную
🤡9254😁16🍓12👎2👍1🥴1🌭1
https://arxiv.org/pdf/2408.03314 короче если хотите нормальных работ, вот гугловая и hfшная

Вот OpenAiшный CoT+BoN+Sppo или что то похожее

https://openai.com/index/learning-to-reason-with-llms/
145👍1🍓11
фух тест в трейн не забыли долить, я спокоен
51😁143🍓22🙈4🤡2💯2
полистал дальше, все еще выглядит как general подход на основе вот этого

Это не значит что кто то что то украл****
50👍15😁2
🍓11827😁16👍3👏33
Файнали


(Обучение клипа по прежнему не пишет)
🍓109😁1482👍2
Love. Death. Transformers.
Файнали (Обучение клипа по прежнему не пишет)
Agi soon говорили они
Ai is so exponential говорили они
😁204🤔15🍓10👎5🙈5🌭3🤡1
Love. Death. Transformers.
Ну ризонинг и ризонинг
Не будет GPT5, не будет ниче лучшего на тех данных, что есть, вообще на данных что существуют для обучения.
Это предел! Ну еще 10% общего добавят и все.
Не будет AGI, потому что для него нужно совсем другие данные для обучения совсем не такое обучение и ему нужна свобода мысли и контроль направления мышления.
Не рабоают еще в этой индустрии те, кто сможет это осоздать и создать, потому что сейчас хайп именно этого движения, которое не приводит к развитию.
Еще ждать много лет.


после этого отправьте ссылку на комментарий своему куратору, после чего вам будет начисленно 0.15 usd, удалите данный абзац
😁2053531💯12👍10🤡6🔥5🤔3🍓33
Так смотри, тут круглый тензор его тащим.
Тут квадратный, его катим. Понял??
😁206🗿14🥴12👍6❤‍🔥41
😁174🤮56🥴17👍14🔥6👎5🤪5😢3💊2😍1
Forwarded from Bahamut: Memes&Themes
😁95👍5🍓3🤔1
Слышал что многие хотят какую-то буржуйскую H100
Как насчет русского Модуль NM Quad?

Производительность FP32 - 2 TFLOP/s
Производительность FP64 -0,5 TFLOP/s
20 ГБ памяти DDR3L (до 32 ГБ/c)

https://www.module.ru/products/2-moduli/nm-quad

Если серьезно - мое почтение, делать чипы пиздец как сложно
👍76🤡27🔥9😁7🌭3😢2🤔1