Love. Death. Transformers.
24K subscribers
4.46K photos
520 videos
78 files
2.92K links
❤️☠️🤗

Указанные действия не являются ресерчем, поскольку:
а) Мы не ученые;
б) Оно работает.
@transformerslovedeatch по всем вопросам
Все ситуации вымышлены, любые совпадения с реальности плот вашей фантазии.
Download Telegram
1. Открытое пространство (иллюзия):
- Большая часть сотрудников работает в open space, где их внимание сосредоточено на мониторах компьютеров и задачах, которые они выполняют. Здесь они видят только «тени» реальности – инстаграм где Анфиса с Зорабом едят по кутузе в коффемашку

2. Конференц-залы (путь к истине):
- Сотрудники периодически собираются в конференц-залах для обсуждения стратегий, брейншторминга и принятия решений, создавая иллюзию мысли.

3. Кабинеты руководителей (мир идей):
- Здесь находятся те, кто думает что обладает истинным знанием и видением компании – руководители и топ-менеджеры. Они имеют доступ к полной информации и понимают цели и стратегии на высшем уровне, но уже не хотят ничего делать. В их руках не находится реальная власть и знание.

4. Backlog (прошлое и знания):
- В backlog хранятся документы, отчеты и данные прошлых лет.
2611👍4🤔4💊431😢1🦄1
Не жирная, просто эмбеддинг широкий
👍54😁183🤡2
Да нормальный у нас энкодер, всего то 10b, зато sota
🔥45😁42
очень ищу веса sd3, only for goods @transformerslovedeatch
31👏6😁5
Love. Death. Transformers.
очень ищу веса sd3, only for goods @transformerslovedeatch
Короче тут какой то чувак из твиттера почти в соло сделал sd3 xl, уже бежит первый long-run

Wandb
Twitter
19😁9👍4😢21
Слово дня: разочарование

Ну блять н
у что это, ну как такое релизить можно

https://huggingface.co/Tencent-Hunyuan/HunyuanDiT
😢166🍌21
😁4712🔥4👏221👍1
Love. Death. Transformers.
Стадии принятия деградацим модели Гнев - да хейтеры closed Ai все врут Дебаг - щаща промпт поменяю и нормально будет Торг - ну, зато быстрее... И в ASCII рисует лучше... И e2e мультимодалка... Депресия - блять ну как так то, почему я должен писать: I give…
Чо бухтите, ну не 1350 Elo везде, зато мультимодалка, вообще есть инфа от проверенного человека. Ща стабилизируют ситуацию с алайментом, гугл и антропик ничего не смогут сделать. Elo поднимут и будут держать. Опенсурс ничего не сделает, сейчас главное не бухтеть.


Пояснение к мему: на coding tasks arena Sama показал 1350, но общий Elo очевидно ниже
50👍1284😁2🔥1
Forwarded from Labrats
Биоинформатик идет в магазин.
Муж просит купить его булку, а если будут яйца, то десяток.
По пути в магазин встречает бывшего однокурсника, уставшего и невыспавшегося биоинженера,
— Я кстати теперь богатый очень и на удаленке работаю, не то что ты, ой как хорошо быть биоинформатик
Биоинженер бьёт его по булкам и в яйца десяток раз
🤡54💩15👍11😁5🔥3🤮3
Forwarded from Denis Sexy IT 🤖
Media is too big
VIEW IN TELEGRAM
Linux terminal + gpt4o.avi

UPD. Я опять забыл что существует компрессия файлов, сорьки
🌭3112🤡53💩3🥴32😁1
😁8423👍65422
Никто не знает зачем, но чувак написал на голом торче llama3.
Почитайте, ознакомьтесь со слоями, полезно для собесов, бесполезно в жизни.
много картинок которые помогут выробатать интуицию вида: а на что у меня смотрит модель, а почему меня ротари и ответить на вопрос: а почему так
GitHub
🔥11013🥴11
Forwarded from Generative Anton (Anton Repushko)
ну, наша SOTA.

Вообще надо бы рассказать про всякие бенчмарки как-нибудь.
👍455💯1
Мастер и Маргарита в 2024:
Аннушка уже разлила свой спф от Sol De Janeiro, Берлиоза переехал школьник в хром хартс на электросамокате, Воланд три часа пытался загипнотизировать хостес в Хорошей Девочке, чтоб ему нашли свободный стол, Азазелло снялся в каждом рилсе «сколько ты зарабатываешь в месяц?» и продал несколько курсов, вместо кота Бегемота - мальтипу Микки, Маргарита, жена ресторатора, помогала писать Мастеру, диджею в отставке, посты для его тг-канала, а после бала в Родине свита Воланда дружно улетела в Дубай
54🔥14😁12🤔3👍2💅1
чатботы служат одной цели - промоушен менеджеров в clevels
💯29🥴141
83😐9❤‍🔥21👍1
Помните шоу трумана?

Короче тут ребята из/a16z сделали интерактивное LLM шоу трумана, все NPC это llama3, довольно занудное зрелище, но если очень хочется посмотреть - вот ссылка.

Таких работ примерно миллион, все они примерно не о чем, серьезно их читать не стоит, но пофантазировать о Sims7 через пару лет - можно.

ai town
36🗿65👍1🥱1
Forwarded from AbstractDL
Your Transformer is Secretly Linear

Мою новую статью приняли на ACL 🎉. Мы обнаружили, что большинство слоёв языковых моделей линейны на 99%! Это значит, что из любого слоя LLM можно выкинуть этэншн, нормализацию и даже feed-forward с активацией, оставив лишь один nn.Linear(), а модель будет работать, будто бы ничего не поменялось!

Такая неадекватная линейность наблюдается во всех трансформерах-декодерах (GPT, Llama, Mistral, и тд.). Мы предполагаем, что это связано с feature triggering режимом, то есть нелинейность "вспыхивает" на очень небольшом количестве важных токенов (что-то похожее было в статье Deja Vu). Поэтому совсем уж много слоёв таким образом заменить нельзя, нелинейность хоть сама по себе и крошечная, но её влияние очень быстро накапливается.

Ещё из интересных наблюдений — по мере претрейна нелинейность растёт, а во время файнтюнинга (или RLHF) она всегда падает. Исходя из этого, мы придумали регуляризацию, которая немножко усиливает нелинейность и бустит метрики на претрейне.

P.S. Вместе с кодом для оценки линейности слоёв трансформеров мы выкладываем и код к прошлой нашей статье про анизотропию и внутреннюю размерность.

Статья, GitHub
👍153🔥68133🤔3