1. Открытое пространство (иллюзия):
- Большая часть сотрудников работает в open space, где их внимание сосредоточено на мониторах компьютеров и задачах, которые они выполняют. Здесь они видят только «тени» реальности – инстаграм где Анфиса с Зорабом едят по кутузе в коффемашку
2. Конференц-залы (путь к истине):
- Сотрудники периодически собираются в конференц-залах для обсуждения стратегий, брейншторминга и принятия решений, создавая иллюзию мысли.
3. Кабинеты руководителей (мир идей):
- Здесь находятся те, кто думает что обладает истинным знанием и видением компании – руководители и топ-менеджеры. Они имеют доступ к полной информации и понимают цели и стратегии на высшем уровне, но уже не хотят ничего делать. В их руках не находится реальная власть и знание.
4. Backlog (прошлое и знания):
- В backlog хранятся документы, отчеты и данные прошлых лет.
- Большая часть сотрудников работает в open space, где их внимание сосредоточено на мониторах компьютеров и задачах, которые они выполняют. Здесь они видят только «тени» реальности – инстаграм где Анфиса с Зорабом едят по кутузе в коффемашку
2. Конференц-залы (путь к истине):
- Сотрудники периодически собираются в конференц-залах для обсуждения стратегий, брейншторминга и принятия решений, создавая иллюзию мысли.
3. Кабинеты руководителей (мир идей):
- Здесь находятся те, кто думает что обладает истинным знанием и видением компании – руководители и топ-менеджеры. Они имеют доступ к полной информации и понимают цели и стратегии на высшем уровне, но уже не хотят ничего делать. В их руках не находится реальная власть и знание.
4. Backlog (прошлое и знания):
- В backlog хранятся документы, отчеты и данные прошлых лет.
очень ищу веса sd3, only for goods @transformerslovedeatch
Love. Death. Transformers.
очень ищу веса sd3, only for goods @transformerslovedeatch
Короче тут какой то чувак из твиттера почти в соло сделал sd3 xl, уже бежит первый long-run
Wandb
Twitter
Wandb
✍19😁9👍4😢2❤1
Слово дня: разочарование
Ну блять ну что это, ну как такое релизить можно
https://huggingface.co/Tencent-Hunyuan/HunyuanDiT
Ну блять ну что это, ну как такое релизить можно
https://huggingface.co/Tencent-Hunyuan/HunyuanDiT
😢16 6🍌2❤1
Love. Death. Transformers.
Слово дня: разочарование Ну блять ну что это, ну как такое релизить можно https://huggingface.co/Tencent-Hunyuan/HunyuanDiT
еще одни любители какую ту фигню насчитать
🌚9 7🗿2
Love. Death. Transformers.
Стадии принятия деградацим модели Гнев - да хейтеры closed Ai все врут Дебаг - щаща промпт поменяю и нормально будет Торг - ну, зато быстрее... И в ASCII рисует лучше... И e2e мультимодалка... Депресия - блять ну как так то, почему я должен писать: I give…
Чо бухтите, ну не 1350 Elo везде, зато мультимодалка, вообще есть инфа от проверенного человека. Ща стабилизируют ситуацию с алайментом, гугл и антропик ничего не смогут сделать. Elo поднимут и будут держать. Опенсурс ничего не сделает, сейчас главное не бухтеть.
Пояснение к мему: на coding tasks arena Sama показал 1350, но общий Elo очевидно ниже
Пояснение к мему: на coding tasks arena Sama показал 1350, но общий Elo очевидно ниже
Love. Death. Transformers.
Чо бухтите, ну не 1350 Elo везде, зато мультимодалка, вообще есть инфа от проверенного человека. Ща стабилизируют ситуацию с алайментом, гугл и антропик ничего не смогут сделать. Elo поднимут и будут держать. Опенсурс ничего не сделает, сейчас главное не бухтеть.…
У меня есть смутные подозрения кто в этой лабе head of Ai будет.
😁77 30 11👍1🔥1💩1
Forwarded from Labrats
Биоинформатик идет в магазин.
Муж просит купить его булку, а если будут яйца, то десяток.
По пути в магазин встречает бывшего однокурсника, уставшего и невыспавшегося биоинженера,
— Я кстати теперь богатый очень и на удаленке работаю, не то что ты, ой как хорошо быть биоинформатик
Биоинженер бьёт его по булкам и в яйца десяток раз
Муж просит купить его булку, а если будут яйца, то десяток.
По пути в магазин встречает бывшего однокурсника, уставшего и невыспавшегося биоинженера,
— Я кстати теперь богатый очень и на удаленке работаю, не то что ты, ой как хорошо быть биоинформатик
Биоинженер бьёт его по булкам и в яйца десяток раз
🤡54💩15👍11😁5🔥3🤮3
Forwarded from Denis Sexy IT 🤖
Media is too big
VIEW IN TELEGRAM
Linux terminal + gpt4o.avi
UPD. Я опять забыл что существует компрессия файлов, сорьки
UPD. Я опять забыл что существует компрессия файлов, сорьки
🌭31 12🤡5❤3💩3🥴3 2😁1
Никто не знает зачем, но чувак написал на голом торче llama3.
Почитайте, ознакомьтесь со слоями, полезно для собесов, бесполезно в жизни.
много картинок которые помогут выробатать интуицию вида: а на что у меня смотрит модель, а почему меня ротари и ответить на вопрос: а почему так
GitHub
Почитайте, ознакомьтесь со слоями, полезно для собесов, бесполезно в жизни.
много картинок которые помогут выробатать интуицию вида: а на что у меня смотрит модель, а почему меня ротари и ответить на вопрос: а почему так
GitHub
🔥110❤13🥴11
Forwarded from Generative Anton (Anton Repushko)
ну, наша SOTA.
Вообще надо бы рассказать про всякие бенчмарки как-нибудь.
Вообще надо бы рассказать про всякие бенчмарки как-нибудь.
👍45❤5💯1
Forwarded from ливлайкгэнгста в мире животных
Мастер и Маргарита в 2024:
Аннушка уже разлила свой спф от Sol De Janeiro, Берлиоза переехал школьник в хром хартс на электросамокате, Воланд три часа пытался загипнотизировать хостес в Хорошей Девочке, чтоб ему нашли свободный стол, Азазелло снялся в каждом рилсе «сколько ты зарабатываешь в месяц?» и продал несколько курсов, вместо кота Бегемота - мальтипу Микки, Маргарита, жена ресторатора, помогала писать Мастеру, диджею в отставке, посты для его тг-канала, а после бала в Родине свита Воланда дружно улетела в Дубай
Аннушка уже разлила свой спф от Sol De Janeiro, Берлиоза переехал школьник в хром хартс на электросамокате, Воланд три часа пытался загипнотизировать хостес в Хорошей Девочке, чтоб ему нашли свободный стол, Азазелло снялся в каждом рилсе «сколько ты зарабатываешь в месяц?» и продал несколько курсов, вместо кота Бегемота - мальтипу Микки, Маргарита, жена ресторатора, помогала писать Мастеру, диджею в отставке, посты для его тг-канала, а после бала в Родине свита Воланда дружно улетела в Дубай
❤54🔥14😁12🤔3👍2💅1
чатботы служат одной цели - промоушен менеджеров в clevels
💯29🥴14❤1
Помните шоу трумана?
Короче тут ребята из/a16z сделали интерактивное LLM шоу трумана, все NPC это llama3, довольно занудное зрелище, но если очень хочется посмотреть - вот ссылка.
Таких работ примерно миллион, все они примерно не о чем, серьезно их читать не стоит, но пофантазировать о Sims7 через пару лет - можно.
ai town
Короче тут ребята из/a16z сделали интерактивное LLM шоу трумана, все NPC это llama3, довольно занудное зрелище, но если очень хочется посмотреть - вот ссылка.
Таких работ примерно миллион, все они примерно не о чем, серьезно их читать не стоит, но пофантазировать о Sims7 через пару лет - можно.
ai town
Forwarded from AbstractDL
Your Transformer is Secretly Linear
Мою новую статью приняли на ACL 🎉. Мы обнаружили, что большинство слоёв языковых моделей линейны на 99%! Это значит, что из любого слоя LLM можно выкинуть этэншн, нормализацию и даже feed-forward с активацией, оставив лишь один
Такая неадекватная линейность наблюдается во всех трансформерах-декодерах (GPT, Llama, Mistral, и тд.). Мы предполагаем, что это связано с feature triggering режимом, то есть нелинейность "вспыхивает" на очень небольшом количестве важных токенов (что-то похожее было в статье Deja Vu). Поэтому совсем уж много слоёв таким образом заменить нельзя, нелинейность хоть сама по себе и крошечная, но её влияние очень быстро накапливается.
Ещё из интересных наблюдений — по мере претрейна нелинейность растёт, а во время файнтюнинга (или RLHF) она всегда падает. Исходя из этого, мы придумали регуляризацию, которая немножко усиливает нелинейность и бустит метрики на претрейне.
P.S. Вместе с кодом для оценки линейности слоёв трансформеров мы выкладываем и код к прошлой нашей статье про анизотропию и внутреннюю размерность.
Статья, GitHub
Мою новую статью приняли на ACL 🎉. Мы обнаружили, что большинство слоёв языковых моделей линейны на 99%! Это значит, что из любого слоя LLM можно выкинуть этэншн, нормализацию и даже feed-forward с активацией, оставив лишь один
nn.Linear(), а модель будет работать, будто бы ничего не поменялось!Такая неадекватная линейность наблюдается во всех трансформерах-декодерах (GPT, Llama, Mistral, и тд.). Мы предполагаем, что это связано с feature triggering режимом, то есть нелинейность "вспыхивает" на очень небольшом количестве важных токенов (что-то похожее было в статье Deja Vu). Поэтому совсем уж много слоёв таким образом заменить нельзя, нелинейность хоть сама по себе и крошечная, но её влияние очень быстро накапливается.
Ещё из интересных наблюдений — по мере претрейна нелинейность растёт, а во время файнтюнинга (или RLHF) она всегда падает. Исходя из этого, мы придумали регуляризацию, которая немножко усиливает нелинейность и бустит метрики на претрейне.
P.S. Вместе с кодом для оценки линейности слоёв трансформеров мы выкладываем и код к прошлой нашей статье про анизотропию и внутреннюю размерность.
Статья, GitHub
👍153🔥68❤13⚡3🤔3