Love. Death. Transformers.
22.5K subscribers
4.26K photos
499 videos
76 files
2.78K links
❤️☠️🤗

Указанные действия не являются ресерчем, поскольку:
а) Мы не ученые;
б) Оно работает.
@transformerslovedeatch по всем вопросам
Все ситуации вымышлены, любые совпадения с реальности плот вашей фантазии.
Download Telegram
SignLLM: Sign Languages Production Large Language Models

Необычная работа - перевод текста в язык жестов с видео;

Cкорее инженерный чем DL пайплайн, LLM предсказывает следующее действие, оно прогонянтся через доп модельку и отрисывается на Sd+openpose

signllm.github.io
paper
👍661210👏2
😁473021🔥1
132🔥251286💯3👍22
Запуск ллам на RPI.

Довольно любопытный пример tensor parallel без супер быстрой шины между железками ещё и на arm

GitHub
👍314
Нужно ли освещать GPU из Румынии святой водой? И если да, то католической или православный? А если шипит все ещё, чо делать?
🥴60😁18🤡5🤔21
Три стадии t2i стартапа

Ну ща свой претрен ебанем
Ну Lora хорошо себя показывает
А чо там с midjorney API?
😁100💅128👍31🙉1
Forwarded from Denis Sexy IT 🤖
Если вы любите пытаться сломать защиту в разных LLM с помощью промпт инъекций – то у меня вам полезная ссылка, датасет из почти ~1500 промпт инъекций собранных с Reddit, Discord, Twitter и тп.

https://github.com/verazuo/jailbreak_llms

Внутри промпты и для старых инъекций, вроде DAN, до более новых с base64, leet code и тп.

Следующий шаг, это натренировать на этом модель, которая будет ломать другие модели автоматом ☕️
Please open Telegram to view this post
VIEW IN TELEGRAM
👍20🥱102😁2🔥1
По мотивам:
https://t.me/lovedeathtransformers/7722
https://t.me/lovedeathtransformers/7748
ебаный ресерч адмена - как всегда на острие науки


Короче в чем идея: ребята используют эволюционный аглоритм для того чтобы эффективнее подобрать параметры мержа моделей(а еще блоки переставляют)


ссылка:
https://sakana.ai/evolutionary-model-merge/
😁16🔥4🤡4👍1🥴1
Я честно говоря хз, вроде норм, но надо смотреть.

Докатят в релиз, обсудим.
👍20🙈1
Love. Death. Transformers.
Я честно говоря хз, вроде норм, но надо смотреть. Докатят в релиз, обсудим.
Media is too big
VIEW IN TELEGRAM
как это будет работать в проде - загадка. но лучше чем супер убогое chat gpt app точно.
26👍9👎3🔥2
обожаю работать с сумасшедшими, душнилами и умникаими.

обожаю ебанутых которые сидят в час ночи и хуярят генетику на торче вместо того чтобы спать.
похуй на тренды, мы ебанем форк для catboost чтобы юзать deepspeed потому что эээ НУ МОЖЕМ СЕБЕ ПОЗВОЛИТЬ ЕПТА.
🥴83❤‍🔥208🗿6🤓5🤡4💊4🥱3👍2💅21
Каким образом калечный dbrx выигрывает у 4t

machinelearning.apple.com/research/introducing-apple-foundation-models
1
Forwarded from Душный NLP
Ускорить обучение LLM 70B на 25%? Легко! YaFSDP

Сегодня мы выĸладываем в опенсорс наш новый инструмент — библиотеку YaFSDP. Она значительно ускоряет обучение больших языковых моделей — как собственной разработки, так и сторонних, с открытым исходным кодом.

Библиотека даёт ускорение до 25% — результат зависит от архитектуры и параметров нейросети. С помощью YaFSDP также можно расходовать до 20% меньше ресурсов графических процессоров (GPU), которые требуются для обучения.

Несколько подходов нашего метода:

— выделить два буфера под все собираемые веса, чтобы не отдавать их на отĸуп аллоĸатору памяти torch. Каждый нечётный слой будет использовать первый буфер, ĸаждый чётный — второй. Это уменьшит нагрузку на память и сделает её использование более предсказуемым;
— не делать чеĸпоинт аĸтиваций для ĸаĸ можно большего числа слоёв. Это позволит убрать избыточные вычисления за счёт сэкономленной памяти;
— выделить два стрима: вычислений и ĸоммуниĸаций, а синхронизацию построить таким образом, чтобы forward не начинался до завершения all_gather того же слоя, а all_gather не начинался до освобождения соответствующего буффера на предыдущем слое;
— разово собирать RMSNorm/LayerNorm в начале итерации и тольĸо в ĸонце усреднить градиенты;
— вынести predivide в самый ĸонец backward, таĸ ĸаĸ при reduce_scatter в bf16 или fp32 рисĸа переполнения нет.

Более подробно про проблемы обучения на множестве GPU можно почитать на Хабре. Приходите в репозиторий библиотеки YaFSDP, ставьте лайк и приносите вопросы в Issues. А ещё — делитесь своими впечатлениями здесь в комментариях.
🔥52👍31
Душный NLP
Ускорить обучение LLM 70B на 25%? Легко! YaFSDP Сегодня мы выĸладываем в опенсорс наш новый инструмент — библиотеку YaFSDP. Она значительно ускоряет обучение больших языковых моделей — как собственной разработки, так и сторонних, с открытым исходным кодом.…
Я лично жду релиза нормальной опенсурс LLM на русском, кому и зачем нужен opensource форк fsdp который эм ну....

Лучше конечно, но средний опенсурс как на LLM foundary так и будет сидеть, резона впиливать форк с непонятной поддержкой относительно основной репы сомнительно.

А как pr для основного fsdp было б хорошо, жаль это мои фантазии
❤‍🔥171🌭1
чет много мемов накопилось
26
😁137🤡9👍6💯3👎21