Neural Shit
50.2K subscribers
3.74K photos
1.19K videos
22 files
1.93K links
Проклятые нейронные сети

Для связи: @krasniy_doshik

ркн https://clck.ru/3PNXmE
Download Telegram
Оказалось, что Stable Diffusion 3 не умеет генерировать людей, лежащих на траве.

Ну или умеет, просто это мы не знаем нужных людей
This media is not supported in your browser
VIEW IN TELEGRAM
Наконец-то нейронные видеомемы!

UPD: там в комменты еще накидали, посмотрите!
Forwarded from эйай ньюз
Это слишком хорошо, чтобы не поделиться! Подавал в Luma всякие картинки, и набаловался до такого.

Конечно, во многих случаях персонаж с каждым следующим кадром все сильнее и сильнее отходит от оригинала. Внешность не сохраняется 😢. Короче до AGI и до СОРЫ еще далеко.

Какой видос вам больше всего приглянулся?

@ai_newz
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
Про обучение LLMок и яндексовый опенсорс

Недавно постил вот такую картинку. Если поразмышлять, то вообще-то говоря, стоимость сильно зависит от географии. Железки и электричество стоят везде по-разному. А экономить можно ещё и на софте и оптимизациях.
То, что сегодня яндекс опенсорснул свою библиотеку YaFSDP, интересное событие с точки зрения новой эры в обучении моделей.

Основное из их новости:

– яндекс пишет, что решение позволяет ускорить до 25% обучение LLM с открытым исходным кодом
– обещают, что с YaFSDP экономия памяти GPU может достигать 20%
– ну и показывают результаты теста библиотеки на сторонних нейросетях (на примере модели LLaMA 2 этап предварительного обучения на 1024 графических процессорах сократился бы с 66 до 53 дней)
исходный код уже есть на GitHub, посмотреть подробности замеров можно в репозитории GitHub, а почитать про разработку библиотеки — на Хабре.

Коллеги посчитали, реально ли с помощью решения можно сэкономить от $0.5M за месяц обучения модели, и соорудили формулу.

Стоимость аренды GPU в час * количество часов * количество дней * количество GPU * (коэффициент на сколько оптимизируем ресурсы) = экономия

Ну и проверили экономию на примере Google Cloud и Fluidstack:

Считаем у Гугла, параметры выходят такие:

1) 1312 H100
2) Месяц обучения
3) Цена за GPU: $3.98/h
4) Экономия 20% ресурсов

Общая экономия в месяц: 3.92*30*1312*(0.2/1.2)*24 = $601 тыс

Теперь у FluidStack:

1) 1312 H100
2) Месяц обучения
3) Цена за GPU: $3.75/h
4) Экономия 20% ресурсов

Общая экономия в месяц: 3.75*30*1312*(0.2/1.2)*24 = $566 тыс

Это я к чему: YaFSDP надо детальнее изучать, но возможно она будет полезна тем, кто не может позволить себе ацкого железа и для тех, кто использует ГПУ в облаке. А оптимизация идёт за счёт софта.
Если интересуетесь этими нашими искусственными интеллектами, обязательно загляните в авторский канал моего знакомого.

Много тематической годноты от мемасов до интересных репозиториев. Думаю, вам вкатит.
This media is not supported in your browser
VIEW IN TELEGRAM
Нам обещали летающие машины, но мы получили это
SD3

Когда сделали свою модель для генерации изображений настолько "безопасной", что полностью проебали физиологию.

Очень печально смотреть, как AI компании прогибаются под вопли ебучих соевых alignment-дегенератов.
Смотрите какая интересная штука:

1)Генерируем коробку в Dalle3 с надписью "Клубника"
2)Подаём эту картинку на вход LUMA и просим открыть эту коробку.
3)Наблюдаем в коробке клубнику!!!!


С котами тоже работает!
Forwarded from CGIT_Vines (Marvin Heemeyer)
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 ЭТО ПРОСТО НЕВЕРОЯТНО!

Посмотрите, что творят нейросети!
Подборка 10 лучших нейрогенераций на все случаи жизни!
Невероятное качество, каждый опрошенный художник уверен, что потеряет работу после такого!
Please open Telegram to view this post
VIEW IN TELEGRAM
З А Ч Е М ?
А
Ч
Е
М
?