Derp Learning
13K subscribers
3.17K photos
916 videos
9 files
1.32K links
Используем ИИ строго не по назначению.
Заметки про ИИ, IT, компьютерные игры, и всякие инженерные интересности.
Download Telegram
Forwarded from eternal classic
😁141🔥17👍8😢32
Forwarded from Ai molodca (Dobrokotov)
This media is not supported in your browser
VIEW IN TELEGRAM
Будет висеть недолго, поэтому кто на местности, жду ваших фоточек — Красноармейская 84.

Из нейросетей здесь — только изображение на щите и слоган.
🔥13😁5👍31
Media is too big
VIEW IN TELEGRAM
jimLeeDCComicsMarvel_offset lora + face controlnet
coming in v0.11
#stablediffusion #warpfusion

Vid by @Frau_haku
🔥13
Forwarded from Stable Diffusion | Text2img
ControlNet версии 1.1 - предварительный релиз.
Товарищ lllyasviel продолжает докручивать свой великолепнейший алгоритм по контролю над SD. Поставить его можно уже сейчас, но только отдельным интерфейсом отсюда. Сам релиз и его имплементация к автоматику планируется в ближайшие несколько дней.
Итак, по новшествам.
— Итого, теперь будет 14 моделей (11 готовы, две экспериментальных и 1 в процессе).
— Естественно, все старые модели ещё больше улучшены.
— Новые модельки: Soft Edge (наподобие Scribble, но более "мягкий" в линиях), Lineart и Аниме Lineart (раскрашивать мангу/рисунки теперь можно будет на высшем уровне), Shuffle (перемешивает цвета в картинке), Instruct Pix2Pix (аналогично весам инструкций), а так же Инпаинтая модель (для перерисовки части рисунка контролнета) и незавершённая Tile-модель (повышение разрешения части рисунка).
— Модель ОпенПоз теперь включает руки и лицо по умолчанию, из коробки.
🔥182👍1
Forwarded from эйай ньюз
🚀Dolly 2.0 – первая открытая 12B Chat-LLM, которую можно использовать в коммерческих продуктах

Databricks удивили! Ребята заметили, что все опен-соурсные ChatGPT-клоны либо используют LLaMA, в которой некоммерческая лицензия, либо используют данные, которые запрещают коммерческое использование (как например датасет инструкций от Alpaca, сгенерированный с помощью GPT-3).

В чем преимущество OpenAI перед опен-суорсом, если не брать в расчет размер GPU кластера? В данных. Чтобы дообучить ChatGPT было собрано много качественных диалогов и иструкций от реальных людей, ну, и плюс RL from Human Feedback (RLHF), где люди оценивали ответы языковой модели.

Было решено собрать свой датасет. В Databricks работает ≈5000 человек, их всех и попросили написать вручную несколько семплов для обучения клона ChatGPT. Нужно было составить качественные пары Вопрос-Ответ, либо Инструкция-Ответ, на которых можно было бы добучить опенсоурсную авторегрессионную LLM, которая умеет просто продолжать текст, а не вести диалог. В итоге с помощью пряников в виде бонусов за написание лучших примеров, было собран высококачественный датасет на 15000 семплов!

Далее, они взяли свежу языковую модель Pythia-12B от EleutherAI с MIT лицензией и дообучили на своем датасете, получив Dolly 2.0* которую тоже зарелизили под MIT лицензией вместе с кодом и весами. Разве не прелесть?

generatetext = pipeline(model="databricks/dolly-v2-12b", torchdtype=torch.bfloat16, trustremotecode=True, devicemap="auto")

generatetext("Who is Shcmidhuber?")


Умельцы уже кванитизовали Dolly 2.0 в 4 бита и ускорлили для запуска на CPU. Теперь ждём шага от OpenAssistant, которые по слухам зарелизят свою модел в ближайшие дни.

*Dolly 1.0 была обучена на тех же инструкциях, что и Alpaca.

Блогпост про Dolly 2.0

@ai_newz
🎉13👍2🔥2
Look how the turntables
🔥49😁28
Midjourney показала, как выглядит сбор урожая в Италии.

В принципе, мы его так и представляли
r/#midjourney
😁85
Forwarded from твиттота
🔥41😁268👍1