Forwarded from MarksRemarks (Mark Baushenko)
This media is not supported in your browser
VIEW IN TELEGRAM
Кому знакомо?) Сам лично с таким сталкивался 😃
😁21💯6
Ничоси, а робототехники тут есть? 😳🦾🤖
UPD. Вот вам ещё ссылку https://t.me/tinkoffai/262?single
https://www.tinkoff.ru/about/news/03082023-scientists-from-tinkoff-research-have-discovered-algorithm-to-increase-learning-rate-artificial-intelligence-by-20-times/
UPD. Вот вам ещё ссылку https://t.me/tinkoffai/262?single
https://www.tinkoff.ru/about/news/03082023-scientists-from-tinkoff-research-have-discovered-algorithm-to-increase-learning-rate-artificial-intelligence-by-20-times/
Telegram
Жёлтый AI
🤡9🔥5🥴3❤2👍2👎2
Славный друже по ML/DL цеху пояснил на "пальцах" за text2image историю. Сам я , конечно, дальше CLIP туда не лазил, поэтому читаю и вам советую 👇
Forwarded from Love. Death. Transformers.
#чтивонаночь
Давно обещал разогнать про t2i, поэтому разбил текст на несколько частей.
почитать можно тут
Давно обещал разогнать про t2i, поэтому разбил текст на несколько частей.
почитать можно тут
Teletype
состояние t2i на aug23(1/X)
Дифузионки в их текущем виде существуют с нами около года, примерно в августе 22 года вышла Stable Diffusion 1.* и попала ко мне в руки...
❤10
Неделя начинается с побед.
Наши ребята: @qwertysobaka (мой падаван), @danasone. Затащили сорев по NLP от Альфы. На нашей модельке FRED-T5.
UPD. Не стоит забывать и тиммейта ребят @vadimirtlach, нашего подписчика.
Поздравляем! 🦾🤖🕺💃
P.S. если хотите создавать новые версии FRED-T5 или решения на их базе, пишите @DmitryZmitrovich или @nlpcoreteam.
Источник: https://t.me/kaggle_fucker/84
Сорев: https://ods.ai/competitions/nlp-receipts
Наши ребята: @qwertysobaka (мой падаван), @danasone. Затащили сорев по NLP от Альфы. На нашей модельке FRED-T5.
UPD. Не стоит забывать и тиммейта ребят @vadimirtlach, нашего подписчика.
Поздравляем! 🦾🤖🕺💃
P.S. если хотите создавать новые версии FRED-T5 или решения на их базе, пишите @DmitryZmitrovich или @nlpcoreteam.
Источник: https://t.me/kaggle_fucker/84
Сорев: https://ods.ai/competitions/nlp-receipts
🔥20👍5❤4🤡2
Други, @cointegrated, выпустил фикс+обновление encodechka теперь можно смело выбирать лучший энкодер для себя и бенчить свои.
Появился новый лидер multilingual-e5. Кстати, у нас тоже данная модель показывает топ результаты. Если говорить вкратце, me5 это LAbSE на максималках, особенности обучения:
- чистка всякого разного а-ля reddit, CCrwal, stackexchange и др.
- предобучение в контрастив режиме на CCPairs.
- файнтюн MS-MMARCO.
- за основу взята XLM-RoBERTA (с неё заинитили веса).
- меры качества конечно retrieval'ные.
P. S. Сори за душность, @cointegrated.
Про бенч тут: https://t.me/izolenta_mebiusa/252
Появился новый лидер multilingual-e5. Кстати, у нас тоже данная модель показывает топ результаты. Если говорить вкратце, me5 это LAbSE на максималках, особенности обучения:
- чистка всякого разного а-ля reddit, CCrwal, stackexchange и др.
- предобучение в контрастив режиме на CCPairs.
- файнтюн MS-MMARCO.
- за основу взята XLM-RoBERTA (с неё заинитили веса).
- меры качества конечно retrieval'ные.
P. S. Сори за душность, @cointegrated.
Про бенч тут: https://t.me/izolenta_mebiusa/252
GitHub
GitHub - avidale/encodechka: The tiniest sentence encoder for Russian language
The tiniest sentence encoder for Russian language. Contribute to avidale/encodechka development by creating an account on GitHub.
❤14❤🔥4
https://t.me/betterdatacommunity
Тут в better data community Илья Гусев читает лекцию про закат трансформеров!
Ребят прям сейчас!
Тут в better data community Илья Гусев читает лекцию про закат трансформеров!
Ребят прям сейчас!
Telegram
better data community
Сообщество фанатов градиентов
@maxalekv
Хочешь задать вопрос? Зайди на nometa.xyz и задавай сразу.
@maxalekv
Хочешь задать вопрос? Зайди на nometa.xyz и задавай сразу.
🔥5🤡1
Для тех, кто послушал доклад выше.
Конец transformersблизко киско
Спасибо @rybolos за идею, @bogdanisssimo за реализацию
Конец transformers
Спасибо @rybolos за идею, @bogdanisssimo за реализацию
😁22🤔2
Forwarded from Machinelearning
Family of fine-tuned and merged LLMs that achieves the strongest performance and currently stands at first place in HuggingFace's
Cемейство точно настроенных больших языковых моделей (LLM), которое достигло самой высокой производительности и в настоящее время занимает первое место в открытой таблице лидеров LLM HuggingFace на момент выхода этой статьи
Модель 13B Platypus может быть обучена на одном GPU A100 на 25 тыс. вопросов за 5 часов!
git clone https://github.com/lm-sys/FastChat.git
cd FastChatai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
❤15🔥3👍2
Ночной сеанс NLP.
Всем доброй ночи. И в эту добрую ночь, хотел бы поделиться с моими подписчиками видео про LLM и векторные БД в виде ботса. А как мы знаем (или узнаем), если подружить между собой LLM и retrieval based векторные БД, можно улучшить качество генерации по open domain запросам. При этом лекция непростая и с непростым человеком. Знаю, что среди нас есть не только опытные MLщики в NLP,но и люди,желающие вкатиться в это направление и быть в курсе про новомодные ChatGPT и это всё. Именно таким ребятам будет полезно. Да и помимо интеллектуальной мотивации, думаю появится и другая.
Всем хорошего просмотра.
Спикер: Сергей Христолюбов
Контакты: @tom_leto
Видео: https://youtu.be/8IRKx3d7tZY
Всем доброй ночи. И в эту добрую ночь, хотел бы поделиться с моими подписчиками видео про LLM и векторные БД в виде ботса. А как мы знаем (или узнаем), если подружить между собой LLM и retrieval based векторные БД, можно улучшить качество генерации по open domain запросам. При этом лекция непростая и с непростым человеком. Знаю, что среди нас есть не только опытные MLщики в NLP,но и люди,желающие вкатиться в это направление и быть в курсе про новомодные ChatGPT и это всё. Именно таким ребятам будет полезно. Да и помимо интеллектуальной мотивации, думаю появится и другая.
Всем хорошего просмотра.
Спикер: Сергей Христолюбов
Контакты: @tom_leto
Видео: https://youtu.be/8IRKx3d7tZY
👍18❤🔥1🔥1👏1🆒1
Forwarded from Записки C3PO
Увидел в последнем посте Данилова ссылку на очень прикольный онлайн симулятор запуска A/B экспериментов и работы с приоритезацией беклога.
https://www.lukasvermeer.nl/confidence/
Можете попробовать применить правила управления экспериментами, про которые я рассказывал в недавнем цикле постов: 1, 2, 3.
https://www.lukasvermeer.nl/confidence/
Можете попробовать применить правила управления экспериментами, про которые я рассказывал в недавнем цикле постов: 1, 2, 3.
👍3
Улучшенный метод RL для выравнивания LLM от DeepMind.
Reinforced Self-Training (ReST): A Simple algorithm for Aligning LLMs with Human Preferences Inspired by Growing Batch.
Данный метод посвящён проблеме онлайн обучения, а именно требованиям к данным для этого.
ReST состоит из двух циклов:
1. Внутренний цикл (Improve) улучшает политику для данного набора данных.
2. Внешний круг (Grow) расширяет набор данных, беря образцы из самой последней политики.
Grow: Чтобы дополнить обучающий набор данных, для каждого сценария создаются многочисленные выходные прогнозы с использованием политики языковой модели. Improve: тут ранжируют и фильтруют обогащенный набор данных, используя формулу оценки. В качестве функции оценки в своих исследованиях они используют модель вознаграждения за обучение, основанную на предпочтениях людей. Отфильтрованный набор данных корректирует языковую модель, используя целевую функцию offline RL. При увеличении порога фильтрации процесс повторяется. После этого на следующем шаге Grow используется окончательная внешняя политика.
При этом, авторы выделяют возможность в каждом круге политик использовать разнообразные и главное различные losses.
Также, можно назвать ряд других преимуществ, по сравнению с classic RLHF:
• Поскольку новые обучающие данные отбираются из улучшенной политики на этапе Grow, качество политики не ограничено качеством исходного набора данных (в отличие от автономного RL).
• Легко проверить качество данных и потенциально диагностировать проблемы с согласованием, такие как взлом вознаграждения, поскольку этапы роста и улучшения не связаны.
В качестве примера REST+ LLM выбрана задача машинного перевода. Подробнее можно почитать в статье.
Reinforced Self-Training (ReST): A Simple algorithm for Aligning LLMs with Human Preferences Inspired by Growing Batch.
Данный метод посвящён проблеме онлайн обучения, а именно требованиям к данным для этого.
ReST состоит из двух циклов:
1. Внутренний цикл (Improve) улучшает политику для данного набора данных.
2. Внешний круг (Grow) расширяет набор данных, беря образцы из самой последней политики.
Grow: Чтобы дополнить обучающий набор данных, для каждого сценария создаются многочисленные выходные прогнозы с использованием политики языковой модели. Improve: тут ранжируют и фильтруют обогащенный набор данных, используя формулу оценки. В качестве функции оценки в своих исследованиях они используют модель вознаграждения за обучение, основанную на предпочтениях людей. Отфильтрованный набор данных корректирует языковую модель, используя целевую функцию offline RL. При увеличении порога фильтрации процесс повторяется. После этого на следующем шаге Grow используется окончательная внешняя политика.
При этом, авторы выделяют возможность в каждом круге политик использовать разнообразные и главное различные losses.
Также, можно назвать ряд других преимуществ, по сравнению с classic RLHF:
• Поскольку новые обучающие данные отбираются из улучшенной политики на этапе Grow, качество политики не ограничено качеством исходного набора данных (в отличие от автономного RL).
• Легко проверить качество данных и потенциально диагностировать проблемы с согласованием, такие как взлом вознаграждения, поскольку этапы роста и улучшения не связаны.
В качестве примера REST+ LLM выбрана задача машинного перевода. Подробнее можно почитать в статье.
👍7❤2
Forwarded from commit history
Недавно подумал, что было бы прикольно сделать доклад «50 оттенков серого» про АБ тесты, которые не прокрасились.
Но в итоге сделал доклад о рекомендациях «50 оттенков рекомендаций»,
который завтра удаленно расскажу на конференции techtrain
Будет про то, как с нуля строил рекомендации. Теории не будет, подразумевается, что слушатели знакомы с ML и рек сис. Зато будет о том, как принимали решения, что делали, на какие грабли наступали и что сработало. А в конце, топ советов себе в прошлое.
Запись будет, когда появится – добавлю тут ссылку.
Но в итоге сделал доклад о рекомендациях «50 оттенков рекомендаций»,
который завтра удаленно расскажу на конференции techtrain
Будет про то, как с нуля строил рекомендации. Теории не будет, подразумевается, что слушатели знакомы с ML и рек сис. Зато будет о том, как принимали решения, что делали, на какие грабли наступали и что сработало. А в конце, топ советов себе в прошлое.
Запись будет, когда появится – добавлю тут ссылку.
TechTrain 2023 Autumn. Фестиваль по ML&AI для разработки и жизни
50 оттенков рекомендаций, или Как мы пытались растить выручку через персонализацию | Доклад на TechTrain 2023 Autumn
За год с нуля команда спикера успела построить разные варианты рекомендательной системы для ленты. Он расскажет, как они это делали и какие были результаты (иногда отрицательные).
👍11❤2
Пришёл Юра из ODS. Говорит, бросай всё, собирай вещи. День знаний отменяется.
https://t.me/new_yorko_times/168
https://t.me/new_yorko_times/168
Telegram
New Yorko Times
#random #chatgpt #career
На этой неделе пил кофе со знакомым из компании-конкурента. Говорит, в один прекрасный день всех Applied Data Scientist-ов выгнали на мороз. С идеей, что промпты писать могут и инженеры. Некоторые DS остались, но с сильно большей…
На этой неделе пил кофе со знакомым из компании-конкурента. Говорит, в один прекрасный день всех Applied Data Scientist-ов выгнали на мороз. С идеей, что промпты писать могут и инженеры. Некоторые DS остались, но с сильно большей…
😱9👍3
Зайка моя, я твой FILIP: Fine-grained Interactive Language-Image Pre-Training.
Или как, зная базовые концепты, можно сделать инкремент в качестве.
Итак. Все знают или слышали про CLIP. Если базово: есть два стула (энкодера) - текстовый и для картинок. Мы берём captions картиночек, ака тексты и сами картиночки. Эмбеддим с помощью вышеуказанных экнодеров и в contrastive режиме сводим , так получаем позитивы. За счёт full-batching получаем негативы. Full-batching - это когда в батче чужие сэмплы тоже идут врасход расчёт близости, но как штраф.
Такс. Один базовый концепт рассказал. Теперь чутка поведаю про ColBERT. Тут люди тоже пошли путем интеракций , но не на уровне sentence embeddings как текстовый энкодер в CLIP. А на уровне token embeddings. Причем, делается это умно, чтобы использовать полнотекстовый поиск, помимо полноконтекстного. Как? Берут и начинают делать dot prod между токен эмбами запроса и ответа. Замечу, что это N^2 интеракций всё со всеми. Далее для каждого токена запроса ищут max dot prod по токенам ответа. Потом эти max dot prod суммируются и если хотите можно вкинуть слой нормировки а-ля sigmoid или оставить так. Но, в общем, этот скор и максимизируют для релевантных пар и минимизируют для отрицательных.
Крч. К чему я эту телегу везу про CLIP и ColBERT. Тут люди завезли FILIP. И крч это CLIP в стиле ColBERT. Перешли от кэпшн фулл к токенам и к частям картинок. Не хочу повторяться, оч хорошо и подробно описано тут у Тани из DLStories.
Итого. Изучайте базовые архитектуры, популярные решения, микстите их по делу и получайте профит. Всем добра.
Или как, зная базовые концепты, можно сделать инкремент в качестве.
Итак. Все знают или слышали про CLIP. Если базово: есть два стула (энкодера) - текстовый и для картинок. Мы берём captions картиночек, ака тексты и сами картиночки. Эмбеддим с помощью вышеуказанных экнодеров и в contrastive режиме сводим , так получаем позитивы. За счёт full-batching получаем негативы. Full-batching - это когда в батче чужие сэмплы тоже идут в
Такс. Один базовый концепт рассказал. Теперь чутка поведаю про ColBERT. Тут люди тоже пошли путем интеракций , но не на уровне sentence embeddings как текстовый энкодер в CLIP. А на уровне token embeddings. Причем, делается это умно, чтобы использовать полнотекстовый поиск, помимо полноконтекстного. Как? Берут и начинают делать dot prod между токен эмбами запроса и ответа. Замечу, что это N^2 интеракций всё со всеми. Далее для каждого токена запроса ищут max dot prod по токенам ответа. Потом эти max dot prod суммируются и если хотите можно вкинуть слой нормировки а-ля sigmoid или оставить так. Но, в общем, этот скор и максимизируют для релевантных пар и минимизируют для отрицательных.
Крч. К чему я эту телегу везу про CLIP и ColBERT. Тут люди завезли FILIP. И крч это CLIP в стиле ColBERT. Перешли от кэпшн фулл к токенам и к частям картинок. Не хочу повторяться, оч хорошо и подробно описано тут у Тани из DLStories.
Итого. Изучайте базовые архитектуры, популярные решения, микстите их по делу и получайте профит. Всем добра.
Telegram
DLStories | Нейронные сети и ИИ
FILIP: CLIP, у которого близость можно измерять между эмбеддингами отдельных патчей картинки и токенов текста.
(статья еще с 2021, но я реально об этой идее узнала вот прям недавно)
Как работает обычный CLIP:
У обычного CLIP text и image encoder — это трансформеры.…
(статья еще с 2021, но я реально об этой идее узнала вот прям недавно)
Как работает обычный CLIP:
У обычного CLIP text и image encoder — это трансформеры.…
❤9🤡3