Дневной вакансии пост.
Лето и период отпусков закончилось, а значит пришла пора подумать о карьерных возможностях. А тут как раз такая вот интересная вакансия от друзей подоспела.
Всем привет! Мы - развивающаяся IT-компания BrainShells, занимаемся разработкой и эксплуатацией инновационного продукта с использованием алгоритмов машинного обучения и искусственного интеллекта.
Находимся в поиске senior ML + Java разработчика.
Чем предстоит заниматься:
- Сбор и подготовка данных для обучения предиктивных моделей;
- Проведение исследований в области Data Science/ML;
- Статистический анализ и обработка данных;
- Построение и оптимизация моделей машинного обучения;
- Интеграция ML решений в существующие продукты;
- Проведение экспериментов и их последующее доведение до production состояния;
- Разработка алгоритмов искусственного интеллекта.
Требования:
- Опыт работы в области ML от 5 лет;
- Хороший алгоритмический бэкграунд: опыт создания алгоритмов, их оптимизации по быстродействию и потреблению памяти, применение многопоточности;
- Высшее профильное/техническое образование (физмат, информатика);
- Опыт работы с Java Core (фреймворки не нужны. Нужны структуры данных, многопоточность, алгоритмы).
Будет плюсом:
- Математический бэкграунд. Умение применить математический аппарат для решения задач.
- Опыт программирования на С++.
Что мы предлагаем:
- Сложные, нетиповые задачи;
- Полностью удаленный формат работы, можно работать из любой точки мира, релокация не предусмотрена. Юр.лицо компании зарегистрировано в Гонконге;
- Вилка вакансии от 4500$. Зарплата формируется исходя из ожиданий разработчика и технических скиллов, которые он покажет на тех.интервью;
- Проверенный и постоянно обновляемый набор обучающих материалов: развитие сотрудников - наш фокус;
- Позитивный эмоциональный климат в командах.
Порекомендуйте нам своего друга/знакомого и получите бонус (1500-2000$ в зависимости от кандидата)!
Для отклика или рекомендации пишите @valeriayanets
Лето и период отпусков закончилось, а значит пришла пора подумать о карьерных возможностях. А тут как раз такая вот интересная вакансия от друзей подоспела.
Всем привет! Мы - развивающаяся IT-компания BrainShells, занимаемся разработкой и эксплуатацией инновационного продукта с использованием алгоритмов машинного обучения и искусственного интеллекта.
Находимся в поиске senior ML + Java разработчика.
Чем предстоит заниматься:
- Сбор и подготовка данных для обучения предиктивных моделей;
- Проведение исследований в области Data Science/ML;
- Статистический анализ и обработка данных;
- Построение и оптимизация моделей машинного обучения;
- Интеграция ML решений в существующие продукты;
- Проведение экспериментов и их последующее доведение до production состояния;
- Разработка алгоритмов искусственного интеллекта.
Требования:
- Опыт работы в области ML от 5 лет;
- Хороший алгоритмический бэкграунд: опыт создания алгоритмов, их оптимизации по быстродействию и потреблению памяти, применение многопоточности;
- Высшее профильное/техническое образование (физмат, информатика);
- Опыт работы с Java Core (фреймворки не нужны. Нужны структуры данных, многопоточность, алгоритмы).
Будет плюсом:
- Математический бэкграунд. Умение применить математический аппарат для решения задач.
- Опыт программирования на С++.
Что мы предлагаем:
- Сложные, нетиповые задачи;
- Полностью удаленный формат работы, можно работать из любой точки мира, релокация не предусмотрена. Юр.лицо компании зарегистрировано в Гонконге;
- Вилка вакансии от 4500$. Зарплата формируется исходя из ожиданий разработчика и технических скиллов, которые он покажет на тех.интервью;
- Проверенный и постоянно обновляемый набор обучающих материалов: развитие сотрудников - наш фокус;
- Позитивный эмоциональный климат в командах.
Порекомендуйте нам своего друга/знакомого и получите бонус (1500-2000$ в зависимости от кандидата)!
Для отклика или рекомендации пишите @valeriayanets
❤2
Forwarded from (sci)Berloga Всех Наук и Технологий
⚠️ Острожно - спуфинг атаки от имени админов Сберлоги и других чатов/каналов (не только Сберлоги) - будьте внимательны !
Некоторые коллеги получили просьбы перевести 120к на карту , некоторые предварительно получив оборвавшийся звонок по телеграм. Якобы от имени админов. Будьте внимальны - админы Сберлоги (и, думаю, других каналов) не пишут в личку с такими просьбами ! Не переводите денег ! Мошенники часто создают похожий по имени экаунт (спуфинг) и пишут от его имени - будьте внимательны !
Некоторые коллеги получили просьбы перевести 120к на карту , некоторые предварительно получив оборвавшийся звонок по телеграм. Якобы от имени админов. Будьте внимальны - админы Сберлоги (и, думаю, других каналов) не пишут в личку с такими просьбами ! Не переводите денег ! Мошенники часто создают похожий по имени экаунт (спуфинг) и пишут от его имени - будьте внимательны !
😱7❤2👍2
Всем, привет, други.
Сорян за молчание, но весь в работе и делах.. Но как раз таки в чатиках, заметил пост от @seeyouall про "spark attention" (понравилась такая аналогия).
См. Тут https://arxiv.org/abs/2310.01889
И тут я вспомнил , как недавно смотрел RL для RecSys и наткнулся на то, что сегодня бы назвали BlockchainRLHF.
А чего? Хайпово, можно пару Валер-coin'ов на старте набрать.
Скрины ниже.
Сорян за молчание, но весь в работе и делах.. Но как раз таки в чатиках, заметил пост от @seeyouall про "spark attention" (понравилась такая аналогия).
См. Тут https://arxiv.org/abs/2310.01889
И тут я вспомнил , как недавно смотрел RL для RecSys и наткнулся на то, что сегодня бы назвали BlockchainRLHF.
А чего? Хайпово, можно пару Валер-coin'ов на старте набрать.
Скрины ниже.
❤2
BlockchainRLHF O.o
UPD. Ссылка для трудящихся
https://www.sciencedirect.com/science/article/pii/S1574013721000769
UPD. Ссылка для трудящихся
https://www.sciencedirect.com/science/article/pii/S1574013721000769
🔥4👍3
Неделя заканчивается с кофе соревок.
Есть теперь любителям шатать соревнования, чем заняться на выходных.
TG запускает контест по детекции кода на разных языках из тестовых сабжей. Можно юзать паблик датку.
https://t.me/contest/330
Есть теперь любителям шатать соревнования, чем заняться на выходных.
TG запускает контест по детекции кода на разных языках из тестовых сабжей. Можно юзать паблик датку.
https://t.me/contest/330
Telegram
Telegram Contests
🏆 Telegram ML Competition
Prize fund: $40,000 – from which the 1st place winner will receive $15,000 if any submissions qualify for 1st place.
Deadline: 23:59 on October 15th (Dubai time)
Who can participate: Everyone
Results: October 29th, 2023
Telegram…
Prize fund: $40,000 – from which the 1st place winner will receive $15,000 if any submissions qualify for 1st place.
Deadline: 23:59 on October 15th (Dubai time)
Who can participate: Everyone
Results: October 29th, 2023
Telegram…
👍2
Всем привет, мы строили строили и наконец построили!
Первая супер-библиотека по spelling corruption SAGE.
Работа была не простой, вместе с ребятами из команды AGI NLP- мои герои снова:
@alenusch, @qwertysobaka, @go_bobert,
мы сделали оч крутой инструмент. Он позволяет атаковать тексты при помощи добавления опечаток, перестановок и пр., а также делать обратное - фиксить их.
UPD. Забыл совсем!? Мы выбили SOTA по spellcheking!!!
Интересно?
Го читать на хабр!
https://habr.com/ru/companies/sberdevices/articles/763932/
Наша библиотека SAGE:
https://github.com/ai-forever/sage
AI-service в Клауде:
https://cloud.ru/ru/datahub/generative-spell-checking
Первая супер-библиотека по spelling corruption SAGE.
Работа была не простой, вместе с ребятами из команды AGI NLP- мои герои снова:
@alenusch, @qwertysobaka, @go_bobert,
мы сделали оч крутой инструмент. Он позволяет атаковать тексты при помощи добавления опечаток, перестановок и пр., а также делать обратное - фиксить их.
UPD. Забыл совсем!? Мы выбили SOTA по spellcheking!!!
Интересно?
Го читать на хабр!
https://habr.com/ru/companies/sberdevices/articles/763932/
Наша библиотека SAGE:
https://github.com/ai-forever/sage
AI-service в Клауде:
https://cloud.ru/ru/datahub/generative-spell-checking
Telegram
Dealer.AI
Друзья, сегодня проходит второй день Конференции Диалог2023.
Мы рады сообщить, что наша работа по атакам на текст вошла в Сборник статей, тема: Augmentation methods for spelling corruptions.
Авторы мои коллеги, товарищи и подписчики:@alenusch, @qwertysobaka…
Мы рады сообщить, что наша работа по атакам на текст вошла в Сборник статей, тема: Augmentation methods for spelling corruptions.
Авторы мои коллеги, товарищи и подписчики:@alenusch, @qwertysobaka…
🔥39❤5👍4
Закончился LLM Exam сорев на kaggle.
Постановка:
Задача состояла в том,чтобы по запросу провести ранжирование ответов A,B,C,D,E исходя из релевантности. Ничего не напоминает?)
От себя:
Мне так и не удалось на полную в нём поучаствовать, тк загрузка full. Но с удовольствием делился идеями с друзьями по цеху. Вот тут ссылка на топ решение. Мне оно не интересно, тк много "грубой силы". Посмотрите сами.
А вот, чтобы я выделил так это другие решения из топ10 (те что в золоте также). Их можно разделить на два типа, а третий я напишу от себя. Его пока никто не описал из участников.
Итак первый подход - каноничный RAG. Берём обкачиваем вики и в индекс кладём его: в Elastic и/или в FAISS, предварительно заэмбеддив с К энкодеров. Далее уже берём LLM претрен соту которой доверяем и по запросу идём в индексы, собираем с них выдачу и кидаем в контекст промта-запроса для LLM. Делаем генерацию для упорядочения ответов.
Метод два. Reward для бедных на DeBERTa в режиме multiple choice + индекс вики с Эластика, + к примеру ещё метаранкер можно кросс энкодер можно бустинг.
Мой вариант. Reward на LLM. Берём ту большуюбабаху LLM которая по-вашему мнению или по MMLU лучшая по претрену. Далее выкачиваем с HF rlhf сеты для webgpt+wiki stem , учим reward поверх стейтов LLM. Далее берём пары промт + abсde варианты выдачи и кормим в эту reward LLM . Она выдаёт ранги, по ним сортируем.
Плохо? Берём вики обкачиваем крупный банк текстов также уже берём эластик или faiss+e5/mini-lm-mmarco и тп, кидаем уже доп подсказку для LLM reward. E2E дообучая, можно даже в LoRa , чтобы стейты заморозить и быстро до усадить.
Как-то так. Интересно, кто-нибудь такое сделал?
Ваши варианты в комментариях.
Постановка:
Задача состояла в том,чтобы по запросу провести ранжирование ответов A,B,C,D,E исходя из релевантности. Ничего не напоминает?)
От себя:
Мне так и не удалось на полную в нём поучаствовать, тк загрузка full. Но с удовольствием делился идеями с друзьями по цеху. Вот тут ссылка на топ решение. Мне оно не интересно, тк много "грубой силы". Посмотрите сами.
А вот, чтобы я выделил так это другие решения из топ10 (те что в золоте также). Их можно разделить на два типа, а третий я напишу от себя. Его пока никто не описал из участников.
Итак первый подход - каноничный RAG. Берём обкачиваем вики и в индекс кладём его: в Elastic и/или в FAISS, предварительно заэмбеддив с К энкодеров. Далее уже берём LLM претрен соту которой доверяем и по запросу идём в индексы, собираем с них выдачу и кидаем в контекст промта-запроса для LLM. Делаем генерацию для упорядочения ответов.
Метод два. Reward для бедных на DeBERTa в режиме multiple choice + индекс вики с Эластика, + к примеру ещё метаранкер можно кросс энкодер можно бустинг.
Мой вариант. Reward на LLM. Берём ту большую
Плохо? Берём вики обкачиваем крупный банк текстов также уже берём эластик или faiss+e5/mini-lm-mmarco и тп, кидаем уже доп подсказку для LLM reward. E2E дообучая, можно даже в LoRa , чтобы стейты заморозить и быстро до усадить.
Как-то так. Интересно, кто-нибудь такое сделал?
Ваши варианты в комментариях.
Kaggle
Kaggle - LLM Science Exam
Use LLMs to answer difficult science questions
👍13❤4
Dealer.AI
Кхм... Спасибо. Но нет..
Отправлю Сене, а то чую его ждёт судьба того, кто на меме с ним... 👇
👍3👎1
Forwarded from Love. Death. Transformers.
ЗДЕСЬ ЛЕЖАТ ТРИ ЭКСПЕРИМЕНТА,
Я ПРОСИЛ ВЧЕРА 128 КАРТ, 128 КАРТ И ТРИ SOTA БЫЛИ БЫ ПОЛУЧЕНЫ!!!
Я ПРОСИЛ ВЧЕРА 128 КАРТ, 128 КАРТ И ТРИ SOTA БЫЛИ БЫ ПОЛУЧЕНЫ!!!
😁21🤡4👍1🔥1😢1
Пошутили и хватит. Народ любит другой контент.
Тут мои коллеги скинули либ, где LLM общаются между собой на естественном языке для совместного решения задач.
А я уже рассказывал об дебатах LLM - тык. Наконец-то Microsoft реализовали похожую тему! Хочу уже попробовать!
Либа тут: https://github.com/microsoft/autogen
Тут мои коллеги скинули либ, где LLM общаются между собой на естественном языке для совместного решения задач.
А я уже рассказывал об дебатах LLM - тык. Наконец-то Microsoft реализовали похожую тему! Хочу уже попробовать!
Либа тут: https://github.com/microsoft/autogen
Telegram
Dealer.AI
Клуб дебатов для вашей LLM.
Или как изобретение, которому более 2000 лет позволяет LLM справляться с галлюцинациями.
Сегодня поговорим про Multi-Agent Debates Elevate Language Models: MIT and Google Brain Unlock LLM Potential and Accuracy. Статью скачать…
Или как изобретение, которому более 2000 лет позволяет LLM справляться с галлюцинациями.
Сегодня поговорим про Multi-Agent Debates Elevate Language Models: MIT and Google Brain Unlock LLM Potential and Accuracy. Статью скачать…
👍12
Мой один из любимых турбо-школьников @chckdskeasfsd написал пост на Хабре про очень интересную задачку из NLP/speech
https://habr.com/ru/articles/767560/
Поддержим!
https://habr.com/ru/articles/767560/
Поддержим!
Хабр
Проблема омографов в ударениях и как я ее решал
Меня зовут Денис (tg: @chckdskeasfsd ), и это история о том, почему в опенсурсе нет TTS с нормальными ударениями, и как я пытался это исправить. Обзор проблемы Одной из немаловажных задач в синтезе...
👍13🔥3👎2
Рекомендательный штурвал какой-то.
If you know, what i mean... ;)
UPD. Поэтому я порекомендую видео про рекомендации в модели рекомендации... Ну вы поняли.
https://t.me/tinkoffai/311
If you know, what i mean... ;)
UPD. Поэтому я порекомендую видео про рекомендации в модели рекомендации... Ну вы поняли.
https://t.me/tinkoffai/311
Telegram
Жёлтый AI
Олег записал два ролика – о том, как обучали модель для предсказания покупок, с которой залетели на ECIR в Ирландию; и о том, как они запихали рекомендации в модели для рекомендаций, чтобы рекомендовать рекомендательные системы 🚌
😁5