Mistral выложили на HF новую модель Mistral 7B v0.2 Base Model
- контекстное окно в 32k токенов вместо 8k
- Rope Theta = 1e6 (параметр «новизны» в ответах модели)
- Убрали sliding window, так что новая модель лучше воспринимает глубокие связи в длинном тексте
Уже доступно в transformers
- контекстное окно в 32k токенов вместо 8k
- Rope Theta = 1e6 (параметр «новизны» в ответах модели)
- Убрали sliding window, так что новая модель лучше воспринимает глубокие связи в длинном тексте
Уже доступно в transformers
👍44🔥13❤6🤩4⚡1👏1
The Little Book of Deep Learning by François Fleuret
Франсуа Флере — профессор компьютерных наук в Женевском университете, Швейцария. Недавно он выпустил интересную мини-книжку с последовательными заметками по глубокому обучению.
Здесь кратко и содержательно рассматриваются многие важные темы: Backpropagation, дропауты, нормализации, функции активации, слои внимания и тд. Откройте оглавление – и увидите сами.
При этом эта малютка подойдет даже новичкам: в начале автор раскрывает базовые понятия, и даже рассказывает про GPU и тензоры. А в третьей граве найдете заметки по основным задачам глубокого обучения: Text-image, детекция, генерация текстов и изображений, RL.
И все это изложено всего на 150 страницах с картинками. Вот бесплатная версия, адаптированная под чтение на телефоне. Советуем!
Франсуа Флере — профессор компьютерных наук в Женевском университете, Швейцария. Недавно он выпустил интересную мини-книжку с последовательными заметками по глубокому обучению.
Здесь кратко и содержательно рассматриваются многие важные темы: Backpropagation, дропауты, нормализации, функции активации, слои внимания и тд. Откройте оглавление – и увидите сами.
При этом эта малютка подойдет даже новичкам: в начале автор раскрывает базовые понятия, и даже рассказывает про GPU и тензоры. А в третьей граве найдете заметки по основным задачам глубокого обучения: Text-image, детекция, генерация текстов и изображений, RL.
И все это изложено всего на 150 страницах с картинками. Вот бесплатная версия, адаптированная под чтение на телефоне. Советуем!
👍45🔥11❤9
Чего действительно ждут в индустрии от ML-щика? С этим вопросом нам удалось обратиться к эксперту — Андрею Кузнецову, ML директору в OK, с которым нам повезло оказаться на AI-тусовке от AI Talent Hub в солнечном Вьетнаме. И вот что он думает на этот счет:
Для успешного внедрения моделей МЛ в производственной среде необходим надежный подход, известный как MLops, а для работы с LLM придумали новую аббревиатуру LLMops. Вот список ключевых инструментов, которые помогут вам оптимизировать жизненный цикл ваших моделей ML, от создания прототипов до развертывания и мониторинга:
- векторные базы (Milvus, qdrant etc)
- системы отслеживания экспериментов и версионирования моделей (mlflow)
- оркестраторы (Airflow)
- платформы инференса (triton, vLLM)
- инструменты версионирования данных (DVC)
- инструменты для работы с BigData
- инструменты CI/CD (TeamCity)
- инструменты мониторинга и дашборды (Grafana, SuperSet)
- инструменты прототипирования интерфейсов (Gradio, Streamlit)
- контейнерные оркестраторы (Kubernetes + Docker)
- LLM specific frameworks (Llamaindex, Langchain).
Кстати, у его команды есть канал @mlvok, где они регулярно разбирают на открытых ридинг-клабах текущий SOTA в рекомендательных системах, MLops и Big Data. Советуем почитать.
Для успешного внедрения моделей МЛ в производственной среде необходим надежный подход, известный как MLops, а для работы с LLM придумали новую аббревиатуру LLMops. Вот список ключевых инструментов, которые помогут вам оптимизировать жизненный цикл ваших моделей ML, от создания прототипов до развертывания и мониторинга:
- векторные базы (Milvus, qdrant etc)
- системы отслеживания экспериментов и версионирования моделей (mlflow)
- оркестраторы (Airflow)
- платформы инференса (triton, vLLM)
- инструменты версионирования данных (DVC)
- инструменты для работы с BigData
- инструменты CI/CD (TeamCity)
- инструменты мониторинга и дашборды (Grafana, SuperSet)
- инструменты прототипирования интерфейсов (Gradio, Streamlit)
- контейнерные оркестраторы (Kubernetes + Docker)
- LLM specific frameworks (Llamaindex, Langchain).
Кстати, у его команды есть канал @mlvok, где они регулярно разбирают на открытых ридинг-клабах текущий SOTA в рекомендательных системах, MLops и Big Data. Советуем почитать.
👍31🤯10❤9🔥6
Недавно OpenAI начали выдавать доступы к SORA людям из арт-сообщества (художникам, режиссерам и др). Получился очень мудрый маркетинговый ход: креаторы не только дали фидбэк по модели, но и нагенерили целые арт-хаусы и мини-драмы, которые уже разлетелись по сети.
Наше любимое – первое. Ну а история с человеком-шаром вообще тянет на оскар.
Наше любимое – первое. Ну а история с человеком-шаром вообще тянет на оскар.
❤46🔥27👏5👾3
В 5 абзацах объяснить один из главных методов обработки пайплайнов с биг-датой? Да пожалуйста. Broadcast Join – к вашему вниманию.
🎉30👍15🔥8🤯2
This media is not supported in your browser
VIEW IN TELEGRAM
В Google презентовали VideoPrism: базовую модель для "понимая" видео
Удивительно, но факт: в эпоху SORA универсальный энкодер для видео (ViFM), который справляется с широким спектром задач, долго оставался голубой мечтой. Однако теперь Google превратили это в реальность.
VideoPrism умеет почти все: описывать видео, искать или локализовать объекты, классифицировать, отвечать на вопросы. Обучена модель на 36 миллионах video-text пар и 582 миллионах видео с субтитрами.
Под капотом – вижн трансформер (ViT), который обучается в два этапа: сначала с триплет-лоссами, чтобы научить сеточку сопоставлять видео подходящее описание; а затем на masked роликах, заставляя модель "дополнять" пропущенные участки (все, как дедушка BERT завещал). Получается, что исследователи как бы учат модель понимать и семантику видео, и динамику кадра.
И работает это классно: на 30 из 33 бенчмарков выбивает SOTA. Теперь исследователи планируют прикрутить сюда LLM. Ждем и надеемся, что такие наработки приведут к чему-то фееричному (еще одна SORA?)...
Удивительно, но факт: в эпоху SORA универсальный энкодер для видео (ViFM), который справляется с широким спектром задач, долго оставался голубой мечтой. Однако теперь Google превратили это в реальность.
VideoPrism умеет почти все: описывать видео, искать или локализовать объекты, классифицировать, отвечать на вопросы. Обучена модель на 36 миллионах video-text пар и 582 миллионах видео с субтитрами.
Под капотом – вижн трансформер (ViT), который обучается в два этапа: сначала с триплет-лоссами, чтобы научить сеточку сопоставлять видео подходящее описание; а затем на masked роликах, заставляя модель "дополнять" пропущенные участки (все, как дедушка BERT завещал). Получается, что исследователи как бы учат модель понимать и семантику видео, и динамику кадра.
И работает это классно: на 30 из 33 бенчмарков выбивает SOTA. Теперь исследователи планируют прикрутить сюда LLM. Ждем и надеемся, что такие наработки приведут к чему-то фееричному (еще одна SORA?)...
👍37🔥10❤9
Forwarded from XOR
Привет! На связи команда XOR. Совсем скоро мы готовим для вас большое обновление нашего любимого тиндера для программистов – CodeMates. И в этом нам нужна ваша помощь.
Мы ищем HR-специалистов, которые готовы пройти короткий кастдев. С вас – ответить на несколько небольших вопросов. С нас – приятная плюшка.
Чтобы поучаствовать, просто напиши @v2r8n и в двух предложениях расскажи про свой HR-опыт.
Кстати, в CodeMates уже более 7 тысяч пользователей, если еще не пробовал – самое время 😏
Мы ищем HR-специалистов, которые готовы пройти короткий кастдев. С вас – ответить на несколько небольших вопросов. С нас – приятная плюшка.
Чтобы поучаствовать, просто напиши @v2r8n и в двух предложениях расскажи про свой HR-опыт.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7❤6🔥6
В каких еще областях нас планирует удивить OpenAI?
На днях компания подала заявку на регистрацию товарного знака для цифрового голосового помощника и голосового движка. Технология охватит распознавание речи, ее генерацию, и, возможно, генерацию других звуковых выходов.
Siri и Alexa тихо закурили в сторонке
На днях компания подала заявку на регистрацию товарного знака для цифрового голосового помощника и голосового движка. Технология охватит распознавание речи, ее генерацию, и, возможно, генерацию других звуковых выходов.
Siri и Alexa тихо закурили в сторонке
❤27🔥10👍7
Социальный опрос. Расскажите, что для вас – идеальная карьера в ML?
Anonymous Poll
29%
Работать на топ-должности в бигтехе в России
16%
Трудиться в FAANG
45%
Собственный успешный ML-стратап
5%
Заниматься участием в хакатонах и соревнованиях и зарабатывать на этом
5%
Другое (напишу в комментариях)
🔥24🤨6❤4😁2👍1🤔1👻1
Please open Telegram to view this post
VIEW IN TELEGRAM
😁176😨14👍8🙈7❤6
This media is not supported in your browser
VIEW IN TELEGRAM
CEO HyperWriteAI, ресерчер Мэтт Шумер, только что катнул в опенсурс инструмент, файнтюнящий LLM под специфик-таски по промпту
И вот как это работает. От пользователя поступает описание модели, которую он хочет получить для конкретной задачи. Этот промпт попадает в Claude-3, который генерит соответствующий датасет. Далее на этих данных дообучается Llama-2. Прикольно, да?
Шумер отмечает, что использовал для этого проекта свое древнее легаси, поэтому файнтюнит именно ламу. Он предложил всем желающим попробовать законтрибьютить в проект, в том числе попытаться заменить ламу на Mistral.
И вот как это работает. От пользователя поступает описание модели, которую он хочет получить для конкретной задачи. Этот промпт попадает в Claude-3, который генерит соответствующий датасет. Далее на этих данных дообучается Llama-2. Прикольно, да?
Шумер отмечает, что использовал для этого проекта свое древнее легаси, поэтому файнтюнит именно ламу. Он предложил всем желающим попробовать законтрибьютить в проект, в том числе попытаться заменить ламу на Mistral.
👍39🔥18❤6🥰3
Стало известно, что 10 июня состоится большая конференция WWDC от Apple. Они пообещали, что «It’s going to be Absolutely Incredible!»
Заметили этот тонкий намек на AI?😏
Возможно, как вещал Марк Гурман, корпорация заколабится с Anthropic или Google и внедрит в новый IOS генеративные сети? Или они продолжат работать с Калифорнийским университетом и используют в новом iPhone свои собственные модели? Кроме того, компания недавно выкупила стартап DarwinAI, так что ждем новостей и оттуда.
Как бы то ни было, забиваем 10 июня в своих календарях, нас ждет что-то интересное.
Заметили этот тонкий намек на AI?
Возможно, как вещал Марк Гурман, корпорация заколабится с Anthropic или Google и внедрит в новый IOS генеративные сети? Или они продолжат работать с Калифорнийским университетом и используют в новом iPhone свои собственные модели? Кроме того, компания недавно выкупила стартап DarwinAI, так что ждем новостей и оттуда.
Как бы то ни было, забиваем 10 июня в своих календарях, нас ждет что-то интересное.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍18🔥5👏3🗿1
Большие новости: Яндекс анонсировал линейку языковых моделей третьего поколения YandexGPT.
На сайте Yandex Cloud уже доступна YandexGPT 3 Pro — это первая нейросеть, которая вошла в линейку YandexGPT 3. В дальнейшем их станет больше: каждая будет ориентирована на решение задач определённого типа.
Бизнес сможет дообучить YandexGPT 3 Pro на своих скриптах в сервисе ML-разработки Yandex DataSphere, а потом встроить технологию в продукты через API и использовать её по цене в почти два раза дешевле. Тут можно потыкаться в демо-режиме.
На сайте Yandex Cloud уже доступна YandexGPT 3 Pro — это первая нейросеть, которая вошла в линейку YandexGPT 3. В дальнейшем их станет больше: каждая будет ориентирована на решение задач определённого типа.
Бизнес сможет дообучить YandexGPT 3 Pro на своих скриптах в сервисе ML-разработки Yandex DataSphere, а потом встроить технологию в продукты через API и использовать её по цене в почти два раза дешевле. Тут можно потыкаться в демо-режиме.
🔥33👍12❤5🤯3
Data Secrets
Пу-пу-пуууу, больше не первые, получается
Please open Telegram to view this post
VIEW IN TELEGRAM
❤47😁30😐5👍2🔥2
В Google дела идут хорошо: сооснователь компании Сергей Брин лично звонит AI-инженерам и просит их не уходить в OpenAI 🙏
Если верить инсайдеру, личный звонок Брина, а также обещания бонусов и повышение зп (ну это уже мелочи, правда?) все-таки убедили сотрудника остаться на своем посту.
Они говорили, ИИ нас заменит
Если верить инсайдеру, личный звонок Брина, а также обещания бонусов и повышение зп (ну это уже мелочи, правда?) все-таки убедили сотрудника остаться на своем посту.
Они говорили, ИИ нас заменит
Please open Telegram to view this post
VIEW IN TELEGRAM
😁91👍18❤8👏3🤗2😇1
Новости о дикой погоне за AI-специалистами на Google не заканчиваются. В последнее время отовсюду так и сыпятся подобные истории.
Например Цукерберг, в отличии от Брина, сотрудникам с мольбами остаться еще не звонит, НО хантинговые емейлы уже пишет. Кстати, тоже ребятам из Google :) В этих письмах он предлагает работу кандидатам без каких-либо интервью и рассказывает о том, что к концу года Meta обзаведется 340 тысячами GPU H100 и станет первой на ИИ-рынке.
А вот у Perplexity для хантинга железа пока маловато. Их CEO, Аравинд Шринивас, пытался переманить ресерчера из Meta, но тот ответил "Приходите, когда у вас будет 10 тысяч чипов Nvidia H100. До свидания."
Бывает...
Например Цукерберг, в отличии от Брина, сотрудникам с мольбами остаться еще не звонит, НО хантинговые емейлы уже пишет. Кстати, тоже ребятам из Google :) В этих письмах он предлагает работу кандидатам без каких-либо интервью и рассказывает о том, что к концу года Meta обзаведется 340 тысячами GPU H100 и станет первой на ИИ-рынке.
А вот у Perplexity для хантинга железа пока маловато. Их CEO, Аравинд Шринивас, пытался переманить ресерчера из Meta, но тот ответил "Приходите, когда у вас будет 10 тысяч чипов Nvidia H100. До свидания."
Бывает...
🤯46😁19👍5🔥5