эйай ньюз
60.2K subscribers
1.42K photos
744 videos
7 files
1.74K links
Культурно освещаю самые и не самые важные новости из мира AI, и облагораживаю их своим авторитетным профессиональным мнением.

В свободное время работаю как Staff Research Scientist в Meta Generative AI в Швейцарии.

Aвтор: @asanakoy

PR: @kander426
Download Telegram
Media is too big
VIEW IN TELEGRAM
Кто там хотел прикрутить LLM к NPC?

Продолжаю серию постов про AI в играх.
Вот новый экземпляр на вечер — Suck Up!

Суть:
Вы вампир, ваша цель — вломиться в дом NPC и съесть их. Правда, теперь они не такие тупые, ведь к ним по API прикручена ЛЛМ, так что кого попало они домой не пускают. Для убедительности можно использовать найденные на улице предметы и одежду прошлых жертв. Например, доставщика пиццы.

У каждого NPC свой костюм, характер и манера речи. К каждому нужен свой подход. Текст вводится голосом! Правда, отвечают пока просто текстом, генерацию речи еще не завезли.

Видео от разработчиков прилагается. Если нечем заняться, вот еще можно глянуть https://youtu.be/V-6M6lm3mTY?si=KFJqU0ruKlbO-VwA

Стоит 16 баксов. Интересная модель монетизации. Получаешь игру полностью и к ней 10 000 токенов. Когда они закончатся, придется платить снова. В целом, неплохой вариант, + авторы уверяют, что этого должно хватить на 40-50 часов геймплея. Кстати, игры в Steam нет, потому что они хз, что делать с AI. А точнее, как его регулировать.

Подробности здесь.

@ai_newz
MobileLLM: Optimizing Sub-billion Parameter Language Models for On-Device Use Cases

Юзать LLM хотят все, но инференс в облаке стоит конских денег. Но есть простое решение - давайте юзеры будут запускать LLM у себя, а не в облаке. Однако не стоит забывать – большинство пользователей интернета владеют лишь телефоном. Оперативной памяти там не так уж и много - у iPhone это 6 гигов, у большинства андроид флагманов до 12, так что нужно оптимизировать параметры, но и не забывать про перформанс. Авторам пейпера удалось заметно улучшить качество инференса на телефонах, без потерь в перформансе.

Как это вышло?

Авторы выяснили, что масштабирование модели вглубь при таком же количестве параметров работает лучше чем при масштабировании модели вширь. Таким образом модель на 125 миллионов параметров имеет 30 слоёв (у GPT-2, Bert и вообще всего в такой весовой категории обычно 12).
Традиционный для "эффективных" моделей шеринг входного и выходного слоя эмбеддингов.
Завезли Group Query Attention, который раньше в таких моделях не использовался.
Убедились что все слои влезают в кэш телефонов, потому что оперативка значительно медленнее.

Самая интересная часть - layer sharing, так что её разберём поподробнее. Идея в том, чтобы использовать один и тот же слой несколько раз, и таким образом улучшить перформанс. Попробовали несколько стратегий:

Повторять слои незамедлительно - то есть слой компьютит что-то, а потом его вывод кормится в него же.
Повторять все слои в том же порядке - по сути моделька запускается два раза на одном и том же инпуте.
Сначала считать слои в обычном порядке, а потом задом наперёд.

Лучше всех показал себя второй способ, но выбрали первый, потому что он заметно быстрее работает (не нужно грузить слой в кэш несколько раз).

В итоге вышло хорошо так улучшить результаты, без раздутия количества параметров или времени выполнения модели. Итоговая модель выдаёт более чем 50 токенов в секунду на обычном телефоне. Статья февральская, но код выложили только сейчас. Весов нет.

Пейпер
Код

@ai_newz
This media is not supported in your browser
VIEW IN TELEGRAM
Зацените детище CloneRobotics!

Ребята из Вроцлава не спят и пилят своих адройдов. Выглядит крипово и прекрасно одновременно. Каждая мышца выполнена так, чтобы в точности повторять анатомию человека. Там даже учебник на одном из видосов мелькает.

Двигается пока не очень человечно, но ребята в конце 23-го года захантили к себе ML-щиков всех мастей и верят, что путь к AGI идет через полное клонирование человека, сначала анатомически, а сейчас вот учат повторять за человеком механически.

Правда, гляньте видос внизу, какая там бандура управляет одной рукой. В гуманоида такого не засунешь, но чуваки работают. Выглядит многообещающе, а то надоели эти бесполезные клешни. Все-таки оттопыренный пятый палец поставил человека на вершину пищевой цепи 🤙

ещё про роботов, андройдов и агентов

@ai_newz
This media is not supported in your browser
VIEW IN TELEGRAM
А вот такая бандурина управляет механической рукой. Я считаю, есть пространство для оптимизации!

@ai_newz
Андрей Карпатый основал компанию, которая занимается ИИ образованием

Eureka Labs будет школой, созданной с учётом ИИ. Преподаватели всё ещё будут создавать курсы, но помогать ученикам продвигаться по ним будет специализированный AI Teaching Assistant. Первый продукт компании - LLM101n, курс про тренировку ИИ моделей, я о нём уже писал.

Иллюстрированный букварь для благородных девиц становится всё ближе и ближе. Сложно представить человека, лучше подходящего для его создания, чем Карпатый.

Сайт компании

@ai_newz
Mistral выпустили две новые 7B модели

MathΣtral - тюн Mistral 7B, ориентированный на математику и технические дисциплины. На бенчах заметно лучше конкурентов среди открытых математических LLM, но до закрытых моделей всё ещё далеко - специализированные на математике варианты Gemini 1.5 Pro на MATH выдают за 90%.

Создали модель в коллаборации с Project Numina, победителями недавнего AIMO Progress Prize, где модели соревновались в решении задач с международной математической олимпиады (IMO). На том соревновании первые 4 места заняли тюны DeepSeek Math 7B, видимо, Mistral захотели своего конкурента.

Codestral Mamba - модель для кода, основанная на архитектуре Mamba V2, первый не трансформер который натренили в Mistral.

Результаты неплохие, но результатами бенчей слегка манипулируют - сравнивают с довольно старыми моделями, а с сильными конкурентами, вроде Llama 3 8B и DeepSeek Coder V2 Lite - нет. Результат Llama 3 8B на HumanEval выше чем у других моделей с которыми сравнивают Codestral. А DeepSeek Coder V2 Lite на HumanEval обгоняет не только Codestral Mamba, но и Codestral 22B.

Mamba, в теории, обещает "линейный" инференс с "бесконечным контекстом. Конкурентов трансформерам всегда интересно видеть, но я пока что не видел нормальных тестов контекста более чем 16к токенов, так что отношусь к архитектуре скептически. Если хотите, могу написать про неё поподробнее.

@ai_newz
Please open Telegram to view this post
VIEW IN TELEGRAM
Мои опасения по поводу Codestral Mamba пока подтверждаются - похоже, моделька начинает сыпаться уже через пару тысяч токенов контекста. Тест простейший - в файле с кучей функций, нужно вызвать функции с фруктом в названии (apple, banana, etc.).

@ai_newz
Кстати, для тех кто не знал, NVIDIA регулярно проводит платные воркшопы онлайн.

Вот, например, скоро будет 7-часовой воркшоп "Model Parallelism: Building and Deploying Large Neural Networks".

Цена вопроса - $500.

Звучит интересно, я бы послушал инсайты от NVIDIA, как они юзают всякие параллелизма для тренировки очень больших моделей (например Хуанг хвалился, что они натренили LLM с 1.8 триллионами параметров). Но ценник, конечно, почти как регистрация на ECCV. Наверное, лучше посмотрю леции на ютубе и съезжу в Милан.😁

Хотя, если кто-то начинает изучать эти темы с нуля, то такие воркшопы могли бы хорошо зайти, ведь там дадут структурированную информацию и можно позадавать вопросы. Есть очень много тонкостей, которые нигде не написаны и их можно узнать только из личной беседы.

Вот тут есть расписание всех воркшопов.

#ликбез
@ai_newz
Forwarded from ML — это ОК
📄В интернете можно, условно говоря, заниматься двумя вещами:

1. развиваться, читая научные статьи о рекомендательных системах;
2. орать с угарнейших мемасиков про котиков.

И, хотя официально интернет существует для первого, рекомендательные системы толкают пользователей скорее ко второму. Так происходит потому, что мемасики получают больше лайков, чем статьи по рекомендательным системам (даже в нашем канале). На ридинг-группе 25 июля будем разбираться, как это поправить. Обсудим статью, которая предлагает способ отделить сиюминутное желание покекать от долгосрочной полезности и балансировать эти факторы при построении рекомендательной системы. Рассказывать будет Коля Анохин, ведущий специалист ОК по ML. Начало встречи в 16:00.

Зум: ссылка
Meeting ID: 875 8500 6307
Passcode: okdsrg
Please open Telegram to view this post
VIEW IN TELEGRAM
Не прошло и недели, а у Mistral новый релиз!

Новую "малую" модель NeMo тренировали совместно с Nvidia. У неё 12 миллиардов параметров, 128k контекста, инференс в fp8 без потери в качестве. Модель сделана так, чтобы влезала в 4090.

NeMo - нативно мультиязычная модель, тренировали в том числе на русском, немецком, японском, китайском. И тут она конкурентов и в хвост, и в гриву. Обновили и токенизатор - он теперь на 36% эффективнее для русского, на 11% для английского, а на некоторых языках прирост по эффективности в 3-4 раза. Интересно, в токенах найдутся пасхалки?

С бенчами опять шалят: сравнивают только базовые модели, а бенчи для Instruct версий публикуют только специализированные, не общие.

Заметьте, как "малые" модельки растут в размере: 7B превратилось в 8, потом в 9, а сейчас уже 12

Веса
Блог

@ai_newz
GPT-4o mini

Наконец-то замена GPT-3.5, которой давно пора на пенсию. Новая модель заметно дешевле - всего 15 центов за лям токенов на вход и 60 на выход (по batch API в два раза дешевле). При этом обходит всех современных конкурентов (Gemini 1.5 Flash, Claude 3 Haiku). Но конкуренты тоже не сидят на месте - Anthropic уже пообещали выпустить 3.5 Haiku, плюс на днях были следы готовящегося релиза Gemini 2.0.

У большинства юзеров ChatGPT доступ должен быть уже сегодня, у энтерпрайз клиентов - на следующей неделе.

За пару часов до релиза анонс утёк вообще во все СМИ, но я решил подождать официального анонса

Блог

@ai_newz
Сони-бои, руки на стол!

Зацените прикольный юзкейс. Можно управлять свом аватаром джойстиком, чтобы бегать по метаверсу прямо со своей приставки что ли.

Это все, конечно, не в риалтайме. Фильтр на красивое лицо и face animation сделан в постобработке (хотя можно было сделать риалтайм, используя, например, Imagine Flash или sdxl lightning и толстую видеокарту).

Но выглядит интересно. Давайте проголосуем и сделаем наши предсказания.

Нейро-рендер в играх – наше будущее?
👍 - да
🫡- нет

@ai_newz
У Claude наконец-то есть приложение на Android!

Я попробовал, вышло максимально базово - поддержку Artifacts, к примеру, не завезли. У OpenAI приложение пока что на голову лучше, но они и выпустились на год раньше, было время развить до хорошего состояния.

Приложение в Play Market

@ai_newz
🔥На прошлой неделе нас стало 50.000!
В воскресенье будет стрим!


Это крутая отметка, мне очень приятно, что вам нравится мой контент, и вы меня регулярно читаете. Спасибо, друзья! 🤗

Чтобы отпраздновать, в это воскресенье я хочу провести стрим с 16:00 до 17:00 CET.

Мне задают много вопросов про то, как прокачивать свои навыки в AI, в какую магистратуру пойти или как выбрать научную группу для PhD. Про все эти темы плюс про вопросы по карьере в AI ресерче, собеседования и поиск работы поговорим на стриме!

А пока пишите в комментах свои вопросы.

Добавляйте себе в календарь: инвайт.
Буду рад вас увидеть в воскресенье!

@ai_newz
Please open Telegram to view this post
VIEW IN TELEGRAM