эйай ньюз
59.7K subscribers
1.42K photos
734 videos
7 files
1.73K links
Культурно освещаю самые и не самые важные новости из мира AI, и облагораживаю их своим авторитетным профессиональным мнением.

В свободное время работаю как Staff Research Scientist в Meta Generative AI в Швейцарии.

Aвтор: @asanakoy

PR: @kander426
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
Конечно же, первое, что пришло людям в голову, когда они получили в руки GPT-4o — это заставить их говорить друг с другом (даже OpenAI не удержались). Ну такое всегда с голосовыми ассистентами.

Вот, пожалуй, мой любимый вариант 😂

Орнул с того, как в конце они, как настоящие кожаные, начали просто ругаться, вообще игнорируя друг друга...

What a time to be alive!

Ориг

@ai_newz
У /r/LocalLlama новое развлечение

В сабреддите начали байтить компании на релиз моделей. Началось всё с Phi-3 - очень скоро после поста на реддите о том что как-то долго не релизят веса вышли обещанные Small и Medium размеры.

Но вдобавок к ним шли сюрпризы – Phi-3 Vision и подробнейший гайд, о том как пользоваться моделями семейства на любой кофеварке.

Сразу за этим этого вышло развести Mistral на релиз Mistral-7B-0.3 вместе с Mixtral-8x22B-0.3 (base. instruct), после чего на Reddit почувствовали вкус крови и начали последовательно пинговать разные компании и просить релизы.

Таким образом у Cohere, авторов Command R, выпросили Aya - многоязычные Instruct версии их моделей. Идут в размерах 8B (base версию, кстати, не релизили) и 35B, хорошо понимает 23 языка - бьёт на многоязычных бенчмарках Gemma и Mistral 7B/Mixtral 8x7B. Ждём Aya 104B, на базе Command R+ .

Прямо сейчас сабреддит ещё раз байтит Microsoft, просят веса BitNet 1.58 Bit.

Даже если это новый вид маркетинга, релиз новых моделей всё равно радует

@ai_newz
Ну че, парни и дамы, мы?

@ai_newz
На 4chan зачем-то слили Stable Audio 1.0
[UPD: Это все же 2.0]

Я скачал, запустил и качество там не очень. И не удивительно: даже вторая версия модели отстаёт от конкурентов, а эта, по ощущениям, отстаёт даже от MusicGen годовой давности.

Веса тут (как и со всеми утечками, ни в коем случае не трогайте ckpt, только safetensors)
Код

Лучше бы слили SD3

@ai_newz
Есть такая настолькня RPG – DnD (Dungeon and Dragons). Но я как-то особо не видел чтобы говорили о возможности не просто ролплея с ЛЛМ, а полноценной игры с неограниченными возможностями и бесконечным количеством сюжетных линий, как в DnD.

Вот вам пример, который неведанно залетел в топ в gpt store. Там на выбор даже несколько сюжетов/сеттингов. Но можно и свой задать - я выбрал фентези.

Меня GPT запихнул в какой-то дремучий лес. Там я встретил какого-то подозрительного эльфа, и я ожидал, что сломаю сюжет, когда скажу, что посылаю на хрен этого старого подозрительного деда, но нет, игра продолжилась. Я пошёл дальше по лесу, и затем gpt-шка подкинула мне пару интересных испытаний: сначала на меня напал какой-то защитник леса. Я отправил его в ущелье (по сюжету я стоял на краю ущелья и на меня напал этот перепес недооборотень), потом я пробрался через поле, где летали каменные горгульи. Причём я отвлёк их небольшим костром, здесь прям подумать пишлось тк я не хотел ломать рп, говоря что я могу на изи забороть волшебных монстров. После добрался до какого-то замка, и там тоже было довольно интересно, и тд.

Если у вас есть премиумная подписка на GPT, то он еще по ходу игры будет и картинки генерить (в аттаче). Вот бы он еще и видео в риалтайме генерил, да еще и в 3D для Quest! 🎮 Ладно, что-то я замечтался - не все сразу.

Эта тема напоминает мне игру для тестирования из фильма "Игра Эндера" (ещё помните такой?). Как такое реализовать в современных тайтлах? Поговаривают, новый Baldur's Gate очень в этом преуспел, но самому проверить некогда🥲

Вот ссылка на эту игрушку, можно даже и без подписки потестить (с лимитом сообщений).

Я попытался экстрактнуть кастомный промпт, и он на удивление очень простой. Просто базовые инструкции и как начать диалог - всё. Я ожидал какой-то заготовленной истории или что-то типа того, чтобы хоть как-то запустить сюжет, но нет, гпт сам всё придумывает. Что удивительно, ведь сюжет реально неплохой.

Ставьте 🦄, если интересно про экстракшен промптов из кастомных gpt ; )

@ai_newz
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
эйай ньюз
Photo
Кажется, я в правом верхнем сегменте. Делитесь в комментах, в каком вы.
This media is not supported in your browser
VIEW IN TELEGRAM
Теперь погружаться в кроличью нору знаний можно не только с википедией, но и с GPT. Я потыкался немного, так очень классно учить новые концепты, надеюсь такое интерфейсное решение приживётся.

Интерфейс подсвечивает ключевые слова, на которые можно нажать и попросить LLM подробнее про них рассказать в контектсе текущей темы.

Попробовать можно тут. Только аккуратно – эта штука может конкретно затянуть!

@ai_newz
Маск привлёк в XAI инвестиций на $6 млрд в раунде B!

Деньги нужны явно на GPU - если Grok-2, для тренировки, нужно 20 тысяч H100, то для Grok-3 нужно будет уже 100 тысяч. Маск думает что AGI будет доступен в течении двух лет и пытается включиться в гонку, но эстимейты Илона никогда не были особо надёжными.

Ещё хочу сказать, что прошло меньше года с момента создания XAI в июле 2023, и они все это время неплохо двигаются и выкидывают модели в опенсорс.

Правда, Grok-1.5V так и не релизнули. Ждём!

@ai_newz
Вау, вау, вау. Microsoft официально запилил Copilot бота для Telegram. Если кто не в курсе, то это ChatGPT в интерфейсе от Microsoft.

И это реально официалный бот от Microsoft – вот анонос. Я такого совсем не ожидал. Кажется, БигТехи начинают осознавать потенциал Телеграма, ну либо Бинг просто ищет любые дополнительные источники трафика.

Наверное, это первое появление официального представителя компании-разработчика крупных LLM в Телеге.

Пообщаться можно тут: @CopilotOfficialBot. Он, гаденыш, правда, просит телефон верифицировать – мне такое не очень нравится.

ПС. В комментах пишут, что можно дать ему фейковый номер.

@ai_newz
Лучше поздно, чем никогда 😀– наконец делюсь своими впечатлениями от поездки в Калифорнию после нашего успешного апрельского релиза Imagine Flash в Meta-ai.

Я уже писал про то, как я организовал там тусовку с подписчиками в апреле. На самом деле у нас было даже две тусовки: одна маленька в грузинском ресторане в Менло Парк, другая в доме у одного из подписчиков недалеко от СФ.

Теперь хочу поделиться впечатлениями от поездки с точки зрения работы в Мете – ведь это и было моей основной целью поездки. У меня был план встретиться с коллегами и со всеми боссами лично, а так же отпраздновать успешный релиз.

Заранее назначил 1:1 встречи с четырьмя босами в цепочке от меня до Марка. Чем выше двигаешься по цепочке, тем больше разговоры удаляются от работы руками, и тем больше фокуса на стратегию и high-level цели. Со старшим VP у меня был всего 15-минутный митинг, но было очень круто поговорить с ним о стратегических планах в Gen AI, а также было приятно услышать от него лично, как он оценил мой проект Imagine Flash.

Почему такие встречи важны? Когда говоришь с топами напрямую, о тебе узнают и больше ценят твою работу и твой вклад, плюс всегда можно получить какой-нибудь нетривиальный совет по карьере от более опытных людей. Поэтому я всегда стараюсь выбивать время, чтобы пообщатсья c ними вживую.

Кроме запланированных встреч я всю неделю общался с людьми из своей команды (мы тренируем модели Emu и занимаеся visual synthesis) и с ребятами из соседних команд о смежных проектах. Дни были максимально плотные - митинги и кодинг. Я даже наладил режим, вставал в 6 утра, плавал в бассейне, затем завтракал и к 8 ехал офис, а завершал день после 18.

Так прошла вся неделя, кроме четверга. В этот день я впервые увидел Марка Цукерберга в живую, он делал Q&A для сотрудников на открытой сцене и отвечал на вопросы. Эх, жаль лично пообщаться не удалось 🙂

[продолжение в следующем посте]

#personal #карьера
@ai_newz
[продолжение] Еще в четверг была запланирована закрытая вечеринка для команды GenAI. Глава GenAI рассказывал про курьёзы, которые случились с командами во время подготовки моделей LLama3 и Emu и поздравлял нас с классными результатами. Там я сначала познакомился с Сергеем, директором, который отвечал за весь претрейн моделей LLaMA 3. Очень крутой чел, беседа с ним была мега познавательная для меня. Он рассказал мне несколько инсайтов о том, как запромоутится на Senior Staff на своем примере (если кратко, то нужно проактивно предлагать масштабные проекты и искать что бы где улучшить) и мы поговорили о том, каково быть директором в такой большой орге.

Во время вечеринки я заметил как мой знакомый VP (он же глава GenAI) болтает в кругу с CPO. Подходить к ним сразу я не осмелился, и пообщался со знакомым, когда он отошел в сторону. На мой вопрос "придет ли Марк?", он ответили, что Цукерберг все-таки не появится сегодня. А затем сам предложил представить меня Крису Коксу, нашему CPO. Често сказать, я уже и сам думал как бы познакомиться с CPO, а тут такая удача! В итоге мы болтаем с CPO минут десять о жизни, я запитчил ему пару своих идей по новому проекту – он поддержал. После этого я решил, что вечеринка уже прошла не зря, и просто чилил остаток вечера со своими приятелями :)

Возвращаясь из таких поездок, я всегда чувствую море мотивации фигачить, изучать новые темы и продвигать новые проекты. Осознаешь, что вокруг очень много таких же заряженных людей, и что на грандиозные инициативы в такой большой компании всегда можно найти ресурсы – главное чтобы идея была ценная и был хороший нетворк. Поэтому сейчас развиваю в себе навык находить масштабные новые направления в работе и поменьше мыслить в рамках небольших проектов и конкретных научных статей.

#personal #карьера
@ai_newz
Илон Маск спорит с Яном и говорит, что они не используют Convolutional Neural Networks (CNN) в Тесле. Ага-ага.

@ai_newz
GPT-2 за двадцать долларов

Три недели назад llm.c был просто быстрым, на игрушечных датасетах и одной видеокарте. Но Карпатый на месте не стоял - он уже тренирует небольшие модели на десятках миллиардов токенов и восьми видеокартах. И при этом сохраняя огромную пропускную способность: GPT-2 Small выдаёт 180k токенов за секунду на каждую видеокарту. И при такой скорости тренировки, совсем не жертвуют точностью - результаты даже лучше чем у оригинальной GPT-2, при том что датасет похожий, а количество токенов такое же.

Small версию вообще можно натренировать за полтора часа на одной машине с 8 видеокартами. Стоить такое удовольствие будет всего двадцать долларов. Тренировка Medium обойдётся уже в $200, а XL в $2,5k, но проект всё ещё есть куда оптимизировать.

Пока что натренированы только Small и Medium размеры GPT-2, но с такой бешенной скоростью разработки поддержка моделей побольше будет уже в ближайшие дни.

Следующие майлстоуны:
Тренировка 770m и 1.5B моделек
Поддержка нескольких нод
Поддержка H100 и с ней fp8
Воспроизводимая тренировка - чтобы можно было тренировать модель на двух разных машинах с побитово идентичными результатами

Нужно всё-таки попытаться потренировать на фритюрнице

@ai_newz