This media is not supported in your browser
VIEW IN TELEGRAM
Конечно же, первое, что пришло людям в голову, когда они получили в руки GPT-4o — это заставить их говорить друг с другом (даже OpenAI не удержались). Ну такое всегда с голосовыми ассистентами.
Вот, пожалуй, мой любимый вариант 😂
Орнул с того, как в конце они, как настоящие кожаные, начали просто ругаться, вообще игнорируя друг друга...
What a time to be alive!
Ориг
@ai_newz
Вот, пожалуй, мой любимый вариант 😂
Орнул с того, как в конце они, как настоящие кожаные, начали просто ругаться, вообще игнорируя друг друга...
What a time to be alive!
Ориг
@ai_newz
У /r/LocalLlama новое развлечение
В сабреддите начали байтить компании на релиз моделей. Началось всё с Phi-3 - очень скоро после поста на реддите о том что как-то долго не релизят веса вышли обещанные Small и Medium размеры.
Но вдобавок к ним шли сюрпризы – Phi-3 Vision и подробнейший гайд, о том как пользоваться моделями семейства на любой кофеварке.
Сразу за этим этого вышло развести Mistral на релиз Mistral-7B-0.3 вместе с Mixtral-8x22B-0.3 (base. instruct), после чего на Reddit почувствовали вкус крови и начали последовательно пинговать разные компании и просить релизы.
Таким образом у Cohere, авторов Command R, выпросили Aya - многоязычные Instruct версии их моделей. Идут в размерах 8B (base версию, кстати, не релизили) и 35B, хорошо понимает 23 языка - бьёт на многоязычных бенчмарках Gemma и Mistral 7B/Mixtral 8x7B. Ждём Aya 104B, на базе Command R+ .
Прямо сейчас сабреддит ещё раз байтит Microsoft, просят веса BitNet 1.58 Bit.
Даже если это новый вид маркетинга, релиз новых моделей всё равно радует
@ai_newz
В сабреддите начали байтить компании на релиз моделей. Началось всё с Phi-3 - очень скоро после поста на реддите о том что как-то долго не релизят веса вышли обещанные Small и Medium размеры.
Но вдобавок к ним шли сюрпризы – Phi-3 Vision и подробнейший гайд, о том как пользоваться моделями семейства на любой кофеварке.
Сразу за этим этого вышло развести Mistral на релиз Mistral-7B-0.3 вместе с Mixtral-8x22B-0.3 (base. instruct), после чего на Reddit почувствовали вкус крови и начали последовательно пинговать разные компании и просить релизы.
Таким образом у Cohere, авторов Command R, выпросили Aya - многоязычные Instruct версии их моделей. Идут в размерах 8B (base версию, кстати, не релизили) и 35B, хорошо понимает 23 языка - бьёт на многоязычных бенчмарках Gemma и Mistral 7B/Mixtral 8x7B. Ждём Aya 104B, на базе Command R+ .
Прямо сейчас сабреддит ещё раз байтит Microsoft, просят веса BitNet 1.58 Bit.
Даже если это новый вид маркетинга, релиз новых моделей всё равно радует
@ai_newz
На 4chan зачем-то слили Stable Audio 1.0
[UPD: Это все же 2.0]
Я скачал, запустил и качество там не очень. И не удивительно: даже вторая версия модели отстаёт от конкурентов, а эта, по ощущениям, отстаёт даже от MusicGen годовой давности.
Веса тут (как и со всеми утечками, ни в коем случае не трогайте ckpt, только safetensors)
Код
Лучше бы слили SD3
@ai_newz
[UPD: Это все же 2.0]
Я скачал, запустил и качество там не очень. И не удивительно: даже вторая версия модели отстаёт от конкурентов, а эта, по ощущениям, отстаёт даже от MusicGen годовой давности.
Веса тут (как и со всеми утечками, ни в коем случае не трогайте ckpt, только safetensors)
Код
Лучше бы слили SD3
@ai_newz
эйай ньюз
На 4chan зачем-то слили Stable Audio 1.0 [UPD: Это все же 2.0] Я скачал, запустил и качество там не очень. И не удивительно: даже вторая версия модели отстаёт от конкурентов, а эта, по ощущениям, отстаёт даже от MusicGen годовой давности. Веса тут (как…
Апдейт по слитым веcам: архитектурно это всё таки Stable Audio 2.0 с DiT трансформером, но в качестве текстового энкодера у неё T5, не CLAP, как у финальной модели. Конфиг модели для интересующихся: model_config.json. Может какая-то бета-версия?
А Stable Audio 1.0 была основана на Unet, а не на DiT.
@ai_newz
А Stable Audio 1.0 была основана на Unet, а не на DiT.
@ai_newz
Telegram
эйай ньюз
Stable Audio 2 - генерация коммерческой музыки по промпту
В отличие от suno модель не умеет в голос, но в инструментах вроде артефачит поменьше. Но самое интересное в Stable Audio 2 - это то что её тренировали только на лицензированных данных, так что новому…
В отличие от suno модель не умеет в голос, но в инструментах вроде артефачит поменьше. Но самое интересное в Stable Audio 2 - это то что её тренировали только на лицензированных данных, так что новому…
Есть такая настолькня RPG – DnD (Dungeon and Dragons). Но я как-то особо не видел чтобы говорили о возможности не просто ролплея с ЛЛМ, а полноценной игры с неограниченными возможностями и бесконечным количеством сюжетных линий, как в DnD.
Вот вам пример, который неведанно залетел в топ в gpt store. Там на выбор даже несколько сюжетов/сеттингов. Но можно и свой задать - я выбрал фентези.
Меня GPT запихнул в какой-то дремучий лес. Там я встретил какого-то подозрительного эльфа, и я ожидал, что сломаю сюжет, когда скажу, что посылаю на хрен этого старого подозрительного деда, но нет, игра продолжилась. Я пошёл дальше по лесу, и затем gpt-шка подкинула мне пару интересных испытаний: сначала на меня напал какой-то защитник леса. Я отправил его в ущелье (по сюжету я стоял на краю ущелья и на меня напал этот перепес недооборотень), потом я пробрался через поле, где летали каменные горгульи. Причём я отвлёк их небольшим костром, здесь прям подумать пишлось тк я не хотел ломать рп, говоря что я могу на изи забороть волшебных монстров. После добрался до какого-то замка, и там тоже было довольно интересно, и тд.
Если у вас есть премиумная подписка на GPT, то он еще по ходу игры будет и картинки генерить (в аттаче). Вот бы он еще и видео в риалтайме генерил, да еще и в 3D для Quest!🎮 Ладно, что-то я замечтался - не все сразу.
Эта тема напоминает мне игру для тестирования из фильма "Игра Эндера" (ещё помните такой?). Как такое реализовать в современных тайтлах? Поговаривают, новый Baldur's Gate очень в этом преуспел, но самому проверить некогда🥲
Вот ссылка на эту игрушку, можно даже и без подписки потестить (с лимитом сообщений).
Я попытался экстрактнуть кастомный промпт, и он на удивление очень простой. Просто базовые инструкции и как начать диалог - всё. Я ожидал какой-то заготовленной истории или что-то типа того, чтобы хоть как-то запустить сюжет, но нет, гпт сам всё придумывает. Что удивительно, ведь сюжет реально неплохой.
Ставьте 🦄, если интересно про экстракшен промптов из кастомных gpt ; )
@ai_newz
Вот вам пример, который неведанно залетел в топ в gpt store. Там на выбор даже несколько сюжетов/сеттингов. Но можно и свой задать - я выбрал фентези.
Меня GPT запихнул в какой-то дремучий лес. Там я встретил какого-то подозрительного эльфа, и я ожидал, что сломаю сюжет, когда скажу, что посылаю на хрен этого старого подозрительного деда, но нет, игра продолжилась. Я пошёл дальше по лесу, и затем gpt-шка подкинула мне пару интересных испытаний: сначала на меня напал какой-то защитник леса. Я отправил его в ущелье (по сюжету я стоял на краю ущелья и на меня напал этот перепес недооборотень), потом я пробрался через поле, где летали каменные горгульи. Причём я отвлёк их небольшим костром, здесь прям подумать пишлось тк я не хотел ломать рп, говоря что я могу на изи забороть волшебных монстров. После добрался до какого-то замка, и там тоже было довольно интересно, и тд.
Если у вас есть премиумная подписка на GPT, то он еще по ходу игры будет и картинки генерить (в аттаче). Вот бы он еще и видео в риалтайме генерил, да еще и в 3D для Quest!
Эта тема напоминает мне игру для тестирования из фильма "Игра Эндера" (ещё помните такой?). Как такое реализовать в современных тайтлах? Поговаривают, новый Baldur's Gate очень в этом преуспел, но самому проверить некогда🥲
Вот ссылка на эту игрушку, можно даже и без подписки потестить (с лимитом сообщений).
Я попытался экстрактнуть кастомный промпт, и он на удивление очень простой. Просто базовые инструкции и как начать диалог - всё. Я ожидал какой-то заготовленной истории или что-то типа того, чтобы хоть как-то запустить сюжет, но нет, гпт сам всё придумывает. Что удивительно, ведь сюжет реально неплохой.
Ставьте 🦄, если интересно про экстракшен промптов из кастомных gpt ; )
@ai_newz
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
эйай ньюз
Photo
Кажется, я в правом верхнем сегменте. Делитесь в комментах, в каком вы.
This media is not supported in your browser
VIEW IN TELEGRAM
Теперь погружаться в кроличью нору знаний можно не только с википедией, но и с GPT. Я потыкался немного, так очень классно учить новые концепты, надеюсь такое интерфейсное решение приживётся.
Интерфейс подсвечивает ключевые слова, на которые можно нажать и попросить LLM подробнее про них рассказать в контектсе текущей темы.
Попробовать можно тут. Только аккуратно – эта штука может конкретно затянуть!
@ai_newz
Интерфейс подсвечивает ключевые слова, на которые можно нажать и попросить LLM подробнее про них рассказать в контектсе текущей темы.
Попробовать можно тут. Только аккуратно – эта штука может конкретно затянуть!
@ai_newz
Маск привлёк в XAI инвестиций на $6 млрд в раунде B!
Деньги нужны явно на GPU - если Grok-2, для тренировки, нужно 20 тысяч H100, то для Grok-3 нужно будет уже 100 тысяч. Маск думает что AGI будет доступен в течении двух лет и пытается включиться в гонку, но эстимейты Илона никогда не были особо надёжными.
Ещё хочу сказать, что прошло меньше года с момента создания XAI в июле 2023, и они все это время неплохо двигаются и выкидывают модели в опенсорс.
Правда, Grok-1.5V так и не релизнули. Ждём!
@ai_newz
Деньги нужны явно на GPU - если Grok-2, для тренировки, нужно 20 тысяч H100, то для Grok-3 нужно будет уже 100 тысяч. Маск думает что AGI будет доступен в течении двух лет и пытается включиться в гонку, но эстимейты Илона никогда не были особо надёжными.
Ещё хочу сказать, что прошло меньше года с момента создания XAI в июле 2023, и они все это время неплохо двигаются и выкидывают модели в опенсорс.
Правда, Grok-1.5V так и не релизнули. Ждём!
@ai_newz
Вау, вау, вау. Microsoft официально запилил Copilot бота для Telegram. Если кто не в курсе, то это ChatGPT в интерфейсе от Microsoft.
И это реально официалный бот от Microsoft – вот анонос. Я такого совсем не ожидал. Кажется, БигТехи начинают осознавать потенциал Телеграма, ну либо Бинг просто ищет любые дополнительные источники трафика.
Наверное, это первое появление официального представителя компании-разработчика крупных LLM в Телеге.
Пообщаться можно тут: @CopilotOfficialBot. Он, гаденыш, правда, просит телефон верифицировать – мне такое не очень нравится.
ПС. В комментах пишут, что можно дать ему фейковый номер.
@ai_newz
И это реально официалный бот от Microsoft – вот анонос. Я такого совсем не ожидал. Кажется, БигТехи начинают осознавать потенциал Телеграма, ну либо Бинг просто ищет любые дополнительные источники трафика.
Наверное, это первое появление официального представителя компании-разработчика крупных LLM в Телеге.
Пообщаться можно тут: @CopilotOfficialBot. Он, гаденыш, правда, просит телефон верифицировать – мне такое не очень нравится.
ПС. В комментах пишут, что можно дать ему фейковый номер.
@ai_newz
Microsoft
Your Everyday AI Companion | Microsoft Copilot
Learn how to access and use Copilot to tap into the impressive power, productivity, and creativity of AI chat.
Лучше поздно, чем никогда 😀– наконец делюсь своими впечатлениями от поездки в Калифорнию после нашего успешного апрельского релиза Imagine Flash в Meta-ai.
Я уже писал про то, как я организовал там тусовку с подписчиками в апреле. На самом деле у нас было даже две тусовки: одна маленька в грузинском ресторане в Менло Парк, другая в доме у одного из подписчиков недалеко от СФ.
Теперь хочу поделиться впечатлениями от поездки с точки зрения работы в Мете – ведь это и было моей основной целью поездки. У меня был план встретиться с коллегами и со всеми боссами лично, а так же отпраздновать успешный релиз.
Заранее назначил 1:1 встречи с четырьмя босами в цепочке от меня до Марка. Чем выше двигаешься по цепочке, тем больше разговоры удаляются от работы руками, и тем больше фокуса на стратегию и high-level цели. Со старшим VP у меня был всего 15-минутный митинг, но было очень круто поговорить с ним о стратегических планах в Gen AI, а также было приятно услышать от него лично, как он оценил мой проект Imagine Flash.
Почему такие встречи важны? Когда говоришь с топами напрямую, о тебе узнают и больше ценят твою работу и твой вклад, плюс всегда можно получить какой-нибудь нетривиальный совет по карьере от более опытных людей. Поэтому я всегда стараюсь выбивать время, чтобы пообщатсья c ними вживую.
Кроме запланированных встреч я всю неделю общался с людьми из своей команды (мы тренируем модели Emu и занимаеся visual synthesis) и с ребятами из соседних команд о смежных проектах. Дни были максимально плотные - митинги и кодинг. Я даже наладил режим, вставал в 6 утра, плавал в бассейне, затем завтракал и к 8 ехал офис, а завершал день после 18.
Так прошла вся неделя, кроме четверга. В этот день я впервые увидел Марка Цукерберга в живую, он делал Q&A для сотрудников на открытой сцене и отвечал на вопросы. Эх, жаль лично пообщаться не удалось 🙂
[продолжение в следующем посте]
#personal #карьера
@ai_newz
Я уже писал про то, как я организовал там тусовку с подписчиками в апреле. На самом деле у нас было даже две тусовки: одна маленька в грузинском ресторане в Менло Парк, другая в доме у одного из подписчиков недалеко от СФ.
Теперь хочу поделиться впечатлениями от поездки с точки зрения работы в Мете – ведь это и было моей основной целью поездки. У меня был план встретиться с коллегами и со всеми боссами лично, а так же отпраздновать успешный релиз.
Заранее назначил 1:1 встречи с четырьмя босами в цепочке от меня до Марка. Чем выше двигаешься по цепочке, тем больше разговоры удаляются от работы руками, и тем больше фокуса на стратегию и high-level цели. Со старшим VP у меня был всего 15-минутный митинг, но было очень круто поговорить с ним о стратегических планах в Gen AI, а также было приятно услышать от него лично, как он оценил мой проект Imagine Flash.
Почему такие встречи важны? Когда говоришь с топами напрямую, о тебе узнают и больше ценят твою работу и твой вклад, плюс всегда можно получить какой-нибудь нетривиальный совет по карьере от более опытных людей. Поэтому я всегда стараюсь выбивать время, чтобы пообщатсья c ними вживую.
Кроме запланированных встреч я всю неделю общался с людьми из своей команды (мы тренируем модели Emu и занимаеся visual synthesis) и с ребятами из соседних команд о смежных проектах. Дни были максимально плотные - митинги и кодинг. Я даже наладил режим, вставал в 6 утра, плавал в бассейне, затем завтракал и к 8 ехал офис, а завершал день после 18.
Так прошла вся неделя, кроме четверга. В этот день я впервые увидел Марка Цукерберга в живую, он делал Q&A для сотрудников на открытой сцене и отвечал на вопросы. Эх, жаль лично пообщаться не удалось 🙂
[продолжение в следующем посте]
#personal #карьера
@ai_newz
[продолжение] Еще в четверг была запланирована закрытая вечеринка для команды GenAI. Глава GenAI рассказывал про курьёзы, которые случились с командами во время подготовки моделей LLama3 и Emu и поздравлял нас с классными результатами. Там я сначала познакомился с Сергеем, директором, который отвечал за весь претрейн моделей LLaMA 3. Очень крутой чел, беседа с ним была мега познавательная для меня. Он рассказал мне несколько инсайтов о том, как запромоутится на Senior Staff на своем примере (если кратко, то нужно проактивно предлагать масштабные проекты и искать что бы где улучшить) и мы поговорили о том, каково быть директором в такой большой орге.
Во время вечеринки я заметил как мой знакомый VP (он же глава GenAI) болтает в кругу с CPO. Подходить к ним сразу я не осмелился, и пообщался со знакомым, когда он отошел в сторону. На мой вопрос "придет ли Марк?", он ответили, что Цукерберг все-таки не появится сегодня. А затем сам предложил представить меня Крису Коксу, нашему CPO. Често сказать, я уже и сам думал как бы познакомиться с CPO, а тут такая удача! В итоге мы болтаем с CPO минут десять о жизни, я запитчил ему пару своих идей по новому проекту – он поддержал. После этого я решил, что вечеринка уже прошла не зря, и просто чилил остаток вечера со своими приятелями :)
Возвращаясь из таких поездок, я всегда чувствую море мотивации фигачить, изучать новые темы и продвигать новые проекты. Осознаешь, что вокруг очень много таких же заряженных людей, и что на грандиозные инициативы в такой большой компании всегда можно найти ресурсы – главное чтобы идея была ценная и был хороший нетворк. Поэтому сейчас развиваю в себе навык находить масштабные новые направления в работе и поменьше мыслить в рамках небольших проектов и конкретных научных статей.
#personal #карьера
@ai_newz
Во время вечеринки я заметил как мой знакомый VP (он же глава GenAI) болтает в кругу с CPO. Подходить к ним сразу я не осмелился, и пообщался со знакомым, когда он отошел в сторону. На мой вопрос "придет ли Марк?", он ответили, что Цукерберг все-таки не появится сегодня. А затем сам предложил представить меня Крису Коксу, нашему CPO. Често сказать, я уже и сам думал как бы познакомиться с CPO, а тут такая удача! В итоге мы болтаем с CPO минут десять о жизни, я запитчил ему пару своих идей по новому проекту – он поддержал. После этого я решил, что вечеринка уже прошла не зря, и просто чилил остаток вечера со своими приятелями :)
Возвращаясь из таких поездок, я всегда чувствую море мотивации фигачить, изучать новые темы и продвигать новые проекты. Осознаешь, что вокруг очень много таких же заряженных людей, и что на грандиозные инициативы в такой большой компании всегда можно найти ресурсы – главное чтобы идея была ценная и был хороший нетворк. Поэтому сейчас развиваю в себе навык находить масштабные новые направления в работе и поменьше мыслить в рамках небольших проектов и конкретных научных статей.
#personal #карьера
@ai_newz
GPT-2 за двадцать долларов
Три недели назад llm.c был просто быстрым, на игрушечных датасетах и одной видеокарте. Но Карпатый на месте не стоял - он уже тренирует небольшие модели на десятках миллиардов токенов и восьми видеокартах. И при этом сохраняя огромную пропускную способность: GPT-2 Small выдаёт 180k токенов за секунду на каждую видеокарту. И при такой скорости тренировки, совсем не жертвуют точностью - результаты даже лучше чем у оригинальной GPT-2, при том что датасет похожий, а количество токенов такое же.
Small версию вообще можно натренировать за полтора часа на одной машине с 8 видеокартами. Стоить такое удовольствие будет всего двадцать долларов. Тренировка Medium обойдётся уже в $200, а XL в $2,5k, но проект всё ещё есть куда оптимизировать.
Пока что натренированы только Small и Medium размеры GPT-2, но с такой бешенной скоростью разработки поддержка моделей побольше будет уже в ближайшие дни.
Следующие майлстоуны:
➖Тренировка 770m и 1.5B моделек
➖ Поддержка нескольких нод
➖ Поддержка H100 и с ней fp8
➖ Воспроизводимая тренировка - чтобы можно было тренировать модель на двух разных машинах с побитово идентичными результатами
Нужно всё-таки попытаться потренировать на фритюрнице
@ai_newz
Три недели назад llm.c был просто быстрым, на игрушечных датасетах и одной видеокарте. Но Карпатый на месте не стоял - он уже тренирует небольшие модели на десятках миллиардов токенов и восьми видеокартах. И при этом сохраняя огромную пропускную способность: GPT-2 Small выдаёт 180k токенов за секунду на каждую видеокарту. И при такой скорости тренировки, совсем не жертвуют точностью - результаты даже лучше чем у оригинальной GPT-2, при том что датасет похожий, а количество токенов такое же.
Small версию вообще можно натренировать за полтора часа на одной машине с 8 видеокартами. Стоить такое удовольствие будет всего двадцать долларов. Тренировка Medium обойдётся уже в $200, а XL в $2,5k, но проект всё ещё есть куда оптимизировать.
Пока что натренированы только Small и Medium размеры GPT-2, но с такой бешенной скоростью разработки поддержка моделей побольше будет уже в ближайшие дни.
Следующие майлстоуны:
➖Тренировка 770m и 1.5B моделек
➖ Поддержка нескольких нод
➖ Поддержка H100 и с ней fp8
➖ Воспроизводимая тренировка - чтобы можно было тренировать модель на двух разных машинах с побитово идентичными результатами
Нужно всё-таки попытаться потренировать на фритюрнице
@ai_newz