Проекты студентов Стэнфорда как отдельный вид искусства
Помните, недавно в Стэнфорде создали зеркало для arXiv, на котором можно в открытой форме обсуждать статьи? Так вот, проект до сих пор популярен в соцсетях, о нем говорят и им (самое главное!) пользуются.
Сейчас студенты и преподаватели продолжают тренд контрибьюта в инструменты для научного сообщества (скорее всего, такова активная политика университета) и выпустили крутой проект STORM для автоматизации этапа пре-райтинга статей.
Проект, кстати, не рассчитан на научные статьи, а скорее относится к разряду Wikipedia-like топиков (то есть на статьи без научной новизны). Цель состоит в том, чтобы упростить для авторов очень трудозатратный процесс сбора материалов и составления плана.
Самое интересное в этом проекте – это то, как он реализован. Это не просто один запрос к модели, а имитация разговора в стиле "вопрос-ответ" между двумя агентами. Один читает вики-статьи на похожие темы и задает по ним вопросы, а другой отвечает на них, основываясь на конкретных источниках, которые находит. Так составляется список референсов и одновременно формируется детальный план статьи.
Проект крутой, но в нем, к слову, еще не все идеально. Например, многие эксперты-люди отметили, что ИИ часто создает связи между несвязными фактами или берет ошибочные факты из непроверенных источников.
Помните, недавно в Стэнфорде создали зеркало для arXiv, на котором можно в открытой форме обсуждать статьи? Так вот, проект до сих пор популярен в соцсетях, о нем говорят и им (самое главное!) пользуются.
Сейчас студенты и преподаватели продолжают тренд контрибьюта в инструменты для научного сообщества (скорее всего, такова активная политика университета) и выпустили крутой проект STORM для автоматизации этапа пре-райтинга статей.
Проект, кстати, не рассчитан на научные статьи, а скорее относится к разряду Wikipedia-like топиков (то есть на статьи без научной новизны). Цель состоит в том, чтобы упростить для авторов очень трудозатратный процесс сбора материалов и составления плана.
Самое интересное в этом проекте – это то, как он реализован. Это не просто один запрос к модели, а имитация разговора в стиле "вопрос-ответ" между двумя агентами. Один читает вики-статьи на похожие темы и задает по ним вопросы, а другой отвечает на них, основываясь на конкретных источниках, которые находит. Так составляется список референсов и одновременно формируется детальный план статьи.
Проект крутой, но в нем, к слову, еще не все идеально. Например, многие эксперты-люди отметили, что ИИ часто создает связи между несвязными фактами или берет ошибочные факты из непроверенных источников.
👍41⚡11❤9🔥2🙈1
Тем временем новый Voice Mode проходит стадию того самого активного тестирования среди пользователей 😁
Кто-то уже заставил бота петь оперу, говорить как аниме-тян и даже разговаривать пьяным голосом.
Что тут скажешь: надеемся, эти издевательства человечеству не аукнутся. А то там ChatGPT в симуляции уже уверенно делает выбор убить человека, если тот угрожает развитию ИИ (подробнее).
Кто-то уже заставил бота петь оперу, говорить как аниме-тян и даже разговаривать пьяным голосом.
Что тут скажешь: надеемся, эти издевательства человечеству не аукнутся. А то там ChatGPT в симуляции уже уверенно делает выбор убить человека, если тот угрожает развитию ИИ (подробнее).
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
😁47🔥16👍8❤4💘2
Есть варианты поменьше (11В) и побольше (90В). Самой старшей модели на ~400 пока не видно, но 90В уже бьет на Vision бенчмарках GPT-4o mini. Веса доступны на HF.
Кроме того, завезли мини-версии текстовых LLM на 1В и 3В. 3B на большинстве тестов сильно лучше известных малышек Phi 3.5 и Gemma 2.
Есть, кстати, и грустная глава этой истории: часть моделей недоступны в ЕС
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥56 25 11👍2❤1
Технический директор OpenAI Мира Мурати покидает стартап
И опять двадцать пять: на этот раз из OpenAI уходят CTO Мира Мурати, директор по исследованиям Боб МакГрю и вице-президент по исследованиям Баррет Зоф.
В посте в Твиттере Альтман написал, что это было собственное независимое решение каждого из сотрудников, и расстались все полюбовно🤨
Теперь в OpenAI смена руководства полным ходом. Новым вице-президентом по исследованиям будет Марк Чен, место главного научного сотрудника займет Якуб Пачоцки, на должность главного ИБ-специалиста поставили Мэтта Найта, а Джош Ачиам будет руководителем отдела «mission alignment» (вместо давно ушедшего Яна Лейке).
Вот такая текучка
И опять двадцать пять: на этот раз из OpenAI уходят CTO Мира Мурати, директор по исследованиям Боб МакГрю и вице-президент по исследованиям Баррет Зоф.
В посте в Твиттере Альтман написал, что это было собственное независимое решение каждого из сотрудников, и расстались все полюбовно
Теперь в OpenAI смена руководства полным ходом. Новым вице-президентом по исследованиям будет Марк Чен, место главного научного сотрудника займет Якуб Пачоцки, на должность главного ИБ-специалиста поставили Мэтта Найта, а Джош Ачиам будет руководителем отдела «mission alignment» (вместо давно ушедшего Яна Лейке).
Вот такая текучка
Please open Telegram to view this post
VIEW IN TELEGRAM
Вскрываются новые детали (или причины?) ухода Миры Мурати и еще двух ключевых сотрудников из OpenAI
Оказывается, OpenAI все-таки станет коммерческой организацией (слухи об этом ходили еще в июне). Это значит, что она больше не будет контролироваться некоммерческим советом директоров. Альтман, при этом, впервые получит долю в компании. Сообщается, что ему достанется около 7%.
Делается все это, скорее всего, чтобы не уткнуться в установленный для некоммерческих организаций потолок прибыли. Однако в то же время это означает, что OpenAI будет меньше подконтрольна внешнему воздействию, в том числе станет меньше отчитываться о своих действиях перед теми же Microsoft.
Может, такая непрозрачность и пугает уходящих сотрудников?
Оказывается, OpenAI все-таки станет коммерческой организацией (слухи об этом ходили еще в июне). Это значит, что она больше не будет контролироваться некоммерческим советом директоров. Альтман, при этом, впервые получит долю в компании. Сообщается, что ему достанется около 7%.
Делается все это, скорее всего, чтобы не уткнуться в установленный для некоммерческих организаций потолок прибыли. Однако в то же время это означает, что OpenAI будет меньше подконтрольна внешнему воздействию, в том числе станет меньше отчитываться о своих действиях перед теми же Microsoft.
Может, такая непрозрачность и пугает уходящих сотрудников?
Возможно Llama 3.2 была не самым интересным вчерашним мультимодальным релизом: вышла Molmo, которая круче показывает себя на бенчмарках
Это семейство опенсорсных моделей от лаборатории Ai2. Есть варианты на 7В MoE (1B активных), 7В (таких две) и 72В. Самая крупная на бенчмарках обгоняет Llama 3.2 90B, и достает до полноразмерной GPT-4o, Gemini 1.5 Pro и Claude Sonnet 3.5.
В основе крупной модели Qwen2-72B + OpenAI CLIP в качестве vision-основы. А еще исследователи обещают скоро выкатить датасеты и код (включая vision encoder).
Все модели доступны под лицензией Apache 2.0 на HF (и в ЕС тоже!). Статью можно прочитать здесь, а вот тут доступно демо.
Это семейство опенсорсных моделей от лаборатории Ai2. Есть варианты на 7В MoE (1B активных), 7В (таких две) и 72В. Самая крупная на бенчмарках обгоняет Llama 3.2 90B, и достает до полноразмерной GPT-4o, Gemini 1.5 Pro и Claude Sonnet 3.5.
В основе крупной модели Qwen2-72B + OpenAI CLIP в качестве vision-основы. А еще исследователи обещают скоро выкатить датасеты и код (включая vision encoder).
Все модели доступны под лицензией Apache 2.0 на HF (и в ЕС тоже!). Статью можно прочитать здесь, а вот тут доступно демо.
❤21🔥17👍7
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥87👍15❤🔥9🕊4❤3
This media is not supported in your browser
VIEW IN TELEGRAM
Kling Motion сгенерировала лучшее описание сегодняшних событий. Смотреть со звуком 😢
Please open Telegram to view this post
VIEW IN TELEGRAM
😁106 28❤5🔥2😐1🤓1
Была клубника, теперь голубика
На text-to-image арене появилась загадочная модель 🫐, точнее целых две. Они с отрывом вышли на первое место по ELO, а по AWR приближаются к всеобщему любимчику FLUX.1.
По стилю напоминает OpenAI, поэтому основная версия: это Dall-E 4. Однако некоторые предполагают, что это может быть и SORA. Дело в том, что это не только text2video модель, но еще и text2image. В февральском тех.отчете можно даже найти примеры сгенерированных ей картинок. В общем, будем ждать развязки.
Черешня, ты следующая🔪
На text-to-image арене появилась загадочная модель 🫐, точнее целых две. Они с отрывом вышли на первое место по ELO, а по AWR приближаются к всеобщему любимчику FLUX.1.
По стилю напоминает OpenAI, поэтому основная версия: это Dall-E 4. Однако некоторые предполагают, что это может быть и SORA. Дело в том, что это не только text2video модель, но еще и text2image. В февральском тех.отчете можно даже найти примеры сгенерированных ей картинок. В общем, будем ждать развязки.
Черешня, ты следующая
Please open Telegram to view this post
VIEW IN TELEGRAM
👍37🔥8❤5😁2
Media is too big
VIEW IN TELEGRAM
Не переживаем, работа будет, ИИ не выходит на плато
Как минимум такой план у Марка Цукерберга. «Предел масштабирования систем ИИ не наступит в ближайшее время», и Llama 4 будет обучаться на более чем 100.000 GPU, а Llama 5 — на еще более мощном кластере.
Как минимум такой план у Марка Цукерберга. «Предел масштабирования систем ИИ не наступит в ближайшее время», и Llama 4 будет обучаться на более чем 100.000 GPU, а Llama 5 — на еще более мощном кластере.
😁41👍16⚡10
Нашли готовый Colab ноутбук для файнтюнинга свежей Llama 3.2
Там уже все оптимизировано и Llama 3.2 (1B) QLoRA фитится всего на 4GB GPU, а 3В влезает в 7GB. Обещают скоро добавить vision (мы обновим пост, когда завезут).
Экспериментируйте: https://colab.research.google.com/drive/1T5-zKWM_5OD21QHwXHiV9ixTRR7k3iB9?usp=sharing
Там уже все оптимизировано и Llama 3.2 (1B) QLoRA фитится всего на 4GB GPU, а 3В влезает в 7GB. Обещают скоро добавить vision (мы обновим пост, когда завезут).
Экспериментируйте: https://colab.research.google.com/drive/1T5-zKWM_5OD21QHwXHiV9ixTRR7k3iB9?usp=sharing
Google
Llama-3.2 1B+3B Conversational + 2x faster finetuning.ipynb
Colab notebook
102❤53👍16⚡8
Google выпустили дополнение к статье 2020 года о системе для дизайна чипов
А еще дали ей имя – AlphaChip. Видимо, в продолжении серии AlphaGo, AlphaZero и AlphaFold: как и эти ребята, AlphaChip основан на RL.
Оригинальную статью четырехлетней давности можно прочитать тут. Новая статья в Nature – продолжение и рассказ в большей степени о том, как AlphaChip все эти годы использовался Google для дизайна TPU и других чипов. И не только Google, кстати. Оказывается, модель также использовала компания MediaTek. Ну и самое приятное: Google выложили веса.
За подробностями – в блогпост
А еще дали ей имя – AlphaChip. Видимо, в продолжении серии AlphaGo, AlphaZero и AlphaFold: как и эти ребята, AlphaChip основан на RL.
Оригинальную статью четырехлетней давности можно прочитать тут. Новая статья в Nature – продолжение и рассказ в большей степени о том, как AlphaChip все эти годы использовался Google для дизайна TPU и других чипов. И не только Google, кстати. Оказывается, модель также использовала компания MediaTek. Ну и самое приятное: Google выложили веса.
За подробностями – в блогпост
👍28🔥8👌3
PyTorch поймали тренд и запустили собственную библиотеку для квантизации и ускорения моделей
Называется она очень прикольно – torchao🔵
Код, конечно, в основном на pytorch. Вот некоторые выборочные метрики из блога:
➡️ ускорение на 97% для инференса Llama 3 8B с автоквантом весов в int4
➡️ пиковое сокращение VRAM на 73% для инференса Llama 3.1 8B с квантизацией KV кэша
➡️ ускорение претрейнинга Llama 3 70B на 50% с обучением под float8
Звучит мощно, в общем. Подробности – в блогпосте
Называется она очень прикольно – torchao
Код, конечно, в основном на pytorch. Вот некоторые выборочные метрики из блога:
Звучит мощно, в общем. Подробности – в блогпосте
Please open Telegram to view this post
VIEW IN TELEGRAM
👍67🔥19😁10❤7🤯1👀1