Точнее, пока только дропнули веса в Твиттере в свойственном им стиле "без комментариев". Судя по названию, это text2image. В общем, мы ушли проверять, что же там такое
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥41👍6 4❤🔥2
Новая Pixtral от Mixtral оказалась мультимодальной LLM
В ней 12В парамеров и она основана на Mistral Nemo 12B. К этой текстовой основе прикрутили GeLU и 2D RoPE. В словаре прибавилось токенов (теперь их 131 072), а также появились три новых специальных токена:
Веса уже есть на HF
В ней 12В парамеров и она основана на Mistral Nemo 12B. К этой текстовой основе прикрутили GeLU и 2D RoPE. В словаре прибавилось токенов (теперь их 131 072), а также появились три новых специальных токена:
img, img_break, img_end. Разрешение картинок 1024х1024. Ждем метрик!Веса уже есть на HF
👍33🤯11🎉6🔥3👾3❤2
Data Secrets
Никогда такого не было и вот опять: Алексис Конно – ведущий ресерчер, который разрабатывал GPT-4o, покидает OpenAI и открывает собственную компанию В своем твиттере он пишет, что готовится построить что-то ✨волшебное✨, и что готов нанимать исследователей.…
This media is not supported in your browser
VIEW IN TELEGRAM
Тем временем инвесторы, когда узнали, что кто-то опять ушел из OpenAI и открывает компанию:
😁80🔥21👍9❤2
Media is too big
VIEW IN TELEGRAM
Ко-фаундер Google и бывший презедент Alphabet Сергей Брин дал большое интервью в рамках All-In Summit в Лос-Анджелесе
⚪️ «Сейчас я почти каждый день занимаюсь в Google разными проектами, связанными с ИИ. Для меня, как для ученого это время прорывов, и я не хочу ничего упустить. До этого я не видел ничего более захватывающего и одновременно настолько важного для человечества.»
⚪️ Брин говорил, что не уверен, что для обучения более эффективных моделей потребуется существенное увеличение вычислительных ресурсов. «Я читал некоторые статьи, в которых говорится об экстраполяции вычислений. Возможно, я в это верю, потому что оптимизация алгоритмов, произошедшая за последние несколько лет, возможно, в действительности даже опережает рост вычислительных мощностей, заложенных в модели».
⚪️ Сергей признал, что Google затормозился. «После изобретения в Google трансформеров в 2017 году у компании были все шансы вырваться вперед на несколько лет, но мы были слишком робкими. Сейчас нам нужно больше рисковать.»
Please open Telegram to view this post
VIEW IN TELEGRAM
👍54🎉13🔥8😁4❤1
Тем временем Патриарх Кирилл предрек апокалипсис из-за развития ИИ
«Если человечество теряет религиозную веру, особенно в условиях нарастания технологий, связанных с появлением искусственного интеллекта, то мы действительно входим в эпоху апокалипсиса», — сказал он.
«Если человечество теряет религиозную веру, особенно в условиях нарастания технологий, связанных с появлением искусственного интеллекта, то мы действительно входим в эпоху апокалипсиса», — сказал он.
😁111🤪57👻25👍16🙈12🔥6👾5☃4🗿3🤯2🦄1
OpenAI привлекает новые инвестиции: на этот раз $6.5 млрд
Среди инвесторов Microsoft, Apple и Nvidia, но на первом месте по вложениям опять Thrive Capital (как и в прошлом раунде). Также утверждается, что кроме вложений от инвесторов стартап откроет еще и кредитную линию в банках на $5 млрд.
При этом оценка компании приближается к $150 млрд. Напомним, что еще в начале года она составляла $86 млрд. И кстати, совсем недавно, буквально в конце августа, СМИ сообщали о другой сумме: тогда утверждалось, что OpenAI оценивается в $100 млрд.
Кто больше?😏
Среди инвесторов Microsoft, Apple и Nvidia, но на первом месте по вложениям опять Thrive Capital (как и в прошлом раунде). Также утверждается, что кроме вложений от инвесторов стартап откроет еще и кредитную линию в банках на $5 млрд.
При этом оценка компании приближается к $150 млрд. Напомним, что еще в начале года она составляла $86 млрд. И кстати, совсем недавно, буквально в конце августа, СМИ сообщали о другой сумме: тогда утверждалось, что OpenAI оценивается в $100 млрд.
Кто больше?
Please open Telegram to view this post
VIEW IN TELEGRAM
🎉38 24😁7👍6🤪3🦄2
Приготовьтесь: Meta, Alphabet, Microsoft и Amazon только за последний квартал в сумме потратили почти $53 млрд на ИИ
* данные из свежего исследования Wall Street Journal «Расходы на ИИ в диаграммах»
* данные из свежего исследования Wall Street Journal «Расходы на ИИ в диаграммах»
😁27🔥15🤯12👍7
Откуда не ждали: Oracle запустила вычислительный кластер на 131 072 видеокарты Nvidia
И GPU там непростые, а новейшие Nvidia Blackwell. Это первый кластер таких размеров, основанный на этой модели видеокарт.
Сейчас Oracle уже принимает заказы на суперкомпьютер. Интересно, кто заберет такой лакомый кусочек
И GPU там непростые, а новейшие Nvidia Blackwell. Это первый кластер таких размеров, основанный на этой модели видеокарт.
Сейчас Oracle уже принимает заказы на суперкомпьютер. Интересно, кто заберет такой лакомый кусочек
🤯69👍14🔥13👌1👾1
Google только что релизнули Data Gemma
Это, по сути, та же Gemma 2, но с прикрученной к ней системой проверки фактов (данные берут из Data Common).
Под капотом RIG (Retrieval-Interleaved Generation) и RAG. Когда модель генерирует ответ, она обучена выделять из него «фактические» сущности и проверять их на соответствие фактам из Data Common (это RIG). А RAG позволяет извлекать из датасета ту информацию, которую модель изначально не знала.
Все в опенсорс. Вот блогпост, а больше технических деталей можно найти в статье.
Это, по сути, та же Gemma 2, но с прикрученной к ней системой проверки фактов (данные берут из Data Common).
Под капотом RIG (Retrieval-Interleaved Generation) и RAG. Когда модель генерирует ответ, она обучена выделять из него «фактические» сущности и проверять их на соответствие фактам из Data Common (это RIG). А RAG позволяет извлекать из датасета ту информацию, которую модель изначально не знала.
Все в опенсорс. Вот блогпост, а больше технических деталей можно найти в статье.
👍50🔥17❤5
🍓 OpenAI выпустили новую модель o1 (ту самую Strawberry)
По сравнению с GPT-4o она выбивает 6х точность на олимпиадных задачах по математике и 8х точность на задачах с CodeForces.
Вся соль модели – в умении рассуждать. Ей требуется некоторое время перед ответом: внутри себя она гоняет CoT, прежде чем вернуть ответ пользователю. Но, конечно, при этом она требует больше мощностей на инференсе.
Сейчас ее уже раскатывают на пользователей с подпиской. Больше деталей – в пресс-релизе.
По сравнению с GPT-4o она выбивает 6х точность на олимпиадных задачах по математике и 8х точность на задачах с CodeForces.
Вся соль модели – в умении рассуждать. Ей требуется некоторое время перед ответом: внутри себя она гоняет CoT, прежде чем вернуть ответ пользователю. Но, конечно, при этом она требует больше мощностей на инференсе.
Сейчас ее уже раскатывают на пользователей с подпиской. Больше деталей – в пресс-релизе.
👍68🔥24🍓15❤9
Еще некоторые детали про o1 aka Strawberry aka Q*
➡️ Сейчас на юзерах с подписков крутится не сама o1, а ее preview версия. Также для ChatGPT Plus будет доступна модель o1-mini (более дешевая и шустрая). o1-mini также обещают раскатить и для бесплатных аккаунтов.
➡️ Даже несмотря на то, что самой o1 пока на проде нет, лимиты в чате и цены в API уже достаточно жестокие: 30 сообщений в неделю для o1-preview, 50 для o1-mini 😳 . В API вообще песня: 20 запросов в минуту, и при этом платить придется не только за коллы, но и за сами размышления модели (reasoning tokens).
➡️ Саму o1 тоже обещают раскатить скоро. Она уже дообучена и протестирована, но, видимо, OpenAI все еще приходится решать вопросы связанные с затратами на ее инференс, и (может быть) безопасностью.
➡️ OpenAI обращают внимание на то, что промптинг с новой моделью отличается от промптинга со старыми. Они даже выкатили свой гайд с советами о том, как правильно общаться с o1. Основная мысль сводится к «Больше не надо уловок вроде "думай шаг за шагом" или "построй план решения". Формулируйте свои инструкции ясно и прямолинейно, а дальше модель все сделает сама.»
➡️ Ну и напоследок то, на что могло ускользнуть от глаз: OpenAI решили скрыть от пользователей мыслительный процесс модели. То есть те рассуждения, которые видны в чате – это выборочный материал. Остальные необработанные цепочки мыслей пользователям не видны.
🍓🍓🍓
🍓🍓🍓
Please open Telegram to view this post
VIEW IN TELEGRAM
🍓88👍12❤8😁3
Подтверждаем: с подсчетом букв, знаками больше и меньше и детскими задачками o1 справляется. Это уже AGI?
😁92🔥20 15🎉6👍4🗿3❤1🤯1
Forwarded from XOR
Meta* признала, что использовала все тексты и фото пользователей своих соц.сетей после 2007 года для обучения моделей ИИ.
🟢 Исполнительный директор по глобальной конфиденциальности отметила, что использовались только публикации и комментарии с настройками «Public», приватный контент не трогали.
🟢 Также не использовались данные несовершеннолетних.
🟢 Отказаться от сбора данных могут только юзеры из ЕС и Бразилии, миллиарды других же не имеют такой опции.
Ранее корпорация не признавалась в том, что обучает ИИ на контенте, который создают пользователи их соц.сетей.
*признана в РФ экстремистской организацией и запрещена
@xor_journal
Ранее корпорация не признавалась в том, что обучает ИИ на контенте, который создают пользователи их соц.сетей.
*признана в РФ экстремистской организацией и запрещена
@xor_journal
Please open Telegram to view this post
VIEW IN TELEGRAM
🙈45👍14😈11☃1❤1😁1👀1
Список свежих бенгеров для просмотра на выходных:
– Decoding Google Gemini with Jeff Dean. Ликбезное интервью с легендарным Джеффом Дином, вышло два дня назад.
– Chasing Immortality with Humanoid Robotics. Интервью с вице-президентом компании 1Х, которая недавно выпустила робота гуманоида Neo. До этого спикер много лет работал робототехником в Google. Интервью вышло 4 дня назад.
– Лекция Terence Tao at imo 2024 ai and mathematics. Про ИИ, математику и связь ИИ с математикой. Вышло пару недель назад.
– Decoding Google Gemini with Jeff Dean. Ликбезное интервью с легендарным Джеффом Дином, вышло два дня назад.
– Chasing Immortality with Humanoid Robotics. Интервью с вице-президентом компании 1Х, которая недавно выпустила робота гуманоида Neo. До этого спикер много лет работал робототехником в Google. Интервью вышло 4 дня назад.
– Лекция Terence Tao at imo 2024 ai and mathematics. Про ИИ, математику и связь ИИ с математикой. Вышло пару недель назад.
🔥24👍8❤3😁1