OpenAI выпустит Strawberry в ближайшие две недели
Об этом сообщает The Information. Они пишут, что отличительная черта новой модели – это умение "думать" перед ответом (в отличие от других моделей, которые сразу начинают генерировать токен за токеном). Ожидается, что именно в помощью этого модель будет меньше галлюцинировать.
Говорят, "думать" перед ответом модель будет в течение 10-20 секунд, а еще по началу будет работать только с текстом, без всяких мультимодальностей.
Ждем (в очередной раз)🐌
Об этом сообщает The Information. Они пишут, что отличительная черта новой модели – это умение "думать" перед ответом (в отличие от других моделей, которые сразу начинают генерировать токен за токеном). Ожидается, что именно в помощью этого модель будет меньше галлюцинировать.
Говорят, "думать" перед ответом модель будет в течение 10-20 секунд, а еще по началу будет работать только с текстом, без всяких мультимодальностей.
Ждем (в очередной раз)
Please open Telegram to view this post
VIEW IN TELEGRAM
👍63❤17🤪13🔥8😁4
Data Secrets
OpenAI выпустит Strawberry в ближайшие две недели Об этом сообщает The Information. Они пишут, что отличительная черта новой модели – это умение "думать" перед ответом (в отличие от других моделей, которые сразу начинают генерировать токен за токеном). Ожидается…
This media is not supported in your browser
VIEW IN TELEGRAM
OpenAI такие: ну наконец-то релиз Strawberry, ну вот сейчас будет новая модель, ну сейчас точно релиз, ну вот сейчас 100%….
😁164❤6👍5
Никогда такого не было и вот опять: Алексис Конно – ведущий ресерчер, который разрабатывал GPT-4o, покидает OpenAI и открывает собственную компанию
В своем твиттере он пишет, что готовится построить что-то ✨волшебное✨, и что готов нанимать исследователей.
Где-то опять грустит один Сэм😭
В своем твиттере он пишет, что готовится построить что-то ✨волшебное✨, и что готов нанимать исследователей.
Где-то опять грустит один Сэм
Please open Telegram to view this post
VIEW IN TELEGRAM
Точнее, пока только дропнули веса в Твиттере в свойственном им стиле "без комментариев". Судя по названию, это text2image. В общем, мы ушли проверять, что же там такое
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥41👍6 4❤🔥2
Новая Pixtral от Mixtral оказалась мультимодальной LLM
В ней 12В парамеров и она основана на Mistral Nemo 12B. К этой текстовой основе прикрутили GeLU и 2D RoPE. В словаре прибавилось токенов (теперь их 131 072), а также появились три новых специальных токена:
Веса уже есть на HF
В ней 12В парамеров и она основана на Mistral Nemo 12B. К этой текстовой основе прикрутили GeLU и 2D RoPE. В словаре прибавилось токенов (теперь их 131 072), а также появились три новых специальных токена:
img, img_break, img_end. Разрешение картинок 1024х1024. Ждем метрик!Веса уже есть на HF
👍33🤯11🎉6🔥3👾3❤2
Data Secrets
Никогда такого не было и вот опять: Алексис Конно – ведущий ресерчер, который разрабатывал GPT-4o, покидает OpenAI и открывает собственную компанию В своем твиттере он пишет, что готовится построить что-то ✨волшебное✨, и что готов нанимать исследователей.…
This media is not supported in your browser
VIEW IN TELEGRAM
Тем временем инвесторы, когда узнали, что кто-то опять ушел из OpenAI и открывает компанию:
😁80🔥21👍9❤2
Media is too big
VIEW IN TELEGRAM
Ко-фаундер Google и бывший презедент Alphabet Сергей Брин дал большое интервью в рамках All-In Summit в Лос-Анджелесе
⚪️ «Сейчас я почти каждый день занимаюсь в Google разными проектами, связанными с ИИ. Для меня, как для ученого это время прорывов, и я не хочу ничего упустить. До этого я не видел ничего более захватывающего и одновременно настолько важного для человечества.»
⚪️ Брин говорил, что не уверен, что для обучения более эффективных моделей потребуется существенное увеличение вычислительных ресурсов. «Я читал некоторые статьи, в которых говорится об экстраполяции вычислений. Возможно, я в это верю, потому что оптимизация алгоритмов, произошедшая за последние несколько лет, возможно, в действительности даже опережает рост вычислительных мощностей, заложенных в модели».
⚪️ Сергей признал, что Google затормозился. «После изобретения в Google трансформеров в 2017 году у компании были все шансы вырваться вперед на несколько лет, но мы были слишком робкими. Сейчас нам нужно больше рисковать.»
Please open Telegram to view this post
VIEW IN TELEGRAM
👍54🎉13🔥8😁4❤1
Тем временем Патриарх Кирилл предрек апокалипсис из-за развития ИИ
«Если человечество теряет религиозную веру, особенно в условиях нарастания технологий, связанных с появлением искусственного интеллекта, то мы действительно входим в эпоху апокалипсиса», — сказал он.
«Если человечество теряет религиозную веру, особенно в условиях нарастания технологий, связанных с появлением искусственного интеллекта, то мы действительно входим в эпоху апокалипсиса», — сказал он.
😁111🤪57👻25👍16🙈12🔥6👾5☃4🗿3🤯2🦄1
OpenAI привлекает новые инвестиции: на этот раз $6.5 млрд
Среди инвесторов Microsoft, Apple и Nvidia, но на первом месте по вложениям опять Thrive Capital (как и в прошлом раунде). Также утверждается, что кроме вложений от инвесторов стартап откроет еще и кредитную линию в банках на $5 млрд.
При этом оценка компании приближается к $150 млрд. Напомним, что еще в начале года она составляла $86 млрд. И кстати, совсем недавно, буквально в конце августа, СМИ сообщали о другой сумме: тогда утверждалось, что OpenAI оценивается в $100 млрд.
Кто больше?😏
Среди инвесторов Microsoft, Apple и Nvidia, но на первом месте по вложениям опять Thrive Capital (как и в прошлом раунде). Также утверждается, что кроме вложений от инвесторов стартап откроет еще и кредитную линию в банках на $5 млрд.
При этом оценка компании приближается к $150 млрд. Напомним, что еще в начале года она составляла $86 млрд. И кстати, совсем недавно, буквально в конце августа, СМИ сообщали о другой сумме: тогда утверждалось, что OpenAI оценивается в $100 млрд.
Кто больше?
Please open Telegram to view this post
VIEW IN TELEGRAM
🎉38 24😁7👍6🤪3🦄2
Приготовьтесь: Meta, Alphabet, Microsoft и Amazon только за последний квартал в сумме потратили почти $53 млрд на ИИ
* данные из свежего исследования Wall Street Journal «Расходы на ИИ в диаграммах»
* данные из свежего исследования Wall Street Journal «Расходы на ИИ в диаграммах»
😁27🔥15🤯12👍7
Откуда не ждали: Oracle запустила вычислительный кластер на 131 072 видеокарты Nvidia
И GPU там непростые, а новейшие Nvidia Blackwell. Это первый кластер таких размеров, основанный на этой модели видеокарт.
Сейчас Oracle уже принимает заказы на суперкомпьютер. Интересно, кто заберет такой лакомый кусочек
И GPU там непростые, а новейшие Nvidia Blackwell. Это первый кластер таких размеров, основанный на этой модели видеокарт.
Сейчас Oracle уже принимает заказы на суперкомпьютер. Интересно, кто заберет такой лакомый кусочек
🤯69👍14🔥13👌1👾1
Google только что релизнули Data Gemma
Это, по сути, та же Gemma 2, но с прикрученной к ней системой проверки фактов (данные берут из Data Common).
Под капотом RIG (Retrieval-Interleaved Generation) и RAG. Когда модель генерирует ответ, она обучена выделять из него «фактические» сущности и проверять их на соответствие фактам из Data Common (это RIG). А RAG позволяет извлекать из датасета ту информацию, которую модель изначально не знала.
Все в опенсорс. Вот блогпост, а больше технических деталей можно найти в статье.
Это, по сути, та же Gemma 2, но с прикрученной к ней системой проверки фактов (данные берут из Data Common).
Под капотом RIG (Retrieval-Interleaved Generation) и RAG. Когда модель генерирует ответ, она обучена выделять из него «фактические» сущности и проверять их на соответствие фактам из Data Common (это RIG). А RAG позволяет извлекать из датасета ту информацию, которую модель изначально не знала.
Все в опенсорс. Вот блогпост, а больше технических деталей можно найти в статье.
👍50🔥17❤5
🍓 OpenAI выпустили новую модель o1 (ту самую Strawberry)
По сравнению с GPT-4o она выбивает 6х точность на олимпиадных задачах по математике и 8х точность на задачах с CodeForces.
Вся соль модели – в умении рассуждать. Ей требуется некоторое время перед ответом: внутри себя она гоняет CoT, прежде чем вернуть ответ пользователю. Но, конечно, при этом она требует больше мощностей на инференсе.
Сейчас ее уже раскатывают на пользователей с подпиской. Больше деталей – в пресс-релизе.
По сравнению с GPT-4o она выбивает 6х точность на олимпиадных задачах по математике и 8х точность на задачах с CodeForces.
Вся соль модели – в умении рассуждать. Ей требуется некоторое время перед ответом: внутри себя она гоняет CoT, прежде чем вернуть ответ пользователю. Но, конечно, при этом она требует больше мощностей на инференсе.
Сейчас ее уже раскатывают на пользователей с подпиской. Больше деталей – в пресс-релизе.
👍68🔥24🍓15❤9
Еще некоторые детали про o1 aka Strawberry aka Q*
➡️ Сейчас на юзерах с подписков крутится не сама o1, а ее preview версия. Также для ChatGPT Plus будет доступна модель o1-mini (более дешевая и шустрая). o1-mini также обещают раскатить и для бесплатных аккаунтов.
➡️ Даже несмотря на то, что самой o1 пока на проде нет, лимиты в чате и цены в API уже достаточно жестокие: 30 сообщений в неделю для o1-preview, 50 для o1-mini 😳 . В API вообще песня: 20 запросов в минуту, и при этом платить придется не только за коллы, но и за сами размышления модели (reasoning tokens).
➡️ Саму o1 тоже обещают раскатить скоро. Она уже дообучена и протестирована, но, видимо, OpenAI все еще приходится решать вопросы связанные с затратами на ее инференс, и (может быть) безопасностью.
➡️ OpenAI обращают внимание на то, что промптинг с новой моделью отличается от промптинга со старыми. Они даже выкатили свой гайд с советами о том, как правильно общаться с o1. Основная мысль сводится к «Больше не надо уловок вроде "думай шаг за шагом" или "построй план решения". Формулируйте свои инструкции ясно и прямолинейно, а дальше модель все сделает сама.»
➡️ Ну и напоследок то, на что могло ускользнуть от глаз: OpenAI решили скрыть от пользователей мыслительный процесс модели. То есть те рассуждения, которые видны в чате – это выборочный материал. Остальные необработанные цепочки мыслей пользователям не видны.
🍓🍓🍓
🍓🍓🍓
Please open Telegram to view this post
VIEW IN TELEGRAM
🍓88👍12❤8😁3
Подтверждаем: с подсчетом букв, знаками больше и меньше и детскими задачками o1 справляется. Это уже AGI?
😁92🔥20 15🎉6👍4🗿3❤1🤯1