This media is not supported in your browser
VIEW IN TELEGRAM
Итак, только что закончилась свежая презентация Apple. Рассказываем, что там у них новенького по теме ИИ:
⚪️ В новые Apple Watch Series 10 встроили Neural Engine с ML. Теперь часы можно использовать для перевода или распознавания голоса.
⚪️ AirPods 4 научились принимать и отклонять вызовы по движению головы. А еще они смогут проводить клинически проверенный тест на слух.
⚪️ Ну и, конечно, новый iPhone с Apple Intelligence. Neural Engine стал в два раза быстрее. Также прилично добавилось к пропускной способности, а GPU на A18 летает на 40% быстрее. Видимо немало пришлось поработать, чтобы айфон тащил Apple Intelligence.
⚪️ Siri стала умнее и персонализированнее (правда русский язык не завезли) и теперь может вести нормальный осознанный диалог или помочь найти что-то в телефоне. А еще можно суммаризировать все уведомления в ленте и генерировать текст и эмоджи.
⚪️ Многим понравилась новая кнопка. Ее можно настроить под нужную задачу: например, запись голосовых заметок, распознавание музыки, ключение автопереводчика и прочее. Кстати, в камере будет ИИ-автофокус, встроенное удаление людей и объекты с фото, и авто-переработка галереи (можно попросить удалить все фотки с бывшими, например). В Pro модель в камеру и диктофон еще добавили заглушку фоновых шумов в видео.
⚪️ Visual Intelligence! Можно навести камеру на любой объект и получить о нём всю информацию (будь это ресторан, собака, велосипед и тд). Ну и для решения школьных задачек по фото тоже сойдет: лучший подарок школьникам в сентябре.
⚪️ В общем, Apple запихнули ИИ абсолютно везде, где могли: наушники, часы, уведомления, чаты, камера. При этом разработчики утверждают, что все будет крутится в локальном облаке пользователя. Верим 👍
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡42🤨19👍18🔥8❤7🤪5😁3❤🔥1👌1
Data Secrets
Тем временем в OpenAI обсуждают подписку на ChatGPT за $2000, чтобы выйти из дефицита бюджета Напоминаем, что сейчас они в потенциальной яме размером в 5 миллиардов долларов. В компании не уверены, сколько пользователи готовы платить за подписку, но думают…
Please open Telegram to view this post
VIEW IN TELEGRAM
😁187🔥12👍9❤2
Исследователи из Microsoft изобрели что-то между RAG и few-shot промптингом
Обычный few-shot промптинг обычно подразумевает добавление некоторых примеров ответов прямо в промпт. Он доказал свою эффективность, но если вам нужно добавить много примеров, то промпт будет громоздким. Да и каждый раз добавлять примеры в промптлень не очень-то удобно.
В Microsoft предложили вместо промпта хранить примеры в векторной БД. Тогда система будет сама извлекать самые релевантные примеры для каждого пользовательского ввода, сохраняя при этом запрос лаконичным. Назвали подход Dynamic few-shot prompting.
Преимуществ получается несколько: снижение костов, улучшенная точность и релевантность как извлекаемых примеров, так и самих ответов модели, а еще масштабируемость для различных задач.
Полный текст блогпоста тут
Обычный few-shot промптинг обычно подразумевает добавление некоторых примеров ответов прямо в промпт. Он доказал свою эффективность, но если вам нужно добавить много примеров, то промпт будет громоздким. Да и каждый раз добавлять примеры в промпт
В Microsoft предложили вместо промпта хранить примеры в векторной БД. Тогда система будет сама извлекать самые релевантные примеры для каждого пользовательского ввода, сохраняя при этом запрос лаконичным. Назвали подход Dynamic few-shot prompting.
Преимуществ получается несколько: снижение костов, улучшенная точность и релевантность как извлекаемых примеров, так и самих ответов модели, а еще масштабируемость для различных задач.
Полный текст блогпоста тут
🔥48👍13😎13❤3
Для тех, кому интересно покопаться в сравнении разных LLM
Artificial Analysis запилили большой отчет со сравнительным анализом ведущих моделей. Тут есть сравнение по чему только хочешь: от цены и длины контекста до скорости инференса, способности кушать PDF-файлы, наличия интерпретаторов кода и качества создания диаграмм. И графики, конечно, в отчете тоже присутствуют. МНОГО графиков.
Кстати, интереснее всего выглядит картинка со сравнением длин эффективных контекстных окон. Аналитики утверждают, что тестировали этот аспект вручную, и что только Claude Pro выдерживает больше, чем 40к токенов: у остальных после этой отметки якобы сильно падает перформанс.
Отчет полностью можно посмотреть здесь
Artificial Analysis запилили большой отчет со сравнительным анализом ведущих моделей. Тут есть сравнение по чему только хочешь: от цены и длины контекста до скорости инференса, способности кушать PDF-файлы, наличия интерпретаторов кода и качества создания диаграмм. И графики, конечно, в отчете тоже присутствуют. МНОГО графиков.
Кстати, интереснее всего выглядит картинка со сравнением длин эффективных контекстных окон. Аналитики утверждают, что тестировали этот аспект вручную, и что только Claude Pro выдерживает больше, чем 40к токенов: у остальных после этой отметки якобы сильно падает перформанс.
Отчет полностью можно посмотреть здесь
👍29❤9🔥7
МТС Web Services представила ИИ-облако
Помните, мы писали о том, что МТС Web Services увеличила свои GPU мощности на 40%? Оказывается, это были цветочки. Теперь компания запускает новое направление – ИИ-облако. Оно будет включать в себя инфраструктуру и ряд сервисов, которые позволят компаниям ускорить и упростить внедрение искусственного интеллекта.
В основе облака будут находиться сервера с GPU, которые можно использовать для обучения ИИ в облаке. Это позволит компаниям уменьшить инвестиции в инфраструктуру и ускорить запуск проектов.
На основе GPU компании смогут самостоятельно развернуть необходимое для работы с ИИ программное обеспечение, либо использовать уже готовые решения, доступные в ИИ-облаке. Например, ML-платформу – специализированное ПО, позволяющее автоматизировать процесс обучения моделей искусственного интеллекта, а также упрощающее их внедрение в бизнес-процессы компаний и последующую работу с ними.
Также на GPU-мощностях MWS можно будет развернуть и другие готовые к работе «из коробки» сервисы MTS AI:
➡️ Cotype – LLM для работы с корпоративными данными
➡️ Audiogram – платформа синтеза и распознования речи
➡️ WordPulse – сервис речевой аналитики
Помните, мы писали о том, что МТС Web Services увеличила свои GPU мощности на 40%? Оказывается, это были цветочки. Теперь компания запускает новое направление – ИИ-облако. Оно будет включать в себя инфраструктуру и ряд сервисов, которые позволят компаниям ускорить и упростить внедрение искусственного интеллекта.
В основе облака будут находиться сервера с GPU, которые можно использовать для обучения ИИ в облаке. Это позволит компаниям уменьшить инвестиции в инфраструктуру и ускорить запуск проектов.
На основе GPU компании смогут самостоятельно развернуть необходимое для работы с ИИ программное обеспечение, либо использовать уже готовые решения, доступные в ИИ-облаке. Например, ML-платформу – специализированное ПО, позволяющее автоматизировать процесс обучения моделей искусственного интеллекта, а также упрощающее их внедрение в бизнес-процессы компаний и последующую работу с ними.
Также на GPU-мощностях MWS можно будет развернуть и другие готовые к работе «из коробки» сервисы MTS AI:
Мы сделали ИИ-облако максимально персонализированным, чтобы каждая компания могла получить сервис в той конфигурации, который нужен под ее задачи.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍26🔥6❤5😁2🌚2💘1
OpenAI выпустит Strawberry в ближайшие две недели
Об этом сообщает The Information. Они пишут, что отличительная черта новой модели – это умение "думать" перед ответом (в отличие от других моделей, которые сразу начинают генерировать токен за токеном). Ожидается, что именно в помощью этого модель будет меньше галлюцинировать.
Говорят, "думать" перед ответом модель будет в течение 10-20 секунд, а еще по началу будет работать только с текстом, без всяких мультимодальностей.
Ждем (в очередной раз)🐌
Об этом сообщает The Information. Они пишут, что отличительная черта новой модели – это умение "думать" перед ответом (в отличие от других моделей, которые сразу начинают генерировать токен за токеном). Ожидается, что именно в помощью этого модель будет меньше галлюцинировать.
Говорят, "думать" перед ответом модель будет в течение 10-20 секунд, а еще по началу будет работать только с текстом, без всяких мультимодальностей.
Ждем (в очередной раз)
Please open Telegram to view this post
VIEW IN TELEGRAM
👍63❤17🤪13🔥8😁4
Data Secrets
OpenAI выпустит Strawberry в ближайшие две недели Об этом сообщает The Information. Они пишут, что отличительная черта новой модели – это умение "думать" перед ответом (в отличие от других моделей, которые сразу начинают генерировать токен за токеном). Ожидается…
This media is not supported in your browser
VIEW IN TELEGRAM
OpenAI такие: ну наконец-то релиз Strawberry, ну вот сейчас будет новая модель, ну сейчас точно релиз, ну вот сейчас 100%….
😁164❤6👍5
Никогда такого не было и вот опять: Алексис Конно – ведущий ресерчер, который разрабатывал GPT-4o, покидает OpenAI и открывает собственную компанию
В своем твиттере он пишет, что готовится построить что-то ✨волшебное✨, и что готов нанимать исследователей.
Где-то опять грустит один Сэм😭
В своем твиттере он пишет, что готовится построить что-то ✨волшебное✨, и что готов нанимать исследователей.
Где-то опять грустит один Сэм
Please open Telegram to view this post
VIEW IN TELEGRAM
Точнее, пока только дропнули веса в Твиттере в свойственном им стиле "без комментариев". Судя по названию, это text2image. В общем, мы ушли проверять, что же там такое
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥41👍6 4❤🔥2
Новая Pixtral от Mixtral оказалась мультимодальной LLM
В ней 12В парамеров и она основана на Mistral Nemo 12B. К этой текстовой основе прикрутили GeLU и 2D RoPE. В словаре прибавилось токенов (теперь их 131 072), а также появились три новых специальных токена:
Веса уже есть на HF
В ней 12В парамеров и она основана на Mistral Nemo 12B. К этой текстовой основе прикрутили GeLU и 2D RoPE. В словаре прибавилось токенов (теперь их 131 072), а также появились три новых специальных токена:
img, img_break, img_end. Разрешение картинок 1024х1024. Ждем метрик!Веса уже есть на HF
👍33🤯11🎉6🔥3👾3❤2
Data Secrets
Никогда такого не было и вот опять: Алексис Конно – ведущий ресерчер, который разрабатывал GPT-4o, покидает OpenAI и открывает собственную компанию В своем твиттере он пишет, что готовится построить что-то ✨волшебное✨, и что готов нанимать исследователей.…
This media is not supported in your browser
VIEW IN TELEGRAM
Тем временем инвесторы, когда узнали, что кто-то опять ушел из OpenAI и открывает компанию:
😁80🔥21👍9❤2
Media is too big
VIEW IN TELEGRAM
Ко-фаундер Google и бывший презедент Alphabet Сергей Брин дал большое интервью в рамках All-In Summit в Лос-Анджелесе
⚪️ «Сейчас я почти каждый день занимаюсь в Google разными проектами, связанными с ИИ. Для меня, как для ученого это время прорывов, и я не хочу ничего упустить. До этого я не видел ничего более захватывающего и одновременно настолько важного для человечества.»
⚪️ Брин говорил, что не уверен, что для обучения более эффективных моделей потребуется существенное увеличение вычислительных ресурсов. «Я читал некоторые статьи, в которых говорится об экстраполяции вычислений. Возможно, я в это верю, потому что оптимизация алгоритмов, произошедшая за последние несколько лет, возможно, в действительности даже опережает рост вычислительных мощностей, заложенных в модели».
⚪️ Сергей признал, что Google затормозился. «После изобретения в Google трансформеров в 2017 году у компании были все шансы вырваться вперед на несколько лет, но мы были слишком робкими. Сейчас нам нужно больше рисковать.»
Please open Telegram to view this post
VIEW IN TELEGRAM
👍54🎉13🔥8😁4❤1
Тем временем Патриарх Кирилл предрек апокалипсис из-за развития ИИ
«Если человечество теряет религиозную веру, особенно в условиях нарастания технологий, связанных с появлением искусственного интеллекта, то мы действительно входим в эпоху апокалипсиса», — сказал он.
«Если человечество теряет религиозную веру, особенно в условиях нарастания технологий, связанных с появлением искусственного интеллекта, то мы действительно входим в эпоху апокалипсиса», — сказал он.
😁111🤪57👻25👍16🙈12🔥6👾5☃4🗿3🤯2🦄1
OpenAI привлекает новые инвестиции: на этот раз $6.5 млрд
Среди инвесторов Microsoft, Apple и Nvidia, но на первом месте по вложениям опять Thrive Capital (как и в прошлом раунде). Также утверждается, что кроме вложений от инвесторов стартап откроет еще и кредитную линию в банках на $5 млрд.
При этом оценка компании приближается к $150 млрд. Напомним, что еще в начале года она составляла $86 млрд. И кстати, совсем недавно, буквально в конце августа, СМИ сообщали о другой сумме: тогда утверждалось, что OpenAI оценивается в $100 млрд.
Кто больше?😏
Среди инвесторов Microsoft, Apple и Nvidia, но на первом месте по вложениям опять Thrive Capital (как и в прошлом раунде). Также утверждается, что кроме вложений от инвесторов стартап откроет еще и кредитную линию в банках на $5 млрд.
При этом оценка компании приближается к $150 млрд. Напомним, что еще в начале года она составляла $86 млрд. И кстати, совсем недавно, буквально в конце августа, СМИ сообщали о другой сумме: тогда утверждалось, что OpenAI оценивается в $100 млрд.
Кто больше?
Please open Telegram to view this post
VIEW IN TELEGRAM
🎉38 24😁7👍6🤪3🦄2
Приготовьтесь: Meta, Alphabet, Microsoft и Amazon только за последний квартал в сумме потратили почти $53 млрд на ИИ
* данные из свежего исследования Wall Street Journal «Расходы на ИИ в диаграммах»
* данные из свежего исследования Wall Street Journal «Расходы на ИИ в диаграммах»
😁27🔥15🤯12👍7
Откуда не ждали: Oracle запустила вычислительный кластер на 131 072 видеокарты Nvidia
И GPU там непростые, а новейшие Nvidia Blackwell. Это первый кластер таких размеров, основанный на этой модели видеокарт.
Сейчас Oracle уже принимает заказы на суперкомпьютер. Интересно, кто заберет такой лакомый кусочек
И GPU там непростые, а новейшие Nvidia Blackwell. Это первый кластер таких размеров, основанный на этой модели видеокарт.
Сейчас Oracle уже принимает заказы на суперкомпьютер. Интересно, кто заберет такой лакомый кусочек
🤯69👍14🔥13👌1👾1
Google только что релизнули Data Gemma
Это, по сути, та же Gemma 2, но с прикрученной к ней системой проверки фактов (данные берут из Data Common).
Под капотом RIG (Retrieval-Interleaved Generation) и RAG. Когда модель генерирует ответ, она обучена выделять из него «фактические» сущности и проверять их на соответствие фактам из Data Common (это RIG). А RAG позволяет извлекать из датасета ту информацию, которую модель изначально не знала.
Все в опенсорс. Вот блогпост, а больше технических деталей можно найти в статье.
Это, по сути, та же Gemma 2, но с прикрученной к ней системой проверки фактов (данные берут из Data Common).
Под капотом RIG (Retrieval-Interleaved Generation) и RAG. Когда модель генерирует ответ, она обучена выделять из него «фактические» сущности и проверять их на соответствие фактам из Data Common (это RIG). А RAG позволяет извлекать из датасета ту информацию, которую модель изначально не знала.
Все в опенсорс. Вот блогпост, а больше технических деталей можно найти в статье.
👍50🔥17❤5
🍓 OpenAI выпустили новую модель o1 (ту самую Strawberry)
По сравнению с GPT-4o она выбивает 6х точность на олимпиадных задачах по математике и 8х точность на задачах с CodeForces.
Вся соль модели – в умении рассуждать. Ей требуется некоторое время перед ответом: внутри себя она гоняет CoT, прежде чем вернуть ответ пользователю. Но, конечно, при этом она требует больше мощностей на инференсе.
Сейчас ее уже раскатывают на пользователей с подпиской. Больше деталей – в пресс-релизе.
По сравнению с GPT-4o она выбивает 6х точность на олимпиадных задачах по математике и 8х точность на задачах с CodeForces.
Вся соль модели – в умении рассуждать. Ей требуется некоторое время перед ответом: внутри себя она гоняет CoT, прежде чем вернуть ответ пользователю. Но, конечно, при этом она требует больше мощностей на инференсе.
Сейчас ее уже раскатывают на пользователей с подпиской. Больше деталей – в пресс-релизе.
👍68🔥24🍓15❤9
Еще некоторые детали про o1 aka Strawberry aka Q*
➡️ Сейчас на юзерах с подписков крутится не сама o1, а ее preview версия. Также для ChatGPT Plus будет доступна модель o1-mini (более дешевая и шустрая). o1-mini также обещают раскатить и для бесплатных аккаунтов.
➡️ Даже несмотря на то, что самой o1 пока на проде нет, лимиты в чате и цены в API уже достаточно жестокие: 30 сообщений в неделю для o1-preview, 50 для o1-mini 😳 . В API вообще песня: 20 запросов в минуту, и при этом платить придется не только за коллы, но и за сами размышления модели (reasoning tokens).
➡️ Саму o1 тоже обещают раскатить скоро. Она уже дообучена и протестирована, но, видимо, OpenAI все еще приходится решать вопросы связанные с затратами на ее инференс, и (может быть) безопасностью.
➡️ OpenAI обращают внимание на то, что промптинг с новой моделью отличается от промптинга со старыми. Они даже выкатили свой гайд с советами о том, как правильно общаться с o1. Основная мысль сводится к «Больше не надо уловок вроде "думай шаг за шагом" или "построй план решения". Формулируйте свои инструкции ясно и прямолинейно, а дальше модель все сделает сама.»
➡️ Ну и напоследок то, на что могло ускользнуть от глаз: OpenAI решили скрыть от пользователей мыслительный процесс модели. То есть те рассуждения, которые видны в чате – это выборочный материал. Остальные необработанные цепочки мыслей пользователям не видны.
🍓🍓🍓
🍓🍓🍓
Please open Telegram to view this post
VIEW IN TELEGRAM
🍓88👍12❤8😁3