🤯 ChatGPT поднимает цены, сокращает диалоги и открывает новую эру ИИ
• OpenAI планирует повышение стоимости подписки на ChatGPT
OpenAI объявила о предстоящем повышении стоимости подписки на ChatGPT с $20 до $22 до конца года, а в течение следующих пяти лет цена может вырасти до $44. Эта информация появилась в документах для инвесторов, согласно которым у компании есть два года на возврат вложенных средств. OpenAI ожидает убыток в размере $5 млрд к концу года, а основной источник дохода — подписки и доступ к API моделей. Повышение цен на подписку — это важный шаг на пути к самоокупаемости.
• ChatGPT сократил количество вопросов на Stack Overflow
Влияние ChatGPT заметно на популярном ИТ-форуме Stack Overflow, где количество вопросов и ответов сократилось на 25%. Особенно заметно падение активности по темам, связанным с Python и JavaScript. Эксперты предупреждают, что если разработчики перестанут публиковать инструкции и обсуждения, ИИ-модели, подобные ChatGPT, могут лишиться базы для обучения и совершенствования.
• Будущее за ИИ: мнение Сэма Альтмана
Генеральный директор OpenAI Сэм Альтман заявил, что в ближайшее десятилетие мир может вступить в «Эру ИИ». Он предсказывает появление сверхразумного ИИ, который изменит повседневную жизнь и такие сферы, как образование и медицина. Однако Альтман также выражает опасения, что без снижения стоимости работы ИИ эти технологии будут доступны только самым богатым и военным.
• OpenAI планирует повышение стоимости подписки на ChatGPT
OpenAI объявила о предстоящем повышении стоимости подписки на ChatGPT с $20 до $22 до конца года, а в течение следующих пяти лет цена может вырасти до $44. Эта информация появилась в документах для инвесторов, согласно которым у компании есть два года на возврат вложенных средств. OpenAI ожидает убыток в размере $5 млрд к концу года, а основной источник дохода — подписки и доступ к API моделей. Повышение цен на подписку — это важный шаг на пути к самоокупаемости.
• ChatGPT сократил количество вопросов на Stack Overflow
Влияние ChatGPT заметно на популярном ИТ-форуме Stack Overflow, где количество вопросов и ответов сократилось на 25%. Особенно заметно падение активности по темам, связанным с Python и JavaScript. Эксперты предупреждают, что если разработчики перестанут публиковать инструкции и обсуждения, ИИ-модели, подобные ChatGPT, могут лишиться базы для обучения и совершенствования.
• Будущее за ИИ: мнение Сэма Альтмана
Генеральный директор OpenAI Сэм Альтман заявил, что в ближайшее десятилетие мир может вступить в «Эру ИИ». Он предсказывает появление сверхразумного ИИ, который изменит повседневную жизнь и такие сферы, как образование и медицина. Однако Альтман также выражает опасения, что без снижения стоимости работы ИИ эти технологии будут доступны только самым богатым и военным.
👍6❤2🎉2🏆2
🦙Llama 3.2: Первая мультимодальная ИИ модель с открытыми весами
Для тех, кто ищет опенсорсную альтернативу мультимодальным возможностям GPT-4o, а именно AI-зрению, есть хорошие новости. Первая открытая модель такого типа доступна на HuggingFace: это Llama 3.2.
Точнее, это коллекция моделей, которая включает две обычных LLM для генерации текста - 1B и 3B, а также версии 11B и 90B, которые способны работать с изображениями. Эти модели способны решать разнообразные задачи, связанные с визуальным вводом - анализ изображений, распознавание определенных визуальных паттернов.
Как и предыдущие модели Llama, версии 11B и 90B можно запускать в облаке immers.cloud для инференса и файнтюнинга, используя GPU с достаточным объемом видеопамяти.
1B и 3B версии позволяют использовать возможности ИИ на менее мощном железе, так как эти модели очень легковесные, но в то же время конкурируют по качеству с Gemma 2 и Phi-3.5, судя по бенчмаркам.
Для тех, кто ищет опенсорсную альтернативу мультимодальным возможностям GPT-4o, а именно AI-зрению, есть хорошие новости. Первая открытая модель такого типа доступна на HuggingFace: это Llama 3.2.
Точнее, это коллекция моделей, которая включает две обычных LLM для генерации текста - 1B и 3B, а также версии 11B и 90B, которые способны работать с изображениями. Эти модели способны решать разнообразные задачи, связанные с визуальным вводом - анализ изображений, распознавание определенных визуальных паттернов.
Как и предыдущие модели Llama, версии 11B и 90B можно запускать в облаке immers.cloud для инференса и файнтюнинга, используя GPU с достаточным объемом видеопамяти.
1B и 3B версии позволяют использовать возможности ИИ на менее мощном железе, так как эти модели очень легковесные, но в то же время конкурируют по качеству с Gemma 2 и Phi-3.5, судя по бенчмаркам.
🏆5👍4 4❤🔥3🔥2
💡Как Render.Bar сэкономила $3 000 на рендеринге с помощью immers.cloud
Когда каждое решение в процессе создания контента может повлиять на бюджет, важно выбрать надежные инструменты. Студия Render.Bar столкнулась с проблемой: неожиданные затраты на классической рендер-ферме сильно ударили по их финансам.
Но решение было найдено — переход на облачные мощности immers.cloud позволил студии сэкономить $3 000 на рендеринге и получить полный контроль над процессом.
Подробнее о том, как Render.Bar избежала финансовых сюрпризов и открыла для себя новые возможности, читайте в статье.
✨ Переходите по ссылке и узнайте, как immers.cloud может помочь вашему бизнесу.
Когда каждое решение в процессе создания контента может повлиять на бюджет, важно выбрать надежные инструменты. Студия Render.Bar столкнулась с проблемой: неожиданные затраты на классической рендер-ферме сильно ударили по их финансам.
Но решение было найдено — переход на облачные мощности immers.cloud позволил студии сэкономить $3 000 на рендеринге и получить полный контроль над процессом.
Подробнее о том, как Render.Bar избежала финансовых сюрпризов и открыла для себя новые возможности, читайте в статье.
✨ Переходите по ссылке и узнайте, как immers.cloud может помочь вашему бизнесу.
❤🔥4🔥4❤3👍1
🚀 Обновление образа Ubuntu ComfyUI!
Мы рады сообщить о новом обновлении образа Ubuntu ComfyUI. Вот что изменилось:
• Обновления Ubuntu: Все последние обновления для улучшенной стабильности и безопасности.
• Обновления ComfyUI: Теперь вы можете наслаждаться новыми функциями и улучшениями!
• Фиксы конфигов nginx: Исправлено возникновение ошибки 405 при POST-запросах.
Получите доступ к обновленным образам по ссылкам, обновляйтесь и наслаждайтесь улучшенной работой с ComfyUI!
👉 Обновленный образ на Immers.cloud
👉 Marketplace: Ubuntu 22.04.4 с ComfyUI
Мы рады сообщить о новом обновлении образа Ubuntu ComfyUI. Вот что изменилось:
• Обновления Ubuntu: Все последние обновления для улучшенной стабильности и безопасности.
• Обновления ComfyUI: Теперь вы можете наслаждаться новыми функциями и улучшениями!
• Фиксы конфигов nginx: Исправлено возникновение ошибки 405 при POST-запросах.
Получите доступ к обновленным образам по ссылкам, обновляйтесь и наслаждайтесь улучшенной работой с ComfyUI!
👉 Обновленный образ на Immers.cloud
👉 Marketplace: Ubuntu 22.04.4 с ComfyUI
⚡6❤3👍3❤🔥2
🚀 Llama Stack: мощный инструмент для разработчиков Generative AI
Для разработчиков, заинтересованных в Generative AI, может быть полезным Llama Stack - программный фреймворк для создания приложений на базе моделей Llama.
Llama Stack предоставляет программные интерфейсы для различных операций с AI моделями - инференса, файнтюнинга, создания агентов.
Проект является опенсорсным и предлагает разработчикам доступ к клиентским SDK на Python, Node.js, Swift и Kotlin. Кстати, на Swift теперь можно писать iOS приложения c функциями AI, что стало особенно интересным направлением после выхода Llama 3.2. Версии 1B и 3B можно разворачивать прямо на мобильных девайсах при помощи Llama Stack.
Более тяжеловесные модели, включая мультимодальные Llama 3.2 11B и 90B, требуют GPU. Для развертывания этих моделей в облаке immers.cloud может оказаться полезным Python SDK Llama Stack.
Для разработчиков, заинтересованных в Generative AI, может быть полезным Llama Stack - программный фреймворк для создания приложений на базе моделей Llama.
Llama Stack предоставляет программные интерфейсы для различных операций с AI моделями - инференса, файнтюнинга, создания агентов.
Проект является опенсорсным и предлагает разработчикам доступ к клиентским SDK на Python, Node.js, Swift и Kotlin. Кстати, на Swift теперь можно писать iOS приложения c функциями AI, что стало особенно интересным направлением после выхода Llama 3.2. Версии 1B и 3B можно разворачивать прямо на мобильных девайсах при помощи Llama Stack.
Более тяжеловесные модели, включая мультимодальные Llama 3.2 11B и 90B, требуют GPU. Для развертывания этих моделей в облаке immers.cloud может оказаться полезным Python SDK Llama Stack.
🏆5❤3🎉3👍2
NVIDIA A5000 vs V100: Какие задачи решают эти мощные GPU и как арендовать их в облаке?
Сегодня мы познакомим вас с двумя мощными видеокартами — NVIDIA A5000 и NVIDIA V100. Каждая из них предназначена для решения специфических задач, будь то создание высококачественной графики, рендеринг или сложные вычисления для ИИ и научных исследований. Давайте рассмотрим ключевые характеристики этих GPU и разберёмся, в каких сценариях они проявляют себя лучше всего.
С помощью сервиса immers.cloud вы можете арендовать эти и другие мощные видеокарты для своих задач. Наш облачный сервис GPU предлагает вам гибкость, доступ к высокопроизводительным ресурсам без необходимости в покупке дорогостоящего оборудования. Будущее за облачными технологиями, и с immers.cloud вы можете масштабировать свои вычисления по мере необходимости, сокращая затраты и ускоряя проекты.
Сегодня мы познакомим вас с двумя мощными видеокартами — NVIDIA A5000 и NVIDIA V100. Каждая из них предназначена для решения специфических задач, будь то создание высококачественной графики, рендеринг или сложные вычисления для ИИ и научных исследований. Давайте рассмотрим ключевые характеристики этих GPU и разберёмся, в каких сценариях они проявляют себя лучше всего.
С помощью сервиса immers.cloud вы можете арендовать эти и другие мощные видеокарты для своих задач. Наш облачный сервис GPU предлагает вам гибкость, доступ к высокопроизводительным ресурсам без необходимости в покупке дорогостоящего оборудования. Будущее за облачными технологиями, и с immers.cloud вы можете масштабировать свои вычисления по мере необходимости, сокращая затраты и ускоряя проекты.
🔧 Как изменить конфигурацию виртуальной машины за несколько шагов?
Сегодня мы расскажем, как легко адаптировать ресурсы вашей виртуальной машины (ВМ) под новые задачи! Увеличьте производительность или перераспределите мощности всего за несколько шагов — это проще, чем кажется.
Именно в immers.cloud с нашими доработками OpenStack с помощю resize можно изменять графический ускоритель, добавляя или убавляя мощности по мере надобности, или вообще перейти на конфигурацию CPU, когда графический ускоритель не нужен.
📌 Пример использования: Сначала вы можете использовать конфигурацию с CPU для задач, таких как загрузка файлов или настройка ПО. А потом легко переключиться на GPU с помощью функции Resize, когда потребуется больше мощности. Это гибкое решение помогает оптимизировать затраты — пока видеокарта не нужна, вы не тратите на неё деньги.
Управляйте ресурсами эффективно и платите только за то, что действительно используете!
🎥 Подробнее — в видеоинструкции: Смотреть на YouTube
Сегодня мы расскажем, как легко адаптировать ресурсы вашей виртуальной машины (ВМ) под новые задачи! Увеличьте производительность или перераспределите мощности всего за несколько шагов — это проще, чем кажется.
Именно в immers.cloud с нашими доработками OpenStack с помощю resize можно изменять графический ускоритель, добавляя или убавляя мощности по мере надобности, или вообще перейти на конфигурацию CPU, когда графический ускоритель не нужен.
📌 Пример использования: Сначала вы можете использовать конфигурацию с CPU для задач, таких как загрузка файлов или настройка ПО. А потом легко переключиться на GPU с помощью функции Resize, когда потребуется больше мощности. Это гибкое решение помогает оптимизировать затраты — пока видеокарта не нужна, вы не тратите на неё деньги.
Управляйте ресурсами эффективно и платите только за то, что действительно используете!
🎥 Подробнее — в видеоинструкции: Смотреть на YouTube
🔥7👍5❤3🎉2
1. Глава Nvidia выступит на CES 2025: возможный анонс GeForce RTX 50-й серии
В январе 2025 года на выставке CES ожидается выступление генерального директора Nvidia Дженсена Хуанга. На этом мероприятии Nvidia может представить свою новую линейку видеокарт — GeForce RTX 50-й серии. CES всегда была площадкой для громких технологических анонсов, и если слухи подтвердятся, новое поколение видеокарт обещает значительный скачок в производительности, что особенно важно для геймеров, создателей контента и специалистов по ИИ.
2. BlackRock и Microsoft создают фонд на $30 млрд для инвестиций в ИИ-инфраструктуру
BlackRock, крупнейшая инвестиционная компания в мире, и Microsoft объединяются для создания фонда размером в $30 млрд, направленного на развитие инфраструктуры искусственного интеллекта. Этот фонд будет инвестировать в ИИ-платформы и решения, помогая ускорить внедрение искусственного интеллекта в различных отраслях. Такое стратегическое партнёрство свидетельствует о значительном потенциале технологий ИИ и их важности для будущей глобальной экономики.
3. Российский бизнес усилил интерес к ИИ в семь раз
По данным аналитиков, интерес российского бизнеса к технологиям искусственного интеллекта увеличился в семь раз за последние годы. Компании активно внедряют ИИ для автоматизации процессов, улучшения обслуживания клиентов и повышения эффективности. Этот тренд подтверждает глобальную тенденцию к переходу на цифровые решения с использованием машинного обучения и больших данных, а также открывает новые возможности для роста отечественных технологических компаний.
В январе 2025 года на выставке CES ожидается выступление генерального директора Nvidia Дженсена Хуанга. На этом мероприятии Nvidia может представить свою новую линейку видеокарт — GeForce RTX 50-й серии. CES всегда была площадкой для громких технологических анонсов, и если слухи подтвердятся, новое поколение видеокарт обещает значительный скачок в производительности, что особенно важно для геймеров, создателей контента и специалистов по ИИ.
2. BlackRock и Microsoft создают фонд на $30 млрд для инвестиций в ИИ-инфраструктуру
BlackRock, крупнейшая инвестиционная компания в мире, и Microsoft объединяются для создания фонда размером в $30 млрд, направленного на развитие инфраструктуры искусственного интеллекта. Этот фонд будет инвестировать в ИИ-платформы и решения, помогая ускорить внедрение искусственного интеллекта в различных отраслях. Такое стратегическое партнёрство свидетельствует о значительном потенциале технологий ИИ и их важности для будущей глобальной экономики.
3. Российский бизнес усилил интерес к ИИ в семь раз
По данным аналитиков, интерес российского бизнеса к технологиям искусственного интеллекта увеличился в семь раз за последние годы. Компании активно внедряют ИИ для автоматизации процессов, улучшения обслуживания клиентов и повышения эффективности. Этот тренд подтверждает глобальную тенденцию к переходу на цифровые решения с использованием машинного обучения и больших данных, а также открывает новые возможности для роста отечественных технологических компаний.
👍4🏆3 3❤2
Новый AI-чип от AMD
Во вторник на прошлой неделе AMD объявила о создании нового AI-чипа Instinct MI325X и о планах запустить его производство в конце 2024 года.
По словам представителей AMD, чип MI325X быстрее, чем H200 от NVIDIA, как в инференсе, так и в обучении ИИ-моделей. Решение от AMD включает 256 ГБ VRAM с большей пропускной способностью — 8 ТБ/с. Это больше, чем у последней NVIDIA H200, у которой 141 ГБ и 4,8 ТБ/с соответственно. Это позволяет чипу MI325X выполнять операции с числовыми типами fp16 и fp8 примерно в 1,3 раза быстрее. Карта, в первую очередь, предназначена для работы в специализированной серверной инфраструктуре OCP (цепи питания чипа — 54 В!), и в AMD надеются, что компании-поставщики облачных услуг, а также крупные AI-разработчики с собственными дата-центрами будут покупать у них эти чипы. В AMD сообщили, что OpenAI, Microsoft и некоторые другие крупные клиенты уже используют их GPU для своих приложений.
Сильным преимуществом главного конкурента AMD, NVIDIA, является наличие развитого и популярного программного стека (CUDA и других библиотек), ставшего стандартом в AI-разработке. Например, в облаке immers.cloud все серверы с видеокартами NVIDIA, и доступен выбор образов с предустановленным CUDA-стеком, что упрощает настройку рабочего окружения. AMD предлагает разработчикам переходить с CUDA на ROCm для того, чтобы использовать их GPU.
На главной странице вы можете подписаться на нашу рассылку, и если эта видеокарта появится у нас, вы узнаете об этом одними из первых.
Во вторник на прошлой неделе AMD объявила о создании нового AI-чипа Instinct MI325X и о планах запустить его производство в конце 2024 года.
По словам представителей AMD, чип MI325X быстрее, чем H200 от NVIDIA, как в инференсе, так и в обучении ИИ-моделей. Решение от AMD включает 256 ГБ VRAM с большей пропускной способностью — 8 ТБ/с. Это больше, чем у последней NVIDIA H200, у которой 141 ГБ и 4,8 ТБ/с соответственно. Это позволяет чипу MI325X выполнять операции с числовыми типами fp16 и fp8 примерно в 1,3 раза быстрее. Карта, в первую очередь, предназначена для работы в специализированной серверной инфраструктуре OCP (цепи питания чипа — 54 В!), и в AMD надеются, что компании-поставщики облачных услуг, а также крупные AI-разработчики с собственными дата-центрами будут покупать у них эти чипы. В AMD сообщили, что OpenAI, Microsoft и некоторые другие крупные клиенты уже используют их GPU для своих приложений.
Сильным преимуществом главного конкурента AMD, NVIDIA, является наличие развитого и популярного программного стека (CUDA и других библиотек), ставшего стандартом в AI-разработке. Например, в облаке immers.cloud все серверы с видеокартами NVIDIA, и доступен выбор образов с предустановленным CUDA-стеком, что упрощает настройку рабочего окружения. AMD предлагает разработчикам переходить с CUDA на ROCm для того, чтобы использовать их GPU.
На главной странице вы можете подписаться на нашу рассылку, и если эта видеокарта появится у нас, вы узнаете об этом одними из первых.
👍6🎉5⚡4❤2
OpenAI, вероятно, увидели необходимость ответить на появление Llama Stack и представили открытый фреймворк Swarm для создания AI агентов.
Это python-библиотека, цель которой — упростить программирование систем агентов, подробнее о которых читайте здесь: Orchestrating Agents: Handoffs & Routines. Однако есть нюансы.
С одной стороны, OpenAI постарались в этот раз казаться по-настоящему “open”, утверждая, что “Swarm выполняется (почти) полностью на стороне клиента”, а клиентский код открыт и выложен на Github. Но по факту этот код - обертка вокруг Chat Completions API с закрытыми моделями OpenAI. Если сравнивать с Llama Stack и его Agentic API, последний предназначен для работы с моделями Llama, которые могут быть полностью self-hosted, например, развернуты в GPU-облаке, что дает разработчику значительно больший контроль. Наша платформа immers.cloud предоставляет удобный функционал для конфигурации собственного GPU сервера. С его помощью ML-разработчики могут проще управлять инфраструктурой, пользуясь при этом всеми преимуществами открытых AI-моделей.
В заключение о минусах Swarm стоит отметить, что он заявлен как экспериментальный фреймворк без официальной поддержки, это следует иметь в виду, выбирая стек для AI-приложения.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4❤3❤🔥3🔥2🎉1
Хотите узнать, как создавать реалистичные анимации в играх и NLA графике? Даня Грызлов делится своими знаниями в новой статье, где на примере Silent Hill 2 рассказывает о ключевых принципах анимации и её реализации в игровом процессе.
👉 ВКонтакте
👉 vc.ru
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥4❤3🎉3👍1