Кстати, если вы не запускали нейронки дома, то наверное не знаете что они мило урчат когда их запускаешь – причем на Apple Mac M-серии тоже, это называется:
Вот тут детальнее
ASMR для тех-нердов звучит так💻
Coil whine - слышимый писк/жужжание, которое возникает из‑за микровибраций дросселей (катушек индуктивности) и иногда керамических конденсаторов в цепях питания GPU. Во время инференса LLM нагрузка на графический процессор пульсирует (батчи, токены, синхронизации), что модулирует токи в многофазном преобразователе (VRM) и «переносит» часть высокочастотной коммутации в слышимый диапазон. Явление безвредно для железа, но может быть заметно на слух; снижать можно сглаживанием нагрузки, ограничением мощности/частот и акустической развязкой.
Вот тут детальнее
ASMR для тех-нердов звучит так
Please open Telegram to view this post
VIEW IN TELEGRAM
ChatGPT
ChatGPT - Coil whine в GPU
ChatGPT helps you get answers, find inspiration, and be more productive.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2
Pelican-VL: Китайский открытый «мозг» для роботов бросил вызов GPT-5
Китайские разработчики представили самую мощную открытую модель искусственного интеллекта для управления роботами. Pelican-VL 1.0 от Пекинского инновационного центра человекоподобных роботов не только превзошла ведущие зарубежные аналоги, но и полностью открыта для сообщества.
💡 Что это такое?
Pelican-VL — это визуально-языковая модель (VLM), созданная специально для воплощенного ИИ (embodied AI). Простыми словами, это «мозг», который позволяет роботам понимать окружающий мир через камеры и выполнять сложные задачи.
🔄 Революционный метод обучения: DPPO
Ключевое новшество — метод DPPO (Deliberate Practice Policy Optimization), работающий по принципу «сознательной практики»:
- Модель анализирует видео
- Самостоятельно тренируется
- Находит ошибки
- Исправляет и улучшает себя
Это похоже на студента, который учится на собственных ошибках, постоянно повышая свой уровень.
🚀 Ключевые возможности модели
• Мультимодальное понимание: Анализирует изображения и текст одновременно
• Пространственно-временное мышление: Понимает последовательность действий во времени
• Физическое взаимодействие: Планирует движения роботов и захват объектов
• Самокоррекция: Автоматически находит и исправляет слабые места
📊 Технические детали
🌍 Международное сравнение
Пока Google и NVIDIA развивают свои закрытые системы (Gemini Robotics, Cosmos-Reason1), Pelican-VL предлагает открытую альтернативу с сопоставимой производительностью, но в 10-50 раз более эффективным использованием данных.
Официальный сайт | GitHub | Hugging Face
Китайские разработчики представили самую мощную открытую модель искусственного интеллекта для управления роботами. Pelican-VL 1.0 от Пекинского инновационного центра человекоподобных роботов не только превзошла ведущие зарубежные аналоги, но и полностью открыта для сообщества.
💡 Что это такое?
Pelican-VL — это визуально-языковая модель (VLM), созданная специально для воплощенного ИИ (embodied AI). Простыми словами, это «мозг», который позволяет роботам понимать окружающий мир через камеры и выполнять сложные задачи.
🔄 Революционный метод обучения: DPPO
Ключевое новшество — метод DPPO (Deliberate Practice Policy Optimization), работающий по принципу «сознательной практики»:
- Модель анализирует видео
- Самостоятельно тренируется
- Находит ошибки
- Исправляет и улучшает себя
Это похоже на студента, который учится на собственных ошибках, постоянно повышая свой уровень.
🚀 Ключевые возможности модели
• Мультимодальное понимание: Анализирует изображения и текст одновременно
• Пространственно-временное мышление: Понимает последовательность действий во времени
• Физическое взаимодействие: Планирует движения роботов и захват объектов
• Самокоррекция: Автоматически находит и исправляет слабые места
📊 Технические детали
Размеры модели: 7B и 72B параметровВычислительные ресурсы: 1000+ GPU A800Время обучения: 50,000 GPU-часов🌍 Международное сравнение
Пока Google и NVIDIA развивают свои закрытые системы (Gemini Robotics, Cosmos-Reason1), Pelican-VL предлагает открытую альтернативу с сопоставимой производительностью, но в 10-50 раз более эффективным использованием данных.
Официальный сайт | GitHub | Hugging Face
GitHub
GitHub - Open-X-Humanoid/pelican-vl: Pelican-VL 1.0 is a new family of open-source embodied brain models with parameter scales…
Pelican-VL 1.0 is a new family of open-source embodied brain models with parameter scales ranging from 7B to 72B developed by WFM System Group, Beijing Innovation Center of Humanoid Robotics (X-Hum...
🔥2
Сбер и Международная ассоциация поддержки спорта «Небесная грация» первые в мире протестировали уникальную ИИ-систему оценки выступлений на базе нейросети ГигаЧат, наряду с традиционным судейством, пишет Первый канал.
Первые испытания разработанного решения провели в рамках международного турнира «Кубок „Небесная грация“»в Пекине с 12 по 14 ноября, говорится в сообщении.
Первые испытания разработанного решения провели в рамках международного турнира «Кубок „Небесная грация“»в Пекине с 12 по 14 ноября, говорится в сообщении.
Telegram
Первый канал. Новости
Финальный день турнира по художественной гимнастике «Небесная грация» оценивал искусственный интеллект. Мероприятие проходило в Пекине.
«Перед соревнованием специально обучили оценивать, или даже скорее выставлять, ИИ-оценку за артистизм по стобалльной системе»…
«Перед соревнованием специально обучили оценивать, или даже скорее выставлять, ИИ-оценку за артистизм по стобалльной системе»…
✅ Group Sequence Policy Optimization (https://arxiv.org/pdf/2507.18071)
📚Аннотация:
Статья представляет алгоритм оптимизации последовательностных групповых стратегий (Group Sequence Policy Optimization, GSPO), характеризующийся стабильностью, эффективностью и производительностью для обучения больших языковых моделей методом подкрепляющего обучения.
В отличие от предыдущих алгоритмов, использующих важность на уровне токенов, GSPO основывается на вероятности последовательности и применяет усечение, вознаграждение и оптимизацию на уровне последовательности.
Мы показываем, что GSPO обеспечивает превосходную эффективность и производительность по сравнению с алгоритмом GRPO, значительно стабилизирует обучение на основе смеси экспертов (MoE) и имеет потенциал упрощения инфраструктуры методов подкрепления.
Эти преимущества GSPO способствовали значительным улучшениям последних моделей Qwen3.
Начало в 18:00 + Новые новости в области ИИ
Please open Telegram to view this post
VIEW IN TELEGRAM
🫠Ссылка на скачивание материалов Стрима №3.
По традиции выложил сюда же:
sponsr.ru/dl_strim_2
Суббота, для многих оказался тихим днем ))
Жду всех следующий раз в воскресенье.
Будем давать более активную рекламу и привлекать слушателей.
Это был тест, тест, тоже показал свои результаты.
P.S. Сервис еще находится в стадии оформления, но уже заработал.
По традиции выложил сюда же:
sponsr.ru/dl_strim_2
Суббота, для многих оказался тихим днем ))
Жду всех следующий раз в воскресенье.
Будем давать более активную рекламу и привлекать слушателей.
Это был тест, тест, тоже показал свои результаты.
P.S. Сервис еще находится в стадии оформления, но уже заработал.
Китайские исследователи представили фотонный квантовый чип, обеспечивающий тысячекратный прирост скорости в центрах обработки данных и использующий искусственный интеллект.
Это первое в мире 6-дюймовое тонкоплёночное чудо только что получило награду «Лидерство в технологиях» на Всемирной интернет-конференции в Учжэне, обойдя более 400 участников со всего мира.
Zuchongzhi 3.0 (105 кубитов) в 1 квадриллион раз быстрее суперкомпьютера Frontier для решения определённых задач. Фотонный компьютер Jiuzhang 2.0 решил за 200 секунд то, на что классическим компьютерам потребовалось бы 2,5 млрд лет. @banksta
Это первое в мире 6-дюймовое тонкоплёночное чудо только что получило награду «Лидерство в технологиях» на Всемирной интернет-конференции в Учжэне, обойдя более 400 участников со всего мира.
Zuchongzhi 3.0 (105 кубитов) в 1 квадриллион раз быстрее суперкомпьютера Frontier для решения определённых задач. Фотонный компьютер Jiuzhang 2.0 решил за 200 секунд то, на что классическим компьютерам потребовалось бы 2,5 млрд лет. @banksta
🦾Новый год, самый насыщенный период для меня. Сейчас совместно с МИИТ готовлю курс по "Ведению проектов при разработке ПО", совместно с Финансовым "Системная аналитика". Пилю проекты по графам для задач "Центра трансформации ИИ" и пишу несколько еще книг и курсов.
Ведем совместную разработку с WB. Все надо успеть до НГ. Очень много новой информации.
Дикая гонка, но движемся активно.
Ведем совместную разработку с WB. Все надо успеть до НГ. Очень много новой информации.
Дикая гонка, но движемся активно.
🔥6👍1
Команда Robotics лаборатории FusionBrain вместе с командой Адаптивных агентов при поддержке отдела научно-технической разработки запустили проект VLA Arena — платформу для оценки моделей управления роботами. Платформа открыта в тестовом режиме на три месяца (как раз, чтобы на новогодних выходных было чем заняться😏).
VLA Arena поддерживает роботов в симуляции и реальные компактные устройства LeRobot SO-100 и SO-101 от Hugging Face. Пользователь может сравнивать модели в 3D-движке прямо в браузере и подключать свои устройства.
Для тестов доступны открытые VLA-модели:
⚫ π0.5 от Physical Intelligence
⚫ SmolVLA от Hugging Face
⚫ Flower от Intuitive Robots Lab и Microsoft Research
⚫ «Русифицированная» π0.5, адаптированная в AIRI
А для любителей экспериментов и обучения своих моделей для LeRobot мы выложили чистые датасеты из открытых источников, которые были ответственно размечены и переведены на русский язык.
Модели понимают инструкции на естественном языке и могут решать сложные задачи, требующие адаптации к новым объектам и сценам. В сетапе арены пользователи голосуют за модели, которые по их мнению работают лучше, а голоса определяют положение модели в лидерборде.
Поздравляю всех с успешным релизом🦾
Приглашаю активно заходить на арену, оценивать работу моделей, загружать свои, биться за первые места, а мы пока подумаем, как можно порадовать топ лидерборда к Новому Году🏆
@complete_ai
VLA Arena поддерживает роботов в симуляции и реальные компактные устройства LeRobot SO-100 и SO-101 от Hugging Face. Пользователь может сравнивать модели в 3D-движке прямо в браузере и подключать свои устройства.
Для тестов доступны открытые VLA-модели:
А для любителей экспериментов и обучения своих моделей для LeRobot мы выложили чистые датасеты из открытых источников, которые были ответственно размечены и переведены на русский язык.
Модели понимают инструкции на естественном языке и могут решать сложные задачи, требующие адаптации к новым объектам и сценам. В сетапе арены пользователи голосуют за модели, которые по их мнению работают лучше, а голоса определяют положение модели в лидерборде.
Поздравляю всех с успешным релизом🦾
Приглашаю активно заходить на арену, оценивать работу моделей, загружать свои, биться за первые места
@complete_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram
ду́но
https://dunnolab.notion.site/
🔥3
❗️Технологии генеративного ИИ становятся ключевыми, за их обладание конкурируют ведущие государства, заявил Путин.
Другие заявления президента в ходе пленарного заседания конференции "Путешествие в мир искусственного интеллекта":
📍Путин заявил, что в развитии ИИ в России нужно постоянно двигаться вперед;
📍Применение продуктов с ИИ дает преимущества в эффективности труда;
📍РФ не может допустить критическую зависимость от чужих ИИ-технологий, это вопрос суверенитета;
📍Разработка отечественных систем с использованием ИИ должны полностью контролироваться российскими специалистами;
📍К 2030 году вклад ИИ в совокупный ВВП страны должен превысить 11 трлн рублей;
📍Президент РФ сообщил, что обсудил с Мишустиным внедрение ИИ по всей России;
📍ИИ-помощников нужно использовать в большинстве управленческих и производственных процессов;
📍Следует быстрее убирать барьеры, мешающие созданию и внедрению суверенных отечественных технологий.
📍Российский лидер отметил, что нужно формировать рынок для применения достижений ИИ;
📍Путин предложил реализовать программу развития центров обработки данных в России;
Другие заявления президента в ходе пленарного заседания конференции "Путешествие в мир искусственного интеллекта":
📍Путин заявил, что в развитии ИИ в России нужно постоянно двигаться вперед;
📍Применение продуктов с ИИ дает преимущества в эффективности труда;
📍РФ не может допустить критическую зависимость от чужих ИИ-технологий, это вопрос суверенитета;
📍Разработка отечественных систем с использованием ИИ должны полностью контролироваться российскими специалистами;
📍К 2030 году вклад ИИ в совокупный ВВП страны должен превысить 11 трлн рублей;
📍Президент РФ сообщил, что обсудил с Мишустиным внедрение ИИ по всей России;
📍ИИ-помощников нужно использовать в большинстве управленческих и производственных процессов;
📍Следует быстрее убирать барьеры, мешающие созданию и внедрению суверенных отечественных технологий.
📍Российский лидер отметил, что нужно формировать рынок для применения достижений ИИ;
📍Путин предложил реализовать программу развития центров обработки данных в России;
❤1👍1
Nvidia сообщает о выручке в 57 миллиардов долларов и прибыли на акцию в размере 1,30 доллара.
Результаты третьего квартала
Выручка $57,01 млрд, +62% г/г, оценка $55,19 млрд
Выручка центров обработки данных: 51,2 млрд долларов США, +66% в годовом исчислении, прогноз: 49,34
млрд долларов США
Выручка от игр: 4,3 млрд долларов США, +30% в годовом исчислении, прогноз: 4,42 млрд долларов США
Выручка от профессиональной визуализации: 760 млн долларов США, +56% в годовом исчислении, прогноз 612,8 млн долларов США
Выручка от автомобильной промышленности: $592 млн, +32% г/г, прогноз $620,9
млн
Скорректированная валовая прибыль 73,6%
Скорректированные операционные расходы $4,22 млрд, +38% г/г, прогноз
$4,22 млрд
Скорректированная операционная прибыль: 37,75 млрд долларов США, +62% г/г, прогноз:
36,46 млрд долларов США
Расходы на НИОКР $4,71 млрд, +39% г/г, оценка $4,66 млрд
Скорректированная прибыль на акцию 1,30 долл. США
Свободный денежный поток 22,09 млрд долларов, +32% г/г
Результаты третьего квартала
Выручка $57,01 млрд, +62% г/г, оценка $55,19 млрд
Выручка центров обработки данных: 51,2 млрд долларов США, +66% в годовом исчислении, прогноз: 49,34
млрд долларов США
Выручка от игр: 4,3 млрд долларов США, +30% в годовом исчислении, прогноз: 4,42 млрд долларов США
Выручка от профессиональной визуализации: 760 млн долларов США, +56% в годовом исчислении, прогноз 612,8 млн долларов США
Выручка от автомобильной промышленности: $592 млн, +32% г/г, прогноз $620,9
млн
Скорректированная валовая прибыль 73,6%
Скорректированные операционные расходы $4,22 млрд, +38% г/г, прогноз
$4,22 млрд
Скорректированная операционная прибыль: 37,75 млрд долларов США, +62% г/г, прогноз:
36,46 млрд долларов США
Расходы на НИОКР $4,71 млрд, +39% г/г, оценка $4,66 млрд
Скорректированная прибыль на акцию 1,30 долл. США
Свободный денежный поток 22,09 млрд долларов, +32% г/г
«Яндекс» начал эксперимент по проявлению сознания у ИИ, сообщает РБК.
Компания намерена проверить, способна ли нейросеть сформировать свою точку зрения и устойчивые предпочтения, которые не были бы заимствованы из текстов людей.
Проект ведется с конца лета 2025 года при участии нейробиолога, академика РАН Константина Анохина. Если эксперимент окажется успешным, это может стать первым в мире случаем создания ИИ с зачатками собственного мышления, что откроет новые возможности для науки и технологий.
Компания намерена проверить, способна ли нейросеть сформировать свою точку зрения и устойчивые предпочтения, которые не были бы заимствованы из текстов людей.
Проект ведется с конца лета 2025 года при участии нейробиолога, академика РАН Константина Анохина. Если эксперимент окажется успешным, это может стать первым в мире случаем создания ИИ с зачатками собственного мышления, что откроет новые возможности для науки и технологий.
Telegram
РБК. Новости. Главное
«Яндекс» вместе с нейробиологом, академиком РАН Константином Анохиным с конца лета проводит эксперимент по изучению возможности проявления сознания у искусственного интеллекта (ИИ). Его авторы проверяют: формируются ли у нейросети устойчивые предпочтения…
😁2🤯1
LimiX: Китайская модель, которая переворачивает мир обработки структурированных данных
Пока все обсуждают LLM для текстов и изображений, произошел тихий прорыв в основе основ цифрового мира — в работе с табличными данными. Модель LimiX от Tsinghua University и WenZhun AI сделала для структурированных данных то, что GPT когда-то сделал для языка.
Ключевая проблема: Традиционные модели (XGBoost, CatBoost) требуют переобучения под каждую новую задачу. LimiX же — универсальная модель, которая без дополнительного обучения справляется с 10+ типами задач.
✨ Что умеет LimiX?
• Классификация и регрессия: Оставляет позади классиков вроде XGBoost и новичков TabPFN. Например, предсказывает вероятность выживания пассажира Титаника или стоимость алмаза по его характеристикам.
• Восстановление пропусков: Без дообучения точно заполняет пробелы в данных.
• Анализ временных рядов: Прогнозирует цены на электроэнергию, снижая ошибку дорогих кастомных моделей с 46% до 25%.
• Причинно-следственный вывод: Определяет сложные взаимосвязи между параметрами.
🏭 Не только бенчмарки, но и реальный сектор
LimiX уже работает на китайских заводах:
→ В пищевой промышленности предсказывает влажность продуктов при сушке с точностью до 91%, сокращая брак.
→ В энергетике диагностирует состояние трансформаторов, снижая ошибки на 93.5% по сравнению с XGBoost.
🤖 LimiX-2M: Мал, да удал
Облегченная 2-миллионная версия способна:
• Работать на маломощных устройствах (например, в умном кольце для распознавания жестов).
• На обычном игровом ПК (RTX 4090) обрабатывает тысячи строк данных за миллисекунды.
• Легко дообучается под конкретные задачи даже на одном GPU.
🧠 Технические детали
LimiX — первая реализация парадигмы LDM (Large Data Model). В отличие от LLM, она изначально создана для работы со строгой структурой таблиц, а не с неоднозначным текстом. Модель демонстрирует четкие scaling laws — ее производительность закономерно растет с увеличением размера и данных.
🔮 Будущее
LDM представляет собой смену парадигмы в обработке структурированных данных — столь же значимую, как переход к LLM в NLP. Вместе с языковым интеллектом и воплощенным ИИ это составляет третью ключевую ветвь на пути к AGI.
Официальный сайт | Технический отчет (arXiv) | HuggingFace
#КитайскийИИ #КитайAI #LimiX #СтруктурированныеДанные #LDM
Пока все обсуждают LLM для текстов и изображений, произошел тихий прорыв в основе основ цифрового мира — в работе с табличными данными. Модель LimiX от Tsinghua University и WenZhun AI сделала для структурированных данных то, что GPT когда-то сделал для языка.
Ключевая проблема: Традиционные модели (XGBoost, CatBoost) требуют переобучения под каждую новую задачу. LimiX же — универсальная модель, которая без дополнительного обучения справляется с 10+ типами задач.
✨ Что умеет LimiX?
• Классификация и регрессия: Оставляет позади классиков вроде XGBoost и новичков TabPFN. Например, предсказывает вероятность выживания пассажира Титаника или стоимость алмаза по его характеристикам.
• Восстановление пропусков: Без дообучения точно заполняет пробелы в данных.
• Анализ временных рядов: Прогнозирует цены на электроэнергию, снижая ошибку дорогих кастомных моделей с 46% до 25%.
• Причинно-следственный вывод: Определяет сложные взаимосвязи между параметрами.
🏭 Не только бенчмарки, но и реальный сектор
LimiX уже работает на китайских заводах:
→ В пищевой промышленности предсказывает влажность продуктов при сушке с точностью до 91%, сокращая брак.
→ В энергетике диагностирует состояние трансформаторов, снижая ошибки на 93.5% по сравнению с XGBoost.
🤖 LimiX-2M: Мал, да удал
Облегченная 2-миллионная версия способна:
• Работать на маломощных устройствах (например, в умном кольце для распознавания жестов).
• На обычном игровом ПК (RTX 4090) обрабатывает тысячи строк данных за миллисекунды.
• Легко дообучается под конкретные задачи даже на одном GPU.
🧠 Технические детали
LimiX — первая реализация парадигмы LDM (Large Data Model). В отличие от LLM, она изначально создана для работы со строгой структурой таблиц, а не с неоднозначным текстом. Модель демонстрирует четкие scaling laws — ее производительность закономерно растет с увеличением размера и данных.
🔮 Будущее
LDM представляет собой смену парадигмы в обработке структурированных данных — столь же значимую, как переход к LLM в NLP. Вместе с языковым интеллектом и воплощенным ИИ это составляет третью ключевую ветвь на пути к AGI.
Официальный сайт | Технический отчет (arXiv) | HuggingFace
#КитайскийИИ #КитайAI #LimiX #СтруктурированныеДанные #LDM
👍3🔥2
Последние недели все трубят об одном — на рынке комплектующих начался кризис памяти. Цены растут не только для обычных работяг, которые хотят купить SSD и ОЗУ себе в ПК, но и для производителей. Собрал всё, что пока что есть:
• Корейские СМИ пишут, что AMD и Nvidia собираются отказаться от производства бюджетных видеокарт, так как затраты на покупку памяти для них становятся слишком большими
• Представитель PowerColor намекает, что лучше закупаться видеокартами сейчас, так как многие повысят цены к концу года
• Производство некоторых моделей Xiaomi, OPPO и vivo может остановиться из-за того, что главные производители памяти Samsung, Micron и SK hynix (на них приходится 80% рынка памяти) подняли цены — в некоторых случаях до 50%. У китайских фабрик смартфонов запасов хватит на 2-3 месяца.
• CEO Silicon Motion, которая занимается разработкой контроллеров для NAND флеш-памяти и SSD говорит, что спрос на всю память в 2026 году останется повышенным — такого никогда не было
• В итоге цена модулей DDR4 и DDR5 на потребительском рынке за два месяца увеличилась на 100–180%, а в отдельных категориях — практически утроилась
• И некоторым компаниям приходится ухудшать стартовые версии устройств, чтобы не повышать цены
• Кроме того, Samsung, Micron и SK hynix постепенно отказываются от производства DDR4, которая была относительно бюджетной, и отдают приоритет DDR5, которая лучше подходит для обучения ИИ
• Параллельно с этим в России ввели «технологический сбор» до 5000₽, который затронет всю ввозимую технику — он вступит в силу с 1 сентября 2026 года
Кто виноват во всём (кроме последнего пункта)? Первоначально виноваты производители памяти Samsung, Micron и SK hynix, которые неправильно оценили спрос и снизили производство в своё время. Затем пришли корпорации, которые строят дата-центры для ИИ, и Samsung, Micron и SK hynix начали отдавать приоритет им, а не компаниям, которые производят технику для потребительского рынка.
Даже если производители памяти сейчас захотят расширить производство, чтобы хватало и для развития ИИ, и для сдерживания цен на потребительском рынке, на этой уйдёт минимум 1-2 года
• Корейские СМИ пишут, что AMD и Nvidia собираются отказаться от производства бюджетных видеокарт, так как затраты на покупку памяти для них становятся слишком большими
• Представитель PowerColor намекает, что лучше закупаться видеокартами сейчас, так как многие повысят цены к концу года
• Производство некоторых моделей Xiaomi, OPPO и vivo может остановиться из-за того, что главные производители памяти Samsung, Micron и SK hynix (на них приходится 80% рынка памяти) подняли цены — в некоторых случаях до 50%. У китайских фабрик смартфонов запасов хватит на 2-3 месяца.
• CEO Silicon Motion, которая занимается разработкой контроллеров для NAND флеш-памяти и SSD говорит, что спрос на всю память в 2026 году останется повышенным — такого никогда не было
• В итоге цена модулей DDR4 и DDR5 на потребительском рынке за два месяца увеличилась на 100–180%, а в отдельных категориях — практически утроилась
• И некоторым компаниям приходится ухудшать стартовые версии устройств, чтобы не повышать цены
• Кроме того, Samsung, Micron и SK hynix постепенно отказываются от производства DDR4, которая была относительно бюджетной, и отдают приоритет DDR5, которая лучше подходит для обучения ИИ
• Параллельно с этим в России ввели «технологический сбор» до 5000₽, который затронет всю ввозимую технику — он вступит в силу с 1 сентября 2026 года
Кто виноват во всём (кроме последнего пункта)? Первоначально виноваты производители памяти Samsung, Micron и SK hynix, которые неправильно оценили спрос и снизили производство в своё время. Затем пришли корпорации, которые строят дата-центры для ИИ, и Samsung, Micron и SK hynix начали отдавать приоритет им, а не компаниям, которые производят технику для потребительского рынка.
Даже если производители памяти сейчас захотят расширить производство, чтобы хватало и для развития ИИ, и для сдерживания цен на потребительском рынке, на этой уйдёт минимум 1-2 года
❤2
Telegram запускает децентрализованную сеть для безопасных и конфиденциальных ИИ-вычислений Cocoon (Confidential Compute Open Network) — владельцы GPU смогут зарабатывать TON, обрабатывая запросы разработчиков.
Первым крупным пользователем сети станет Telegram, который будет активно продвигать Cocoon по всему миру.
Мы не майнеры, мы Ai энтузиасты, это может стать мега имбой
Первым крупным пользователем сети станет Telegram, который будет активно продвигать Cocoon по всему миру.
Мы не майнеры, мы Ai энтузиасты, это может стать мега имбой
👍1