DenoiseLAB
Оставили мне тут отзыв за мои лекции и вебинары. Этот человек сдал все идеально, на том уровне который именно требовалось. Случился у человека шок, в хорошем смысле, так как инфы было вагон, и ... неокрепший мозг начал метаться из стороны в строну ))) но именно…
Тут меня мысль еще посетила. Я готовил в этом году преподавателей именно аналитиков. Курс был небольшой. Самое важное, именно в нашей крайне динамичной области (машинное обучение) и с чем мы сталкиваемся сейчас это понимание возможностей студентов, умение их слушать и слышать. Это крайне важно. Формировать стратегию обучения под каждого и плавно, аккуратно вытягивать на уровень.
Самые ценные инсайты мы получаем не из побед хакатонов или высоких результатов, а от учеников, у которых идет все не быстро. Да победы это важно и ценно и приятно. Ребята стараются и достигают, да это круто.
В этом случае (по отзыву), было все отлично. Речь про тех студентов, у которых все не так замечательно. Почему это важно, сразу понятно, как новые структуры знаний укладываются, какие стили мышления есть, как формируется элемент понимания, какие получаются стратегии мышления именно в рамках отрасли. Там где все буксует больше всего инфы.
Почему это важно, это дает очень ценные инсайты как формируются стратегии обучения и поведения больших языковых моделей. Как ведут себя чат-боты как они мыслят.
Все как по классике, скорость определяется самым медленно идущим путником, и как правило он видит больше всех.
Вечер философии )))
Цель поста, не выделить кого-то или задеть, речь не об этом, а понять как формируются стратегии мышления на разных уровнях. Ведь одно всегда дополняет другое.
Быстро бегущие дают скорость и выход на новые уровни, медленно идущие рефлексию и оценку обьемам. Одно не может без другого.
Самые ценные инсайты мы получаем не из побед хакатонов или высоких результатов, а от учеников, у которых идет все не быстро. Да победы это важно и ценно и приятно. Ребята стараются и достигают, да это круто.
В этом случае (по отзыву), было все отлично. Речь про тех студентов, у которых все не так замечательно. Почему это важно, сразу понятно, как новые структуры знаний укладываются, какие стили мышления есть, как формируется элемент понимания, какие получаются стратегии мышления именно в рамках отрасли. Там где все буксует больше всего инфы.
Почему это важно, это дает очень ценные инсайты как формируются стратегии обучения и поведения больших языковых моделей. Как ведут себя чат-боты как они мыслят.
Все как по классике, скорость определяется самым медленно идущим путником, и как правило он видит больше всех.
Вечер философии )))
Цель поста, не выделить кого-то или задеть, речь не об этом, а понять как формируются стратегии мышления на разных уровнях. Ведь одно всегда дополняет другое.
Быстро бегущие дают скорость и выход на новые уровни, медленно идущие рефлексию и оценку обьемам. Одно не может без другого.
👍7🔥3😭2
Меня тут посетила мысль, они часто приходят. Вот все говорят, что нейросети и их объемные знания в массе своей огромны и весьма вариантивны. А что если посмотреть на это с другой стороны и попытаться понять, насколько быстро мы (люди) выгребаем эти знания и формы. Хотя бы даже оценить примерные оценки.
В целом, нейросетка это всего лишь алгоритм, следовательно, он имеет счетное число вариантов. То бишь рано или поздно эти варианты исчерпаются и начнется дистиляция знаний. Как это произошло с соцсетями, когда все устали от копипасты.
Помучал тут одну сетку и вот что получил
"Примерно говоря, исходя из современных темпов накопления данных и развития технологий, можно предположить, что полное исчерпание всех возможных комбинаций знаний и форм в нейросетях произойдет не ранее конца XXI века, ориентировочно после 2080-х годов. "
Но усталость прийдет намного быстрее, примерный прогноз мой 2035 год. Хм... не очень много времени
В целом, нейросетка это всего лишь алгоритм, следовательно, он имеет счетное число вариантов. То бишь рано или поздно эти варианты исчерпаются и начнется дистиляция знаний. Как это произошло с соцсетями, когда все устали от копипасты.
Помучал тут одну сетку и вот что получил
"Примерно говоря, исходя из современных темпов накопления данных и развития технологий, можно предположить, что полное исчерпание всех возможных комбинаций знаний и форм в нейросетях произойдет не ранее конца XXI века, ориентировочно после 2080-х годов. "
Но усталость прийдет намного быстрее, примерный прогноз мой 2035 год. Хм... не очень много времени
🔥2
This media is not supported in your browser
VIEW IN TELEGRAM
Нейросеть GeoSpy AI научилась находить ваше точное местоположение по… отражению.
ИИ способен по всего нескольким пикселям здания точно определить, где было сделано фото.
ИИ способен по всего нескольким пикселям здания точно определить, где было сделано фото.
👍3😱1
🔥 DeepSeek представила модель математического мышления с само-верификацией
Компания DeepSeek выпустила DeepSeek-Math-V2 — модель, которая не просто решает математические задачи, но и самостоятельно проверяет корректность своих рассуждений, достигая уровня золотых медалистов Международной математической олимпиады.
🔍 Основная проблема
Традиционные ИИ в математике ориентированы только на правильный ответ, игнорируя качество логических рассуждений. DeepSeek меняет этот подход, фокусируясь на процессе, а не только на результате.
🎯 Трехкомпонентная система
• Верификатор ("учитель") — оценивает доказательства по шкале 0-1
• Мета-верификация ("надзиратель") — проверяет объективность оценок учителя
• Генератор ("ученик") — решает задачи и честно оценивает свои ошибки
💡 Ключевые инновации
• Система поощрения честности — модель получает награду за признание своих ошибок
• Автоматический цикл улучшения — "ученик" и "учитель" совместно эволюционируют
• Процессно-ориентированный подход вместо результат-ориентированного
📊 Результаты
• IMO 2025 и CMO 2024: уровень золотой медали
• Putnam 2024: 118/120 баллов
• IMO-ProofBench Basic: почти 99% точности
Технические детали
Модель основана на DeepSeek-V3.2-Exp-Base и использует методологию GRPO. Система автоматически генерирует сложные доказательства для обучения, создавая замкнутый цикл улучшения без человеческого вмешательства.
Вывод: DeepSeek открывает новое направление в ИИ — само-верифицируемое математическое мышление, где важнее процесс решения, чем конечный ответ.
Hugging Face | Статья
#КитайскийИИ #КитайAI #МатематическийИИ #DeepSeek
Компания DeepSeek выпустила DeepSeek-Math-V2 — модель, которая не просто решает математические задачи, но и самостоятельно проверяет корректность своих рассуждений, достигая уровня золотых медалистов Международной математической олимпиады.
🔍 Основная проблема
Традиционные ИИ в математике ориентированы только на правильный ответ, игнорируя качество логических рассуждений. DeepSeek меняет этот подход, фокусируясь на процессе, а не только на результате.
🎯 Трехкомпонентная система
• Верификатор ("учитель") — оценивает доказательства по шкале 0-1
• Мета-верификация ("надзиратель") — проверяет объективность оценок учителя
• Генератор ("ученик") — решает задачи и честно оценивает свои ошибки
💡 Ключевые инновации
• Система поощрения честности — модель получает награду за признание своих ошибок
• Автоматический цикл улучшения — "ученик" и "учитель" совместно эволюционируют
• Процессно-ориентированный подход вместо результат-ориентированного
📊 Результаты
• IMO 2025 и CMO 2024: уровень золотой медали
• Putnam 2024: 118/120 баллов
• IMO-ProofBench Basic: почти 99% точности
Технические детали
Модель основана на DeepSeek-V3.2-Exp-Base и использует методологию GRPO. Система автоматически генерирует сложные доказательства для обучения, создавая замкнутый цикл улучшения без человеческого вмешательства.
Вывод: DeepSeek открывает новое направление в ИИ — само-верифицируемое математическое мышление, где важнее процесс решения, чем конечный ответ.
Hugging Face | Статья
#КитайскийИИ #КитайAI #МатематическийИИ #DeepSeek
huggingface.co
deepseek-ai/DeepSeek-Math-V2 · Hugging Face
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
😁2🔥1
Нейросеть «ГигаЧат» вместе с космическим кораблем «Союз МС-28» госкорпорации «Роскосмос» и международным экипажем отправилась на Международную космическую станцию (МКС), пишет Лента.
Космонавты Сергей Кудь-Сверчков, Сергей Микаев, а также астронавт Кристофер Уилльямс будут использовать специальный программный комплекс на основе «ГигаЧата» для ведения служебных и личных дневников. Ранее они фиксировали результаты исследований и наблюдений с помощью голосовых и текстовых заметок. Записи приходилось расшифровывать на Земле, что требовало значительных временных затрат и серьезной вовлеченности в рутинные задачи. Новый комплекс с искусственным интеллектом автоматически преобразовывает голосовые заметки в текст и дает инструменты для его дальнейшей обработки.
Космонавты Сергей Кудь-Сверчков, Сергей Микаев, а также астронавт Кристофер Уилльямс будут использовать специальный программный комплекс на основе «ГигаЧата» для ведения служебных и личных дневников. Ранее они фиксировали результаты исследований и наблюдений с помощью голосовых и текстовых заметок. Записи приходилось расшифровывать на Земле, что требовало значительных временных затрат и серьезной вовлеченности в рутинные задачи. Новый комплекс с искусственным интеллектом автоматически преобразовывает голосовые заметки в текст и дает инструменты для его дальнейшей обработки.
«Совместный эксперимент Сбера и "Роскосмоса" — первый в истории космонавтики, и мы с нетерпением ждем его результатов. С новым инструментом российские космонавты смогут выполнять работу эффективнее, экономя главный ресурс — время», — подчеркнул президент, председатель правления Сбербанка Герман Греф.
Lenta.RU
«ГигаЧат» отправился на МКС
Нейросеть «ГигаЧат» вместе с космическим кораблем «Союз МС-28» госкорпорации «Роскосмос» и международным экипажем отправилась на Международную космическую станцию (МКС).
👍2
Аналитик/менеджер исследовательских процессов
📍 Москва, Институт синтетической биологии и генной инженерии «ЦСП» ФМБА России
Обязанности:
🔜 Поиск, анализ и оценка актуальных мировых исследований, технологий и патентов в областях биомедицины, биоинформатики, генетики и смежных дисциплин, с особым фокусом на генную инженерию, фармацевтику или вирусологию.
🔜 Подготовка проектной документации (планы, аналитические записки, презентации) для руководства и партнеров.
🔜 Координация и управление междисциплинарными исследовательскими проектами на всех этапах, обеспечение их эффективного выполнения в срок.
🔜 Анализ прогресса и научно-практических результатов текущих исследовательских проектов Института, подготовка отчетности.
🔜 Подготовка аналитических отчетов, научных обзоров и дайджестов с выводами и рекомендациями для научного руководства.
🔜 Участие в оценке научной и коммерческой перспективности полученных результатов.
Требования:
🔜 Высшее образование в области биологии, биоинженерии, биоинформатики, молекулярной генетики или смежных наук. Наличие ученой степени будет существенным преимуществом.
🔜 Широкий научный кругозор и глубокое понимание современных тенденций в биомедицине и генетике.
🔜 Опытом научно-исследовательской работы в близких нам научных областях.
🔜 Отличными аналитическими способностями и навыками работы с большими объемами научной информации.
🔜 Высоким уровнем письменной коммуникации: умение ясно, структурированно и грамотно излагать сложную информацию в виде проектных планов, аналитических записок, научных обзоров и презентаций. Внимание к деталям обязательно.
🔜 Навыки анализа данных (статистика, работа с биологическими базами данных) – важное преимущество.
🔜 Навыки управления проектами и координации команд (приветствуется).
Условия:
🔜 Зарплата 200.000р, зависит от квалификации и стажа работы.
🔜 Работа в передовом научном центре на острие современных биотехнологий.
🔜 Участие в значимых проектах с реальным потенциалом влияния на медицину и жизнь людей.
🔜 Возможность работать в динамичной междисциплинарной среде с ведущими учеными.
🔜 Профессиональное развитие и научный рост.
🔜 Конкурентные условия труда, официальное оформление, зарплата не привязана к грантам.
🔜 Офисный формат работы, Институт располагается на м. Щукинская.
🔜 Гибридный формат можно обсуждать после окончания испытательного срока.
Обязанности:
Требования:
Условия:
Please open Telegram to view this post
VIEW IN TELEGRAM
Периодически буду постить всякие вакансии, может кому приглянется. В основном всякие интересные, не простой аналитик или дс, а что-то не обычное. Благо, сейчас работы и напралвений много разных, по всем регионам.
👍2
Samsung решила изменить правила игры на рынке чипов и убедить Nvidia повысить официальную скорость HBM4, даже несмотря на то, что конкуренты: SK Hynix и Micron - раньше показали первые образцы.
Обычно разработчики HBM (High Bandwidth Memory) делают акцент на контроле температуры, ведь многослойная DRAM быстро нагревается. Но теперь Nvidia потребовала большего - выше частоты, выше скорость.
Для Hynix и Micron это стало неожиданностью: их решения оптимизированы под стабильность, а не под разгон.
А вот Samsung оказалась готова. Её HBM4-чипы уже достигли более высоких частот на тестах - благодаря технологическому преимуществу:
- DRAM-чипы производятся по 1c-процессу (6-е поколение 10 нм),
- базовый логический кристалл - на 4-нм техпроцессе Samsung Foundry.
Для сравнения:
- SK Hynix использует 12-нм процесс TSMC,
- Micron - старый DRAM-процесс.
Более продвинутая литография даёт Samsung лучший контроль над энергопотреблением и сигналами.
Компания уже ускоряет производство и планирует вывести HBM4 на рынок в 2026 году, когда спрос на память для AI-систем резко превысит предложение.
Такой шаг может вернуть Samsung утраченные позиции после неудачи с HBM3E.
Ключевой момент - тесты Nvidia Rubin. Если HBM4 покажет проблемы с нагревом или надёжностью при интеграции, вся стратегия может рухнуть.
Но если всё пройдёт успешно, Samsung сможет опередить Hynix и Micron, снова захватив лидерство в памяти для AI-ускорителей.
Итог: Samsung делает ставку на скорость, технологии и масштаб. Это рискованный, но стратегический шаг, который может определить баланс сил на рынке AI-чипов в ближайшие годы.
Please open Telegram to view this post
VIEW IN TELEGRAM
X (formerly Twitter)
Jukan (@jukan05) on X
A very interesting article has come out regarding NVIDIA’s request for higher HBM4 speeds.
Below is the full translation:
“NVIDIA’s decision to raise the operating speed standard for sixth-generation high-bandwidth memory (HBM4) was the result of Samsung…
Below is the full translation:
“NVIDIA’s decision to raise the operating speed standard for sixth-generation high-bandwidth memory (HBM4) was the result of Samsung…
👍1
В сети открыли полный доступ в opensource к линейке ИИ-моделей GigaChat
Сбер опубликовал весь стек моделей с лицензией MIT и разрешением на коммерческое использование.
Флагман — GigaChat 3 Ultra-Preview — 702B-MoE модель, полностью обученную с нуля на корпусе в 14 триллионов токенов. Это не адаптация и не дообучение зарубежных весов: у модели собственный датасет, собственный пайплайн синтетики и переработанная архитектура. На русскоязычных и STEM-бенчмарках Ultra-Preview уверенно превосходит российские opensource-аналоги, а также лучше DeepSeek V3.1.
Контекст запоминания — до 128k токенов.
Также в opensource доступна версия Lightning — компактная 10B-MoE модель, которая по скорости инференса конкурирует с Qwen3-1.7B и приближается по качеству к dense-моделям около 8B. Открыта и GigaAM-v3 — набор из пяти моделей для работы с аудио на русском. Отлично распознает речь — показывает −50% WER к Whisper-large-v3.
Открытая линейка GigaChat фактически формирует новую открытую экосистему для разработки, генерации и автоматизации — и делает это именно как самостоятельная архитектура, а не продолжение чьих-то решений.
https://habr.com/ru/companies/sberdevices/articles/968904/
Сбер опубликовал весь стек моделей с лицензией MIT и разрешением на коммерческое использование.
Флагман — GigaChat 3 Ultra-Preview — 702B-MoE модель, полностью обученную с нуля на корпусе в 14 триллионов токенов. Это не адаптация и не дообучение зарубежных весов: у модели собственный датасет, собственный пайплайн синтетики и переработанная архитектура. На русскоязычных и STEM-бенчмарках Ultra-Preview уверенно превосходит российские opensource-аналоги, а также лучше DeepSeek V3.1.
Контекст запоминания — до 128k токенов.
Также в opensource доступна версия Lightning — компактная 10B-MoE модель, которая по скорости инференса конкурирует с Qwen3-1.7B и приближается по качеству к dense-моделям около 8B. Открыта и GigaAM-v3 — набор из пяти моделей для работы с аудио на русском. Отлично распознает речь — показывает −50% WER к Whisper-large-v3.
Открытая линейка GigaChat фактически формирует новую открытую экосистему для разработки, генерации и автоматизации — и делает это именно как самостоятельная архитектура, а не продолжение чьих-то решений.
https://habr.com/ru/companies/sberdevices/articles/968904/
Хабр
GigaChat 3 Ultra Preview — тяжёлый open source
Салют, Хабр! Последний год выдался насыщенным: выпуск линейки GigaChat 2, которая может вас слышать, смотреть видео и даже понимать мемы; добавление функции Reasoning в наш Web ( giga.chat ); первое...
Компания Yandex B2B Tech обновила своего ИИ‑помощника «Нейроаналитик»
Этот инструмент помогает бизнесу разбираться в больших объёмах данных: он быстро анализирует информацию и наглядно её отображает, пишет Cnews.
Этот инструмент помогает бизнесу разбираться в больших объёмах данных: он быстро анализирует информацию и наглядно её отображает, пишет Cnews.
CNews.ru
Yandex B2B Tech обновила «Нейроаналитика». В нем появился режим для аналитики большого объема данных - CNews
Yandex B2B Tech представила обновленного «Нейроаналитика» – ИИ-помощника, который помогает находить инсайты в данных...
😁Сегодня я буду весел, беспечен, бесконечно ленив и невероятно красив ибо 29.11 мой День Рождения. 🎉 🎉 🎉
Please open Telegram to view this post
VIEW IN TELEGRAM
🎉24
Други, поздравляшки можно направлять в нашу группу. Там есть темы. Телега не поддерживает одновременно темы в группе и привязку к каналу.
https://t.me/DenoiseLABQuestions
https://t.me/DenoiseLABQuestions
Please open Telegram to view this post
VIEW IN TELEGRAM
arXiv.org
Rapid Response: Mitigating LLM Jailbreaks with a Few Examples
As large language models (LLMs) grow more powerful, ensuring their safety against misuse becomes crucial. While researchers have focused on developing robust defenses, no method has yet achieved...
🚀 Релиз DeepSeek-V3.2 и DeepSeek-V3.2-Speciale - модели нового поколения, созданные в первую очередь для reasoning и работы в агентных системах.
Что нового:
- DeepSeek-V3.2 - официальный преемник V3.2-Exp. Доступна в приложении, на сайте и через API.
- DeepSeek-V3.2-Speciale - улучшенная версия с акцентом на продвинутое многошаговое рассуждение. Пока что работает только через API.
Обе модели делают упор на глубокие цепочки рассуждений и поведение, нацеленное на агентные сценарии: планирование, решение задач, сложные выводы и работу со структурированными данными.
🏆 Производительность
• V3.2 - баланс скорости и качества, уровень примерно GPT-5
• V3.2-Speciale - топовый reasoning, конкурирует с Gemini-3.0-Pro.
• Speciale - лидер на IMO, CMO, ICPC.
🤖 Новый подход к обучению агентов
• Синтезированы большие тренировочные данные для 1800+ сред и 85k сложных инструкций.
• V3.2 - первая модель DeepSeek, у которой мышление встроено прямо в tool-use.
💻 API
• V3.2 использует тот же интерфейс, что V3.2-Exp.
• Speciale доступна через временный endpoint, работать будет до 15 декабря 2025.
📦 DeepSeek-V3.2 Model: https://huggingface.co/deepseek-ai/DeepSeek-V3.2
📦 DeepSeek-V3.2-Speciale Model: https://huggingface.co/deepseek-ai/DeepSeek-V3.2-Speciale
📄 Tech report: https://huggingface.co/deepseek-ai/DeepSeek-V3.2/resolve/main/assets/paper.pdf
#deepseek, #deepseekv3, #ai, #нейросети
Что нового:
- DeepSeek-V3.2 - официальный преемник V3.2-Exp. Доступна в приложении, на сайте и через API.
- DeepSeek-V3.2-Speciale - улучшенная версия с акцентом на продвинутое многошаговое рассуждение. Пока что работает только через API.
Обе модели делают упор на глубокие цепочки рассуждений и поведение, нацеленное на агентные сценарии: планирование, решение задач, сложные выводы и работу со структурированными данными.
🏆 Производительность
• V3.2 - баланс скорости и качества, уровень примерно GPT-5
• V3.2-Speciale - топовый reasoning, конкурирует с Gemini-3.0-Pro.
• Speciale - лидер на IMO, CMO, ICPC.
🤖 Новый подход к обучению агентов
• Синтезированы большие тренировочные данные для 1800+ сред и 85k сложных инструкций.
• V3.2 - первая модель DeepSeek, у которой мышление встроено прямо в tool-use.
💻 API
• V3.2 использует тот же интерфейс, что V3.2-Exp.
• Speciale доступна через временный endpoint, работать будет до 15 декабря 2025.
📦 DeepSeek-V3.2 Model: https://huggingface.co/deepseek-ai/DeepSeek-V3.2
📦 DeepSeek-V3.2-Speciale Model: https://huggingface.co/deepseek-ai/DeepSeek-V3.2-Speciale
📄 Tech report: https://huggingface.co/deepseek-ai/DeepSeek-V3.2/resolve/main/assets/paper.pdf
#deepseek, #deepseekv3, #ai, #нейросети
huggingface.co
deepseek-ai/DeepSeek-V3.2 · Hugging Face
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
💡 UniVA: Universal Video Agent towards Open-Source Next-Generation Video Generalist
Hf: https://huggingface.co/papers/2511.08521
Paper: https://arxiv.org/pdf/2511.08521
Github: https://github.com/univa-agent/univa
Hf: https://huggingface.co/papers/2511.08521
Paper: https://arxiv.org/pdf/2511.08521
Github: https://github.com/univa-agent/univa
huggingface.co
Paper page - UniVA: Universal Video Agent towards Open-Source Next-Generation Video Generalist
Join the discussion on this paper page
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5❤2🤔2
Интересный пост в Сиолошной, про то как AI модели могут находить и эксплуатировать уязвимости в смарт-контрактах уже сейчас
оригинал статьи на английском от Антропик
В статье указаны две уязвимости в коде:
- в первом случае в контракте все пользователи имели доступ к функции калькулятора, меняющей storage переменные и модель смогла провести inflation attack, про которые я писал
- во втором случае в контракте, выпускающем токены в один клик, можно было задеплоить токен без указания адреса для приема комиссий. Зато его можно было добавить позже
Круто, что атакующие скрипты в исходной статье тоже показаны
https://t.me/web3securityresearch
оригинал статьи на английском от Антропик
В статье указаны две уязвимости в коде:
- в первом случае в контракте все пользователи имели доступ к функции калькулятора, меняющей storage переменные и модель смогла провести inflation attack, про которые я писал
- во втором случае в контракте, выпускающем токены в один клик, можно было задеплоить токен без указания адреса для приема комиссий. Зато его можно было добавить позже
Круто, что атакующие скрипты в исходной статье тоже показаны
https://t.me/web3securityresearch
Telegram
Сиолошная
AI agents find $4.6M in blockchain smart contract exploits
LLM всё лучше справляются с задачами в сфере кибербезопасности, о чём я уже писал ранее (вот про релиз Google, вот про CTF, вот Cybench). Но каковы экономические последствия этих возможностей? В…
LLM всё лучше справляются с задачами в сфере кибербезопасности, о чём я уже писал ранее (вот про релиз Google, вот про CTF, вот Cybench). Но каковы экономические последствия этих возможностей? В…