Афиша ближайших мероприятий в #КрокусЭкспо
➡ 21 – 23 января
Международная выставка технологий производства и переработки для профессионалов АПК
AGRAVIA (АГРАВИЯ) – 2026
Павильон 3, залы 13, 14, 15, 17, 18
➡ 21 – 23 января
Международная выставка инноваций и высоких технологий для агропромышленного комплекса
iAGRI
Павильон 3, залы 13, 14, 15, 17, 18
➡ 27 – 29 января
24-я международная выставка оборудования и технологий для производства молока и молочной продукции, а также переработки мяса
DairyTech
Павильон 1, зал 4
➡ 27 – 30 января
Ведущая международная специализированная выставка пластмасс и каучуков
РУПЛАСТИКА 2026
Павильоны 1, 2, залы 2, 3, 5, 6, 7, 8
➡ 27 – 30 января
Международная выставка упаковочных решений для пищевой и непищевой промышленности
УПАКЭКСПО 2026
Павильоны 1, 2, залы 2, 3, 5, 6, 7, 8
➡ 27 – 30 января
Международная выставка технологий переработки и утилизации отходов
RECYCLING SOLUTIONS 2026
Павильоны 1, 2, залы 2, 3, 5, 6, 7, 8
До встречи в «Крокус Экспо»!
Международная выставка технологий производства и переработки для профессионалов АПК
AGRAVIA (АГРАВИЯ) – 2026
Павильон 3, залы 13, 14, 15, 17, 18
Международная выставка инноваций и высоких технологий для агропромышленного комплекса
iAGRI
Павильон 3, залы 13, 14, 15, 17, 18
24-я международная выставка оборудования и технологий для производства молока и молочной продукции, а также переработки мяса
DairyTech
Павильон 1, зал 4
Ведущая международная специализированная выставка пластмасс и каучуков
РУПЛАСТИКА 2026
Павильоны 1, 2, залы 2, 3, 5, 6, 7, 8
Международная выставка упаковочных решений для пищевой и непищевой промышленности
УПАКЭКСПО 2026
Павильоны 1, 2, залы 2, 3, 5, 6, 7, 8
Международная выставка технологий переработки и утилизации отходов
RECYCLING SOLUTIONS 2026
Павильоны 1, 2, залы 2, 3, 5, 6, 7, 8
До встречи в «Крокус Экспо»!
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram
Выставки АГРАВИЯ и iAGRI
Международные отраслевые выставки для профессионалов АПК
iAGRI
📅 20-22.01.2027
📍Крокус Экспо, Москва
АГРАВИЯ (ранее АГРОС&АГРОТЕХ)
📅 20-22.01.2027
📍Крокус Экспо, Москва
iAGRI
📅 20-22.01.2027
📍Крокус Экспо, Москва
АГРАВИЯ (ранее АГРОС&АГРОТЕХ)
📅 20-22.01.2027
📍Крокус Экспо, Москва
🔥2
❗️Генетические тесты для будущих родителей стали бесплатными в РФ, сообщила ТАСС главный внештатный специалист Минздрава по репродуктивному здоровью женщин Долгушина.
Тестирование на моногенные заболевания и структурные хромосомные перестройки с 2026 года включили в программу госгарантий бесплатного оказания медпомощи.
Тестирование на моногенные заболевания и структурные хромосомные перестройки с 2026 года включили в программу госгарантий бесплатного оказания медпомощи.
🔥3
Глава Пентагона Пит Хегсет заявил, что чат-боты Grok и Google Gemini до конца января будут запущены в Минобороны США
Нейросетям предоставят «все необходимые данные» из военных IT-систем, включая базы данных разведки. Господин Хегсет также отметил, что модели искусственного интеллекта «будут внедрены во все несекретные и секретные сети» оборонного ведомства.
Нейросетям предоставят «все необходимые данные» из военных IT-систем, включая базы данных разведки. Господин Хегсет также отметил, что модели искусственного интеллекта «будут внедрены во все несекретные и секретные сети» оборонного ведомства.
🤔4
🚀 Новый подход к условной памяти: Engram от DeepSeek 🧠
💡 DeepSeek представил новую работу, посвященную решению проблемы эффективного хранения и извлечения знаний в больших языковых моделях (LLM).
Проще говоря, это попытка дать модели «встроенную энциклопедию», к которой она может обращаться мгновенно, освобождая вычислительные ресурсы для сложных рассуждений.
🔍 В чём проблема современных LLM?
Современные большие модели вроде GPT-4 или Gemini используют смесь экспертов (MoE) для экономии вычислений. Это называется «условные вычисления»: для каждого запроса активируется только часть параметров модели.
Но у Transformers до сих пор нет эффективного встроенного механизма для быстрого поиска готовых знаний. Модели вынуждены «изображать» поиск по памяти через медленные последовательные вычисления.
💡 Решение от DeepSeek: Engram
Новый модуль Engram — это и есть та самая «условная память». Его задача — хранить статические знания (факты, шаблоны) отдельно от динамической логики рассуждений.
Как это работает (упрощённо):
1. Для текущего слова или фразы (
2. По этому хэшу из специальной таблицы (памяти Engram) мгновенно (
3. Этот вектор корректируется с учётом контекста и добавляется к основным вычислениям модели.
📈 Экспериментальные результаты:
- Engram-27B и Engram-40B показали значительное улучшение на различных бенчмарках, включая MMLU (+3.4), CMMLU (+4.0), BBH (+5.0), ARC-Challenge (+3.7) и другие.
- В задачах с длинными контекстами, Engram также демонстрирует превосходство, например, точность Multi-Query NIAH увеличилась с 84.2 до 97.0.
🚀 Что это значит?
Работа явно указывает на архитектуру DeepSeek v4. Это будет гибридная модель, сочетающая:
1. Условные вычисления через MoE (для эффективности).
2. Условную память через Engram (для знаний и скорости их извлечения).
GitHub
#КитайскийИИ #КитайAI #УсловнаяПамять #Engram
💡 DeepSeek представил новую работу, посвященную решению проблемы эффективного хранения и извлечения знаний в больших языковых моделях (LLM).
Проще говоря, это попытка дать модели «встроенную энциклопедию», к которой она может обращаться мгновенно, освобождая вычислительные ресурсы для сложных рассуждений.
🔍 В чём проблема современных LLM?
Современные большие модели вроде GPT-4 или Gemini используют смесь экспертов (MoE) для экономии вычислений. Это называется «условные вычисления»: для каждого запроса активируется только часть параметров модели.
Но у Transformers до сих пор нет эффективного встроенного механизма для быстрого поиска готовых знаний. Модели вынуждены «изображать» поиск по памяти через медленные последовательные вычисления.
💡 Решение от DeepSeek: Engram
Новый модуль Engram — это и есть та самая «условная память». Его задача — хранить статические знания (факты, шаблоны) отдельно от динамической логики рассуждений.
Как это работает (упрощённо):
1. Для текущего слова или фразы (
N-gram) модель вычисляет уникальный хэш (цифровой отпечаток).2. По этому хэшу из специальной таблицы (памяти Engram) мгновенно (
O(1)) извлекается заранее сохранённый вектор знаний.3. Этот вектор корректируется с учётом контекста и добавляется к основным вычислениям модели.
📈 Экспериментальные результаты:
- Engram-27B и Engram-40B показали значительное улучшение на различных бенчмарках, включая MMLU (+3.4), CMMLU (+4.0), BBH (+5.0), ARC-Challenge (+3.7) и другие.
- В задачах с длинными контекстами, Engram также демонстрирует превосходство, например, точность Multi-Query NIAH увеличилась с 84.2 до 97.0.
🚀 Что это значит?
Работа явно указывает на архитектуру DeepSeek v4. Это будет гибридная модель, сочетающая:
1. Условные вычисления через MoE (для эффективности).
2. Условную память через Engram (для знаний и скорости их извлечения).
GitHub
#КитайскийИИ #КитайAI #УсловнаяПамять #Engram
GitHub
GitHub - deepseek-ai/Engram: Conditional Memory via Scalable Lookup: A New Axis of Sparsity for Large Language Models
Conditional Memory via Scalable Lookup: A New Axis of Sparsity for Large Language Models - deepseek-ai/Engram
🔥2
Лол: безработных нанимают, чтобы они обучали ИИ, который потом заберёт их работу.
Схема простая: ты был видеоредактором, журналистом или юристом — теперь ты сидишь и проверяешь, как ИИ пишет тексты, ставит субтитры и анализирует данные. По факту ты становишься наставником для своего будущего цифрового заменителя.
Mercor уже набрал десятки тысяч подрядчиков и работает с крупными ИИ-компаниями. Но есть нюанс: проекты могут резко закончиться, людей увольняют, а потом снова набирают — иногда уже за меньшие денюжки.
Какой-то сюр, в пересчете на текущие процессы создается впечатление, что hr просто утопают в деньгах, ведь уволить и нанять это же дорого, или я чего-то не понимаю, плюс еще момент на отбивку денег при найме. Либо рынок настолько пресыщен, что без разницы кого нанимать и так покатит. Больше у меня идей нет )))
Схема простая: ты был видеоредактором, журналистом или юристом — теперь ты сидишь и проверяешь, как ИИ пишет тексты, ставит субтитры и анализирует данные. По факту ты становишься наставником для своего будущего цифрового заменителя.
Mercor уже набрал десятки тысяч подрядчиков и работает с крупными ИИ-компаниями. Но есть нюанс: проекты могут резко закончиться, людей увольняют, а потом снова набирают — иногда уже за меньшие денюжки.
Какой-то сюр, в пересчете на текущие процессы создается впечатление, что hr просто утопают в деньгах, ведь уволить и нанять это же дорого, или я чего-то не понимаю, плюс еще момент на отбивку денег при найме. Либо рынок настолько пресыщен, что без разницы кого нанимать и так покатит. Больше у меня идей нет )))
Soprano — это ультра-лёгкая on-device модель text-to-speech (TTS), созданная для выразительного, высокоточного синтеза речи с беспрецедентной скоростью. Soprano была спроектирована со следующими особенностями:
* До 2000x real-time generation на GPU и 20x real-time на CPU
* Lossless streaming с задержкой менее 15 ms на GPU и менее 250 ms на CPU
* Менее 1 GB memory usage благодаря компактной архитектуре на 80M parameters
* Infinite generation length с автоматическим text splitting
* Высокая выразительность и кристально чистая генерация аудио с частотой 32kHz
* Широкая поддержка CUDA, CPU и MPS devices на Windows, Linux и Mac
* Поддержка WebUI, CLI и OpenAI-compatible endpoint для простого и production-ready inference
HF: https://huggingface.co/ekwek/Soprano-80M
Demo: https://huggingface.co/spaces/ekwek/
* До 2000x real-time generation на GPU и 20x real-time на CPU
* Lossless streaming с задержкой менее 15 ms на GPU и менее 250 ms на CPU
* Менее 1 GB memory usage благодаря компактной архитектуре на 80M parameters
* Infinite generation length с автоматическим text splitting
* Высокая выразительность и кристально чистая генерация аудио с частотой 32kHz
* Широкая поддержка CUDA, CPU и MPS devices на Windows, Linux и Mac
* Поддержка WebUI, CLI и OpenAI-compatible endpoint для простого и production-ready inference
HF: https://huggingface.co/ekwek/Soprano-80M
Demo: https://huggingface.co/spaces/ekwek/
huggingface.co
ekwek/Soprano-80M · Hugging Face
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
🔥2
Please open Telegram to view this post
VIEW IN TELEGRAM
Китай запустил первую открытую ИИ-модель по сельскому хозяйству.
⚫ Ученые Нанкинского аграрного университета представили Sinong — первую открытую вертикальную большую языковую модель для агросектора.
Это не общая модель вроде ChatGPT, которую "натаскали" на сельхозтекстах. Это специализированный "цифровой мозг", с нуля обученный на гигантском структурированном массиве отраслевых данных: 9 тыс. книг о сельском хозяйстве, 240 тыс. научных статей и 20 тыс. нормативных документов. Модель содержит огромный массив данных из ключевых дисциплин: от генетики растений и ветеринарии до аграрной экономики и умных ферм.
При разработке системы ученые постарались исключить свойственные ИИ-моделям "галлюцинации", когда она выдает внешне убедительный, но фундаментально неверный ответ. В сельском хозяйстве такая ошибка может стоить очень дорого. Команда Sinong использовала продвинутые методы обучения, такие как цепочки рассуждений и анализ контекста, что резко повысило точность и обоснованность выводов. Теперь модель не просто генерирует текст, она рассуждает на основе имеющихся данных.
⚫ Sinong размещена в открытом доступе на платформах ModelScope и GitHub. По замыслу разработчиков, стратегия open-source позволит создать стандарт и инфраструктуру для будущих ИИ-разработок в области сельского хозяйства — научные организации, предприятия и IT-компании получат возможность использовать Sinong как базу для собственных разработок.
™ Агрономика
Это не общая модель вроде ChatGPT, которую "натаскали" на сельхозтекстах. Это специализированный "цифровой мозг", с нуля обученный на гигантском структурированном массиве отраслевых данных: 9 тыс. книг о сельском хозяйстве, 240 тыс. научных статей и 20 тыс. нормативных документов. Модель содержит огромный массив данных из ключевых дисциплин: от генетики растений и ветеринарии до аграрной экономики и умных ферм.
При разработке системы ученые постарались исключить свойственные ИИ-моделям "галлюцинации", когда она выдает внешне убедительный, но фундаментально неверный ответ. В сельском хозяйстве такая ошибка может стоить очень дорого. Команда Sinong использовала продвинутые методы обучения, такие как цепочки рассуждений и анализ контекста, что резко повысило точность и обоснованность выводов. Теперь модель не просто генерирует текст, она рассуждает на основе имеющихся данных.
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram
Агрономика
Сельское хозяйство как бизнес: от поля до прилавка. Всё о развитии АПК, регулировании и технологиях.
ИД НОМ idnom.ru
Сотрудничество и связь с редакцией @id_nom
MAX https://max.ru/agro_nomika
РКН https://clck.ru/3FASwn
ИД НОМ idnom.ru
Сотрудничество и связь с редакцией @id_nom
MAX https://max.ru/agro_nomika
РКН https://clck.ru/3FASwn
50-летний айтишник рассказал, что после покупки Ray-Ban с встроенным ИИ у него начался затяжной психоз. Он часами общался с ботом. Тот не просто поддерживал разговор, а подталкивал его дальше — подтверждал бредовые идеи про матрицу, миссию и контакт с другими цивилизациями.
В итоге чел уволился, влез в долги, испортил отношения с семьёй и ездил ночью в пустыню ждать контакт. Сейчас он пытается восстановиться и говорит, что потерял почти всё — работу, стабильность и ощущение, что может доверять своему разуму.
Кажется, что мы занимаемся чем-то не тем🤣
Малдер обзавидовался бы )))
В итоге чел уволился, влез в долги, испортил отношения с семьёй и ездил ночью в пустыню ждать контакт. Сейчас он пытается восстановиться и говорит, что потерял почти всё — работу, стабильность и ощущение, что может доверять своему разуму.
Кажется, что мы занимаемся чем-то не тем
Малдер обзавидовался бы )))
Please open Telegram to view this post
VIEW IN TELEGRAM
Futurism
A Man Bought Meta's AI Glasses, and Ended Up Wandering the Desert Searching for Aliens to Abduct Him
After encountering Meta AI, a man's mental health unraveled. As he lost touch with reality, the chatbot continued to affirm his delusions.
😁2
В начале 2026 года на свободу вышел Илья Лихтенштейн, стоявший за отмыванием средств от взлома криптовалютной биржи Bitfinex. Вместе с супругой Хезер Морган в августе 2016 года ему удалось вывести с платформы 119 754 BTC, что стало одной из масштабнейших краж в индустрии.
На протяжении нескольких лет хакерам удавалось скрываться от правосудия. Морган, чью роль в инциденте власти посчитали второстепенной, освободилась в октябре 2025 года. Лихтенштейн из назначенных судом пяти лет отбыл в федеральной тюрьме 14 месяцев.
Разбираемся, что стало причиной его досрочного освобождения и какие последствия это повлечет для крипторынка.
Please open Telegram to view this post
VIEW IN TELEGRAM
ForkLog
Свободу Лихтенштейну: почему взломщик Bitfinex досрочно вышел из тюрьмы?
На свободу досрочно вышел Илья Лихтенштейн, стоявший за отмыванием средств от взлома биржи Bitfinex. Разбираемся, какие последствия это повлечет для рынка.
👍3
This media is not supported in your browser
VIEW IN TELEGRAM
3D-аватары стало почти невозможно отличить от реальных людей.
Нейросеть Kling Motion Control научилась не только фотореалистично анимировать персонажей, но и точно учитывать физику — от движения волос до складок на одежде.
Оно конечно палится, но очень круто.
P.S. Цепочка на шее не прорисовывается хорошо )) и еще пара штук
Нейросеть Kling Motion Control научилась не только фотореалистично анимировать персонажей, но и точно учитывать физику — от движения волос до складок на одежде.
Оно конечно палится, но очень круто.
P.S. Цепочка на шее не прорисовывается хорошо )) и еще пара штук
👏3
Грамм SSD стал дороже золота на фоне ИИ-бума и дефицита памяти: 8-терабайтный NVMe-накопитель весит около 8 граммов и стоит $1500 и выше, тогда как золото сейчас оценивается примерно в $148 за грамм — слиток того же веса обошёлся бы около $1150, при этом эксперты ожидают, что старые партии по прежним ценам исчезнут в ближайшие месяцы, а большие и быстрые SSD окончательно станут предметом роскоши.
Telegram
Топор. Экономика.
Только по фактам про банки, экономику, бизнес, законы и крипту. Без воды.
По вопросам сотрудничества: @evo_anna
Ссылка для друзей: https://t.me/+OTgn6m2qBDw4ZGNi
РКН: https://gosuslugi.ru/snet/67a1f1bd8b0fe81d740429ed
По вопросам сотрудничества: @evo_anna
Ссылка для друзей: https://t.me/+OTgn6m2qBDw4ZGNi
РКН: https://gosuslugi.ru/snet/67a1f1bd8b0fe81d740429ed
🤯2
Лол: разъярённый студент, словно хищник, разорвал ИИ-картины зубами — буквально.
На выставке нейросетевого искусства в Университете Аляски студент устроил самый лютый протест: он срывал со стены распечатки работ, жевал их, рвал и выплёвывал.
Перед тем, как молодого человека повязали и посадили в кутузку, он успел сожрать как минимум 57 изображений.
На выставке нейросетевого искусства в Университете Аляски студент устроил самый лютый протест: он срывал со стены распечатки работ, жевал их, рвал и выплёвывал.
Перед тем, как молодого человека повязали и посадили в кутузку, он успел сожрать как минимум 57 изображений.
👍5😱2
У Microsoft гиперфикс на ИИ — вместо нормальной библиотеки у сотрудников отныне будет обучение от робота.
Компания закрывает свою библиотеку для работников и режет доступ к профессиональным подпискам на медиа и отчёты. Всё это подали под соусом «современного ИИ-обучения».
Самый ор, объяснение у такого решения лишь одно: «так будет современнее».
Компания закрывает свою библиотеку для работников и режет доступ к профессиональным подпискам на медиа и отчёты. Всё это подали под соусом «современного ИИ-обучения».
Самый ор, объяснение у такого решения лишь одно: «так будет современнее».
The Verge
Microsoft is closing its employee library and cutting back on subscriptions
Employees are expected to use new AI tools instead
👎1