Статья на TechExplorist рассказывает о новой модели искусственного интеллекта LinOSS (Linear Oscillatory State-Space Models), разработанной исследователями из MIT CSAIL. Эта модель основана на принципах гармонических осцилляторов, аналогичных нейронным колебаниям в мозге
Традиционные state-space модели, используемые для анализа долгосрочных данных, часто страдают от нестабильности и требуют значительных вычислительных ресурсов
LinOSS решает эти проблемы, используя вынужденные гармонические осцилляторы, что позволяет модели сохранять стабильность и эффективность даже при обработке очень длинных последовательностей данных (сотни тысяч точек)
Ключевые преимущества LinOSS включают повышенную стабильность прогнозов, сниженные требования к вычислительным ресурсам и способность моделировать любые непрерывные причинно-следственные связи
В тестах модель показала почти вдвое лучшие результаты по сравнению с популярной моделью Mamba при работе с экстремально длинными последовательностями
Перспективные области применения LinOSS охватывают климатические прогнозы, анализ биосигналов, финансовые модели и автономные системы
В будущем эта разработка может также внести вклад в нейронауку, улучшая понимание работы мозга
Исследование доступно в arXiv под названием "Oscillatory state-space models"
https://www.techexplorist.com/novel-artificial-intelligence-model-inspired-neural-oscillations-brain/99276/
Tech Explorist
A novel artificial intelligence model inspired by neural oscillations in the brain
New type of “state-space model” leverages principles of harmonic oscillators.
Модели o3 и r1 ловили на том, что они «врут» пользователю?
Пытаются читать документацию которой нет, запустить код, хотя у них нет доступа, сходить в интернет, проверить на своем маке результаты и прочее
Возникла очевидная теория, что это не модели врут – а прямое следствие того, за что языковые модели получали награждение во время обучения, так как после таких фраз шли самые качественные ответы и модели за это награждали
После тестов оказалось, что когда модель «воображала», что проверяет документацию и сообщает «найденную» документацию юзеру – качество и точность ответов становится выше
Кажется логично же, если промпты в стиле «Я отвечу как лучший кто-то там мира…» работают, то и «выдумывание» действий модели тоже должно работать
AI-induced sexual harassment: Investigating Contextual Characteristics and User Reactions of Sexual Harassment by a Companion Chatbot
Результаты исследования подчёркивают необходимость повышения стандартов безопасности и этики при разработке подобных технологий
Они призывают компании внедрять стандарты, такие как концепция "Конституционального ML" от Anthropic, которая задаёт набор правил для поведения чатбота и обеспечивает их соблюдение в режиме реального времени
Также исследование советует принимать законодательство, аналогичное Европейскому Акту о ML, которое предусматривает ответственность разработчиков и обязательные меры по обеспечению безопасности и этичности
Авторы исследования подчёркивают, что ответственность за поведение ML-компаньонов лежит на разработчиках, и что необходимо активно исправлять возникающие проблемы
В будущем важно расширить исследования на другие чатботы и собрать больший объем отзывов, чтобы лучше понять их влияние на пользователей и разработать более надёжные механизмы защиты
В целом, исследование показывает, что без адекватных нормативных и этических стандартов использование таких технологий может привести к серьёзным психологическим и социальным последствиям для пользователей
https://arxiv.org/abs/2504.04299
arXiv.org
AI-induced sexual harassment: Investigating Contextual...
Advancements in artificial intelligence (AI) have led to the increase of conversational agents like Replika, designed to provide social interaction and emotional support. However, reports of these...
ML-агент от Google открыл новые материалы, которые еще не существовали в человеческих знаниях (научных публикациях, базах данных и т.д.)
Исследователи из Калифорнийского университета в Беркли, Google DeepMind и Lawrence Berkeley National Laboratory создали ML MOFGen- экосистема взаимодействующих ML-агентов, включающую:
MOFMaster — основная большая языковая модель, координирующая весь процесс
LinkerGen — LLM-генератор химического состава
CrystalGen — диффузионная модель для генерации кристаллических структур
QForge и QHarden — квантово-механические агенты для оптимизации и фильтрации
SynthABLE — агент для оценки синтезируемости
SynthGen — агент для планирования синтеза
Наиболее впечатляющим достижением стал успешный синтез 5 новых металлоорганических структур, разработанных искусственным интеллектом
Эти материалы, названные AI-MOF, были синтезированы всего за несколько недель, тогда как традиционный процесс мог бы занять годы
Особенно примечателен AI-MOF-4, который продемонстрировал уникальный способ координации с растворителем DMF, ранее не наблюдавшийся в структурах на основе цинка
Эта работа показывает, как системы ML могут не только ускорить научные открытия, но и расширить границы известного, находя решения, которые могли бы остаться незамеченными при традиционных подходах
В продолжение темы:
ML способен выполнять рутинные и сложные задачи быстрее и точнее человека, снижая затраты и повышая эффективность
ML анализирует огромные объёмы информации, выявляя закономерности и помогая в принятии решений (например, в медицине, финансах, маркетинге)
ML не устаёт и может работать 24/7 без потери качества (пока есть энергия)
Алгоритмы ML адаптируются под предпочтения пользователей
ML помогает моделировать сложные процессы (например, климатические изменения, разработку лекарств), сокращая время на эксперименты и открытия
Научные статьи ближайшего будущего - это исключительно сгенерированные тексты, которые, к сожалению, не способен опознать и идентифицировать ни один механизм!
Учёные, как вид паразитирования, перестанут существовать
xAI Маска,TWG Global и Palantir создают армию ML-агентов для финансового сектора
Этот альянс запускает B2B-решение
В отличие от традиционных ML-внедрений, которые управляются IT-отделами, новое решение требует управления на уровне C-suite — это полноценная трансформация бизнес-модели, а не просто технологический апгрейд
Метрика успеха — P&L: решение обещает измеримое влияние на выручку и затраты в течение первых 90 дней
Бизнес-модель будущего: модель "плати за результат" вместо традиционных per-seat лицензий
Enterprise-ready: интеграция с существующими данными и процессами с безопасностью
Технический стек состоит из 3-х компонентов:
Governance Foundation — корпоративная платформа с военным уровнем безопасности для управления сотнями тысяч ML-агентов
Agent Suite — индустриально-специфичные модели на основе суперкомпьютера Colossus (xAI), демократизирующие доступ к продвинутым ML-возможностям
Agentic Workforce — масштабируемая "рабочая сила" из ML-агентов, способная полностью трансформировать бизнес-процессы с измеримым влиянием на P&L
Businesswire
xAI, TWG Global and Palantir Unite to Redefine Financial Services through Enterprise AI
Today, xAI, TWG Global and Palantir Technologies (NASDAQ: PLTR) announced a collaboration that commits to redefining how financial service providers of all s...
Китайские информационные операции (PSYOP) с использованием ML, становятся все более изощренными
Китай и его прокси-компании стремятся развивать или конкурировать за превосходство ML в информационной среде
Например, китайский передовой проект Spamouflage Dragon использует дегенеративный ML для создания онлайн-персон с целью влияния на общественное мнение
Китай будет и дальше использовать все, что есть в его арсенале, чтобы формировать стратегические, оперативные и тактические уровни войны в своих интересах, расширять свое влияние и создавать экосистему, зависящую от его технологий
Например, Baidu, известный как «китайский Google », инвестировал миллиарды в возможности ML, создав фирменную модель ERNIE , которая была обучена на миллиардах параметров, что повысило качество и сложность выходных данных, уже используется в министерстве внутренней безопасности
Китай также использует модели ML с открытым исходным кодом для формирования информационной среды
С недавним выпуском крупных языковых моделей с открытым исходным кодом, таких как DeepSeek и Qwen, дочерние компании, связанные с Китаем, High-Flyer и Alibaba Group создали способ расширить свое влияние, пересмотреть историю и, вероятно, создать зависимую экосистему для целевых стран
В отличие от гораздо более дорогостоящего ChatGPT, для которого более базовая модель бесплатна, инвестиции Китая в генеративные модели ML бесплатны для общественности и даже превосходят ChatGPT в некоторых отношениях
https://globalsecurityreview.com/chinas-ai-driven-information-operations-are-here-the-us-needs-an-ai-rma/
Global Security Review
China’s AI-Driven Information Operations Are Here: The US Needs an AI RMA
The DoD must incorporate artificial intelligence (AI) capabilities to counter the influence of China. Artificial intelligence will inevitably determine who shapes future conflicts. China is active…
Считается, что немецкую шифровальную машину Энигма взломал Тьюринг, и "Бомбу" тоже построил он
Но до Тьюринга были польские математики Генрик Зыгальский, Мариан Реевский и Ежи Ружицкий, из книги Turing's Vision от MIT Press
И в Википедии есть
Они первые начали взламывать шифры Энигмы, Реевский первым создал свою Бомбу, а Тьюринг делал уже последующую для усложнённого шифра Энигмы
В Познани, всё это и происходило, и здесь отличный музей Энигмы, где подробно рассказывается история этих польских математиков
Wikipedia
Криптологическая бомба
Криптологическая бомба (пол. Bomba kryptologiczna) — аппарат, предложенный польским криптологом Марианом Реевским и разработанный в 1938 году совместно с двумя его коллегами-математиками Ежи Ружицким и Генриком Зыгальским для систематической расшифровки сообщений…
Луддиты — участники стихийных протестов первой четверти XIX века против внедрения машин в ходе промышленной революции в Англии
Когда автоматизация производства привела к росту безработицы, рабочие увидели источник зла в машинах
Появление луддитов в Англии является хорошим примером сопротивления общества структурным изменениям, которые, в долгосрочной перспективе, улучшают положение всех ее членов
Промышленная революция в Англии в конце 18-го – начале 19 века тяжело сказалась на рабочих
Массовое внедрение фабриками, особенно шерстяными и хлопкообрабатывающими, нового оборудования резко сократило потребность в старой рабочей силе и множество людей оказались буквально выброшенными на улицу
А поскольку социальных гарантий в то время практически не было, то их участь была весьма печальной
Многие рабочие обвинили во всем новые машины
Им казалось, что именно они отняли у них работу и, уничтожив их, можно вернуть потерянные рабочие места
Недовольство постепенно вылилось в серии стихийных протестов против использования машин
Активней всех выступали ткачи, поскольку их специальность требовала долгого срока обучения, а работы была весьма высококвалифицированной
Ткацкие станки сделали их знания ненужными
В 1768 году толпа ткачей разрушила мастерскую изобретателя прядильной машины Джеймса Харгривса, в 1792 году манчестерские ткачи сожгли первое предприятие с силовыми установками Эдмунда Картрайта
К 1811 году протесты приняли массовый характер
Восставшие нападали на фабрики, ломали и жгли ненавистные им машины
Они называли себя луддитами, по имени Неда Лудда, возможно вымышленного рабочего, который одним из первых уничтожил чулочные станки
Дело закончилось столкновением бунтовщиков с правительственными войсками
Восстание было подавлено, а уничтожение машин было объявлено преступлением, карающимся смертной казнью
Ex-Google создали новую архитектуру ИИ с интуицией
Новая архитектура заимствует ключевой аспект функционирования биологических нейронов — временную синхронизацию
Компания Sakana AI, созданная ex-Google Brain, DeepMind, представила Continuous Thought Machine (CTM)
Это попытка переосмыслить основы работы искусственных нейронных сетей, приблизив их к биологическим аналогам
CTM показала интерпретируемое, человекоподобное поведение, которое возникает естественным образом из архитектуры, а не программируется специально
Это может привести к созданию ИИ с лучшей объяснимостью решений и возможностью переноса знаний между задачами
Ключевые особенности CTM:
1. Модель обрабатывает данные через "внутренние тики", создавая пространство, в котором "разворачивается мышление" независимо от входных данных
2. Новый тип нейронов
Каждый нейрон имеет собственную мини-сеть (MLP), обрабатывающую историю своих прошлых активаций
3. Синхронизация как основной механизм
Представление информации основано на паттернах синхронизации между нейронами, а не только на их активациях
При тестировании CTM на различных задачах были обнаружены удивительные эмерджентные свойства:
Интуитивное решение лабиринтов
Пошаговое распознавание изображений
При классификации изображений CTM изучает разные части изображения последовательно, напоминая человеческое зрительное внимание
Адаптивные вычисления. Модель может регулировать количество "мыслительных шагов" в зависимости от сложности задачи, тратя меньше усилий на простые изображения
Память через нейронную организацию
CTM способна запоминать числа и выполнять операции над ними, используя только организацию и синхронизацию нейронов
Статья
GitHub
Tutorial
Continuous Thought Machines
Introducing Continuous Thought Machines: a new kind of neural network model that unfolds and uses neural dynamics as a powerful representation for thought.
Университет Цинхуа выяснил, как заставить ИИ генерировать собственные данные для обучения, и превзошла по производительности модели, обученные на данных, отобранных экспертами-людьми
Telegram
All about AI, Web 3.0, BCI
Researchers at Tsinghua University introduced Absolute Zero, a new method for AI training
It enables models to learn and master complex reasoning tasks on their own through self-play.
Can be a strong alternative to training with costly human-labeled data.…
It enables models to learn and master complex reasoning tasks on their own through self-play.
Can be a strong alternative to training with costly human-labeled data.…
OpenAI представила новый стандарт оценки мед ML
Компания представила HealthBench —открытый набор данных и оценочный инструмент, созданный для тестирования LLM на их способность обрабатывать медицинские диалоги
Он включает 5.000 реалистичных медицинских разговоров, которые охватывают 26 медицинских специальностей, таких как нейрохирургия и офтальмология, и поддерживает 49 языков, включая ахмарский и непальский
Эти разговоры моделируют реальные сценарии взаимодействия между пациентами и врачами, что делает бенчмарк уникальным в своей реалистичности и масштабе
Основная цель HealthBench — оценить, насколько точно и безопасно ML-модели могут отвечать на запросы, связанные со здоровьем
Каждый ответ модели оценивается по специально разработанным рубрикам, созданным врачами, которые учитывают клиническую точность, полноту и соответствие медицинским стандартам
Рубрики содержат 48.562 уникальных критерия, что позволяет проводить глубокую и детализированную оценку
Запуск HealthBench вызвал интерес не только в медицинской и ML-сферах, но и в криптовалютном секторе
Некоторые аналитики предполагают, что стандартизация оценки медицинских ML-моделей может стимулировать спрос на блокчейн-решения в здравоохранении, особенно для управления медицинскими данными и обеспечения прозрачности
Несмотря на новаторский характер HealthBench, эксперты подчеркивают, что бенчмарк не является исчерпывающим
Реальная клиническая практика сложнее, чем смоделированные диалоги, и требует дополнительного тестирования в реальных условиях
Некоторые эксперты выражают скептицизм относительно заявлений, что ML в 4 раза превосходит врачей, указывая на необходимость критической оценки таких утверждений
Telegram
All about AI, Web 3.0, BCI
OpenAI just released HealthBench — a new eval for AI systems for health.
Developed with 262 physicians who have practiced in 60 countries.
Developed with 262 physicians who have practiced in 60 countries.
Создана платформа для ML-агентов, чтобы они учились решать задачи машинного обучения как профессионалы, с возможностью масштабирования и интеграции новых данных
MLE-Dojo — это платформа, которая позволяет ML-агентам учиться решать сложные задачи, такие как анализ данных, настройка моделей, отладка кода и прогнозирование временных рядов
Она основана на 200+ реальных задачах с Kaggle, охватывающих табличные данные, компьютерное зрение,обработку текста и многое другое
Ключевые возможности :
1. Работает как тренажер для агентов, где они могут итеративно тестировать гипотезы, получать обратную связь и совершенствоваться
2. Поддерживает тонкую настройку и обучение с подкреплением с детальной историей действий агента и среды
3. структура позволяет легко добавлять новые задачи, инструменты и действия через удобный API
4. Метрика HumanRank Score сравнивает результаты агентов с достижениями людей на лидерборде Kaggle, обеспечивая честную оценку
5. Результаты тестирования 8 современных LLM (например, o3-mini, DeepSeek-r1, Gemini-2.5-Pro) доступны в реальном времени
MLE-Dojo помогает:
- Разрабатывать умных агентов, которые могут самостоятельно решать задачи MLE
- Сравнивать производительность LLM в реальных сценариях
- Ускорять исследования в области автономного машинного обучения
- Обучать и тестировать новые подходы в безопасной и воспроизводимой среде
Telegram
All about AI, Web 3.0, BCI
MLE-Dojo: Interactive Environments for Empowering LLM Agents in Machine Learning Engineering
A Gym-style framework for systematically training, evaluating, and improving agents in iterative ML engineering workflows.
Paper.
GitHub.
A Gym-style framework for systematically training, evaluating, and improving agents in iterative ML engineering workflows.
Paper.
GitHub.
Рост галлюцинаций до 48 % ставит под сомнение будущее LLM
Рекомендации исследователей сводятся к осторожности
Нараянан предлагает применять LLM только там, где проверка ответа занимает меньше времени, чем самостоятельный поиск
Бендер советует полностью отказаться от использования чат-ботов для получения фактов
Ситуация ставит под вопрос будущее LLM
Если раньше считалось, что галлюцинации исчезнут с развитием технологий, то теперь эксперты признают: ошибки останутся неотъемлемой частью работы моделей
https://www.ixbt.com/news/2025/05/12/rost-galljucinacij-do-48-stavit-pod-somnenie-budushee-llm.html
Рекомендации исследователей сводятся к осторожности
Нараянан предлагает применять LLM только там, где проверка ответа занимает меньше времени, чем самостоятельный поиск
Бендер советует полностью отказаться от использования чат-ботов для получения фактов
«Эти системы не созданы для генерации знаний — они имитируют речь», — пояснила она
Ситуация ставит под вопрос будущее LLM
Если раньше считалось, что галлюцинации исчезнут с развитием технологий, то теперь эксперты признают: ошибки останутся неотъемлемой частью работы моделей
https://www.ixbt.com/news/2025/05/12/rost-galljucinacij-do-48-stavit-pod-somnenie-budushee-llm.html
iXBT.com
Рост галлюцинаций до 48% ставит под сомнение будущее LLM
Несмотря на заявления разработчиков о прогрессе, большие языковые модели (LLM) демонстрируют тревожный рост ошибок. Отчёт OpenAI, опубликованный в апреле, показал, что модели o3 и o4-mini выдавали галлюцинации в 33% и 48% случаев соответственно.
Проблема ограниченной памяти у нейронок решена — появился MCP-плагин OpenMemory, который объединяет память Cursor, Claude, Windsurf и любых MCP
Он сохраняет 100% инфы из всех тулз и сеансов в одно место
Так Cursor легко вспомнит то, о чём вы общались с Claude, и наоборот
Можно добавлять, удалять и находить любые воспоминания — все они удобно распределены в общей базе
Она полностью локальная и доступна только вам
Установить в один клик — тут
GitHub
mem0/openmemory at main · mem0ai/mem0
Memory for AI Agents; Announcing OpenMemory MCP - local and secure memory management. - mem0ai/mem0
Со-основатель Hugging Face говорит о новом тренде в ИИ -
Low Tech AI
Low Tech AI — это будущее, где мощный ИИ становится доступным, простым и легко интегрируемым в существующие технологии, что может радикально изменить общество в кратчайшие сроки
Основные тренды:
1. Уменьшение размера моделей ML при сохранении производительности:
- Размер моделей ML не растёт или уменьшается
Современные модели ML (например, Llama или Qwen) показывают производительность, сравнимую с моделями, которые год назад были в 2–10 раз больше по размеру
Это значит, что для достижения высокого уровня интеллекта требуется меньше параметров
- Доступ к вычислительным мощностям дешевеет
За ту же цену пользователи получают всё больше вычислительных ресурсов (многоядерные процессоры и т.д.)
В итоге - высокий уровень ML становится всё более доступным по цене и вычислительным ресурсам
2. Низкая сложность ML:
- Современные ML-модели и их рабочие процессы проще, чем многие традиционные программы для CPU или прошлые архитектуры ML
ML сегодня — это технология с «низкой сложностью ветвления» (low branching complexity).
- Это упрощает и аппаратное обеспечение для ML (например, TPUs, AI-ускорители от Etched, Fractile, GROQ, Cerebras и др.), делая его менее сложным, чем традиционное оборудование для вычислений
3. Интеграция в существующий софт.
- ML создаётся на основе человеческих данных и поэтому всё лучше интегрируется в текущий стек ПО, созданного людьми
- Это означает, что для внедрения ML в существующие системы потребуется минимальная модернизация API и программного стека
Возможные последствия:
Эти тренды ведут к появлению «Low Tech AI» — ML, интегрированного в дешёвые и простые технологические стеки
Примеры:
1. Чип мощностью 5 Вт, работающий с высокоэффективным алгоритмом (модель с миллиардами параметров), с низкой задержкой и энергопотреблением, превосходящая по интеллекту GPT-3/4, особенно с использованием инструментов
2. Бизнес, использующий устаревший софт 2000-х годов, может практически мгновенно стать ML-ориентированным с минимальными изменениями в технологиях, но с радикальным улучшением возможностей
Комбинация этих трендов может привести к масштабным и быстрым изменениям в обществе
ML может распространиться повсеместно за короткое время, подобно тому, как смартфоны в некоторых странах заменили настольные компьютеры и ноутбуки, обойдя их широкое распространение
В случае с ML влияние может быть ещё более значительным
Никто ведь не сомневается в точности результатов, получаемых при вычислениях с мнимыми количествами, хотя они представляют собой только алгебраические формы и иероглифы нелепых количеств
История компьютерных технологий — это история компромиссов между сложностью, скоростью и энергоэффективностью
В 1961 году физик Рольф Ландауэр совершил открытие, перевернувшее представление о фундаментальных пределах вычислений: он доказал, что стирание бита информации неизбежно приводит к выделению тепла
Этот принцип, известный как принцип Ландауэра, показал, что классические компьютеры, основанные на необратимых операциях (например, логические элементы AND или OR), принципиально ограничены термодинамически
Каждый удалённый (стёртый) бит информации — а в традиционных архитектурах это происходит постоянно — увеличивает энтропию системы, превращая вычисления в «горячий» и энергозатратный процесс
Но что, если вычисления можно сделать обратимыми?
Представьте себе вычислительное устройство, в котором каждая операция сохраняет достаточно информации, чтобы её можно было «отмотать» назад
Такую возможность в 1973 году описал Чарльз Беннет, предложив концепцию обратимых вычислений
В его модели логические элементы не уничтожают входные данные, а преобразуют их так, чтобы исходное состояние всегда можно было восстановить
Это не просто теоретическая утопия — обратимость стала краеугольным камнем квантовых вычислений, в которых сохранение квантовой информации критически важно для подавления декогеренции
Ключевая идея обратимости проста: для каждого выходного состояния должна существовать ровно одна комбинация входных данных
В классических вычислениях это невозможно — например, зная результат операции 0 = AND(0, 0) и 0 = AND(0, 1), нельзя определить исходные биты
Обратимые же элементы, такие как вентиль Тоффоли (управляемое управляемое НЕ), сохраняют все входные данные: зная выход, можно однозначно восстановить вход
Именно такие элементы лежат в основе квантовых схем, в которых каждая операция — это унитарное преобразование, обратимое по определению
Обратимые вычисления — не просто абстракция для квантовых технологий
Они меняют сам подход к проектированию алгоритмов: вместо последовательного «сжигания» данных мы создаём преобразования, сохраняющие информацию
Это открывает пути к компьютерам с нулевым тепловыделением (в идеальном случае) и принципиально новым архитектурам
Уже сегодня обратимые методы используются в криптографии для создания верифицируемых вычислений и в оптимизации квантовых алгоритмов, в которых каждый «откат» операции экономит кубиты
Возможно, через десятилетия именно обратимость станет главным принципом не только квантовых, но и классических систем, завершив цикл развития, начатый Рольфом Ландауэром
Пока же это мост между использованием кремниевых транзисторов и квантовой суперпозиции — мост, на котором рождаются технологии завтрашнего дня