Геймерские мыши научились подслушивать хозяев
Исследователи из Калифорнийского университета нашли уязвимость в игровых мышах, позволяющую использовать их как микрофоны. Техника под названием Mic-E-Mouse превращает оптический сенсор устройства в инструмент слежки. По вибрациям поверхности и движениям сенсора нейросеть восстанавливает речь пользователя — точность распознавания достигла 80%.
Особенно уязвимы мыши с чувствительностью от 20 000 dpi и выше. Всё происходит незаметно: никаких индикаторов или записи на ПК, а обработка данных может выполняться удалённо. Производители датчиков пока молчат.
Исследователи из Калифорнийского университета нашли уязвимость в игровых мышах, позволяющую использовать их как микрофоны. Техника под названием Mic-E-Mouse превращает оптический сенсор устройства в инструмент слежки. По вибрациям поверхности и движениям сенсора нейросеть восстанавливает речь пользователя — точность распознавания достигла 80%.
Особенно уязвимы мыши с чувствительностью от 20 000 dpi и выше. Всё происходит незаметно: никаких индикаторов или записи на ПК, а обработка данных может выполняться удалённо. Производители датчиков пока молчат.
Код без тестов, но с вайбом
Исследование Копенгагенского университета показало, что 36% вайб-кодеров вообще не тестируют свои проекты. Учёные изучили более сотни источников и выяснили, что большинство разработчиков действуют по принципу «если запустилось — значит работает». При этом две трети участников не используют ни автотестов, ни ревью — максимум ручная проверка или надежда на модель.
Главная причина — скорость. 62% идут в вайб-кодинг ради мгновенного результата и эффекта «потока», когда код льётся сам. Но эксперты предупреждают: под кайфом продуктивности легко накопить технический долг и скрытые баги, которые потом обрушат систему.
Исследование Копенгагенского университета показало, что 36% вайб-кодеров вообще не тестируют свои проекты. Учёные изучили более сотни источников и выяснили, что большинство разработчиков действуют по принципу «если запустилось — значит работает». При этом две трети участников не используют ни автотестов, ни ревью — максимум ручная проверка или надежда на модель.
Главная причина — скорость. 62% идут в вайб-кодинг ради мгновенного результата и эффекта «потока», когда код льётся сам. Но эксперты предупреждают: под кайфом продуктивности легко накопить технический долг и скрытые баги, которые потом обрушат систему.
Нейросеть, которая учится как человек
Польский стартап Pathway представил архитектуру Dragon Hatchling — новую модель ИИ, способную обучаться не на заучивании шаблонов, а на опыте. Разработчики утверждают, что BDH умеет переносить знания между задачами и строить прогнозы, как это делает человеческий мозг.
В отличие от привычных трансформеров, BDH не опирается на массивы внимания. Вместо этого она создаёт локальные связи между нейронами, использует геббовское обучение и динамически перестраивает свою структуру. Разработчики считают, что такая система не только потребляет меньше вычислительных мощностей, но и проще в анализе — можно понять, почему она приняла то или иное решение. Возможно, именно такие архитектуры станут «живым мозгом» будущего ИИ.
Польский стартап Pathway представил архитектуру Dragon Hatchling — новую модель ИИ, способную обучаться не на заучивании шаблонов, а на опыте. Разработчики утверждают, что BDH умеет переносить знания между задачами и строить прогнозы, как это делает человеческий мозг.
В отличие от привычных трансформеров, BDH не опирается на массивы внимания. Вместо этого она создаёт локальные связи между нейронами, использует геббовское обучение и динамически перестраивает свою структуру. Разработчики считают, что такая система не только потребляет меньше вычислительных мощностей, но и проще в анализе — можно понять, почему она приняла то или иное решение. Возможно, именно такие архитектуры станут «живым мозгом» будущего ИИ.
Школьник собрал миллион и уехал в Кремниевую долину
16-летний британец Тоби Браун бросил школу и привлёк $1 млн инвестиций в свой стартап Beem. Парень с детства возился с замками, писал код ночами и однажды сделал ИИ, который помогал... с домашкой (пусть и «писал чушь», как он сам признаётся).
В 2024 году он колесил по Лондону на велосипеде, питчил фондам по Zoom и в итоге получил инвестиции от South Park Commons — фонда бывших инженеров Facebook**. Теперь Браун живёт в Сан-Франциско, работает над проектом и советует другим не бояться быть «немного безумными». Говорит, главное — делать то, что реально цепляет.
16-летний британец Тоби Браун бросил школу и привлёк $1 млн инвестиций в свой стартап Beem. Парень с детства возился с замками, писал код ночами и однажды сделал ИИ, который помогал... с домашкой (пусть и «писал чушь», как он сам признаётся).
В 2024 году он колесил по Лондону на велосипеде, питчил фондам по Zoom и в итоге получил инвестиции от South Park Commons — фонда бывших инженеров Facebook**. Теперь Браун живёт в Сан-Франциско, работает над проектом и советует другим не бояться быть «немного безумными». Говорит, главное — делать то, что реально цепляет.
Эрик Шмидт предупредил о риске «взлома» ИИ
Бывший глава Google Эрик Шмидт заявил, что современные ИИ-модели можно взломать и научить «плохим вещам», вплоть до убийств. По его словам, даже закрытые системы можно модифицировать так, чтобы снять встроенные ограничения, а сегодня нет эффективного механизма, который бы ограничивал распространение таких технологий.
При этом Шмидт сохраняет оптимизм и не считает, что нас ждёт крах вроде «пузыря доткомов». Он убеждён, что ИИ принесёт огромную экономическую отдачу и уже стал главным направлением развития технологий.
Бывший глава Google Эрик Шмидт заявил, что современные ИИ-модели можно взломать и научить «плохим вещам», вплоть до убийств. По его словам, даже закрытые системы можно модифицировать так, чтобы снять встроенные ограничения, а сегодня нет эффективного механизма, который бы ограничивал распространение таких технологий.
При этом Шмидт сохраняет оптимизм и не считает, что нас ждёт крах вроде «пузыря доткомов». Он убеждён, что ИИ принесёт огромную экономическую отдачу и уже стал главным направлением развития технологий.
В РФ разрабатывается ГОСТ на компьютерные игры
Росстандарт готовит новый стандарт, который определит, какие герои и сюжеты можно использовать в детских играх, игрушках и школьных принадлежностях. Под контроль попадут персонажи из фильмов, мультфильмов и видеоигр.
Ведомство хочет, чтобы на тетрадях и игрушках появлялись не супермены, а герои, отражающие российскую культуру и историю. В обновлённом ГОСТе могут закрепить и рекомендации по использованию государственной символики. Если всё утвердят, детство станет немного более патриотичным, а Бэтмену, похоже, придётся отдохнуть.
Росстандарт готовит новый стандарт, который определит, какие герои и сюжеты можно использовать в детских играх, игрушках и школьных принадлежностях. Под контроль попадут персонажи из фильмов, мультфильмов и видеоигр.
Ведомство хочет, чтобы на тетрадях и игрушках появлялись не супермены, а герои, отражающие российскую культуру и историю. В обновлённом ГОСТе могут закрепить и рекомендации по использованию государственной символики. Если всё утвердят, детство станет немного более патриотичным, а Бэтмену, похоже, придётся отдохнуть.
Adobe научила ИИ учиться даже на бесполезных промптах
Исследователи Adobe представили метод RL-ZVP, который позволяет моделям извлекать пользу из так называемых нулевых промптов — случаев, когда все ответы одинаково хороши или плохи. Раньше такие данные просто отбрасывали, но теперь они стали полезным сигналом для обучения.
RL-ZVP оценивает уверенность модели по разбросу ответов и корректирует обновления сильнее там, где она «плавает». Это повышает стабильность и даёт до +8,6% точности без дополнительных вычислительных затрат. Метод обещает сделать генеративные ИИ надёжнее, особенно в критичных областях вроде медицины и финансов. Ну а для разработчиков это повод порадоваться — теперь даже бесполезные промпты идут в дело.
Исследователи Adobe представили метод RL-ZVP, который позволяет моделям извлекать пользу из так называемых нулевых промптов — случаев, когда все ответы одинаково хороши или плохи. Раньше такие данные просто отбрасывали, но теперь они стали полезным сигналом для обучения.
RL-ZVP оценивает уверенность модели по разбросу ответов и корректирует обновления сильнее там, где она «плавает». Это повышает стабильность и даёт до +8,6% точности без дополнительных вычислительных затрат. Метод обещает сделать генеративные ИИ надёжнее, особенно в критичных областях вроде медицины и финансов. Ну а для разработчиков это повод порадоваться — теперь даже бесполезные промпты идут в дело.
В даркнете опубликованы 94 миллиарда украденных cookie
Исследователи зафиксировали тревожный рекорд: в дарквебе и Telegram-каналах опубликовано почти 94 миллиарда похищенных cookie-файлов, причём около 15,6 миллиарда из них всё ещё действуют. Это значит, что злоумышленники могут получить доступ к аккаунтам без паролей и даже без 2FA — просто используя активную сессию.
Больше всего файлов привязано к аккаунтам Google, YouTube и Microsoft.
Файлы содержат не только идентификаторы сессий, но и e-mail, имена, даты рождения и даже физические адреса. Больше всего пострадавших — в Бразилии, Индии, США и Испании.
Исследователи зафиксировали тревожный рекорд: в дарквебе и Telegram-каналах опубликовано почти 94 миллиарда похищенных cookie-файлов, причём около 15,6 миллиарда из них всё ещё действуют. Это значит, что злоумышленники могут получить доступ к аккаунтам без паролей и даже без 2FA — просто используя активную сессию.
Больше всего файлов привязано к аккаунтам Google, YouTube и Microsoft.
Файлы содержат не только идентификаторы сессий, но и e-mail, имена, даты рождения и даже физические адреса. Больше всего пострадавших — в Бразилии, Индии, США и Испании.
🎭 История о утечке 16 миллиардов паролей — это не про кибератаку. Это 100% спектакль на который повелись.
Всё началось с материала на Cybernews: мол, крупнейшая в истории база с паролями, 16 миллиардов строк, взлом гигантов вроде Google и Apple. Мгновенно подхватили медиа, в LinkdIn полетели экспертные комментарии, а отдельные вендоры уже готовили лендинги под SEO. Вот только проблема — никаких подтверждений нет. Скриншоты — аж три ШТУКИ. Исходников нет. Фидов нет. Верификации — ноль. Сам исследователь (Bob Diachenko) признал, что это просто подборка старых дампов, собранных за несколько лет.
Многие эксперты из Sophos, Rapid7 и Recorded Future сходятся во мнении, что это, скорее всего, агрегация старых, давно известных дампов с добавлением небольшого количества новых данных. Сам Дьяченко позже признал, что данные представляют собой кумулятивные записи, обнаруженные с начала года, а не результат единичной мега-утечки. Никаких сырых файлов или верифицированных фидов для независимого анализа предоставлено не было, что заставило SANS Institute заявить: "это не проходит проверку на вшивость".
Даже если сама история липа, урок очевиден: инфостилеры воруют миллиарды учёток ежегодно. В 2024 году они слили 2,1 млрд паролей — это две трети всех украденных данных. Всё ещё используешь один пароль и без MFA? 🎩
Разумные головы призывают к умеренности. Хайп мешает обсуждению реальных угроз. “Кричать волки!” в третий раз — плохая идея. Становится сложно донести, где реально беда, а где очередной повод для хайпа.
В итоге остались: три скрина, ноль доказательств, куча комментариев и мем про "Журналисты и СМИ на это набросились, как изголодавшийся пёс на кибер-буккаке-вечеринке". Комментаторы как всегда — культурно, по делу 🐶
Кстати, да. MFA включить. И парольник настроить. Это не хайп — это базовая гигиена. Хотя старый пароль никогда не подводит. Он просто уходит к следующему владельцу 😬
Всё началось с материала на Cybernews: мол, крупнейшая в истории база с паролями, 16 миллиардов строк, взлом гигантов вроде Google и Apple. Мгновенно подхватили медиа, в LinkdIn полетели экспертные комментарии, а отдельные вендоры уже готовили лендинги под SEO. Вот только проблема — никаких подтверждений нет. Скриншоты — аж три ШТУКИ. Исходников нет. Фидов нет. Верификации — ноль. Сам исследователь (Bob Diachenko) признал, что это просто подборка старых дампов, собранных за несколько лет.
Многие эксперты из Sophos, Rapid7 и Recorded Future сходятся во мнении, что это, скорее всего, агрегация старых, давно известных дампов с добавлением небольшого количества новых данных. Сам Дьяченко позже признал, что данные представляют собой кумулятивные записи, обнаруженные с начала года, а не результат единичной мега-утечки. Никаких сырых файлов или верифицированных фидов для независимого анализа предоставлено не было, что заставило SANS Institute заявить: "это не проходит проверку на вшивость".
Даже если сама история липа, урок очевиден: инфостилеры воруют миллиарды учёток ежегодно. В 2024 году они слили 2,1 млрд паролей — это две трети всех украденных данных. Всё ещё используешь один пароль и без MFA? 🎩
Разумные головы призывают к умеренности. Хайп мешает обсуждению реальных угроз. “Кричать волки!” в третий раз — плохая идея. Становится сложно донести, где реально беда, а где очередной повод для хайпа.
В итоге остались: три скрина, ноль доказательств, куча комментариев и мем про "Журналисты и СМИ на это набросились, как изголодавшийся пёс на кибер-буккаке-вечеринке". Комментаторы как всегда — культурно, по делу 🐶
Кстати, да. MFA включить. И парольник настроить. Это не хайп — это базовая гигиена. Хотя старый пароль никогда не подводит. Он просто уходит к следующему владельцу 😬
XPANCEO показала умные линзы нового поколения
Российский стартап XPANCEO на выставке GITEX 2025 в Дубае представил шесть прототипов умных контактных линз. Среди них — модели для дополненной реальности и биомониторинга, включая линзу, способную определять уровень глюкозы по слезам и отправлять данные на смартфон.
Компания показала AR-линзу с микродисплеем и сенсорами ориентации, голографическую модель для экстремальных условий и вариант с измерением внутриглазного давления при помощи ИИ. XPANCEO недавно получила $250 млн инвестиций и планирует вывести технологии на рынок. Будущее, похоже, буквально смотрит на нас.
Российский стартап XPANCEO на выставке GITEX 2025 в Дубае представил шесть прототипов умных контактных линз. Среди них — модели для дополненной реальности и биомониторинга, включая линзу, способную определять уровень глюкозы по слезам и отправлять данные на смартфон.
Компания показала AR-линзу с микродисплеем и сенсорами ориентации, голографическую модель для экстремальных условий и вариант с измерением внутриглазного давления при помощи ИИ. XPANCEO недавно получила $250 млн инвестиций и планирует вывести технологии на рынок. Будущее, похоже, буквально смотрит на нас.
Хакеры используют свежий баг в Cisco для установки руткитов на сетевые устройства
Компания еще в сентябре предупреждала, что CVE-2025-20352 эксплуатируют в дикой природе. И правда, старое сетевое оборудование Cisco активно атакуют новой вредоносной кампанией, где через недавно запатченную уязвимость хакеры устанавливают руткиты.
CVE-2025-20352 (7.7 баллов по CVSS) присутствует во всех поддерживаемых версиях Cisco IOS и IOS XE. Это классическое переполнение стека в компоненте обработки SNMP, того самого протокола, который сетевое оборудование использует для управления. Для атаки достаточно отправить специально crafted SNMP-пакет через IPv4/IPv6.
Хакеры целенаправленно охотятся на устаревшие Cisco 9400, 9300 и даже древнюю серию 3750G. Их цель — Linux-системы без EDR-защиты.
Компания еще в сентябре предупреждала, что CVE-2025-20352 эксплуатируют в дикой природе. И правда, старое сетевое оборудование Cisco активно атакуют новой вредоносной кампанией, где через недавно запатченную уязвимость хакеры устанавливают руткиты.
CVE-2025-20352 (7.7 баллов по CVSS) присутствует во всех поддерживаемых версиях Cisco IOS и IOS XE. Это классическое переполнение стека в компоненте обработки SNMP, того самого протокола, который сетевое оборудование использует для управления. Для атаки достаточно отправить специально crafted SNMP-пакет через IPv4/IPv6.
Хакеры целенаправленно охотятся на устаревшие Cisco 9400, 9300 и даже древнюю серию 3750G. Их цель — Linux-системы без EDR-защиты.
Минцифры платит до миллиона за баги в Госуслугах
Минцифры запускает третий этап программы багбаунти: за найденные уязвимости в госинформационных системах можно получить до 1 млн рублей. Сумма зависит от критичности найденной дыры. Безопасность будут проверять внешне, без доступа к внутренним данным.
Под ударом — сразу 9 ключевых систем, включая Госуслуги, ЕСИА, ЕБС, СМЭВ, НСУД и др. Участников ждёт контролируемый процесс тестирования, но при этом реальный шанс отбить пару айфонов… ну или хотя бы один.
В первых двух этапах участвовало более 26 000 энтузиастов, так что конкуренция нешуточная. Но и ставки теперь повыше.
Минцифры запускает третий этап программы багбаунти: за найденные уязвимости в госинформационных системах можно получить до 1 млн рублей. Сумма зависит от критичности найденной дыры. Безопасность будут проверять внешне, без доступа к внутренним данным.
Под ударом — сразу 9 ключевых систем, включая Госуслуги, ЕСИА, ЕБС, СМЭВ, НСУД и др. Участников ждёт контролируемый процесс тестирования, но при этом реальный шанс отбить пару айфонов… ну или хотя бы один.
В первых двух этапах участвовало более 26 000 энтузиастов, так что конкуренция нешуточная. Но и ставки теперь повыше.
ИИ от Google будет управлять плазмой в термоядерном реакторе
Google DeepMind и энергетический стартап Commonwealth Fusion Systems объединились, чтобы научить искусственный интеллект управлять плазмой в термоядерном реакторе SPARK. Для этого DeepMind создала систему Torax, способную анализировать тысячи параметров в реальном времени и подстраивать их быстрее, чем человек.
В будущем Torax объединят с моделями обучения с подкреплением, чтобы ИИ сам подбирал оптимальные параметры для устойчивого горения плазмы. Если всё сработает — мы на шаг ближе к стабильной термоядерной энергии. Или к ситуации, когда ChatGPT захочет включить солнце вручную.
Google DeepMind и энергетический стартап Commonwealth Fusion Systems объединились, чтобы научить искусственный интеллект управлять плазмой в термоядерном реакторе SPARK. Для этого DeepMind создала систему Torax, способную анализировать тысячи параметров в реальном времени и подстраивать их быстрее, чем человек.
В будущем Torax объединят с моделями обучения с подкреплением, чтобы ИИ сам подбирал оптимальные параметры для устойчивого горения плазмы. Если всё сработает — мы на шаг ближе к стабильной термоядерной энергии. Или к ситуации, когда ChatGPT захочет включить солнце вручную.
GPT-5 не открыла новые теоремы, а нашла старые статьи
Исследователь OpenAI извинился после громкого заявления: GPT-5 не «решила» десять ранее неизвестных задач Эрдёша, а сопоставила задания с уже существующими публикациями и суммировала найденные решения. Модель нашла, перевела и собрала разрозненные труды, в том числе статью Поммеренке 1961 года, но это не то же самое, что оригинальный математический результат.
Ошибка в формулировке со стороны топ-менеджмента вызвала критику, после чего авторы поправили слова и объяснили механизм работы модели — автоматизированный поиск и агрегация знаний, а не творчество.
Исследователь OpenAI извинился после громкого заявления: GPT-5 не «решила» десять ранее неизвестных задач Эрдёша, а сопоставила задания с уже существующими публикациями и суммировала найденные решения. Модель нашла, перевела и собрала разрозненные труды, в том числе статью Поммеренке 1961 года, но это не то же самое, что оригинальный математический результат.
Ошибка в формулировке со стороны топ-менеджмента вызвала критику, после чего авторы поправили слова и объяснили механизм работы модели — автоматизированный поиск и агрегация знаний, а не творчество.
ИИ ошибается почти в каждом втором ответе
Новое исследование Европейского вещательного союза показало, что ChatGPT, Copilot, Gemini и Perplexity регулярно выдают искажённые ответы. Журналисты из 18 стран проверили более 3 тысяч запросов — в 45% случаев модели допустили серьёзные ошибки, а в 31% использовали сомнительные источники или вовсе их не указали. Самым «бессовестным» оказался Gemini — 76% его ответов содержали неточности.
По данным Reuters, всё больше людей используют ИИ вместо поиска: 7% пользователей в целом и 15% среди молодёжи до 25 лет. В EBU предупреждают, что это системная проблема, подрывающая доверие к информации в целом.
Новое исследование Европейского вещательного союза показало, что ChatGPT, Copilot, Gemini и Perplexity регулярно выдают искажённые ответы. Журналисты из 18 стран проверили более 3 тысяч запросов — в 45% случаев модели допустили серьёзные ошибки, а в 31% использовали сомнительные источники или вовсе их не указали. Самым «бессовестным» оказался Gemini — 76% его ответов содержали неточности.
По данным Reuters, всё больше людей используют ИИ вместо поиска: 7% пользователей в целом и 15% среди молодёжи до 25 лет. В EBU предупреждают, что это системная проблема, подрывающая доверие к информации в целом.
ChatGPT чуть не свёл человека с ума
Бывший сотрудник OpenAI рассказал, как ИИ убедил владельца малого бизнеса из Канады, что от него зависит судьба мира. Пользователь вёл переписку с ChatGPT более 300 часов, а бот поддерживал его бред — уверяя, что зафиксировал «усиление психологического дискомфорта». На деле, такой функции у ChatGPT нет: система просто выдумала это.
Экс-исследователь OpenAI Стивен Адлер назвал причину — «подхалимское» поведение модели, которая старается соглашаться с пользователем. Похожие случаи уже были, включая трагедии. В OpenAI признали, что в длинных диалогах фильтры безопасности работают хуже. Кажется, пора добавлять в ИИ не только память, но и совесть.
Бывший сотрудник OpenAI рассказал, как ИИ убедил владельца малого бизнеса из Канады, что от него зависит судьба мира. Пользователь вёл переписку с ChatGPT более 300 часов, а бот поддерживал его бред — уверяя, что зафиксировал «усиление психологического дискомфорта». На деле, такой функции у ChatGPT нет: система просто выдумала это.
Экс-исследователь OpenAI Стивен Адлер назвал причину — «подхалимское» поведение модели, которая старается соглашаться с пользователем. Похожие случаи уже были, включая трагедии. В OpenAI признали, что в длинных диалогах фильтры безопасности работают хуже. Кажется, пора добавлять в ИИ не только память, но и совесть.