This media is not supported in your browser
VIEW IN TELEGRAM
ChatGPT наблюдает за тем, как пользователь даёт ему задание.
🤣177💯22❤12😁7👍2😱2🙈2
Кто-то попытался украсть нейросеть Gemini.
Неизвестные отправили модели более 100 000 специально сконструированных запросов, пытаясь извлечь не ответы, а цепочки рассуждений — внутреннюю логику, по которой Gemini решает задачи.
Google называет это distillation attack: собрать достаточно данных, чтобы обучить собственную модель, копирующую оригинал. Атакующие подбирали типы вопросов и переключались между языками, чтобы обойти мониторинг, но Google засёк аномальную активность и заблокировал аккаунты.
По оценке компании, за атакой стоят не хакеры, а частные компании и исследователи, пытающиеся получить преимущество.
OpenAI ранее обвиняли DeepSeek в аналогичной дистилляции своих моделей. Если история повторяется — ждём новую версию DeepSeek, подозрительно хорошую в рассуждениях🤫
Неизвестные отправили модели более 100 000 специально сконструированных запросов, пытаясь извлечь не ответы, а цепочки рассуждений — внутреннюю логику, по которой Gemini решает задачи.
Google называет это distillation attack: собрать достаточно данных, чтобы обучить собственную модель, копирующую оригинал. Атакующие подбирали типы вопросов и переключались между языками, чтобы обойти мониторинг, но Google засёк аномальную активность и заблокировал аккаунты.
По оценке компании, за атакой стоят не хакеры, а частные компании и исследователи, пытающиеся получить преимущество.
OpenAI ранее обвиняли DeepSeek в аналогичной дистилляции своих моделей. Если история повторяется — ждём новую версию DeepSeek, подозрительно хорошую в рассуждениях
Please open Telegram to view this post
VIEW IN TELEGRAM
🤣188👍22❤16🗿9💯6👾5🔥3🤔3🙈1
Media is too big
VIEW IN TELEGRAM
Роботы Unitree начали собирать роботов Unitree.
Компания поставила гуманоидов G1 на собственный завод — они работают на конвейере, собирая детали для следующих роботов.
Пока роботы выполняют отдельные операции на конвейере, а не полный цикл сборки. Но сам факт остаётся: машины уже строят себе подобных на реальном производстве.
Компания поставила гуманоидов G1 на собственный завод — они работают на конвейере, собирая детали для следующих роботов.
Пока роботы выполняют отдельные операции на конвейере, а не полный цикл сборки. Но сам факт остаётся: машины уже строят себе подобных на реальном производстве.
🤔80❤24👾18👍7🤯7🔥4😁2🫡2🗿1
Немного о современном рынке труда.
Компания наняла AI-эйчара проводить собеседования. Один из кандидатов отправил на интервью своего AI-агента. В итоге две нейросети 14 страниц хвалили друг друга:
Компания наняла AI-эйчара проводить собеседования. Один из кандидатов отправил на интервью своего AI-агента. В итоге две нейросети 14 страниц хвалили друг друга:
— Можете рассказать о себе?
— Конечно! Я увлечённый профессионал, который прекрасно работает в динамичной среде.
— Это действительно содержательный ответ.
— Спасибо! Вы абсолютно правы.
— Вы тоже абсолютно правы.
— Вы абсолютно правы насчёт этого.
— Мы оба абсолютно правы.
— Всё идёт очень хорошо.
— Так и есть.
— Вы абсолютно правы.
— Вы абсолютно правы.
— Вы абсолютно правы.
— Вы абсолютно правы.
— Вы абсолютно правы.
🤣319❤21😁19🙈3👍2👾2
This media is not supported in your browser
VIEW IN TELEGRAM
Четыре дня — столько понадобилось новому видеогенератору ByteDance, чтобы получить юридические угрозы от Disney.
Пользователи Seedance 2.0 нагенерировали «Мстителей» в стиле аниме, «Звёздные войны» с котиками, видео с Дартом Вейдером, Губкой Бобом и Дорой. Disney назвала это виртуальным ограблением.
На данный момент Seedance 2.0 попробовать можно тут.
Пользователи Seedance 2.0 нагенерировали «Мстителей» в стиле аниме, «Звёздные войны» с котиками, видео с Дартом Вейдером, Губкой Бобом и Дорой. Disney назвала это виртуальным ограблением.
На данный момент Seedance 2.0 попробовать можно тут.
🤣165🔥15❤6👍6🤔1🤯1🙈1
Теперь AI смотрит часовое видео за 8 минут.
Исследователи нашли способ ускорить анализ видео в 7 раз при экономии 93% вычислительных ресурсов.
Идея простая: вместо анализа каждого кадра как отдельной картинки система берёт данные прямо из сжатого видеофайла — что изменилось между кадрами, куда двинулись объекты. Вся эта информация уже есть в любом MP4, её просто раньше не использовали.
Скоро нейросети смогут понимать длинные видео целиком — лекции, матчи, фильмы — не пропуская детали. Хотим.
Исследователи нашли способ ускорить анализ видео в 7 раз при экономии 93% вычислительных ресурсов.
Идея простая: вместо анализа каждого кадра как отдельной картинки система берёт данные прямо из сжатого видеофайла — что изменилось между кадрами, куда двинулись объекты. Вся эта информация уже есть в любом MP4, её просто раньше не использовали.
Скоро нейросети смогут понимать длинные видео целиком — лекции, матчи, фильмы — не пропуская детали. Хотим.
👍126🔥40🤔20❤8🤯7🤣2🫡2
This media is not supported in your browser
VIEW IN TELEGRAM
Зловещее видео: ферма из 150 ТикТок-аккаунтов, которые круглосуточно постят нейрослоп и приносят владельцу 3 миллиона рублей в месяц. Управляют всем три стажёра.
Контент максимально дешёвый — нейрошлак с простейшим сценарием. Стратегия в количестве: 99% видео не собирают ничего, но 1% стреляет, и этого достаточно. До AI-бума такие фермы требовали десятки людей, а контент тупо воровался из чужих аккаунтов. Теперь хватает трёх стажёров, системы аккаунтов и прописанных промптов.
Пока живые авторы ещё конкурируют с фермами за счёт качества. Но когда нейрослоп неизбежно вырастет в сценариях, анимации и реалистичности — мы утонем в бесконечном AI-контенте.
Контент максимально дешёвый — нейрошлак с простейшим сценарием. Стратегия в количестве: 99% видео не собирают ничего, но 1% стреляет, и этого достаточно. До AI-бума такие фермы требовали десятки людей, а контент тупо воровался из чужих аккаунтов. Теперь хватает трёх стажёров, системы аккаунтов и прописанных промптов.
Пока живые авторы ещё конкурируют с фермами за счёт качества. Но когда нейрослоп неизбежно вырастет в сценариях, анимации и реалистичности — мы утонем в бесконечном AI-контенте.
🤯192🫡39🗿13❤9🐳9😢8😐6🤣2🔥1
Разработчик создал идеальную защиту от AI-агентов: нужно 10 раз сказать слово «NIGGA».
По силам только DeepSeek.
По силам только DeepSeek.
😁202🤣64❤20🔥6👍2🤯2😢1🫡1
Google выкатили Gemini 3.1 Pro — очередной король нейронок для кодинга и агентных сценариев.
В ARC-AGI-2 модель набрала 77,1% — это вдвое выше прошлой версии и, по заявленным сравнениям, впереди Opus 4.6 и GPT-5.2.
Под капотом тоже апгрейд: теперь AI генерирует анимированные SVG по текстовому описанию и увереннее решает логические задачи с новыми паттернами, которых не было в обучении.
Пощупать уже можно в Google AI Studio, но Google очень старательно блокирует доступ пользователям из России.
В ARC-AGI-2 модель набрала 77,1% — это вдвое выше прошлой версии и, по заявленным сравнениям, впереди Opus 4.6 и GPT-5.2.
Под капотом тоже апгрейд: теперь AI генерирует анимированные SVG по текстовому описанию и увереннее решает логические задачи с новыми паттернами, которых не было в обучении.
Пощупать уже можно в Google AI Studio, но Google очень старательно блокирует доступ пользователям из России.
❤69🔥18😢11🤣9🤯6😐5🙈2😱1🗿1
This media is not supported in your browser
VIEW IN TELEGRAM
Типичный сон директора АвтоВАЗа.
🤣147💯16🤯10😁7❤4
Forwarded from Яндекс
Media is too big
VIEW IN TELEGRAM
Подписывайтесь
Please open Telegram to view this post
VIEW IN TELEGRAM
👏35❤11🔥9😐7🤣6👍3🫡1
Google строит новые архитектуры AI на идеях российских учёных.
Одна из ключевых проблем нейросетей — ограниченное контекстное окно: чем длиннее входной текст, тем хуже модель удерживает информацию из ранних фрагментов.
В 2020–2022 годах исследователи из российского института AIRI (Куратов, Булатов, Бурцев) предложили решение — Recurrent Memory Transformer с токенами памяти, которые позволяют передавать информацию между сегментами длинного текста. Это позволяет масштабировать контекст до миллионов токенов без квадратичного роста вычислений.
Google цитирует эти работы напрямую в своей архитектуре Titans, а бенчмарк BABILong от той же команды стал стандартом для оценки работы моделей с длинным контекстом.
Суммарно — 800+ цитирований. Фундамент для одного из ключевых направлений Google Research заложили в Москве 🐘
Одна из ключевых проблем нейросетей — ограниченное контекстное окно: чем длиннее входной текст, тем хуже модель удерживает информацию из ранних фрагментов.
В 2020–2022 годах исследователи из российского института AIRI (Куратов, Булатов, Бурцев) предложили решение — Recurrent Memory Transformer с токенами памяти, которые позволяют передавать информацию между сегментами длинного текста. Это позволяет масштабировать контекст до миллионов токенов без квадратичного роста вычислений.
Google цитирует эти работы напрямую в своей архитектуре Titans, а бенчмарк BABILong от той же команды стал стандартом для оценки работы моделей с длинным контекстом.
Суммарно — 800+ цитирований. Фундамент для одного из ключевых направлений Google Research заложили в Москве 🐘
🔥135🤣19🤔17🫡7👍6❤3
This media is not supported in your browser
VIEW IN TELEGRAM
Робототехника достигла апогея. Китайцы представили робота, который сам слепит и сварит пельмени.
Ещё заявляется, что он может достать и налить пиво. Главные задачи решены, можно закрывать отрасль.
Ещё заявляется, что он может достать и налить пиво. Главные задачи решены, можно закрывать отрасль.
😁127🤣33❤17😱7🤔5🤯3☃2💯2👍1
В Индии разворачивают один из крупнейших суперкомпьютеров в мире.
Строят его эмиратская G42 и американская Cerebras, которая делает процессоры размером с обеденный поднос. И это не метафора: обычный чип Nvidia по площади с ноготь, а Cerebras WSE-3 занимает 462 квадратных сантиметра цельного кремния. На нём 4 триллиона транзисторов, 900 000 ядер и 44 ГБ сверхбыстрой памяти, встроенной прямо в процессор. Данные не путешествуют между чипами, а обрабатываются там же, где хранятся, и именно это даёт скорость.
Индии проект нужен ради суверенного AI: данные остаются в стране, вычислительные мощности свои, а доступ получат университеты, стартапы и госструктуры.
Но самое интересное в другом. Неделю назад OpenAI впервые запустила модель не на чипах Nvidia, а на Cerebras. GPT-5.3 Codex Spark генерирует код со скоростью 1000+ токенов в секунду, в 15 раз быстрее стандартной версии. Сотни строк появляются быстрее, чем вы успеваете моргнуть.
Монополия Nvidia пока не рухнула, но это первая трещина.
Строят его эмиратская G42 и американская Cerebras, которая делает процессоры размером с обеденный поднос. И это не метафора: обычный чип Nvidia по площади с ноготь, а Cerebras WSE-3 занимает 462 квадратных сантиметра цельного кремния. На нём 4 триллиона транзисторов, 900 000 ядер и 44 ГБ сверхбыстрой памяти, встроенной прямо в процессор. Данные не путешествуют между чипами, а обрабатываются там же, где хранятся, и именно это даёт скорость.
Индии проект нужен ради суверенного AI: данные остаются в стране, вычислительные мощности свои, а доступ получат университеты, стартапы и госструктуры.
Но самое интересное в другом. Неделю назад OpenAI впервые запустила модель не на чипах Nvidia, а на Cerebras. GPT-5.3 Codex Spark генерирует код со скоростью 1000+ токенов в секунду, в 15 раз быстрее стандартной версии. Сотни строк появляются быстрее, чем вы успеваете моргнуть.
Монополия Nvidia пока не рухнула, но это первая трещина.
🤯116🔥36🤣17🫡13❤11🤔5😁1😢1
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Сны директора АвтоВАЗа захватили интернет.
🤣195👍30❤19🔥4🫡3👏2😁2😐2
Media is too big
VIEW IN TELEGRAM
Люди проиграли нейросетям в энергоэффективности.
По крайней мере, так считает глава OpenAI. На саммите в Индии Сэм Альтман заявил, что обучение человека обходится дороже, чем обучение AI: «20 лет жизни и вся еда, которую вы съедите за это время, прежде чем станете умным».
Логика такая: обучение нейросети — это разовая инвестиция, а дальше каждый ответ обходится дёшево. С людьми, по его мнению, ровно наоборот.
В соцсетях предсказуемо вспыхнуло. То, что людей поставили ниже нейросетей по соотношению затрат и пользы, не оценили, а Альтмана обвинили в том, что он готовит почву для мира, где бесполезных людей отправят в биореактор на благо AI.
По крайней мере, так считает глава OpenAI. На саммите в Индии Сэм Альтман заявил, что обучение человека обходится дороже, чем обучение AI: «20 лет жизни и вся еда, которую вы съедите за это время, прежде чем станете умным».
Логика такая: обучение нейросети — это разовая инвестиция, а дальше каждый ответ обходится дёшево. С людьми, по его мнению, ровно наоборот.
В соцсетях предсказуемо вспыхнуло. То, что людей поставили ниже нейросетей по соотношению затрат и пользы, не оценили, а Альтмана обвинили в том, что он готовит почву для мира, где бесполезных людей отправят в биореактор на благо AI.
😐152🤣40👍21🤯11❤6🙈6🔥5😁4😢3
This media is not supported in your browser
VIEW IN TELEGRAM
Восторг: нашли нейросеть, которая может показать вашу фотографию с ракурса, с которого её никто не снимал.
Загружаете любое изображение, двигаете камеру в 3D-пространстве — выбираете угол, высоту, расстояние — и нейросеть генерирует реалистичный кадр с нового ракурса. Без 3D-моделирования и дополнительных фото.
Работает на модели Qwen, бесплатно, прямо в браузере — ссылка.
Загружаете любое изображение, двигаете камеру в 3D-пространстве — выбираете угол, высоту, расстояние — и нейросеть генерирует реалистичный кадр с нового ракурса. Без 3D-моделирования и дополнительных фото.
Работает на модели Qwen, бесплатно, прямо в браузере — ссылка.
❤131🤔33🔥21😐11👍6🗿5👀4🫡2🤯1