Технозаметки Малышева
8.27K subscribers
3.73K photos
1.4K videos
40 files
3.92K links
Новости инноваций из мира Искусственного Интеллекта. 🤖

Всё об ИИ, ИТ трендах и Технологической Сингулярности.

🤖: @ai_gptfreebot [бесплатный бот]
✍️: @tsingular_bot [каталог ботов и курсов]

💸[поддержка]: pay.cloudtips.ru/p/c8960bbb
Download Telegram
Forwarded from Machinelearning
📌Итоги года от Андрея Карпаты.

2025 год был захватывающим годом для языковых моделей.

Они проявились как новый вид интеллекта, одновременно гораздо более умный и гораздо более глупый, чем я ожидал. Я думаю, что индустрия не реализовала хотя бы 10% их потенциала даже при нынешних возможностях.

Я одновременно верю и в то, что мы увидим быстрый и непрерывный прогресс, и в то, что впереди еще очень много работы.

Пристегнитесь.


🟡Обучение с подкреплением на основе проверяемых вознаграждений (RLVR)

В 2025-м стек обучения LLM дополнился новой ключевой стадией оптимизации по объективным наградам. Он заставляет модели самостоятельно находить стратегии рассуждения.

Прогресс года в том, что создание моделей стало не про увеличение размера модели, а про более длительные RLVR-прогоны.

Это также дало новый рычаг управления: "время размышления" на инференсе. Первопроходец - OpenAI o1, а переломный момент - o3.

🟡Интеллект современных LLM принципиально отличен от человеческого

Интеллект LLM формируется под давлением специфических оптимизаций и на выходе мы имеем резкие всплески способностей в рядом с грубыми ошибками.

Из-за этого бенчмарки теряют смысл: под них напрямую оптимизируются, что не ведёт к созданию AGI.

🟡Cursor - это новый слой LLM-приложений

Это не просто интерфейс к условной модели, а сложная оркестрация работы LLM под конкретные вертикали, c управляемым контекстом, вызовами и интерфейсом.

Cursor создаёт отдельную ценностную прослойку между LLM-лабораториями и конечными пользователями.

🟡Claude Code

В отличие от облачных агентов, он использует ваши данные, контекст и инструменты для ризонинга и вызова инструментов.

Его фишка - в низкой задержке, приватности и глубокой интеграции в рабочее окружение. Это сдвиг от ИИ как «сайта» к напарнику-помощнику в вашей системе.

Я думаю, OpenAI допустили ошибку, сосредоточив свои усилия по созданию агентов в облаке и управляемых из ChatGPT, вместо localhost.


🟡Вайб-кодинг

В 2025 году ИИ преодолел порог, позволяющий через текстовые инструкции создавать работающие программы.

Это демократизирует программирование, позволяя непрофессионалам писать код, а экспертам - быстро прототипировать без глубокого погружения.

Код становится эфемерным, гибким и бесплатным ресурсом.

Забавно, что я придумал термин «вайб-кодинг» в этом твите с мыслями из душа, совершенно не представляя, как далеко это зайдет :)


🟡LLM GUI и Nano banana

Взаимодействие с ИИ через чат - это аналог командной строки 80-х, неудобный для человека.

Будущее за LLM GUI интерфейсом, где ИИ общается визуально (инфографика, анимации, веб-приложения).

Nano banana - ранний пример такого взаимодействия, в ней объединены генерация текста, изображений и общие знания.

Google Gemini Nano banana — одна из самых невероятных, меняющих парадигму моделей 2025 года.


🔜 Читать статью полностью


@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍731
«300 практик применения ИИ»: результаты, кейсы, мнения

А вот и полная презентация вышла.

«Компьютерра» провела исследование внедрений ИИ в российских компаниях и госструктурах.

Главный вывод: ИИ перестал быть игрушкой и стал частью операционного контура.

Цифры:
- 300 кейсов: 73% бизнес, 27% госсектор
- 22 отрасли — от ИТ до ЖКХ и экологии
- Лидеры: ИТ/телеком (15.3%), медицина (13%), финансы (11%), промышленность (10.7%)
- Средний проект: 5.5 месяцев, 12 млн ₽

Что внедряют:
- СППР (системы поддержки принятия решений),- лидируют везде
- Компьютерное зрение,- промышленность, безопасность
- NLP,- документооборот, поддержка
- GenAI,- финсектор экспериментирует активнее всех (22% кейсов)

Зачем:
- Снижение затрат (20.7%)
- Борьба с человеческим фактором (18.4%)
- Обработка неструктурированных данных (13.8%)

Результаты:
- 63.4% — ожидания оправдались
- 17.1% — результат превзошёл прогнозы
- Каждый третий проект дал прямой финансовый эффект

Барьеры:
- Качество данных и неясность метрик (по 15.4%) — главные стоп-факторы
Мешают не технологии, а организация

Ключевой тренд 2025: переход от «умного поиска» к автономным ИИ-агентам.

#компьютерра #аналитика
———
@tsingular
62❤‍🔥21
This media is not supported in your browser
VIEW IN TELEGRAM
В Питер завезли вайбкодеров из Индии.

#новости #юмор
------
@tsingular
12👻8😁5👨‍💻421
Media is too big
VIEW IN TELEGRAM
🎮 NitroGen: модель для игровых AI-агентов

Команда из NVIDIA, Stanford и Caltech обучила универсального игрового агента на 40,000 часов геймплея с 1,000+ игр.

Модель способна играть в новые игры без дообучения.

Оцифровали действия из публичных YouTube-видео через оверлеи геймпадов (те картинки контроллера, которые стримеры показывают в углу экрана).

500M параметров (архитектура GR00T + flow-matching)
Action-RPG — 34.9%, Platformers — 18.4% датасета
846 игр с 1+ часом данных, 15 игр с 1000+ часов

Почему важно:
Это первый серьёзный подход к масштабированию embodied AI.

Игровые RL-агенты (StarCraft, Dota) — узкоспециализированные и дорогие. LLM-подходы требуют ручных API.

NitroGen учится напрямую из пикселей → действия.

Датасет, бенчмарк и веса — в открытом доступе.
Paper
HuggingFace
GitHub

#NVIDIA #Games #NtroGen
———
@tsingular
🔥411
Немного танцующих роботов вам в ленту :)

DeepRobotics DR02 в промо
Unitree на концерте в подтанцовке
PNDbotics Adam в лаборатории

#роботы #танцы
------
@tsingular
🔥7🆒2👾21
Forwarded from Denis Sexy IT 🤖
Тут легенда ML-индустрии, ученый Эндрю Нг, сходил в Стэнфорд и поделился своим мнением про АИ и карьеру инженеров – видео длинное и я советую смотреть его, но вот топ-10 советов оттуда:

1. Держите рабочие AI-инструменты “свежими”: отставание быстро превращается в потерю продуктивности.
Сейчас выбор среды/ассистента для кода реально влияет на скорость и качество. Если вы используете инструменты на поколение старее, вы часто просто делаете ту же работу дольше и тяжелее

2. Код стал дешевле - дороже стало “решить, что строить” и “описать это четко”.
Когда написать код проще, узкое место смещается в постановку задачи: сформулировать цель, ограничения, критерии успеха, сценарии использования. То есть не “как закодить”, а “что именно нужно получить и как проверить, что получилось”

3. Умение разговаривать с пользователями - это ускоритель разработки, а не “софт-скилл ради галочки”.
Те, кто умеют сами собрать обратную связь, понять боль пользователя и быстро уточнить требования, двигаются быстрее, потому что меньше зависят от “переводчиков” между инженерами и рынком

4. Выбирайте работу по команде и людям, а не по “громкости бренда”. И требуйте ясности по команде заранее.
Если компания не готова сказать, в какую команду вы попадёте и что будете делать (или просит “сначала подпиши, потом разберёмся”), это риск: можно оказаться на задачах, которые не развивают вас в AI-направлении

5. Сделайте портфолио так, чтобы оно “рулило” интервью: пусть вас спрашивают про ваш проект, а не про случайные загадки.
Сильная тактика: собрать проект(ы), максимально похожие на будущую работу, и описать решения, компромиссы, метрики. Тогда интервью превращается в обсуждение реальной инженерии, где вы сильнее

6. Интервью - это проверка “командности под стрессом”, а не только IQ и алгоритмов.
Совет из истории: “стой на своём” можно, но без агрессии. Когда вам указывают на баг/угол, правильная реакция - совместно улучшать решение, а не защищаться как в споре

7. Код, сгенерированный AI, почти всегда приносит “долг по обслуживанию”: думайте как финансист.

Смысл простой: любой код потом надо сопровождать

Хороший “долг” - быстрый прототип, который приносит проверенную пользу/знания и окупает поддержку

Плохой “долг” - нагенерили “что-то крутое”, но никто не понимает, зачем, как работает и как чинить.
Важная мысль: выкинуть прототип - нормально, поддерживать непонятную кашу - дорого

8. Сейчас ценится не “сделал модель”, а “довёл до боевого использования”.
То есть: качество, надёжность, мониторинг, задержки, стоимость, безопасность, удобство для пользователя. На рынке сильный сигнал - умение доводить до работающего продукта, а не до демо

9. Станьте человеком, который переводит хайп в реальность: начните с вопроса “зачем?”.
Соцсети поощряют вовлечённость, а не точность. Поэтому трендовые слова (“агенты”, “всё заменим AI”) легко уводят в сторону. Практичный подход: сначала “зачем бизнесу?”, “какой показатель улучшаем?”, “что будет считаться успехом?” - и уже потом выбирать технологию

10. Готовьтесь к двум параллельным траекториям: большие облачные модели и небольшие локальные модели “у себя”.
В одних задачах будут доминировать мощные модели “как сервис”. В других (где важны приватность, IP, контроль, стоимость) - модели, которые разворачивают внутри компании. Полезные навыки на стыке: настройка под задачу (fine-tuning/адаптация), развёртывание, ограничения по данным, безопасность и эксплуатация.

Ну, база, что скажешь еще
117🔥54👍2💯1
This media is not supported in your browser
VIEW IN TELEGRAM
Интересный пример использования нейрорендера для анимации ремонта.

Чисто Нанобанана послойно, ничего лишнего.

#нейрорендер
------
@tsingular
🔥4985
Gallup: 45% американцев используют ИИ на работе

Опрос 23 тысяч сотрудников в США показал рост использования искусственного интеллекта в работе с 40% до 45% за квартал.
Ежедневно применяют только 10%, остальные - пару раз в год.

Основные сценарии:
- 42% - собрать информацию
- 41% - сгенерить идеи
- 36% - изучить что-то новое

Инструменты:
- 61% - чатботы
- 36% - редактирование текстов
- 14% - помощники для кода

Сотрудники технологических (76%) и финансовых (58%) компаний лидируют, ритейл и производство отстают (33-38%).

Интересный момент: 23% сотрудников вообще не в курсе, внедрила ли их компания искусственный интеллект официально. :)

Это значит многие юзают личные инструменты типа ChatGPT без ведома руководства. (привет shadow AI)

#Gallup #ShadowAI #аналитика
———
@tsingular
82
NOAA запустила ИИ-модели прогноза погоды на базе GraphCast

Метеослужба США развернула три модели:
AIGFS (базовый прогноз), AIGEFS (ансамбль сценариев) и гибридную HGEFS, объединяющую 31 физическую и 31 нейросетевую модель.

⚡️Ключевая цифра: прогноз на 16 дней теперь потребует всего 0.3% вычислительных ресурсов традиционной GFS и выполняется за 40 минут на одной A100.

В основе,- GraphCast от DeepMind, дообученный на данных NOAA GDAS с разрешением 0.25°.

Траектории тропических циклонов стали точнее на 5-6 дней упреждения.

Гибридный ансамбль HGEFS из 62х модулей превосходит обе системы по большинству метрик: комбинированный анализ даёт ещё более высокую точность.

Скоро как в "Назад в будущее 2" прогноз погоды в реальном времени с точностью до секунды будем считать.

#NOAA #GraphCast #Weather
———
@tsingular
942
Media is too big
VIEW IN TELEGRAM
SketchUp AI: генерация 3D моделей и текстур + персональный ассистент

Trimble запустил SketchUp AI — набор инструментов для 3D-моделирования и визуализации.

В пакет входят два модуля:
- AI Render (бывший SketchUp Diffusion) превращает модель + текстовый промпт в фотореалистичные картинки за секунды. Есть inpainting, референсные изображения и негативные промпты.
- AI Assistant генерирует 3D-объекты из текста или картинки прямо в редакторе.

Осталось только чтобы он еще саму архитектуру с инженеркой научился собирать и будет огонь.

#SketchUp #Trimble #3DModeling
———
@tsingular
👍952🔥2🆒1
Media is too big
VIEW IN TELEGRAM
ИИ вебинар a la дичь

Если вдруг вас накроет когда-нибудь синдром самозванца, - посмотрите этот ролик.
Такие тоже продаются :)

Товарищи переизобрели Гербалайф, если кто помнит этот MLM трэш.

Полная версия на Youtube

Спасибо @Sprut_AI за настроение :)

#дичь #вебинары #юмор #MLM
———
@tsingular
13🔥6😁51🗿1
exo: релиз 1.0 рвёт шаблоны

Проект exo, о котором за эти пол-года уже все успели забыть, выпустил версию 1.0 и она наконец-то работает так, как и было задумано, - чем больше устройств в сети,- тем выше скорость инференса.

Раньше обработка велась последовательно и это приводило к тому, что чем больше машин в цепочке, тем ниже была итоговая скорость.
Теперь же модели режутся послойно, на каждую отгружается свой набор слоев и в итоге, - чем больше машин в кластере, тем выше скоростью. Шардинг рулит.

Один момент, - для MoE это работает не так эффективно, - прирост скорости около 15%, но зато для dense моделей, - прирост в разы, - в 3 раза на кластере из 4х машин.

Если кто не слышал про exo раньше, - этот фреймворк позволяет автоматически находить устройства в сети, делит модель на части по доступной памяти каждого гаджета и запускает через OpenAI-совместимый API.

Еще одна новая фишка, - поддержка RDMA через Thunderbolt 5, - это позволяет снизить задержки с 300 до 50 микросекунд.

Очень годный обзор с примерами на Youtube по запуску всего что можно на 4х M3 Ultra 512Gb

#exo #RDMA #Thunderbolt
———
@tsingular
🔥11🎉2🏆21
Роботакси Waymo заблокировали дороги после блэкаута в Сан-Франциско

В пятницу 130 тысяч человек в Сан-Франциско остались без света из-за пожара на подстанции. Вместе со светом пропали светофоры и сотовая связь.

Waymo полностью приостановила сервис — машины встали посреди перекрёстков и блокировали движение часами.

Проблема в архитектуре: без светофоров автопилот не может подтвердить состояние перекрёстка и просто стопорится.

Плюс сотовая сеть упала до 6 Мбит/с, операторы не могли дистанционно управлять застрявшими тачками.

Вместо манёвра «припаркуйся на обочине» сработал протокол «замри где стоишь».
Технически это минимальное условие риска, но на практике,- пробка.

Получается, что полностью автономные машины работают только пока работает всё остальное. Без электричества они не просто перестают работать сами, но еще и вызывают проблемы у окружающих.

- "Ваша империя разрушения и тьмы рушится из-за одной вишенки"
Пятый Элемент

UPD: сервис восстановили

#Waymo #Robotaxi #Blackout
———
@tsingular
💯72😁16129👍4👾31🤯1
Nvidia съест весь NAND после DRAM

Nvidia договорилась с SK Hynix и Kioxia о разработке «ИИ-накопителей» с 100 млн IOPS к 2027 году.

Проблема в том, что GPU упираются в объём HBM-памяти, а серверная DRAM стала слишком дорогой из-за ИИ-бума.

Решение нашли в новой технологии - High Bandwidth Flash на базе SSD, но с дикой скоростью.

Нюанс: такие накопители работают на блоках по 512 байт вместо стандартных 4 КБ.
Для 100 млн IOPS через PCIe 7.0 нужны сотни флэш-чипов в одном корпусе — физически это граница возможного.

Хуже другое: если ИИ-дата-центры начнут жрать NAND так же, как сожрали DRAM, цены на обычные SSD взлетят.
Потребительский рынок накопителей рискует повторить судьбу оперативки — стать заложником ИИ-гонки.
Прототип SK Hynix обещают к концу 2026-го.

Сначала видеокарты не купить, потом память, теперь вот и SSD станут золотыми.
ИИ отбирает электричество, воду на охлаждение и компьютерные компоненты один за другим.
Интересно в какой момент придётся дёрнуть стоп-кран?

#Nvidia #NAND #SKHynix
———
@tsingular
13😁63👍1
AWS обещает миллиарды агентов в каждой компании

На конференции Re:Invent глава AWS Мэтт Гарман нарисовал картину будущего с миллиардами автономных агентов в каждой организации.

Так же показали новые чипы Trainium 3 (4.4x производительность, 362 FP8 PFLOPs на сервер) и модели Nova - от Lite до Omni.

Trainium 3 жрёт киловатт на чип, требует жидкостное охлаждение.

Масштабирование до миллиардов агентов на каждую компанию упрется в энергию, охлаждение и пропускную способность.
Интересно как будут решать?!

Ну и отдельно интересно как для миллиардов агентов в корпорации построить целеполагание, тестирование, контроль доступа и безопасность.

Надо менять парадигму,- от ИИ ассистентов к рою.

#AWS #Trainium #NovaAct
———
@tsingular
🤔8🔥4311
Хорошо подмечено

1 декабря прошлого года не было ни одной хорошей модели Gemini (у нас был уровень 1,5), ни одной модели для обработки изображений, которая бы правильно обрабатывала текст, ни одной хорошей модели для видео, не было Deepseek R1, o1 только что выпустила функцию вывода результатов во время тестирования, FrontierMath показала 2%, а не 41%, никто не достиг 10% в HLE... Просто чтобы вы могли планировать на 2026 год.


Я бы еще добавил, - голосовые генераторы не имели столько эмоциональных оттенков и музыку можно было использовать разве что для приколов.
В этом году и голос и музыка "прошли тест Тьюринга"

А, и ClaudeCode еще не существовал, кстати, как и OpenAI Codex :)

Так что да, - даже если в 2026м прогресс в ИИ будет линейным, а не экспоненциальным (каким он на самом деле должен быть с учётом закона ускоряющейся отдачи), - нас ждёт удивительный год.

#futurology
———
@tsingular
21🤔8🔥421🏆1🍾1
PackEat: крупнейший датасет для умных касс из России

Яндекс, Сколтех и ГУАП выпустили PackEat — открытый набор из 100 тысяч снимков фруктов и овощей для обучения систем компьютерного зрения в ритейле.

Датасет покрывает 34 вида и 65 сортов продуктов, снятых в реальных магазинах разных городов с пакетами, перекрытиями и фоновым шумом.

9 тысяч изображений размечены попредметно с указанием количества и общего веса упаковки.

Точность нейросетей, обученных на этих данных, может достигать 92%, что должно помочь ритейлерам сократить убытки от ручной идентификации весового товара.

Статья с описанием датасета опубликована в Scientific Data,
сам датасет - на Zenodo,
код и примеры моделей - на Kaggle

#PackEat #Retail #ComputerVision
———
@tsingular
🔥11👏3111