Технозаметки Малышева
8.34K subscribers
3.75K photos
1.4K videos
40 files
3.93K links
Новости инноваций из мира Искусственного Интеллекта. 🤖

Всё об ИИ, ИТ трендах и Технологической Сингулярности.

🤖: @ai_gptfreebot [бесплатный бот]
✍️: @tsingular_bot [каталог ботов и курсов]

💸[поддержка]: pay.cloudtips.ru/p/c8960bbb
Download Telegram
Forwarded from Denis Sexy IT 🤖
И раз у нас тут сегодня про философию: на днях вышел Gemini 2.5 Deep Think за 250$ в месяц – сначала спросил его «а что люди не понимают и не видят сейчас как вид» и ответ первой модели, передал в o3 Pro, которая тоже 200$ в месяц, с просьбой поправить ошибки если они есть, и доработать – вот ответ:

TL;DR: Шесть главных областей, которых человечество «не видит», и как мы могли бы их заметить, если бы обладали другими чувствами или когнитивными инструментами.



1. Многомерность и «дрожь» квантового поля

Что упускаем. Всё вокруг - это рябь квантовых полей в пространстве большей размерности, чем кажутся наши три оси.

Как могли бы люди видеть это, если бы умели.
Если бы наши органы чувств реагировали не на плотность материи, а на амплитуду вакуумных флуктуаций, мы наблюдали бы мир как полупрозрачный туман вероятностей: стены дрожали бы, а предметы - светились изменчивыми контурами, показывая, где частица «может» быть, а не где она «есть».



2. Эмерджентность пространства-времени

Что упускаем. Пространство и время, возможно, возникают из сети глубинных корреляций, как поверхность воды возникает из взаимодействия молекул.

Как могли бы люди видеть это, если бы умели.
Представьте зрение, чувствующее не расстояние, а «плотность связи»: перекрёстки информации собирались бы в яркие узлы, а пустота растягивалась бы, когда связи редеют. Мы перестали бы мерить метры и секунды и ориентировались бы по «силе переплетения» событий.



3. Отсутствие объективного «сейчас»

Что упускаем. Прошлое, настоящее и будущее могут существовать одновременно, а «течение времени» - это способ мозга упорядочивать воспоминания.

Как могли бы люди видеть это, если бы умели.
Своего рода «четвёртое око» позволило бы листать всю линию жизни, как фильм на монтажном столе: можно было бы «отступить» и разом увидеть детство, сегодняшний обед и завтрашний рассвет как соседние кадры, выбранные для просмотра в любом порядке.



4. Нелокальная связанность

Что упускаем. Два объекта могут быть мгновенно связаны, даже находясь на разных концах галактики.

Как могли бы люди видеть это, если бы умели.
Если бы мы ощущали запутанность так же легко, как тепло, то при взгляде на звёздное небо яркие линии-нити соединяли бы некоторые звёзды с нашими ладонями, показывая, что «там» и «здесь» неразрывно спаяны, даже когда глаз фиксирует огромную дистанцию.



5. Глубинные вычисления мозга

Что упускаем. Сознание - лишь тонкий прослойка; большая часть решений рождается в подсознательных моделях.

Как могли бы люди видеть это, если бы умели.
Вообразите внутренний «HUD», который всплывает до того, как возникнет мысль: вспышка строк кода показывает, какие прогнозы мозг строит и какую эмоцию собирается включить. Мы бы ловили момент, когда выбор ещё не оформился в намерение, и могли его корректировать.



6. Тёмная сторона космоса

Что упускаем. Львиная доля Вселенной - тёмная материя и тёмная энергия, невидимые обычным светом.

Как могли бы люди видеть это, если бы умели.
Почувствуй мы гравитацию, как мы чувствуем звук, - плотные облака тёмной материи гудели бы глубокими нотами, а пространство ускорялось бы под ногами, словно эскалатор, указывая на давящую «тёмную энергию». Мы расположили бы города вдоль «тихих» гравитационных дорог, как сейчас тянем их к берегам рек.



Финальный вывод: Расширив диапазон ощущений - физическими датчиками, математикой или тренировкой внимания - человечество способно увидеть многомерное, нелокальное, вне-временное измерение реальности, которое сегодня скрыто за удобным, но ограниченным интерфейсом чувств.


Когда АИ-философ за 500$ в месяц:

👑 👍
🤡 /
\_/_____
/ \ \
\👍 \ \
👟 👟
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥13🆒11521😁1🐳1
Каждая техкомпания может и должна тренировать собственные модели

Клем Деланг из Hugging Face заявляет: каждая техкомпания может тренировать собственные DeepSeek R1, Llama или GPT-5 так же, как сейчас пишет код собственных приложений.

Должно стать постоянной общепринятой практикой.

Поэтому HF выпускает мега инструкцию по обучению моделей на кластерных системах.

Начинают с простого обучения на 1 карте и затем шаг за шагом объясняют за параллеризм данных, контекста, тензоров, пайплайнов и экспертов.

246 страниц.

Полная инструкция в комментарии

#Кластеры #HuggingFace #обучение
------
@tsingular
🔥97👍71
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
This media is not supported in your browser
VIEW IN TELEGRAM
Официальный ответ от Гугла по поводу использования JSON в промптах для Veo3:

Мы видели удивительные видеоролики Flow, созданные с помощью подсказок JSON! Это не единственный и даже не "лучший" способ, просто один из способов помочь структурировать гиперспецифические визуальные указания. Нет JSON? Нет проблем! Независимо от того, каким образом вы даете подсказки, для достижения высоких результатов необходимо точно определить обстановку, объект, действие, освещение, тип съемки, угол камеры и звук.


TLDR: бесовщина этот ваш JSON, жрет токены в 4 раза больше, теряет предлоги и, как следствие, отношения между объектами.

Пишите нормальные промпты и будет вам по токенам вашим.

Static 35 mm full-frame 16:9 shot reveals a vast pale-grey warehouse: plain back wall, concrete floor, grey rafters above. A cardboard box sits center frame. In one seamless motion the box bursts open; furniture erupts upward, sweeping out on fast, elastic, physics-true arcs. Graphite sofas, patterned rugs, tall shelves, and bronze floor lamps land neatly behind and around it, while a solid table thumps at the exact center of the layout. A cushion rebounds onto the sofa, a framed picture snaps to the wall, and a bronze pendant fixture swings from the rafters as dust sparkles over the newfound living room.


@cgevent
😁96👍42
Graph-R1: агентная GraphRAG через обучение с подкреплением

Исследователи представили Graph-R1 — новый подход к GraphRAG, который превращает поиск информации в интерактивный процесс.

Если у вас избыточно GPU, то вы можете вместо статичного извлечения данных использовать обучение с подкреплением для многоэтапного взаимодействия агента с графом знаний.

В основе — легковесная гиперграф-конструкция и адаптивный поиск. Агент учится находить релевантную информацию через пробы и ошибки, улучшая точность извлечения данных.

Эксперименты показали повышение качества генерации и эффективности поиска по сравнению с традиционными chunk-based методами.

Система особенно эффективна для сложных многошаговых запросов.

Короче такой вариант на тему агентного RAGа.
Можно еще добавить генерацию уточняющих вопросов от RAG системы (что этот нигга себе позволяет? :) ).

#GraphRAG #RLGraphRAG #hypergraph
———
@tsingular
👍543❤‍🔥1🤔1
Forwarded from Нейродвиж
Это конец: новое исследование доказывает, что все прикольные промты в духе «я убью сто бабушек, если ты не справишься», угрозы и чаевые больше НЕ РАБОТАЮТ на современные LLM — результат от них настолько незначителен, что его можно списать на статистическую погрешность.

Более того — chain of thought (думай шаг за шагом) и все подобные техники тоже больше не эффективны.

Авторы советуют не угрожать ИИ, а вместо этого максимально подробно расписывать задачу — чем подробнее описание, тем лучше результат, это аксиома.

Фанфакт: единственная моделька, где до сих пор работает давление на жалость — Gemini 2.0 Flash. Она не может устоять перед историями, где чья-то мама болеет раком 😭
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥8👌2👀1
🎨 Qwen-Image: магия точных текстов через MMDiT

Alibaba выпустили Qwen-Image — 20B параметров MMDiT модель, которая наконец решила проблему качественного текстового рендеринга в генерациях изображений.

китайский и английский языки теперь полностью сохраняют структуру и семантику в генерациях

- Многострочные макеты и параграфы без искажений
- Консистентное редактирование с сохранением реализма
- Вместо дорисовки текста поверх картинки модель генерирует его как органичную часть изображения.

Это решает главную проблему ИИ-генераторов — кривые буквы и нечитаемые надписи.

Основана на архитектуре Qwen2.5-VL с поддержкой контекста до 256K токенов. Модель понимает связь между визуальным и текстовым контентом на уровне пикселей.

Особенно полезно для создания баннеров, презентаций и маркетинговых материалов, где текст должен выглядеть профессионально.

Лидирует на GenEval, DPG, OneIG-Bench для генерации + GEdit, ImgEdit, GSO для редактирования.
Особенно впечатляет LongText-Bench и ChineseWord — здесь конкуренты просто не играют.

Попробовать уже можно в Qwen Chat через режим "Image Generation"

GitHub
HF
Demo

#Qwen #TextRendering #MMDiT #Alibaba
———
@tsingular
🔥6👍3👏2
Буря мглою небо кроет, вихри снежные крутя...

По версии Qwen. :)

Ну, спасибо хоть Пушкина в подписи не забыл.

#Qwen #Image
———
@tsingular
😁9👍5💯1
Kaggle запускает Game Arena для тестирования ИИ-агентов в играх

Kaggle представил новую платформу для оценки алгоритмов через игровые сценарии.

Game Arena позволяет разработчикам тестировать своих ИИ-агентов в различных играх и сравнивать результаты с другими участниками.

Платформа использует механизмы прозрачности для честной оценки - адаптивную настройку сложности и анализ данных в реальном времени.

Ключевая проблема: риск "натаскивания на тест" может искажать реальную оценку способностей алгоритмов.

Отбор игр происходит по критериям: баланс сложности, потенциал для машинного обучения и разнообразие сценариев.

Теперь ИИ-агенты смогут играть в шахматы, покер и тетрис, чтобы доказать свою крутость. Главное - не дать им освоить азартные игры. 🎮
Хотя... :)

#Kaggle #GameArena #benchmarks
------
@tsingular
👍4🔥321
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
***AI o4 - вы что подумали?

А вот и нет! Чтобы вам жизнь медом не казалась, а нейминг от Альтмана тренировал вашу и без того короткую память, китайцы теперь тоже именуют модели как o4!!!!

В общем пост про XBAI o4 - еще одна LLM с открытым исходным кодом (Apache 2.0) от китайской лаборатории искусственного интеллекта. Китайцы клянуцца что:

XBai o4 ПОЛНОСТЬЮ превосходит в сложных рассуждениях (complex reasoning capabilities ) OpenAI-o3-mini в режиме Medium. См картинку.

Это модель на 32.8 миллиарда параметров, выпущенная китайцами из MetaStone AI, которые выпустили свою первую модель в марте - MetaStone-L1-7B, затем последовали MetaStone-S1 1.5B, 7B и 32B в июле, а теперь XBai o4 в августе.

В твитторах очень мало информации о MetaStone AI. В их документах указана связь с USTC, Университетом науки и техники Китая. Один из исследователей подтвердил, что их генеральный директор - выходец из KWAI. www.wenxiaobai.com указан как "официальный сайт", на который ведет ссылка из XBai-o4 README на GitHub.

Взрослые мальчики уже запустили модель на Маке и пишут, что впечатления чуть хуже, чем от Qwen3-Coder-30B-A3B-Instruct или GLM-4.5 Air.

Однако факт остается фактом, малоизвестные китайцы, просто, тихо и без понтов говяжих, выпускают модель за моделью, которые дышат в затылок приподразхайпленным монстрам с обеих сторон Тихого океана.

Фарш тут: https://huggingface.co/MetaStoneTec/XBai-o4
Код тут: https://github.com/MetaStone-AI/XBai-o4/

В LM Studio тоже заводится, требует 25 ГБ памяти для 6-бит версии.

@cgevent
😁63🔥1
Наглядная иллюстрация к разговору о количестве параметров в LLM

Скачок в качестве ответов 0.6B -> 6B будет заметен сразу.

А вот дальше, скажем, на переходе от 600B к, прости господи, 6T,- большинство даже не заметят.

Вообще, кому в здравом уме может понадобится модель больше?
Для большинства задач 600B будет достаточно! 😎

#иллюстрации #size #юмор
------
@tsingular
7👍5😁5🗿2👨‍💻1
Coflex - автоматизация проектирования ASIC для LLM

Вышел open-source фреймворк Coflex, который автоматически оптимизирует ASIC чипы под LLM.

Ключевая фишка - снижение вычислительной сложности с O(n³) до почти линейной O(nm²).

По сути это исследователь, который разбирается в железной архитектуре и ищет сходимость узлов программной архитектуры с микросхемной топологией.

В каждой оптимизационной итерации фреймворк рассчитывает потери с точки зрения количества ошибок и эффективности железа в части задержек в прохождении сигнала и подбирает оптимальное соотношение.

Система использует Sparse Gaussian Processes для навигации по пространству с 10¹⁸ конфигураций аппаратного и программного обеспечения.
Вместо медленного полного перебора создает "карту" всего пространства через небольшой набор репрезентативных точек.

Доступен на GitHub
Paper

АСИКИ для LLM!
Биткоин фермеры опасносте.

#Coflex #ASIC
———
@tsingular
3🔥3🤯31
ИИ раскрыл новые физические законы на задаче по анализу пылевой плазмы

Команда из Emory University показала, как правильно обученная нейросеть может находить новые физические законы в экспериментальных данных.

Модель была обучена на реальных экспериментальных данных (3D-трекинг лазерной томографией), а не на симуляциях с синтетическими параметрами.

Результат — точность R² > 0.99 при предсказании траекторий частиц и открытие неожиданных отклонений от классической теории.

Техническая архитектура:
- 3 независимые нейросети для разных типов сил: межчастичные взаимодействия, внешние силы, демпфирование
- Встроенные физические симметрии в архитектуру (трансляционная инвариантность в xy-плоскости)
- "Weak form" loss function — фильтрация ускорений через интегрирование вместо зашумленных производных
- Масштабирование O(N²) для N частиц

Неожиданные открытия:
- Эффективная длина экранирования λ зависит от размера частиц (вопреки теории)
- Заряд частиц q ∼ m^p, где p = 0.30-0.80 (теория предсказывает p = 1/3)
- Показатель p растет с давлением газа — намек на коллизионные эффекты

Подход экспериментально проверен и опубликован в PNAS.

Технология применима для изучения явлений от колец Сатурна до земной ионосферы.

Кто-то тут недавно спрашивал, - когда уже ИИ начнет открытия в реальном мире делать,- получите, распишитесь.

#MachineLearning #Physics #Plasma #ScientificML
———
@tsingular
👍13🔥631🤔1🐳1
Напоминаю, сегодня в 20:30 эфирим на тему новинок AWS.

https://t.me/tsingular/4646

Всё самое интересное от мирового лидера облачных ИИ сервисов.

Стрим будет тут

Если у вас есть вопросы заранее, - накидайте в комменты, - зададим на стриме вместе Владимиру.

#AWS #эфиры
———
@tsingular
52💯1
Intuit превратили GenOS в конвейер ИИ-агентов для 100М пользователей

Один из интересных кейсов на AWS Summit - как Intuit разработали и прокачали свою собственную операционную систему GenOS для работы с бухгалтерией.
Представьте если бы, например, 1С выпустила свою операционную систему с ИИ агентами.

GenOS
эволюционировала от экспериментов до промышленной платформы агентной автоматизации за 2 года.

Теперь это полноценная ОС для создания ИИ-приложений: собственные финансовые LLM плюс интеграция с GPT, Claude, Amazon Nova.

Agent Starter Kit за 5 недель привлёк 900+ разработчиков и 100+ команд. Агенты уже работают в QuickBooks (автообработка дебиторки), TurboTax (автоконвертация налоговых изменений в код).

Техническая начинка из 4 компонентов:
- GenWorkbench (IDE для агентов),
- GenRuntime (интеллектуальный слой планирования),
- GenSRF (защита от prompt injection),
- GenUX (150+ UI-компонентов).

Система обрабатывает 60 млрд ML-транзакций в день.

#Intuit #GenOS #agents
———
@tsingular
3🔥3👍2
Коллекция из 300+ кейсов ML-систем от 80+ компаний

Репозиторий собрал практические примеры дизайна машинного обучения от Netflix, Uber, Google и десятков других компаний.

Каждый кейс показывает реальные решения: как справились с масштабированием, какие архитектурные хаки применили, где споткнулись.

Особенно ценны примеры борьбы с bias'ами в моделях и методы оценки эффективности в разных индустриях.

Материалы структурированы по отраслям и типам ML-задач. Можно быстро найти релевантный опыт для своего проекта.

Теперь не нужно изобретать велосипед - кто-то уже наступил на все грабли за вас.

#ML #кейсы
------
@tsingular
🔥433
Меньше чем через час начинаем эфир на тему новинок с AWS Summit 2025.

https://t.me/tsingular/4646

Стрим будет тут

#AWS #эфиры
———
@tsingular
👍622