Технозаметки Малышева
10.8K subscribers
4.46K photos
1.61K videos
41 files
4.51K links
Новости инноваций из мира Искусственного Интеллекта. 🤖 [РКН: 7021469833 ]

Всё об ИИ, ИТ трендах и Технологической Сингулярности.

🤖: @ai_gptfreebot [бесплатный бот]
✍️: @tsingular_bot [каталог ботов и курсов]

💸: pay.cloudtips.ru/p/c8960bb
#UEGVW
Download Telegram
🚨 NVIDIA выложила на Hugging Face квантизированную Gemma 4 31B

- NVFP4 сжимает веса в ~4 раза без заметной потери качества
- 99.7% от baseline на GPQA (75.46% vs 75.71%)
- Контекст до 256K
- Мультимодальность: текст, изображения, видео
- vLLM-ready + оптимизация под Blackwell

По железу:
- веса: ~16–21 GB VRAM
- нормальный запуск: от 24 GB
- полный 256K контекст: комфортно от 32 GB

31B-модель уровня frontier, которую наконец можно гонять локально на топовом consumer GPU, а не только в облаке

Попробовать: https://huggingface.co/nvidia/Gemma-4-31B-IT-NVFP4

🎯Полезные Мл-ресурсы 🚀 Max

@data_analysis_ml
👍22
This media is not supported in your browser
VIEW IN TELEGRAM
KT2 Kungfu Turtle - дружелюбная бойцовая черепашка

Забавный концепт на кикстартере

https://www.kickstarter.com/projects/wairliving/kt2-kungfu-turtle-your-pocket-sized-fighter-robot

#turtle #робот
------
@tsingular
👍192
Forwarded from epsilon correct
Мои любимые artificial analysis выложили своё независимое тестирование Gemma 4 (твит, страница с результатами), по результатам вышло хуже квенов из-за просадки на 𝜏²-bench, ну и ладно с ним. На картинку с бенчмарками можно позалипать в комментариях к посту.

В этой версии мне довелось поработать над околонаучными бенчмарками и работой с длинным контекстом, а там мы наступаем на пятки китайским моделям на порядок больше вроде GLM 5 или DS 3.2.
🔥84👏2
Forwarded from Machinelearning
🚨 Anthropic убила «безлимит» для Claude-агентов

С завтрашнего дня подписка Claude больше не работает с OpenClaw и другими сторонними агентами как раньше. Теперь всё, что идёт через OAuth, оплачивается отдельно поверх тарифа.

По факту это конец схемы, когда за $200 в месяц прогоняли агентные пайплайны на тысячи долларов. Anthropic прямо сказала, что такие кейсы перегружают их инфраструктуру.

Сам Claude никуда не делся. OpenClaw тоже не запретили. Просто экономика изменилась. Либо платишь за каждый запрос, либо идёшь через API.

Чтобы сгладить удар, дают кредит на сумму подписки до 17 апреля и обещают скидки на доп. использование. Но это уже косметика.

Все инструменты, которые строились вокруг подписки Claude, резко становятся дороже. И теперь вопрос не в удобстве, а в юнит-экономике.

Эра дешёвых агентных хакингов закончилась.

https://x.com/bcherny/status/2040206440556826908

@ai_machinelearning_big_data

📌 полезные ресурсы 🚀Max

#claude #ai #openclaw
😢12👍963🔥2😁21🤣1
Forwarded from НИИ ИИ
EmDash — Cloudflare собрал «наследника WordPress» за два месяца с помощью ИИ-агентов

Cloudflare выпустил EmDash — open-source CMS, которую они прямо называют «духовным наследником WordPress». И самое интересное не в том, что она написана на TypeScript вместо PHP. А в том, как она была создана.

Два месяца. ИИ-агенты. Полноценная CMS с нуля.

Ну, не совсем с нуля — EmDash построен поверх Astro (который Cloudflare купил в январе). Но объём работы впечатляет: система плагинов с песочницей, встроенный импортер из WordPress, деплой на Cloudflare Workers, SQLite-база — и всё это за два месяца.

Так что конкретно не так с WordPress

WordPress — это 20+ лет PHP-кода, где 96% уязвимостей приходят из плагинов. Плагины имеют полный доступ ко всему: файловой системе, базе данных, друг к другу. Это как дать каждому гостю в доме ключи от всех комнат.

EmDash решает это архитектурно: каждый плагин работает в изолированном Worker-процессе и должен явно запросить доступ к тому, что ему нужно. По принципу OAuth — не «можно всё», а «объясни, зачем тебе».

MCP-сервер из коробки — и вот это уже интересно

Что по-настоящему выделяет EmDash из десятков «WordPress-убийц», которые появляются каждый год — встроенный MCP-сервер. Это значит, что CMS можно подключить к Claude, Gemini или любому другому ИИ-агенту и управлять контентом, миграциями, настройками программно.

Как сказал Joost de Valk (создатель Yoast SEO): «Это не CMS с прикрученными AI-фичами. Это CMS, где AI-агенты — полноправные строители».

Никаких одноразовых скриптов для миграции контента, никаких «плагинов для интеграции с ИИ». Агент получает контекст и инструменты — и работает с CMS напрямую.

Стоит ли бросать WordPress прямо сейчас

Нет. Версия 0.1, MIT-лицензия, экосистема на нуле. Но направление показательное.

Мы входим в эпоху, когда ИИ-агенты не просто помогают писать код — они собирают целые продукты. Два месяца на полноценную CMS — это сигнал. Не для тех, кто «ждёт, пока устаканится», а для тех, кто уже строит.

[Репозиторий EmDash на GitHub]— если хотите посмотреть, как это устроено внутри.

pimenov.ai
12🔥842🤔1
Forwarded from RoboFuture
🔬 Когда вышел первый deepseek, я первым делом спросил его, что произошло на площади Тяньаньмэнь (на русском). Ответ был такой, что партия забрать миска рис и кошка-жена. Такого рода анти-повесточные ответы я много где замечал у моделей из самых разных стран

(А на картинке то как "исправляет ошибки" новый AI редактор сообщений в Telegram 😂 +500 социального рейтинга уходит Паше)

Стало интересно - а как вообще формируются взгляды к которым модель будет тяготеть после обучения? В данных чего только нет - теории заговора, эзотерика, лженаука и т.д.

Стандартный ответ - "потому что у академических данных больший вес", но мне стало казаться, что дело не только в этом. Обучение LLM это по сути сжатие, а компрессору все равно где "правда" - он предпочитает то, что лучше сжимается. В итоге возникла такая гипотеза:

Модель тяготеет не к правде, а к сжимаемой картине мира. Правда выигрывает, когда ложь внутренне несогласованна


Чтобы проверить эту гипотезу я обучил 210+ трансформеров с нуля (от 3.5M до 1B параметров) на контролируемых датасетах с противоречивыми данными (математика, википедия)

Случайные ошибки - модель уверенно предпочитает правду (65–87%). Каждая ошибка уникальна, а правильная математика компактна. Даже при 90% мусора в данных модель всё равно выучивает верные ответы 🤯

Я обрадовался и добавил одно систематическое ложное правило. И тут пришлось немножко охренеть - модель начала предпочитать очевидную ложь, потому что она сжимается так же хорошо, как и истина. Модель не видит разницы. На всех масштабах, от 3.5M до 1B

Пример "сломаной" математики - если второе слагаемое нечетное, то ответ всегда 0.
2 + 2 = 4
2 + 3 = 0


А вот когда я добавил два ложных правила - истина снова стала побеждать (47% → 78%). Каждое правило само по себе компактное, но вот выбор "какое правило к какой задаче применяется" - случайный, несжимаемый. С десятью противоречивыми правилами предпочтение истины было уже 88%

На Википедии повторилось то же самое, на квенах до 1B (с нуля, без инициализации открытыми весами :)) - тоже. На миксе fineweb + математика тоже подтверждается. На разных токенайзерах - тоже

Что из этого следует?
Координированная дезинформация для компрессора неотличима от правды. И масштабирование тут не спасёт. А вот противоречия в фейках заставляют модель выбирать консистентную картину мира


В результате родилась моя первая самостоятельная научная статья - Truth as a Compression Artifact in Language Model Training. Буду подавать статью на международную конференцию. Это моя первая самостоятельная работа такого плана - если у кого-то есть опыт публикации или идеи как двигаться дальше, напишите 🙏

А если вдруг среди моих подписчиков есть те, кто менторит PhD треки - буду рад обсудить, как из этого сделать большую исследовательскую программу

Статья на arXiv (пока не опубликовали последнюю версию) |Статья на github + весь код
1🔥6088🏆7👏2
Утекла новая модель изображений от OpenAI - GPT-Image-2

Похоже, у неё:

очень сильное понимание мира (world knowledge)
отличная генерация текста на изображениях (text rendering)

Есть мнение, что она может быть лучше, чем Nano Banana Pro

Сейчас модель замечена на Chatbot Arena под кодовыми именами:

• maskingtape-alpha
• gaffertape-alpha
• packingtape-alpha
🔥227🤩4🍓1
Forwarded from Эксплойт
This media is not supported in your browser
VIEW IN TELEGRAM
ElevenLabs втоптали в землю — китайцы выпустили генератор речи OmniVoice, который может создавать аудио на более чем 600 (!) языках.

— Клонирует любые голоса без цензуры;
— Достаточно короткой записи на 5-10 секунд;
— Нереальная скорость: модель в 40 раз быстрее, чем генерация в реальном времени;
— Запустится даже на картошке;
— Можно настроить любые параметры аудио: пол, возраст, шепот и т. д.;
— Абсолютно бесплатно.

Есть онлайн-демо, сама модель на HuggingFace, а код на GitHub.

@exploitex
🔥447🏆43👍21
Когда ИИ модель крутится на смартфоне.

#юмор
------
@tsingular
😁63🤣95🏆2🆒1
Господь создал программистов сильными и слабыми, но полковник Клод уравнял их шансы
😁37🆒16❤‍🔥2
Когда электричество только появилось, его использовали для освещения, розеток не было. Но потом сообразили, что можно от электричества дома можно запитывать много других девайсов. На фотке (если присмотреться) видно, что провод к утюгу идет прямо из лампочки.

Потребовалось какое-то время, прежде чем места подключения электричества переместили в более привычные для современного взгляда места - розетки на стенах.

Современное использование AI/LLM ощущается аналогично. Электричество подвели к лампочкам и станкам, как это кажется логичным. Но индустриальная революция внедрений ещё впереди, а паттерны использования AI ассистентов, агентов и демонов будут отличаться от того, о чем вещают из каждого утюга.

Ваш, @llm_under_hood 🤗
1611👍7💯5
This media is not supported in your browser
VIEW IN TELEGRAM
Тренировки роботов в Китае

Тяжёлая работа у операторов так то..
Сидишь как крановщик с этими манипуляторами.

#роботы #Китай
------
@tsingular
👀2313👾5🔥4
🎓 HKUDS DeepTutor: Университет ИИ-преподавателей

🚀 DeepTutor выпустил версию v1.0.0-beta.1 от 4 апреля 2026.
С последнего обновления произошли серьёзные изменения и теперь на фреймворке можно собрать не просто RAG-тутора, а целый гиперперсонализированный мультиагентный саморазвивающийся Университет!

🤖 Персональные TutorBots уже не чат-боты,- а автономные преподаватели. Каждый живёт в отдельном воркспейсе: своя память, личность, набор навыков.
Эволюционируют вместе с пользователем!

🏛️ Университет агентов: один пользователь — множество TutorBots. Математик, программист, исследователь. Каждый эксперт в своей области, при этом у них может быть общая память через Persistent Memory на SQL.

✍️ AI Co-Writer — Markdown-WebUI редактор с ИИ как соавтором. Выделить текст → переписать/расширить/резюмировать. Интеграция с базой знаний.
Каждый фрагмент индексируется через вектор.

📚 Guided Learning — структурированные учебные траектории. DeepTutor создаёт пошаговые планы, генерирует интерактивные страницы для каждой темы.
Обсуждение по траектории каждого пути.

🛠️ 7 инструментов: rag, web_search, code_execution, reason, brainstorm, paper_search, geogebra_analysis.
5 режимов: Chat, Deep Solve, Quiz, Research, Math Animator.
Может работать как CLI инструмент.

📊 10К звёзд за 39 дней. Apache-2.0.
В проекте уже 903 файла, 92К строк. 74% кода переписано с нуля.

#DeepTutor #AI #обучение #агенты #Китай #OpenSource #HKUDS #TutorBot
───
@tsingular
🔥225🏆31
Карта уходит в индустриальный техникум коллективу студентов на опыты :)

Всем спасибо за участие.

Как дойдет - сделаем отчет

#geforce #даром #железо
———
@tsingualr
🔥52👍26🤔3
This media is not supported in your browser
VIEW IN TELEGRAM
🚀 Бесплатно запускаем Gemma 4 на телефоне без интернета.

Google выкатили AI Edge Gallery для iOS и Android. Это официальный клиент, где модели работают локально на устройстве.

Что внутри чат с моделью, разбор изображений, офлайн-транскрипция аудио и простой агент с инструментами

Никаких облаков всё считается прямо на телефоне

По моделям E4B - мощнее, но требует около 8 ГБ RAM E2B - легче и быстрее, запускается даже с ~1.5 ГБ памяти

Фактически это карманный ИИ без зависимости от сети и API

На видео запускается Google Gemma 4 E2B на iPhone 17 Pro.

Около ~40 токенов в секунду с MLX, оптимизированным под Apple Silicon.

Модель показала топовый уровень в коде и математике прямо на смартфоне с контекстом 128K.

Полностью офлайн, с режимом рассуждения.

https://blog.google/innovation-and-ai/technology/developers-tools/gemma-4/
🔥41🤯632👍1
Forwarded from CodeCamp
Ладно, это смешно: если заставить ИИ говорить как пещерный человек — он будет тратить до 75% меньше токенов.

Вместо вежливых «я с удовольствием помогу вам с задачей» и развернутых формулировок типа «Я запустил инструмент веб-поиска» — версия пещерного Claude использует тупо «инструмент работать». 🗿

Так, реддитор заявляет, что на одну задачу в 180 токенов стало уходить 45.

Брать на заметку 🗿
Please open Telegram to view this post
VIEW IN TELEGRAM
😁36🔥10👍3
Анекдот дня

Microsoft и многие другие компании в условиях сервиса ИИ Copilot пишут, что использовать его можно только в развлекательных целях.

«Copilot предназначен исключительно для развлекательных целей. Он может допускать ошибки и работать не так, как задумано, — говорится в документе. — Не полагайтесь на Copilot при принятии важных решений. Используйте Copilot на собственный риск».

норм перестраховались, конечно, но выглядит забавно :)

#Microsoft #Copilot #disclaimer
———
@tsingular
😁17