Технозаметки Малышева
8.43K subscribers
3.76K photos
1.41K videos
40 files
3.94K links
Новости инноваций из мира Искусственного Интеллекта. 🤖

Всё об ИИ, ИТ трендах и Технологической Сингулярности.

🤖: @ai_gptfreebot [бесплатный бот]
✍️: @tsingular_bot [каталог ботов и курсов]

💸[поддержка]: pay.cloudtips.ru/p/c8960bbb
Download Telegram
Forwarded from Psy Eyes
Media is too big
VIEW IN TELEGRAM
Runway: выкатили Gen-4.

Обещают генерацию стабильных миров с консистентными персонажами.

Управление персонажами как и контроль сцены станет послушнее. Редактирование местами напоминает работу со слоями в фотошопе.

Можно будет сфоткать объект из реального мира и закинуть его в модель, чтобы делать с ним видео.

Качество и эстетичность стали ещё кинематографичнее.

На сайте пока нет инфы по кредитам за генерации. Говорят уже доступно платным подписчикам. У кого есть доступ дропайте тесты в комменты.

Анонс
Сайт
👍5
🧠🇷🇺 В России вводится налог на использование GPU

С 1 мая 2025 года в России вводится ежемесячная плата за использование GPU-устройств, сообщается в проекте постановления.

📦 Под налогообложение попадают все устройства, оснащённые дискретными видеокартами (в том числе игровые ПК, ноутбуки и смартфоны), а также серверное оборудование с GPU.

💰 Тарифы:
- Базовая ставка: 349 ₽ в месяц за каждое устройство с GPU.

- При оплате за год — скидка 20%.

- Дополнительная скидка 15% предоставляется при установке официального приложения "ГосGPU", которое автоматически распределяет часть вычислительных мощностей устройства на научные проекты (в том числе обучение отечественных моделей ИИ и симуляции молекулярных процессов).

📲 Приложение уже доступно:

- Windows и Linux — с 1 апреля!

- iOS — версия находится в разработке, релиз ожидается летом 2025.

Подключение и оплата будут осуществляться через портал Госуслуг, где появится новый раздел: "Налог на GPU-оборудование".

🔧 Важно: Для корректного начисления необходимо пройти верификацию оборудования через локальный сканер в приложении "ГосGPU".

👀 Так же сообщается, что в 2026 году планируется запуск аналогичной программы для TPU и NPU-устройств.

#ГосGPU #юмор #1апреля
———
@tsingular
😁35🤣265🤔4🔥3🎉21👻1🫡1🗿1
🧠 ИИ и Олимпиадная Математика: Почему Умнейшие Модели Провалились на USAMO-2025

Интересная ситуация: топовые модели ИИ, которые, казалось бы, уже решают сложные математические проблемы, с треском провалились на олимпиадных задачах для школьников! Исследователи из ETH Zurich и INSAIT протестировали новейшие модели на задачах математической олимпиады США (USAMO) 2025 года — и результаты оказались так себе.

Технические детали теста
1. Подопытные: O3-Mini, O1-Pro, Claude 3.7, QWQ-32B, DeepSeek R1 и Gemini Flash-Thinking — одни из самых сильных моделей за последние месяцы.

2. Методология: Каждая модель получала задачу, должна была предоставить полное доказательство в формате LaTeX. Решения анонимизировались и оценивались экспертами-математиками (бывшими участниками IMO).

3. Система оценки: 7 баллов за задачу, 42 максимум за все задачи, с возможностью получения частичных баллов за значимый прогресс.

4. Результат: Лучшая модель (R1) набрала всего 2 балла из 42 возможных — это меньше 5%! Из ~150 проверенных решений ни одно не получило максимальный балл.

Типы ошибок AI-математиков
1. Логические провалы (самые частые): необоснованные шаги, ошибочные рассуждения, неверная интерпретация предыдущих результатов.

2. Неоправданные предположения: модели часто принимали критические шаги доказательства за "тривиальные", не доказывая их (особенно O3-Mini).

3. Недостаток креативности: большинство моделей раз за разом пыталось использовать одну и ту же неверную стратегию решения.

4. Алгебраические ошибки: удивительно, но с базовыми вычислениями модели справлялись неплохо (кроме R1).

Интересные артефакты ИИ-решателей
1. "Боксинг" ответов: Модели часто помещали ответы в конструкцию \boxed{} даже когда это не требовалось — побочный эффект их обучения с подкреплением, которое поощряет четкое маркирование ответов.

2. Чрезмерная обобщение паттернов: Модели часто замечали закономерность на малых значениях и безосновательно переносили её на общий случай.

3. Структура ответов: O3-Mini и O1-Pro давали более структурированные и понятные решения, QWQ и Flash-Thinking создавали хаотичные ответы.

Выводы
1. Проверка — обязательна: Модели абсолютно уверены в своих решениях даже когда грубо ошибаются. Без экспертной проверки их математические выкладки использовать опасно.

2. Ограничения в формальных доказательствах: Хотя ИИ хорошо работает с числовыми ответами, в формальных доказательствах он пока что слаб — это нужно учитывать при применении в образовании или научных исследованиях.

3. Перспективы автоматической проверки: Исследователи также пытались использовать ИИ для проверки решений других моделей — и снова провал! ИИ-проверяющие ставили в 10-20 раз больше баллов, чем заслуживали решения.

В целом, несмотря на весь хайп вокруг математических способностей ИИ, исследование показывает, что даже лучшие модели далеки от настоящего математического мышления. Они могут манипулировать символами и следовать шаблонам, но совершенно не понимают глубинную логику.

В общем, в критических областях использовать ИИ нужно пока без фанатизма, придерживая человека в цепочке решений.

#бенчмарки
———
@tsingular
👍23
Forwarded from Технотренды
This media is not supported in your browser
VIEW IN TELEGRAM
Создаем 3D-модели из картинок бесплатно — сервис Krea теперь умеет превращать 2D в 3D.

— Внутри – модель Hunyuan 3D;
— Генерит из фотки или из текста;
— Результаты можно сразу закидывать в Blender;
— Поддерживает все актуальные форматы моделей.


Пользуемся — здесь.

😇 Техно
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥12
so true :)

#юмор
———
@tsingular
😁18❤‍🔥42🔥2👍1
Эффект гонца :)

#юмор
———
@tsingular
😁8
Forwarded from e/acc
GPT прошел тест Тьюринга. Это, конечно, было очевидно еще примерно год назад с 4o, но теперь официально. Двойное, рандомизированное, контролируемое слепое исследование. Каждый участник общается с двумя субъектами: один живой человек, другой бот. Нужно угадать кто из них бот.

Выводы:
- Ллама 3.1 примерно как человек, в 50% случаев участники угадывают
- GPT-4.5 — в 73% случаев участники называли именно его живым человеком. То есть, он может притворяться человеком лучше, чем другие люди.

Кстати, сам тест работает в интернете. Попробовать отличить тупую железяку от белкового друга можно тут: https://turingtest.live/
🔥28🤯28👍103
🔥 Китай делает ставку на ИИ: как Huawei обгоняет Америку в гонке инноваций

Интересная статья Томаса Фридмана в NY Times. Тут вам не просто "Китай развивается" — тут целая технологическая революция происходит, пока США отвлекаются на политические игры! 🤯

Что на самом деле происходит в Китае прямо сейчас:

Фридман посетил R&D центр Huawei — это 104 здания на площади размером с 225 футбольных полей, построенные всего за 3 года! Там работает 35,000 инженеров и учёных. Построено как ответ на американские санкции 2019 года.

Про ИИ:

- DeepSeek — китайская open-source модель ИИ, которая теперь работает на гораздо меньшем количестве американских чипов. Технологическая независимость в действии! 🧠

- Премьер Ли Цян официально объявил поддержку "широкого применения крупномасштабных моделей ИИ" на государственном уровне

- Инженер из Tesla признаётся: "Теперь все соревнуются в том, сколько ИИ они встраивают. Даже если ты на простой производственной линии по сборке холодильников — 'Я должен использовать ИИ, неважно как - потом разберемся'"

Технические детали и бизнес-аспекты:

Что впечатляет — Китай не просто делает вещи дешевле, а делает их дешевле, быстрее, лучше и умнее с интеграцией ИИ на всех уровнях.

Встраивание ИИ в производственные процессы Фридман сравнивает с "инъекцией стимулятора, который оптимизирует и ускоряет каждый аспект производства — от дизайна до тестирования и выпуска". Это не просто автоматизация — это полная трансформация.

Причём внедрение идёт молниеносно. Пример: за 2024 год Huawei установила 100,000 быстрых зарядных станций для электромобилей по всему Китаю. Для сравнения: США выделили $7.5 млрд на сеть зарядных станций, но по состоянию на ноябрь у них работало всего 214 зарядок в 12 штатах. (Речь идёт про зарядки, построенные в рамках гос. финансирования. Всего станций в Штатах 70К+ на 2023й год)

Что это значит для бизнеса?

Китайская "фитнес-модель" развития (так её называет Йорг Вуттке, бывший президент Торговой палаты ЕС в Китае) основана на:

1. Ежегодный выпуск 3.5 миллионов специалистов со STEM-образованием
2. Огромная база квалифицированных рабочих
3. Молниеносное развёртывание производства
4. И теперь — повсеместное внедрение ИИ

Для глобальных компаний это означает, что конкурировать с китайскими производствами становится почти невозможно без аналогичного уровня ИИ-оптимизации.

Интересно, что бизнес-модель тоже меняется: раньше американские компании приходили в Китай и создавали СП с китайскими партнерами для входа на китайский рынок. Теперь китайские компании предлагают свои технологии западным фирмам для выхода на европейский рынок!

Выводы для технарей и предпринимателей:

Если вы думаете о глобальной конкуренции, придётся определиться с ИИ-стратегией прямо сейчас. На кону не просто отдельные продукты, а целые производственные экосистемы, оптимизированные искусственным интеллектом.

+3.5 млн STEM специалистов в год.
Как с этим конкурировать?
Только сотрудничать.

#Huawei #Китай
———
@tsingular
🔥90👍43🤯3175🤣5💯3😐21
🧠 Впихнуть невпихуемое, решить не решаемое - Новый фреймворк MIT заставил LLM решать "нерешаемые" задачи планирования

Исследователи из MIT создали очень интересный подход - LLMFP (LLM-Based Formalized Programming). Это решение покрывает одну из главных проблем современных LLM: они слабо справляются со сложными задачами планирования.

Суть проблемы в том, что даже GPT-4o и Claude 3.5 не могут сами по себе вырабатывать оптимальные решения для задач с множеством ограничений или многошаговым планированием.

Как это работает:

Вместо бесполезных попыток заставить LLM напрямую решать такие задачи, фреймворк использует языковую модель для формализации задачи, преобразуя её в задачу оптимизации:

1. Definer: определяет цель, переменные решения и ограничения
2. Formulator: создаёт JSON-представление всех переменных
3. Code Generator: пишет код для использования решателя SMT
4. Result Formatter: форматирует результат в понятном виде
5. Self Assessment: проверяет каждый шаг и исправляет ошибки

Фреймворк не требует специфических примеров для каждой задачи. Показал успех 83-87% на 9 разных задачах планирования.
При этом базовые методы едва дотягивают до 40%.

Практические применения в бизнесе:

- Оптимизация цепочек поставок (кейс с кофе из статьи)
- Планирование персонала и рабочих смен
- Управление производственными мощностями
- Распределение задач между роботами в автоматизированных средах

Классический кейс "делай то, в чем ты хорош". LLM понимают язык, решатели SMT решают структурированные задачи. Вместе они становятся намного сильнее.

Что это значит для нас?
Теперь можно не возиться с математическими моделями оптимизации, а просто описать задачу на человеческом языке - и получить оптимизированное решение, созданное LLM.

paper

#Оптимизация #MIT
———
@tsingular
🔥15👍81
Путин поручил рассмотреть вопрос о целесообразности признания в качестве отягчающего обстоятельства использование при совершении правонарушения технологий искусственного интеллекта

http://rapsinews.ru/incident_news/20250402/310755449.html

#закон
------
@tsingular
👍29🤣13931
DeepMind прогнозирует AGI к 2030: учёные в сомнениях

Google DeepMind опубликовал 145-страничный документ о безопасности AGI (искусственного интеллекта общего назначения).

Соавтор работы Шейн Легг утверждает, что AGI появится к 2030 году и сможет решать любые нефизические задачи на уровне 99-го процентиля квалифицированных сотрудников.

Документ предупреждает об экзистенциальных рисках, способных уничтожить человечество.

DeepMind критикует подходы конкурентов: Anthropic якобы пренебрегает надёжным обучением, а OpenAI чрезмерно полагается на автоматизацию.

Эксперты из академических кругов выражают скептицизм: Хейди Клааф считает концепцию AGI расплывчатой, Мэтью Гуздиал сомневается в рекурсивном самоулучшении ИИ.

Профессор Оксфорда Сандра Вахтер полагает, что реальная проблема — самоусиление ИИ неточными выводами и галлюцинациями.

Прогнозы по AGI — как прогнозы погоды на год вперёд: все о них говорят, но никто всерьёз не воспринимает.

#DeepMind #AGI #safety
-------
@tsingular
4👍1
Model Context Protocol завоёвывает технологический ландшафт

Уходящая неделя ознаменовалась 23 значимыми запусками в экосистеме MCP.
OpenAI и Microsoft активно внедряют поддержку протокола во всех своих продуктах.
Zapier обеспечил взаимодействие ИИ с более чем 8000 приложениями через свою платформу.
Инструментарий пополнился решениями от CAMEL-AI, Box, LiteLLM, Neon, Cursor и других разработчиков.
IBM выпустила краткое обучающее видео, раскрывающее преимущества использования MCP.
Индустрия получила специализированные серверы для Telegram, Rhino/Grasshopper, KiCad и elizaOS.
Новые компоненты включают CLI-инструменты для тестирования и фреймворки для построения эффективных агентов.

Похоже, эра изолированных ИИ-систем заканчивается. Скоро наши нейросети будут общаться между собой активнее, чем мы в мессенджерах.

#MCP #OpenAI #Zapier
-------
@tsingular
🤯6👌3👍21🔥1🥰1
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
This media is not supported in your browser
VIEW IN TELEGRAM
У меня в детстве не было интернета. В холодном Архангельске было 2 канала на телевизор. И по субботам, где-то в 16-00 показывали мультики. В программе было так и написано - 16:00. Мультфилмы

И ты такой сидишь и ждешь: а что сегодня покажут.

Если рисованные мультики, то праздник.
Если кукольные - суббота не удалась.

Это я к чему?

Вот эта вот генерация из Runway выглядит сильно лучше 99% кукольных мультиков из моего детства.

Просто вспомнилось...

Музыка - Суно. Реф - Midjourney. Видео - Runway 4.

И посмотрите у автора вот такую работу. Хорошо же.

@cgevent
👍237🔥5😁3🤔1
Сегодня на конференции TAdviser.

Пригласили модератором второй части.

Понравилась фундаментальная мысль от Дмитрия Калаева

"Если продукт не использует ИИ,- то возникает вопрос о его соответствии рынку"

Вообще все доклады - огонь.
Прям тема для прямого эфира с разбором докладов.
Как вам такая мысль?

#tadviser
------
@tsingular
🔥395👏5
- для валидации синтетических описаний мы используем DeepSeek

- а почему не свою модель?

- следующий вопрос пожалуйста.

#юмор
------
@tsingular
😁28👍3
- представьте, что вы наняли 3 автобуса выпускников Физтеха за 999 р. в месяц.

#юмор
------
@tsingular
😁193🔥2😈1
- мы сейчас проводим А/Б тесты и в 50% случаев, когда клиент просит позвать в чат оператора-человека, подключаем модель, которая делает вид, что она оператор 2й линии и ведёт себя более естественно.

👀
------
@tsingular
🤯21😁166🔥1
Forwarded from Data Secrets
Gemini 2.5 Pro порвала очередной бенчмарк

Появились результаты модели на USAMO 2025 (это главная американская математическая олимпиада) – она выбила невероятные 24.4%. До Gemini модели набирали максимум 4.76% (это результат R1). o1-pro заскорила всего 2.83.

Основной интерес здесь в том, что на данный момент это самый свежий мат.бенчмарк, он вышел всего две недели назад. А значит нет никакого лика данных, и результаты максимально чистые.

matharena.ai/
🔥13👍32🤔21
Ну, вот, смотрите:
- до изобретения мобильной связи мы никогда не использовали мобильные телефоны
- до изобретения интернета - мы никогда не использовали веб сайты и электронную почту
- до изобретения книгопечатания - мы никогда не использовали книги
- до изобретения колеса, - мы никогда не использовали колесо.

Поэтому все, кто сейчас говорит, - мы никогда не используем ИИ [дальше перечень аргументов в зависимости от отрасли] находятся примерно в этой ситуации.

#мысли
———
@tsingular
1👍1921🏆1
🎵 Mureka.AI: Китайский прорыв в ИИ-генерации музыки с архитектурой Chain-of-Thought

Китай снова удивляет технологическими инновациями!
Компания Mureka выпустила систему, которая переворачивает подход к ИИ-генерации музыки.

Технические особенности:

1. Архитектура MusiCoT — главная инновация! В отличие от стандартных авторегрессионных моделей (где аудио генерируется последовательно), система сначала создаёт структурную схему композиции, а потом уже предсказывает отдельные аудиотокены. Это как если бы композитор сначала набросал структуру, а потом наполнял её нотами — намного более осмысленный подход.

2. Эффективная работа с многоязычностью — генерация на 10 языках (включая русский) без потери качества.

3. Разделение на дорожки — получение отдельных треков для вокала, инструментов и дополнительных слоёв.

4. API-экосистема с двумя интересными вариантами:
- Стандартный API генерации
- API с дообучением на приватной библиотеке (до 200 треков) — можно создать собственный "музыкальный почерк" для бренда

По бенчмаркам обходит конкурентов в произношении, текстовой релевантности и сегментной точности.

Так же по API доступен обычный TTS с идеальной точностью!

Suno в опасности :).

#Music #CoT #Mureka #Китай
———
@tsingular
👍104🔥1