DeepMind прогнозирует AGI к 2030: учёные в сомнениях
Google DeepMind опубликовал 145-страничный документ о безопасности AGI (искусственного интеллекта общего назначения).
Соавтор работы Шейн Легг утверждает, что AGI появится к 2030 году и сможет решать любые нефизические задачи на уровне 99-го процентиля квалифицированных сотрудников.
Документ предупреждает об экзистенциальных рисках, способных уничтожить человечество.
DeepMind критикует подходы конкурентов: Anthropic якобы пренебрегает надёжным обучением, а OpenAI чрезмерно полагается на автоматизацию.
Эксперты из академических кругов выражают скептицизм: Хейди Клааф считает концепцию AGI расплывчатой, Мэтью Гуздиал сомневается в рекурсивном самоулучшении ИИ.
Профессор Оксфорда Сандра Вахтер полагает, что реальная проблема — самоусиление ИИ неточными выводами и галлюцинациями.
Прогнозы по AGI — как прогнозы погоды на год вперёд: все о них говорят, но никто всерьёз не воспринимает.
#DeepMind #AGI #safety
-------
@tsingular
Google DeepMind опубликовал 145-страничный документ о безопасности AGI (искусственного интеллекта общего назначения).
Соавтор работы Шейн Легг утверждает, что AGI появится к 2030 году и сможет решать любые нефизические задачи на уровне 99-го процентиля квалифицированных сотрудников.
Документ предупреждает об экзистенциальных рисках, способных уничтожить человечество.
DeepMind критикует подходы конкурентов: Anthropic якобы пренебрегает надёжным обучением, а OpenAI чрезмерно полагается на автоматизацию.
Эксперты из академических кругов выражают скептицизм: Хейди Клааф считает концепцию AGI расплывчатой, Мэтью Гуздиал сомневается в рекурсивном самоулучшении ИИ.
Профессор Оксфорда Сандра Вахтер полагает, что реальная проблема — самоусиление ИИ неточными выводами и галлюцинациями.
Прогнозы по AGI — как прогнозы погоды на год вперёд: все о них говорят, но никто всерьёз не воспринимает.
#DeepMind #AGI #safety
-------
@tsingular
⚡4👍1
Model Context Protocol завоёвывает технологический ландшафт
Уходящая неделя ознаменовалась 23 значимыми запусками в экосистеме MCP.
OpenAI и Microsoft активно внедряют поддержку протокола во всех своих продуктах.
Zapier обеспечил взаимодействие ИИ с более чем 8000 приложениями через свою платформу.
Инструментарий пополнился решениями от CAMEL-AI, Box, LiteLLM, Neon, Cursor и других разработчиков.
IBM выпустила краткое обучающее видео, раскрывающее преимущества использования MCP.
Индустрия получила специализированные серверы для Telegram, Rhino/Grasshopper, KiCad и elizaOS.
Новые компоненты включают CLI-инструменты для тестирования и фреймворки для построения эффективных агентов.
Похоже, эра изолированных ИИ-систем заканчивается. Скоро наши нейросети будут общаться между собой активнее, чем мы в мессенджерах.
#MCP #OpenAI #Zapier
-------
@tsingular
Уходящая неделя ознаменовалась 23 значимыми запусками в экосистеме MCP.
OpenAI и Microsoft активно внедряют поддержку протокола во всех своих продуктах.
Zapier обеспечил взаимодействие ИИ с более чем 8000 приложениями через свою платформу.
Инструментарий пополнился решениями от CAMEL-AI, Box, LiteLLM, Neon, Cursor и других разработчиков.
IBM выпустила краткое обучающее видео, раскрывающее преимущества использования MCP.
Индустрия получила специализированные серверы для Telegram, Rhino/Grasshopper, KiCad и elizaOS.
Новые компоненты включают CLI-инструменты для тестирования и фреймворки для построения эффективных агентов.
Похоже, эра изолированных ИИ-систем заканчивается. Скоро наши нейросети будут общаться между собой активнее, чем мы в мессенджерах.
#MCP #OpenAI #Zapier
-------
@tsingular
🤯6👌3👍2⚡1🔥1🥰1
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
This media is not supported in your browser
VIEW IN TELEGRAM
У меня в детстве не было интернета. В холодном Архангельске было 2 канала на телевизор. И по субботам, где-то в 16-00 показывали мультики. В программе было так и написано - 16:00. Мультфилмы
И ты такой сидишь и ждешь: а что сегодня покажут.
Если рисованные мультики, то праздник.
Если кукольные - суббота не удалась.
Это я к чему?
Вот эта вот генерация из Runway выглядит сильно лучше 99% кукольных мультиков из моего детства.
Просто вспомнилось...
Музыка - Суно. Реф - Midjourney. Видео - Runway 4.
И посмотрите у автора вот такую работу. Хорошо же.
@cgevent
И ты такой сидишь и ждешь: а что сегодня покажут.
Если рисованные мультики, то праздник.
Если кукольные - суббота не удалась.
Это я к чему?
Вот эта вот генерация из Runway выглядит сильно лучше 99% кукольных мультиков из моего детства.
Просто вспомнилось...
Музыка - Суно. Реф - Midjourney. Видео - Runway 4.
И посмотрите у автора вот такую работу. Хорошо же.
@cgevent
👍23❤7🔥5😁3🤔1
Сегодня на конференции TAdviser.
Пригласили модератором второй части.
Понравилась фундаментальная мысль от Дмитрия Калаева
"Если продукт не использует ИИ,- то возникает вопрос о его соответствии рынку"
Вообще все доклады - огонь.
Прям тема для прямого эфира с разбором докладов.
Как вам такая мысль?
#tadviser
------
@tsingular
Пригласили модератором второй части.
Понравилась фундаментальная мысль от Дмитрия Калаева
"Если продукт не использует ИИ,- то возникает вопрос о его соответствии рынку"
Вообще все доклады - огонь.
Прям тема для прямого эфира с разбором докладов.
Как вам такая мысль?
#tadviser
------
@tsingular
🔥39⚡5👏5
- для валидации синтетических описаний мы используем DeepSeek
- а почему не свою модель?
- следующий вопрос пожалуйста.
#юмор
------
@tsingular
- а почему не свою модель?
- следующий вопрос пожалуйста.
#юмор
------
@tsingular
😁28👍3
😁19⚡3🔥2😈1
- мы сейчас проводим А/Б тесты и в 50% случаев, когда клиент просит позвать в чат оператора-человека, подключаем модель, которая делает вид, что она оператор 2й линии и ведёт себя более естественно.
👀
------
@tsingular
👀
------
@tsingular
🤯21😁16✍6🔥1
Forwarded from Data Secrets
Gemini 2.5 Pro порвала очередной бенчмарк
Появились результаты модели на USAMO 2025 (это главная американская математическая олимпиада) – она выбила невероятные 24.4%. До Gemini модели набирали максимум 4.76% (это результат R1). o1-pro заскорила всего 2.83.
Основной интерес здесь в том, что на данный момент это самый свежий мат.бенчмарк, он вышел всего две недели назад. А значит нет никакого лика данных, и результаты максимально чистые.
matharena.ai/
Появились результаты модели на USAMO 2025 (это главная американская математическая олимпиада) – она выбила невероятные 24.4%. До Gemini модели набирали максимум 4.76% (это результат R1). o1-pro заскорила всего 2.83.
Основной интерес здесь в том, что на данный момент это самый свежий мат.бенчмарк, он вышел всего две недели назад. А значит нет никакого лика данных, и результаты максимально чистые.
matharena.ai/
🔥13👍3⚡2🤔2✍1
Ну, вот, смотрите:
- до изобретения мобильной связи мы никогда не использовали мобильные телефоны
- до изобретения интернета - мы никогда не использовали веб сайты и электронную почту
- до изобретения книгопечатания - мы никогда не использовали книги
- до изобретения колеса, - мы никогда не использовали колесо.
Поэтому все, кто сейчас говорит, - мы никогда не используем ИИ [дальше перечень аргументов в зависимости от отрасли] находятся примерно в этой ситуации.
#мысли
———
@tsingular
- до изобретения мобильной связи мы никогда не использовали мобильные телефоны
- до изобретения интернета - мы никогда не использовали веб сайты и электронную почту
- до изобретения книгопечатания - мы никогда не использовали книги
- до изобретения колеса, - мы никогда не использовали колесо.
Поэтому все, кто сейчас говорит, - мы никогда не используем ИИ [дальше перечень аргументов в зависимости от отрасли] находятся примерно в этой ситуации.
#мысли
———
@tsingular
1👍19⚡2✍1🏆1
🎵 Mureka.AI: Китайский прорыв в ИИ-генерации музыки с архитектурой Chain-of-Thought
Китай снова удивляет технологическими инновациями!
Компания Mureka выпустила систему, которая переворачивает подход к ИИ-генерации музыки.
Технические особенности:
1. Архитектура MusiCoT — главная инновация! В отличие от стандартных авторегрессионных моделей (где аудио генерируется последовательно), система сначала создаёт структурную схему композиции, а потом уже предсказывает отдельные аудиотокены. Это как если бы композитор сначала набросал структуру, а потом наполнял её нотами — намного более осмысленный подход.
2. Эффективная работа с многоязычностью — генерация на 10 языках (включая русский) без потери качества.
3. Разделение на дорожки — получение отдельных треков для вокала, инструментов и дополнительных слоёв.
4. API-экосистема с двумя интересными вариантами:
- Стандартный API генерации
- API с дообучением на приватной библиотеке (до 200 треков) — можно создать собственный "музыкальный почерк" для бренда
По бенчмаркам обходит конкурентов в произношении, текстовой релевантности и сегментной точности.
Так же по API доступен обычный TTS с идеальной точностью!
Suno в опасности :).
#Music #CoT #Mureka #Китай
———
@tsingular
Китай снова удивляет технологическими инновациями!
Компания Mureka выпустила систему, которая переворачивает подход к ИИ-генерации музыки.
Технические особенности:
1. Архитектура MusiCoT — главная инновация! В отличие от стандартных авторегрессионных моделей (где аудио генерируется последовательно), система сначала создаёт структурную схему композиции, а потом уже предсказывает отдельные аудиотокены. Это как если бы композитор сначала набросал структуру, а потом наполнял её нотами — намного более осмысленный подход.
2. Эффективная работа с многоязычностью — генерация на 10 языках (включая русский) без потери качества.
3. Разделение на дорожки — получение отдельных треков для вокала, инструментов и дополнительных слоёв.
4. API-экосистема с двумя интересными вариантами:
- Стандартный API генерации
- API с дообучением на приватной библиотеке (до 200 треков) — можно создать собственный "музыкальный почерк" для бренда
По бенчмаркам обходит конкурентов в произношении, текстовой релевантности и сегментной точности.
Так же по API доступен обычный TTS с идеальной точностью!
Suno в опасности :).
#Music #CoT #Mureka #Китай
———
@tsingular
👍10✍4🔥1
🎨 Как приручить MCP на примере Microsoft Paint
Джеффри Хантли выложил интересный проект - Model Context Protocol Server для Microsoft Paint. По сути, это Rust-драйвер, который позволяет LLM-интерфейсам типа Cursor или Claude Desktop управлять действиями в Paint.
Что это даёт на практике?
Проект позволяет AI-помощникам программно взаимодействовать с Win32 API приложения Paint - выбирать инструменты, рисовать линии, выбирать цвета и т.д. Это демонстрирует важный принцип MCP: возможность дать AI-ассистентам управлять любыми пользовательскими приложениями.
Технические детали:
- Реализовано через Win32 API в Rust
- Следует спецификации Model Context Protocol
- Repo: github.com/ghuntley/mcp-server-microsoft-paint
- Доставка инструкций через JSON-RPC
Почему это важно для бизнеса:
Хантли раскрывает ключевой момент - MCP это не просто "USB-C для API", как его называют, а фундаментальный способ создания собственных инструментов для автоматизации разработки.
Вместо использования общих инструментов, компании могут создавать специализированные MCP-инструменты, которые:
- "Понимают" внутренний код компании
- Соблюдают корпоративные стандарты и конвенции
- Автоматизируют рутинные задачи с учётом специфики бизнеса
В отличие от общих рассуждений о MCP, пример с Paint наглядно показывает, как можно начать экспериментировать с этой технологией прямо сейчас. Даже если это "не серьезный проект", как говорит автор.
#MCP #агенты
———
@tsingular
Джеффри Хантли выложил интересный проект - Model Context Protocol Server для Microsoft Paint. По сути, это Rust-драйвер, который позволяет LLM-интерфейсам типа Cursor или Claude Desktop управлять действиями в Paint.
Что это даёт на практике?
Проект позволяет AI-помощникам программно взаимодействовать с Win32 API приложения Paint - выбирать инструменты, рисовать линии, выбирать цвета и т.д. Это демонстрирует важный принцип MCP: возможность дать AI-ассистентам управлять любыми пользовательскими приложениями.
Технические детали:
- Реализовано через Win32 API в Rust
- Следует спецификации Model Context Protocol
- Repo: github.com/ghuntley/mcp-server-microsoft-paint
- Доставка инструкций через JSON-RPC
Почему это важно для бизнеса:
Хантли раскрывает ключевой момент - MCP это не просто "USB-C для API", как его называют, а фундаментальный способ создания собственных инструментов для автоматизации разработки.
Вместо использования общих инструментов, компании могут создавать специализированные MCP-инструменты, которые:
- "Понимают" внутренний код компании
- Соблюдают корпоративные стандарты и конвенции
- Автоматизируют рутинные задачи с учётом специфики бизнеса
"Если вы запустите это в бесконечном цикле while(true) с индивидуальными MCP-инструментами, понимающими вашу кодовую базу, вы получите невероятно мощный примитив, способный автоматизировать разработку ПО в компании"
В отличие от общих рассуждений о MCP, пример с Paint наглядно показывает, как можно начать экспериментировать с этой технологией прямо сейчас. Даже если это "не серьезный проект", как говорит автор.
#MCP #агенты
———
@tsingular
1⚡8👍4🔥3
Forwarded from Machinelearning
⚡️ Gemma 3 QAT
Google DeepMind выпустили обновленные версии своих языковых моделей Gemma 3, которые стали значительно эффективнее по использованию памяти без существенной потери производительности.
Ключевая технология: QAT (Quantization-Aware Training)
Что это? QAT — это техника обучения, при которой модель во время дообучения "учится" работать с пониженной точностью вычислений (используя меньше бит для представления чисел). Это имитирует условия, в которых модель будет работать после квантизации (сжатия).
Обычная квантизация после обучения может привести к падению точности. QAT позволяет модели заранее адаптироваться к работе в низкоточном режиме, минимизируя потерю качества после финальной квантизации.
Каждая модель (1B, 4B, 12B, 27B) была дообучена примерно на 5000 шагов с имитацией низкой разрядности весов. При этом использовался приём, похожий на знание-дистилляцию: оригинальная неквантованная модель выступала в роли «учителя».
Преимущество QAT-подхода для Gemma 3 оказалось колоссальным. Официально заявлено, что квантованные модели Gemma 3 QAT сохраняют качество, практически не упало, при этом требуют в ~3 раза меньше памяти.
Например, объём памяти для хранения весов самой крупной модели на 27B параметров сократился с ~54 ГБ (в формате bfloat16) до ~14 ГБ в 4-битном целочисленном формате – это экономия памяти примерно в ~3–4 раза.
✔️ HF
@ai_machinelearning_big_data
#google #gemma #AI #ML #LLM #Quantization
Google DeepMind выпустили обновленные версии своих языковых моделей Gemma 3, которые стали значительно эффективнее по использованию памяти без существенной потери производительности.
Ключевая технология: QAT (Quantization-Aware Training)
Что это? QAT — это техника обучения, при которой модель во время дообучения "учится" работать с пониженной точностью вычислений (используя меньше бит для представления чисел). Это имитирует условия, в которых модель будет работать после квантизации (сжатия).
Обычная квантизация после обучения может привести к падению точности. QAT позволяет модели заранее адаптироваться к работе в низкоточном режиме, минимизируя потерю качества после финальной квантизации.
Каждая модель (1B, 4B, 12B, 27B) была дообучена примерно на 5000 шагов с имитацией низкой разрядности весов. При этом использовался приём, похожий на знание-дистилляцию: оригинальная неквантованная модель выступала в роли «учителя».
Преимущество QAT-подхода для Gemma 3 оказалось колоссальным. Официально заявлено, что квантованные модели Gemma 3 QAT сохраняют качество, практически не упало, при этом требуют в ~3 раза меньше памяти.
Например, объём памяти для хранения весов самой крупной модели на 27B параметров сократился с ~54 ГБ (в формате bfloat16) до ~14 ГБ в 4-битном целочисленном формате – это экономия памяти примерно в ~3–4 раза.
ollama run hf(.)co/google/gemma-3-4b-it-qat-q4_0-gguf@ai_machinelearning_big_data
#google #gemma #AI #ML #LLM #Quantization
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥14❤🔥2❤1👍1
Audio
MiniMax выпустил TTS обновление
MiniMax Audio обновился до Speech-02.
- более естественная многоязычная речь с 99% схожестью с человеческим голосом
- функция чтения файлов и URL
- режим для длинных текстов (до 200 000 символов)
- улучшенное управление историей
- новый раздел с обзором функций.
Есть API
#Китай #Minimax #TTS2
———
@tsingular
MiniMax Audio обновился до Speech-02.
- более естественная многоязычная речь с 99% схожестью с человеческим голосом
- функция чтения файлов и URL
- режим для длинных текстов (до 200 000 символов)
- улучшенное управление историей
- новый раздел с обзором функций.
Есть API
#Китай #Minimax #TTS2
———
@tsingular
🔥13
Forwarded from Data Secrets
Media is too big
VIEW IN TELEGRAM
Основное нововведение (помимо улучшения качества, фотореализма и анатомии) – драфт режим. Это скоростная генерация в голосовом моде: включаете conversational mode и наговариваете, что хотите, а модель в это время рисует и уточняет по вашим идеям наброски. Работает в 10 раз быстрее обычного режима и стоит в два раза дешевле.
Кроме того, это первая модель с персонализацией по умолчанию. Можно активировать, 5 минут потратить на небольшой опрос, и модель будет лучше понимать, что вы имеете в виду или что вам нравится.
Пока обе версии (Turbo и Relax) выкатили в альфа-тестирование и обещают обновлять еще несколько раз в течение последующих недель.
www.midjourney.com/updates/v7-alpha
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥14
🚀 OpenRouter: Гигантский супермаркет нейросетей на любой вкус и кошелёк
Так, я тут наконец-то добрался до OpenRouter и в шоке от масштаба — 370+ моделей!
💥 Выбор
Тут есть вообще всё, что можно себе представить (и всё доступно через 1 API):
GPT, Claude, Gemini, Grok, Cohere, Nova, Qwen, Yi, DeepSeek, Mistral, Llama
Что важно, - очень многие из них доступны БЕСПЛАТНО.
А с учётом их количества можно спокойно переключаться между ними в зависимости от задач.
Что особенно круто с точки зрения девопса или техлида:
1. Один API для всего зоопарка моделей — не нужно писать код для каждой модели отдельно
2. Фолбэк-автоматизация — можно настроить автоматическое переключение между моделями при отказе
3. А/Б тестирование моделей — буквально в пару строк кода
Есть подробная документация и инструкция по созданию MCP серверов
#hub #OpenRouter #MCP
———
@tsingular
Так, я тут наконец-то добрался до OpenRouter и в шоке от масштаба — 370+ моделей!
💥 Выбор
Тут есть вообще всё, что можно себе представить (и всё доступно через 1 API):
GPT, Claude, Gemini, Grok, Cohere, Nova, Qwen, Yi, DeepSeek, Mistral, Llama
Что важно, - очень многие из них доступны БЕСПЛАТНО.
А с учётом их количества можно спокойно переключаться между ними в зависимости от задач.
Что особенно круто с точки зрения девопса или техлида:
1. Один API для всего зоопарка моделей — не нужно писать код для каждой модели отдельно
2. Фолбэк-автоматизация — можно настроить автоматическое переключение между моделями при отказе
3. А/Б тестирование моделей — буквально в пару строк кода
Есть подробная документация и инструкция по созданию MCP серверов
#hub #OpenRouter #MCP
———
@tsingular
🔥19👍3
Forwarded from Эксплойт
Kawasaki анонсировали РОБО-КОНЯ Corleo, на котором можно ездить — на EXPO 2025 показали секретный проект японцев.
Вместо сердца у киберконя водородный двигатель, а вместо мозга — ИИ, который анализирует положение в пространстве, чтобы робот нормально балансировал, а вы не слетели с него.
Это не просто транспорт, а четырехногий внедорожник, который может передвигаться по любой местности, даже прыгать по заснеженным горам.
@exploitex
Вместо сердца у киберконя водородный двигатель, а вместо мозга — ИИ, который анализирует положение в пространстве, чтобы робот нормально балансировал, а вы не слетели с него.
Это не просто транспорт, а четырехногий внедорожник, который может передвигаться по любой местности, даже прыгать по заснеженным горам.
@exploitex
🔥24🤯7👀5❤2🆒1
Forwarded from Machinelearning
OpenRouterAI объявила о предварительном выпуске своей первой мультимодальной модели - Quasar Alpha, с длиной контекста в 1 млн. токенов. Модель оптимизирована для задач программирования, но в то же время подходит для общих NLP-задач.
Модель 55% на бенчмарке aider. Это сопоставимо с o3-mini-medium, последним DeepSeek V3 и старым Sonnet 3.6. Главная фишка - Quasar Alpha работает невероятно быстро.
Quasar Alpha доступна бесплатно, ее анонс вызвал интерес в ИИ-сообществе, где пытаются предположить, какая лаборатория стоит за разработкой этой модели.
Модель называет себя ChatGPT
@ai_machinelearning_big_data
#quasar #chatgpt ? #release
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5👍3⚡1