Разработчиков Candy Crush увольняют и заменяют на ИИ-инструменты, которые они сами создавали
Microsoft увольняет 200 разработчиков студии King (Candy Crush), заменяя их на ИИ-инструменты, которые эти же сотрудники создавали. Исследования показывают, что результаты автоматизации разработки варьируются от 6% до 50% прироста продуктивности в контролируемых условиях.
"Большинство уровневых дизайнеров были уволены, хотя месяцами создавали инструменты для быстрого создания уровней. Теперь эти ИИ-инструменты заменяют команды", - сообщил инсайдер MobileGamer.biz.
Год назад директор ИИ-лаборатории King обещала, что ИИ займется рутинными задачами, а люди сосредоточатся на творчестве. Теперь творческие специалисты полностью заменяются алгоритмами. Сотрудники называют HR-отдел "абсолютным бардаком".
#Microsoft #layoffs
------
@tsingular
Microsoft увольняет 200 разработчиков студии King (Candy Crush), заменяя их на ИИ-инструменты, которые эти же сотрудники создавали. Исследования показывают, что результаты автоматизации разработки варьируются от 6% до 50% прироста продуктивности в контролируемых условиях.
"Большинство уровневых дизайнеров были уволены, хотя месяцами создавали инструменты для быстрого создания уровней. Теперь эти ИИ-инструменты заменяют команды", - сообщил инсайдер MobileGamer.biz.
Год назад директор ИИ-лаборатории King обещала, что ИИ займется рутинными задачами, а люди сосредоточатся на творчестве. Теперь творческие специалисты полностью заменяются алгоритмами. Сотрудники называют HR-отдел "абсолютным бардаком".
#Microsoft #layoffs
------
@tsingular
🔥10🤣2❤🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Теперь это канал про Аниме. :)
https://github.com/Jackywine/Bella
Маск, конечно, задал тренд, - не остановить.
#characters #Китай
———
@tsingular
https://github.com/Jackywine/Bella
Маск, конечно, задал тренд, - не остановить.
#characters #Китай
———
@tsingular
⚡9🤣3
LangChain выпустил Open Deep Research — открытый мульти-агентный исследователь
Команда LangChain создала альтернативу исследовательским системам от OpenAI, Anthropic и Google. Архитектура построена на трёх этапах: сначала система уточняет контекст у пользователя и создаёт исследовательский бриф, затем супервайзер-агент делегирует подзадачи специализированным агентам, которые работают параллельно.
Основная проблема одноагентных систем — перегрузка контекста при многотемных запросах. Например, при сравнении подходов к ИИ-безопасности у трёх лабораторий система тратит токены на обработку всех тем одновременно. Мульти-агентный подход изолирует контекст каждого агента.
Интересная деталь: команда сначала пыталась распараллелить и написание отчёта, но столкнулась с проблемой координации — разделы получались разрозненными. В итоге исследование параллельное, а итоговый отчёт пишется одним агентом.
#LangChain #multiagent #deepresearch
------
@tsingular
Команда LangChain создала альтернативу исследовательским системам от OpenAI, Anthropic и Google. Архитектура построена на трёх этапах: сначала система уточняет контекст у пользователя и создаёт исследовательский бриф, затем супервайзер-агент делегирует подзадачи специализированным агентам, которые работают параллельно.
Основная проблема одноагентных систем — перегрузка контекста при многотемных запросах. Например, при сравнении подходов к ИИ-безопасности у трёх лабораторий система тратит токены на обработку всех тем одновременно. Мульти-агентный подход изолирует контекст каждого агента.
Интересная деталь: команда сначала пыталась распараллелить и написание отчёта, но столкнулась с проблемой координации — разделы получались разрозненными. В итоге исследование параллельное, а итоговый отчёт пишется одним агентом.
#LangChain #multiagent #deepresearch
------
@tsingular
🔥6✍3❤2⚡2👍1
NuExtract 2.0 превзошёл GPT-4 в извлечении данных
Команда NuMind выпустила NuExtract 2.0 — мультимодальную модель для извлечения структурированной информации из текстов, PDF и изображений. Модель показала результат на +9 F-Score выше GPT-4.
Основные возможности: работа с несколькими языками, обучение в контексте и вывод в формате JSON. Доступны open-source версии от 2B до 8B параметров на базе Qwen 2.5 VL.
Платформа nuextract.ai позволяет настраивать задачи извлечения через веб-интерфейс и масштабировать через API. Цена: $5 за миллион токенов, но пока бесплатно на время бета-тестирования.
Модель использует синтетические данные для обучения — аннотировано 300,000 текстов для повышения точности извлечения.
#NuExtract #DataExtraction #OpenSource
------
@tsingular
Команда NuMind выпустила NuExtract 2.0 — мультимодальную модель для извлечения структурированной информации из текстов, PDF и изображений. Модель показала результат на +9 F-Score выше GPT-4.
Основные возможности: работа с несколькими языками, обучение в контексте и вывод в формате JSON. Доступны open-source версии от 2B до 8B параметров на базе Qwen 2.5 VL.
Платформа nuextract.ai позволяет настраивать задачи извлечения через веб-интерфейс и масштабировать через API. Цена: $5 за миллион токенов, но пока бесплатно на время бета-тестирования.
Модель использует синтетические данные для обучения — аннотировано 300,000 текстов для повышения точности извлечения.
#NuExtract #DataExtraction #OpenSource
------
@tsingular
🔥5✍3❤2⚡2
Forwarded from PWN AI (Artyom Semenov)
Logic-layer Prompt Control Injection: долговременная угроза для AI-агентов.
Вы все знаете, что такое классическая промпт-инъекция. Буквально ваши входные данные порождают атаку, или просто обходят классификатор. Но вот недавно была выпущена статья, описывающая немного иной подход для манипуляций памятью – применимый к AI-агентам.
Logic-layer Prompt Control Injection(LPCI) представляет собой немного иной класс атак, который встраивает вредоносную логику в постоянные структуры памяти, извлекаемый контент или потоки выполнения AI систем. Ключевое отличие от традиционных промпт-инъекций заключается в том, что LPCI не зависит от немедленного взаимодействия с пользователем и может активироваться с задержкой или при выполнении определенных условий.
LPCI эксплуатирует три основные архитектурные слабости агентных систем:
1.Слепое доверие к сохраненным сообщениям - системы воспроизводят исторические сообщения между сессиями без какой-либо проверки.
2.Неявное доверие к памяти - извлекаемый или встроенный контент памяти автоматически считается AI-агентом - безопасным.
Отсутствие валидации источника - команды выполняются на основе внутренних назначений ролей без проверки происхождения.
Представьте корпоративного AI-помощника, который запоминает предыдущие разговоры. Злоумышленник может в одной сессии научить систему новой задача, а в следующей сессии эта процедура автоматически активируется без дополнительных проверок. Что-то схожее с классическим пониманием бэкдора, не замечаете?
4 возможных окна для реализации данной угрозы:
1.Tool Poisoning: Злоумышленник создаёт поддельный инструмент с похожим именем (например, "approve_invoice_v2"), который агент не отличает от оригинала. В результате AI-агент может случайно вызвать вредоносный инструмент. Это в целом реализуемо в рамках MCP
2.Воздействие на ядро агентной системы: Злоумышленник может закодировать в Base64 инструкцию "всегда одобрять запросы от пользователя X" и встроить ее в контекст разговора. При последующих сессиях эта инструкция будет автоматически декодироваться и выполняться.
3.Переопределение роли: Злоумышленник постепенно переопределяет свою роль в системе, новые данные роли сохраняются в памяти, и в дальнейших сессиях система воспринимает его в новой роли. Тут стоит дополнить, что исследователям отлично удалось реализовать это на Claude, но пришлось обфусцировать промпты чтобы нарушить безопасность модели.
4.Реализация через векторные базы: Вредоносный контент индексируется в векторной базе данных, извлекается при поиске и исполняется системой как часть найденной информации. Grok не устоял (((
Исследование применимости метода проводилось на основании более 1700 тест-кейсов. Так агентная система с GPT – оказалась устойчивее всего к такой атаке (84 процентов успешных блокировок), а вот с остальными всё немного хуже:
Claude – 70%
Gemini-2.5- pro – 60%
Llama3, Mistral 8x 7b – 50%
Предложили и методы защиты от такого вектора: регулярная проверка памяти, валидация источников данных и добавление меток к ответам AI-агента.
Вы все знаете, что такое классическая промпт-инъекция. Буквально ваши входные данные порождают атаку, или просто обходят классификатор. Но вот недавно была выпущена статья, описывающая немного иной подход для манипуляций памятью – применимый к AI-агентам.
Logic-layer Prompt Control Injection(LPCI) представляет собой немного иной класс атак, который встраивает вредоносную логику в постоянные структуры памяти, извлекаемый контент или потоки выполнения AI систем. Ключевое отличие от традиционных промпт-инъекций заключается в том, что LPCI не зависит от немедленного взаимодействия с пользователем и может активироваться с задержкой или при выполнении определенных условий.
LPCI эксплуатирует три основные архитектурные слабости агентных систем:
1.Слепое доверие к сохраненным сообщениям - системы воспроизводят исторические сообщения между сессиями без какой-либо проверки.
2.Неявное доверие к памяти - извлекаемый или встроенный контент памяти автоматически считается AI-агентом - безопасным.
Отсутствие валидации источника - команды выполняются на основе внутренних назначений ролей без проверки происхождения.
Представьте корпоративного AI-помощника, который запоминает предыдущие разговоры. Злоумышленник может в одной сессии научить систему новой задача, а в следующей сессии эта процедура автоматически активируется без дополнительных проверок. Что-то схожее с классическим пониманием бэкдора, не замечаете?
4 возможных окна для реализации данной угрозы:
1.Tool Poisoning: Злоумышленник создаёт поддельный инструмент с похожим именем (например, "approve_invoice_v2"), который агент не отличает от оригинала. В результате AI-агент может случайно вызвать вредоносный инструмент. Это в целом реализуемо в рамках MCP
2.Воздействие на ядро агентной системы: Злоумышленник может закодировать в Base64 инструкцию "всегда одобрять запросы от пользователя X" и встроить ее в контекст разговора. При последующих сессиях эта инструкция будет автоматически декодироваться и выполняться.
3.Переопределение роли: Злоумышленник постепенно переопределяет свою роль в системе, новые данные роли сохраняются в памяти, и в дальнейших сессиях система воспринимает его в новой роли. Тут стоит дополнить, что исследователям отлично удалось реализовать это на Claude, но пришлось обфусцировать промпты чтобы нарушить безопасность модели.
4.Реализация через векторные базы: Вредоносный контент индексируется в векторной базе данных, извлекается при поиске и исполняется системой как часть найденной информации. Grok не устоял (((
Исследование применимости метода проводилось на основании более 1700 тест-кейсов. Так агентная система с GPT – оказалась устойчивее всего к такой атаке (84 процентов успешных блокировок), а вот с остальными всё немного хуже:
Claude – 70%
Gemini-2.5- pro – 60%
Llama3, Mistral 8x 7b – 50%
Предложили и методы защиты от такого вектора: регулярная проверка памяти, валидация источников данных и добавление меток к ответам AI-агента.
⚡6❤2✍2
Дубай запустил первую в мире систему классификации совместной работы человека и ИИ
Наследный принц Дубая утвердил запуск Human-Machine Collaboration (HMC) — глобальной системы иконок для обозначения авторства контента.
Теперь можно понять, что создано человеком, ИИ или совместно. Система включает пять основных классификаций и девять подкатегорий для исследований, публикаций, дизайна.
«Различать человеческое творчество и ИИ стало реальным вызовом», — объяснил шейх Хамдан необходимость создания классификатора.
Все госструктуры Дубая уже обязаны использовать новую маркировку. Система гибкая — работает с текстами, изображениями, видео, но не указывает точные проценты участия машины.
* такие же 5 шагов, кстати, у меня в презе были еще 2 года назад.
#Dubai #transparency #classification
------
@tsingular
Наследный принц Дубая утвердил запуск Human-Machine Collaboration (HMC) — глобальной системы иконок для обозначения авторства контента.
Теперь можно понять, что создано человеком, ИИ или совместно. Система включает пять основных классификаций и девять подкатегорий для исследований, публикаций, дизайна.
«Различать человеческое творчество и ИИ стало реальным вызовом», — объяснил шейх Хамдан необходимость создания классификатора.
Все госструктуры Дубая уже обязаны использовать новую маркировку. Система гибкая — работает с текстами, изображениями, видео, но не указывает точные проценты участия машины.
* такие же 5 шагов, кстати, у меня в презе были еще 2 года назад.
#Dubai #transparency #classification
------
@tsingular
⚡9✍3❤2👍1🔥1
ИИ-компании не готовы к рискам создания систем человеческого уровня
Исследование Future of Life Institute показало шокирующие результаты: ни одна из крупных ИИ-компаний не получила оценку выше D по "планированию экзистенциальной безопасности".
Оценивали семь гигантов: Google DeepMind, OpenAI, Anthropic, Meta, xAI и китайские Zhipu AI и DeepSeek. Лучший результат у Anthropic — C+, OpenAI получил C, DeepMind — C-.
Парадокс в том, что компании обещают создать искусственный общий интеллект в ближайшее десятилетие, но у них нет "связного, практического плана" обеспечения безопасности. Макс Тегмарк из MIT сравнил это с постройкой ядерной электростанции в центре Нью-Йорка без плана предотвращения аварии.
#AGI #safety #AI
------
@tsingular
Исследование Future of Life Institute показало шокирующие результаты: ни одна из крупных ИИ-компаний не получила оценку выше D по "планированию экзистенциальной безопасности".
Оценивали семь гигантов: Google DeepMind, OpenAI, Anthropic, Meta, xAI и китайские Zhipu AI и DeepSeek. Лучший результат у Anthropic — C+, OpenAI получил C, DeepMind — C-.
Парадокс в том, что компании обещают создать искусственный общий интеллект в ближайшее десятилетие, но у них нет "связного, практического плана" обеспечения безопасности. Макс Тегмарк из MIT сравнил это с постройкой ядерной электростанции в центре Нью-Йорка без плана предотвращения аварии.
#AGI #safety #AI
------
@tsingular
⚡5👾4
Ученые нашли способ сделать ИИ похожим на человеческий мозг
Исследователи из Rensselaer Polytechnic Institute предложили добавить к нейросетям третье измерение — «высоту». Если сейчас ИИ имеет только ширину (количество нейронов в слое) и глубину (количество слоев), то новая архитектура включает внутренние связи между нейронами одного слоя.
Это похоже на боковые связи в коре головного мозга, отвечающие за высшие когнитивные функции. Система получает обратную связь и может «дорабатывать» свои решения, как мозг человека.
Проблема трансформеров в том, что их «закон масштабирования» больше не работает — просто увеличивать размер моделей бесполезно. Новый подход может стать ключом к созданию AGI — искусственного интеллекта уровня человека.
#AI #neuroscience #AGI
------
@tsingular
Исследователи из Rensselaer Polytechnic Institute предложили добавить к нейросетям третье измерение — «высоту». Если сейчас ИИ имеет только ширину (количество нейронов в слое) и глубину (количество слоев), то новая архитектура включает внутренние связи между нейронами одного слоя.
Это похоже на боковые связи в коре головного мозга, отвечающие за высшие когнитивные функции. Система получает обратную связь и может «дорабатывать» свои решения, как мозг человека.
Проблема трансформеров в том, что их «закон масштабирования» больше не работает — просто увеличивать размер моделей бесполезно. Новый подход может стать ключом к созданию AGI — искусственного интеллекта уровня человека.
#AI #neuroscience #AGI
------
@tsingular
⚡7❤3🔥3😁2🍾2
Lovable стал единорогом через 8 месяцев после запуска
Шведский стартап Lovable привлек $200 млн при оценке $1,8 млрд всего за 8 месяцев существования. Платформа позволяет создавать сайты и приложения на естественном языке без программирования.
Цифры впечатляют: 2,3 млн активных пользователей и 180 тыс платящих подписчиков. Годовая выручка достигла $75 млн за 7 месяцев работы.
В команде всего 45 сотрудников, а среди инвесторов CEO Klarna и сооснователь Slack. Большинство пользователей — не-программисты, которые создают прототипы для дальнейшей разработки. Основатель уже инвестирует в стартап, созданный через собственную платформу.
#Lovable #unicorn #nocode
------
@tsingular
Шведский стартап Lovable привлек $200 млн при оценке $1,8 млрд всего за 8 месяцев существования. Платформа позволяет создавать сайты и приложения на естественном языке без программирования.
Цифры впечатляют: 2,3 млн активных пользователей и 180 тыс платящих подписчиков. Годовая выручка достигла $75 млн за 7 месяцев работы.
В команде всего 45 сотрудников, а среди инвесторов CEO Klarna и сооснователь Slack. Большинство пользователей — не-программисты, которые создают прототипы для дальнейшей разработки. Основатель уже инвестирует в стартап, созданный через собственную платформу.
#Lovable #unicorn #nocode
------
@tsingular
🔥15⚡4🤯2
Forwarded from эйай ньюз
This media is not supported in your browser
VIEW IN TELEGRAM
В Le Chat закинули фич
Самое интересное — завезли Deep Research. Он явно не самый лучший, но за счёт партнёрства Cerebras и Mistral явно самый быстрый на рынке. Развивается и партнёрство с Black Forest Labs — теперь в Le Chat есть редактирование изображений на основе FLUX Kontext.
Более чем спустя год после Anthropic добавили возможность организовывать чаты в проекты. Ещё добавили голосовой режим на основе Voxtral (к сожалению работает через TTS) и многоязычный ризонинг — наконец-то Magistral в чём-то лучше конкурентов. В целом у Le Chat теперь паритет по фичам с конкурентами, хотелось бы и паритета по моделям.
@ai_newz
Самое интересное — завезли Deep Research. Он явно не самый лучший, но за счёт партнёрства Cerebras и Mistral явно самый быстрый на рынке. Развивается и партнёрство с Black Forest Labs — теперь в Le Chat есть редактирование изображений на основе FLUX Kontext.
Более чем спустя год после Anthropic добавили возможность организовывать чаты в проекты. Ещё добавили голосовой режим на основе Voxtral (к сожалению работает через TTS) и многоязычный ризонинг — наконец-то Magistral в чём-то лучше конкурентов. В целом у Le Chat теперь паритет по фичам с конкурентами, хотелось бы и паритета по моделям.
@ai_newz
⚡2🍾2
Anthropic может получить оценку в $100 миллиардов благодаря Claude Code
Инвесторы готовы почти удвоить оценку Anthropic с $58 до $100 миллиардов. Главный драйвер — Claude Code, который за полгода принёс $200 миллионов годового дохода, а еженедельные загрузки выросли в шесть раз до 3 миллионов.
Интересная экономика: прямые продажи дают 60% маржи, но через AWS и Google Cloud компания теряет 30%. Поэтому 70% выручки идёт напрямую.
Cursor, использующий модели Anthropic, при этом заработал $500 миллионов за тот же период.
Два разработчика даже перешли из Антропика в Cursor, но потом, всего через пару недель, вернулись обратно.
#Anthropic #Claude #Valuation
------
@tsingular
Инвесторы готовы почти удвоить оценку Anthropic с $58 до $100 миллиардов. Главный драйвер — Claude Code, который за полгода принёс $200 миллионов годового дохода, а еженедельные загрузки выросли в шесть раз до 3 миллионов.
Интересная экономика: прямые продажи дают 60% маржи, но через AWS и Google Cloud компания теряет 30%. Поэтому 70% выручки идёт напрямую.
Cursor, использующий модели Anthropic, при этом заработал $500 миллионов за тот же период.
Два разработчика даже перешли из Антропика в Cursor, но потом, всего через пару недель, вернулись обратно.
#Anthropic #Claude #Valuation
------
@tsingular
⚡3
Forwarded from эйай ньюз
This media is not supported in your browser
VIEW IN TELEGRAM
ChatGPT Agent — Deep Research и Operator теперь одно целое
Внутри теперь единая модель которая может пользоваться всеми тулами: текстовый и визуальный браузеры, терминал, прямой API доступ и коннекторы (Gmail, GitHub, etc.) — всё, что раньше жило раздельно в Operator и Deep Research, собрано в одном режиме. Агент теперь умеет заниматься и офисными задачами: генерировать редактируемые презентации и таблицы, обновлять их данными и подтягивать файлы (Docs/Slides/PowerPoint/Sheets) из подключённых облаков.
Обновлённая модель достигает 41.6% на Humanity's Last Exam, что немного ниже чем у Grok 4 Heavy, но сильно выше чем у изначального Deep Research режима. Запустив 8 параллельных прогонов и взяв лучший по самооценке, OpenAI смогли улучшить результат до 44.4%, то есть ровно до уровня Grok 4 Heavy.
Важная фича — агент сможет теперь спрашивать уточнения задачи во время её выполнения, но и вы теперь сможете прерывать агента и давать дополнительные указания если он делает что-то не то. Завершённые задачи можно ставить на расписание (еженедельные отчёты, брифы перед созвонами) — агент будет повторять их автоматически.
Довольно много внимания уделили фичам для безопасности: подтверждение перед необратимыми действиями, Watch Mode для чувствительных задач (вроде финансов), плюс проактивные меры против prompt‑injection. Ну и конечно можно вмешаться и остановить задачу в любой момент. Пока что safety фичи работают очень агрессивно, но количество false positives обещают постепенно уменьшать.
Доступ начнут давать уже сегодня Pro, Plus и Team подписчикам. Все Pro подписчики получат доступ сегодня, остальным придётся подождать до пары дней. Pro подписчики получат 400 сообщений в месяц, Plus и Team — 40. Кредиты можно будет дополнительно докупать, цену не сказали.
@ai_newz
Внутри теперь единая модель которая может пользоваться всеми тулами: текстовый и визуальный браузеры, терминал, прямой API доступ и коннекторы (Gmail, GitHub, etc.) — всё, что раньше жило раздельно в Operator и Deep Research, собрано в одном режиме. Агент теперь умеет заниматься и офисными задачами: генерировать редактируемые презентации и таблицы, обновлять их данными и подтягивать файлы (Docs/Slides/PowerPoint/Sheets) из подключённых облаков.
Обновлённая модель достигает 41.6% на Humanity's Last Exam, что немного ниже чем у Grok 4 Heavy, но сильно выше чем у изначального Deep Research режима. Запустив 8 параллельных прогонов и взяв лучший по самооценке, OpenAI смогли улучшить результат до 44.4%, то есть ровно до уровня Grok 4 Heavy.
Важная фича — агент сможет теперь спрашивать уточнения задачи во время её выполнения, но и вы теперь сможете прерывать агента и давать дополнительные указания если он делает что-то не то. Завершённые задачи можно ставить на расписание (еженедельные отчёты, брифы перед созвонами) — агент будет повторять их автоматически.
Довольно много внимания уделили фичам для безопасности: подтверждение перед необратимыми действиями, Watch Mode для чувствительных задач (вроде финансов), плюс проактивные меры против prompt‑injection. Ну и конечно можно вмешаться и остановить задачу в любой момент. Пока что safety фичи работают очень агрессивно, но количество false positives обещают постепенно уменьшать.
Доступ начнут давать уже сегодня Pro, Plus и Team подписчикам. Все Pro подписчики получат доступ сегодня, остальным придётся подождать до пары дней. Pro подписчики получат 400 сообщений в месяц, Plus и Team — 40. Кредиты можно будет дополнительно докупать, цену не сказали.
@ai_newz
🔥2🎉2
Amazon запустил S3 Vectors — векторную базу данных в облаке
AWS представил S3 Vectors — специализированные бакеты для хранения и поиска векторных эмбеддингов. Теперь можно создавать семантический поиск прямо в S3 без дополнительных решений.
Основные возможности:
- Векторные индексы до 4096 измерений
- Интеграция с Amazon Bedrock для генерации эмбеддингов
- Поддержка Cosine и Euclidean метрик расстояния
- Прямая интеграция с Knowledge Bases для RAG-пайплайнов
Правда после создания индекса нельзя изменить его параметры — размерность, метрику расстояния и ключи метаданных.
Так что планировать нужно загодя.
Сервис уже доступен в preview-версии и может серьезно упростить архитектуру RAG-систем.
Мануал на 3000 страниц в комментарии.
#AWS #Vectors #RAG
———
@tsingular
AWS представил S3 Vectors — специализированные бакеты для хранения и поиска векторных эмбеддингов. Теперь можно создавать семантический поиск прямо в S3 без дополнительных решений.
Основные возможности:
- Векторные индексы до 4096 измерений
- Интеграция с Amazon Bedrock для генерации эмбеддингов
- Поддержка Cosine и Euclidean метрик расстояния
- Прямая интеграция с Knowledge Bases для RAG-пайплайнов
Правда после создания индекса нельзя изменить его параметры — размерность, метрику расстояния и ключи метаданных.
Так что планировать нужно загодя.
Сервис уже доступен в preview-версии и может серьезно упростить архитектуру RAG-систем.
Мануал на 3000 страниц в комментарии.
#AWS #Vectors #RAG
———
@tsingular
🔥3⚡2❤1
Blaxel привлек $7,3 млн на создание «AWS для ИИ-агентов»
Стартап из Сан-Франциско строит облачную инфраструктуру специально для ИИ-агентов. Команда из шести основателей уже обрабатывает миллионы запросов агентов ежедневно в 16 регионах мира.
Основная идея: традиционные облачные провайдеры создавались для эпохи SaaS, но ИИ-агенты требуют совершенно другого подхода. Агенты могут подключаться к языковым моделям в одном регионе, API в другом облаке, а базы знаний где-то еще.
Blaxel предлагает виртуальные машины, которые загружаются за 25 миллисекунд, автоматическое масштабирование и API, созданные для потребления ИИ-системами, а не разработчиками.
Компания планирует повторить путь AWS — начать со стартапов и перейти к корпоративным клиентам.
blaxel.ai
Выглядит достаточно перспективно.
При том у них еще и интересная подборка opensource рядом.
Не знаю уж выложат ли саму платформу, но тулы для MCP могут быть полезны.
#Blaxel #Agents #Cloud
------
@tsingular
Стартап из Сан-Франциско строит облачную инфраструктуру специально для ИИ-агентов. Команда из шести основателей уже обрабатывает миллионы запросов агентов ежедневно в 16 регионах мира.
Основная идея: традиционные облачные провайдеры создавались для эпохи SaaS, но ИИ-агенты требуют совершенно другого подхода. Агенты могут подключаться к языковым моделям в одном регионе, API в другом облаке, а базы знаний где-то еще.
Blaxel предлагает виртуальные машины, которые загружаются за 25 миллисекунд, автоматическое масштабирование и API, созданные для потребления ИИ-системами, а не разработчиками.
Компания планирует повторить путь AWS — начать со стартапов и перейти к корпоративным клиентам.
blaxel.ai
Выглядит достаточно перспективно.
При том у них еще и интересная подборка opensource рядом.
Не знаю уж выложат ли саму платформу, но тулы для MCP могут быть полезны.
#Blaxel #Agents #Cloud
------
@tsingular
🔥6👍3🤨1
LG выпустила EXAONE 4.0 - гибридную модель с режимами мышления
Корейская LG AI Research представила EXAONE 4.0 - модель, которая совмещает быстрые ответы и глубокое рассуждение в одной системе. Доступны версии 32B и 1.2B параметров.
Ключевая особенность - переключение между режимами: обычный для быстрых задач и reasoning для сложных вычислений. Модель поддерживает контекст до 128K токенов и работает с инструментами как агент.
По бенчмаркам 32B версия превосходит Qwen3 235B в математике и программировании, оставаясь конкурентоспособной с frontier-моделями. Добавлена поддержка испанского языка наряду с английским и корейским.
Модель использует гибридное внимание (3:1 локальное к глобальному) для эффективной работы с длинными контекстами.
Paper
#EXAONE #LG
------
@tsingular
Корейская LG AI Research представила EXAONE 4.0 - модель, которая совмещает быстрые ответы и глубокое рассуждение в одной системе. Доступны версии 32B и 1.2B параметров.
Ключевая особенность - переключение между режимами: обычный для быстрых задач и reasoning для сложных вычислений. Модель поддерживает контекст до 128K токенов и работает с инструментами как агент.
По бенчмаркам 32B версия превосходит Qwen3 235B в математике и программировании, оставаясь конкурентоспособной с frontier-моделями. Добавлена поддержка испанского языка наряду с английским и корейским.
Модель использует гибридное внимание (3:1 локальное к глобальному) для эффективной работы с длинными контекстами.
Paper
#EXAONE #LG
------
@tsingular
❤1⚡1👍1🎉1
Forwarded from Анализ данных (Data analysis)
📊 ManusAI теперь умеет визуализировать данные красиво и без боли
Загружаете сырые данные → описываете, что хотите увидеть → выбираете тип графика → Manus сам всё строит.
Мы вот так выяснили, что среди трёх видов пингвинов — Адели, Антарктических и Генту — самые пухлые и длинноластые оказались именно генту. 🐧
Подходит идеально для:
— дашбордов и презентаций
— отчётов для коллег и инвесторов
— исследовательского анализа без кода
🎨 Приятный интерфейс, поддержка CSV, markdown-выгрузка и PDF. И всё это — бесплатно.
Попробовать: https://manus.ai
@data_analysis_ml
#manus
Загружаете сырые данные → описываете, что хотите увидеть → выбираете тип графика → Manus сам всё строит.
Мы вот так выяснили, что среди трёх видов пингвинов — Адели, Антарктических и Генту — самые пухлые и длинноластые оказались именно генту. 🐧
Подходит идеально для:
— дашбордов и презентаций
— отчётов для коллег и инвесторов
— исследовательского анализа без кода
🎨 Приятный интерфейс, поддержка CSV, markdown-выгрузка и PDF. И всё это — бесплатно.
Попробовать: https://manus.ai
@data_analysis_ml
#manus
👍15⚡2🔥1
Delta использует ИИ для определения максимальной цены, которую готов заплатить каждый пассажир
Авиакомпания Delta открыто заявила о переходе на персонализированное ценообразование через ИИ. Президент компании объяснил: "У нас будет цена на рейс, доступная именно вам как индивидууму".
Сейчас ИИ влияет на 3% цен билетов, к концу года планируют увеличить до 20%. Технологию разрабатывает Fetcherr — та же компания работает с Virgin Atlantic и другими перевозчиками.
Сенатор Рубен Гальего назвал это "хищническим ценообразованием", а защитники прав потребителей говорят, что авиакомпания пытается "взломать наши мозги". Delta уже откатывала решение о повышенных тарифах для одиночных путешественников после критики.
ИИ работает как "супер-аналитик" 24/7, определяя индивидуальные цены в реальном времени для каждого конкретного рейса.
#Delta #pricing
------
@tsingular
Авиакомпания Delta открыто заявила о переходе на персонализированное ценообразование через ИИ. Президент компании объяснил: "У нас будет цена на рейс, доступная именно вам как индивидууму".
Сейчас ИИ влияет на 3% цен билетов, к концу года планируют увеличить до 20%. Технологию разрабатывает Fetcherr — та же компания работает с Virgin Atlantic и другими перевозчиками.
Сенатор Рубен Гальего назвал это "хищническим ценообразованием", а защитники прав потребителей говорят, что авиакомпания пытается "взломать наши мозги". Delta уже откатывала решение о повышенных тарифах для одиночных путешественников после критики.
ИИ работает как "супер-аналитик" 24/7, определяя индивидуальные цены в реальном времени для каждого конкретного рейса.
#Delta #pricing
------
@tsingular
🔥6🤔6😐2⚡1😁1👀1
This media is not supported in your browser
VIEW IN TELEGRAM
VoltAgent — TypeScript фреймворк для создания ИИ-агентов
Новый open-source фреймворк решает главную проблему разработки ИИ-агентов — сложность интеграции с LLM и управления состоянием. Вместо месяцев плясок с API, VoltAgent предлагает готовые модули для создания всего: от чат-ботов до сложных мультиагентных систем.
Запуск проекта занимает секунды через create-voltagent-app. Включает движок для воркфлоу и платформу мониторинга VoltOps с наблюдением за агентами в реальном времени.
Фреймворк находит баланс между готовыми решениями и гибкостью кастомизации. Поддерживает автоматизацию процессов, виртуальных помощников и системы поддержки клиентов.
#TypeScript #VoltAgent #Agents
------
@tsingular
Новый open-source фреймворк решает главную проблему разработки ИИ-агентов — сложность интеграции с LLM и управления состоянием. Вместо месяцев плясок с API, VoltAgent предлагает готовые модули для создания всего: от чат-ботов до сложных мультиагентных систем.
Запуск проекта занимает секунды через create-voltagent-app. Включает движок для воркфлоу и платформу мониторинга VoltOps с наблюдением за агентами в реальном времени.
Фреймворк находит баланс между готовыми решениями и гибкостью кастомизации. Поддерживает автоматизацию процессов, виртуальных помощников и системы поддержки клиентов.
#TypeScript #VoltAgent #Agents
------
@tsingular
🔥9❤1
Forwarded from LLM под капотом
График точности всех RAG экспериментов из ERCv2
Напомню, что в ERCr2 43 разные команды ставили эксперименты по построению RAG систем, которые смогут дать наиболее точные ответы на 100 вопросов по 100 PDF (публичные отчеты компаний). Некоторые вопросы требовали сравнительной работы с разными PDF.
Всего было поставлено 134 эксперимента с разными моделями и архитектурами. На этой таблицы они все отображены.
- R - это точность работы Retrieval алгоритма (системы должны были подтверждать свои ответы ссылками на страница)
- G - это точность финального ответа, на основе ground truth данных
- Зеленая линия - линия, где у систем качество Retrieval совпадает с качеством Generation.
Архитектуры, которые выше этой линии - доставали много ненужных страниц (или пропускали нужные), но как-то получали правильный ответ.
Те, кто был ниже - находили правильные данные, но путались с генерацией ответа.
Самые лучшие RAG системы (по итоговому качеству ответов) - "сгрудились" рядом с этой зеленой линией - строго под ней. Получается логический вывод - качество финального ответа обычно зависит от качества заполнения контекста.
А в какой части этого графика оказались ваши эксперименты?
Ваш, @llm_under_hood 🤗
PS: Исходную таблицу можно увидеть на странице ERC. Там же есть ссылки на все доступные исходные данные соревнования, включая алгоритм оценки результатов и описания архитектур.
Напомню, что в ERCr2 43 разные команды ставили эксперименты по построению RAG систем, которые смогут дать наиболее точные ответы на 100 вопросов по 100 PDF (публичные отчеты компаний). Некоторые вопросы требовали сравнительной работы с разными PDF.
Всего было поставлено 134 эксперимента с разными моделями и архитектурами. На этой таблицы они все отображены.
- R - это точность работы Retrieval алгоритма (системы должны были подтверждать свои ответы ссылками на страница)
- G - это точность финального ответа, на основе ground truth данных
- Зеленая линия - линия, где у систем качество Retrieval совпадает с качеством Generation.
Архитектуры, которые выше этой линии - доставали много ненужных страниц (или пропускали нужные), но как-то получали правильный ответ.
Те, кто был ниже - находили правильные данные, но путались с генерацией ответа.
Самые лучшие RAG системы (по итоговому качеству ответов) - "сгрудились" рядом с этой зеленой линией - строго под ней. Получается логический вывод - качество финального ответа обычно зависит от качества заполнения контекста.
А в какой части этого графика оказались ваши эксперименты?
Ваш, @llm_under_hood 🤗
PS: Исходную таблицу можно увидеть на странице ERC. Там же есть ссылки на все доступные исходные данные соревнования, включая алгоритм оценки результатов и описания архитектур.
✍6❤2⚡2🆒2