Google выпустили Gemini 3.1 Flash Live
Это аудио‑first модель, которая ориентирована на лайв диалоги и голосовые интерфейсы.
Обещают максимально естественную речь и минимальную задержку. Модель может отличать нюансы диалога по тону и темпу голоса (например, может поменять стиль ответа, если вы выказываете раздражение).
Контекст у новой модели держится примерно в два раза дольше, чем у прошлой версии Gemini Live, то есть она довольна хороша в длинных диалогах.
По другим бенчмаркам (устойчивость к шуму, многошаговый tool call из аудио ввода, следование инструкциям, логика диалога) Gemini 3.1 Flash Live также сильно скакнула относительно предыдущей модели и выбилась в уверенные лидеры.
Для потребителей эта моделька будет лежать в основе Search Live и Gemini Live.
Сейчас поболтать с ней уже можно в Gemini app или через Live API (цена относительно Gemini 2.5 Flash Live не изменилась)
Это аудио‑first модель, которая ориентирована на лайв диалоги и голосовые интерфейсы.
Обещают максимально естественную речь и минимальную задержку. Модель может отличать нюансы диалога по тону и темпу голоса (например, может поменять стиль ответа, если вы выказываете раздражение).
Контекст у новой модели держится примерно в два раза дольше, чем у прошлой версии Gemini Live, то есть она довольна хороша в длинных диалогах.
По другим бенчмаркам (устойчивость к шуму, многошаговый tool call из аудио ввода, следование инструкциям, логика диалога) Gemini 3.1 Flash Live также сильно скакнула относительно предыдущей модели и выбилась в уверенные лидеры.
Для потребителей эта моделька будет лежать в основе Search Live и Gemini Live.
Сейчас поболтать с ней уже можно в Gemini app или через Live API (цена относительно Gemini 2.5 Flash Live не изменилась)
❤75👍32🔥20 2
Anthropic скоро выпустят новую модель под кодовым названием Claude Mythos (или Capybara)
Fortune опубликовали эксклюзивный материал: они откопали утекшие внутренние документы стартапа, которые случайно оказались в публичном кэше данных компании.
В указанных документах говорится, что компания готовится к выпуску новой модели и хочет действовать с особой осторожностью, потому что модель «представляет беспрецедентные риски для кибербезопасности».
Как вы помните, в сети уже несколько раз всплывали новости о том, что Claude так или иначе используется для кибератак. Если верить сливу, и Claude Mythos – это действительно очередной скачок в способностях, то рисков станет еще больше.
Сообщается даже, что компания собирается изначально выпускать модель в ограниченном доступе для security‑команд, чтобы они могли использовать ее для усиления защиты кодовых баз и подготовки к атакам, которые в последствие Mythos сам может провоцировать.
Fortune опубликовали эксклюзивный материал: они откопали утекшие внутренние документы стартапа, которые случайно оказались в публичном кэше данных компании.
В указанных документах говорится, что компания готовится к выпуску новой модели и хочет действовать с особой осторожностью, потому что модель «представляет беспрецедентные риски для кибербезопасности».
Как вы помните, в сети уже несколько раз всплывали новости о том, что Claude так или иначе используется для кибератак. Если верить сливу, и Claude Mythos – это действительно очередной скачок в способностях, то рисков станет еще больше.
Сообщается даже, что компания собирается изначально выпускать модель в ограниченном доступе для security‑команд, чтобы они могли использовать ее для усиления защиты кодовых баз и подготовки к атакам, которые в последствие Mythos сам может провоцировать.
1🔥153😁50 40 18❤7👍5🤔4
Хорошая это новость или грустная, судите сами: ARC Invest посчитали, что к концу 2020-х суммарный объем текста, сгенерированного ИИ, превзойдет объем текста, который человечество накопило за последние 500 лет
Другими словами, ИИ понадобиться всего 5-10 лет, чтобы нагнать и перегнать человечество в плане количества написанного текста.
Оказалось, кстати, что 2025 стал первым годом, когда ИИ сгенерировал больше текста, чем люди. Подсчеты, конечно, очень приблизительные, – но все же.
Другими словами, ИИ понадобиться всего 5-10 лет, чтобы нагнать и перегнать человечество в плане количества написанного текста.
Оказалось, кстати, что 2025 стал первым годом, когда ИИ сгенерировал больше текста, чем люди. Подсчеты, конечно, очень приблизительные, – но все же.
Media is too big
VIEW IN TELEGRAM
OpenAI построена Альтманом на манипуляциях
Вчера вышел крайне занятный подкаст Стивена Бартлетта с журналисткой Карен Хао. Хао несколько лет занимается расследованием происходящего в OpenAI. Она даже написала об этом книгу «Empire of AI».
Она утверждает, что в рамках расследования провела более 300 интервью (в том числе 90+ с нынешними и бывшими сотрудниками OpenAI). Вот какие интересные детали ей удалось выяснить:
➖ В 2015 году риторика стартапа была полностью переделана под Маска, чтобы получить его инвестиции и влияние. До 2015 года Альтман вообще не говорил об угрозе ИИ для человечества, а затем резко начал использовать язык, очень похожий на язык Маска про экзистенциальный риск ИИ. Маск и сам считает, что Сэм просто зеркалил его взгляды, чтобы завоевать доверие.
➖ Тот же прием Альтман использует по сей день. Хао утверждает, что OpenAI абсолютно по-разному определяют термин AGI в зависимости от аудитории, которой его продают. Конгрессу – как систему, способную решать глобальные проблемы, потребителям – как самого лучшего персонального помощника, Microsoft – как систему, которая приносит много денег.
➖ С Маском история тоже якобы кончилась именно с руки Альтмана. Оказывается, что много лет назад при первом обсуждении перехода к for-profit почти все фаундеры склонялись к тому, чтобы CEO новой структуры стал Маск. Но Альтман лично переубедил Брокмана, а затем и Суцкевера, что Илон слишком «непредсказуем» для этой роли. После этого Маск ушел.
Ну и, кроме того, еще несколько уже известных нам подробностей: про угрозы критикующим журналистам, обязательное подписание сотрудниками отказов от доли в компании и про уходы ключевых сотрудников из-за абьюза со стороны руководства.
Конечно, не забываем, что все это – журналистская интерпретация, подтвержденная только анонимными источниками. Но дыма без огня не бывает, верно?
И кстати, Маск прокомментировал подкаст так: «Scam Altman is super good at scamming»
Вчера вышел крайне занятный подкаст Стивена Бартлетта с журналисткой Карен Хао. Хао несколько лет занимается расследованием происходящего в OpenAI. Она даже написала об этом книгу «Empire of AI».
Она утверждает, что в рамках расследования провела более 300 интервью (в том числе 90+ с нынешними и бывшими сотрудниками OpenAI). Вот какие интересные детали ей удалось выяснить:
Ну и, кроме того, еще несколько уже известных нам подробностей: про угрозы критикующим журналистам, обязательное подписание сотрудниками отказов от доли в компании и про уходы ключевых сотрудников из-за абьюза со стороны руководства.
Конечно, не забываем, что все это – журналистская интерпретация, подтвержденная только анонимными источниками. Но дыма без огня не бывает, верно?
И кстати, Маск прокомментировал подкаст так: «Scam Altman is super good at scamming»
Please open Telegram to view this post
VIEW IN TELEGRAM
1 144😁67❤25👍18 14🤔5🔥1
NeuralDeep Skills: локальная база агентных навыков под ру-сервисы
Всем, кто пользуется агентами, 100% известна такая вещь, как skills.sh. Это огромная база скиллов агентов под любые сервисы. Ставишь – и агент уже умеет с ними работать из коробки.
Так вот, в российском сообществе давно напрашивался аналог под локальный стек. И его сделал наш друг и коллега по тг – Валерий @neuraldeep. Он в целом регулярно делает разные практичные штуки для разработчиков, и это как раз одна из них.
Итак, встречайте: neuraldeep.ru/
Это база, в которой будут собраны скиллы для работы с самими разными ру-сервисами. Туда уже залили интеграции под инструменты Яндекс, Битрикс24, 1С и другое, чем многие пользуются каждый день.
– Установка все так же происходит одной командой, все привычно и понятно
– Проект опенсорсный: туда можно просто прийти и залить свой скилл через GitHub (формат claude-skill)
– Есть модерация и базовые проверки безопасности
Из этого вполне может получиться что-то вроде стандартного слоя для агентных интеграций под рф-рынок. Если работаете с агентами – заходите попробовать или даже поучаствовать.
Проект -> neuraldeep.ru/
Гитхаб -> https://github.com/vakovalskii/neuraldeep
Следите за обновлениями в канале Валеры -> @neuraldeep
Всем, кто пользуется агентами, 100% известна такая вещь, как skills.sh. Это огромная база скиллов агентов под любые сервисы. Ставишь – и агент уже умеет с ними работать из коробки.
Так вот, в российском сообществе давно напрашивался аналог под локальный стек. И его сделал наш друг и коллега по тг – Валерий @neuraldeep. Он в целом регулярно делает разные практичные штуки для разработчиков, и это как раз одна из них.
Итак, встречайте: neuraldeep.ru/
Это база, в которой будут собраны скиллы для работы с самими разными ру-сервисами. Туда уже залили интеграции под инструменты Яндекс, Битрикс24, 1С и другое, чем многие пользуются каждый день.
– Установка все так же происходит одной командой, все привычно и понятно
– Проект опенсорсный: туда можно просто прийти и залить свой скилл через GitHub (формат claude-skill)
– Есть модерация и базовые проверки безопасности
Из этого вполне может получиться что-то вроде стандартного слоя для агентных интеграций под рф-рынок. Если работаете с агентами – заходите попробовать или даже поучаствовать.
Проект -> neuraldeep.ru/
Гитхаб -> https://github.com/vakovalskii/neuraldeep
Следите за обновлениями в канале Валеры -> @neuraldeep
2❤105👍46🗿29🔥20 4😁3🤯3 1
Фаундер GitLab Сид Сийбранди «собрал» себе лечение от рака с помощью ИИ
В 2022 году у него диагностировали редкую форму рака позвоночника. После операции, химии и радиотерапии болезнь вернулась, а стандартные опции лечения фактически закончились.
И тут Сид, как настоящий инженер, решил подойти к лечению как к решению задачи.
По факту, он собрал вокруг себя небольшую биотех компанию из агентов. Он накопил максимально полный набор данных о себе – генетика, анализы, сканы – и начал работать с этим как с исследовательским проектом. ИИ помогал структурировать информацию, искать гипотезы и искать релевантные статьи.
В итоге лечение превратилось в цикл проверки гипотез. Инженер быстрыми итерациями параллельно тестировал по несколько подходов, постоянно корректируя стратегию. По сути R&D-пайплайн, только применный к собственной болезни.
По текущему статусу Сид в ремиссии. Эта история, конечно, не только про ИИ, но и про наличие денег и связей. ИИ тут скорее послужил катализатором. Но все же сам факт того, что подобное возможно в наше время – поражает.
Сид, кстати, сам описал весь процесс и подход, можно почитать вот тут -> https://sytse.com/cancer/
В 2022 году у него диагностировали редкую форму рака позвоночника. После операции, химии и радиотерапии болезнь вернулась, а стандартные опции лечения фактически закончились.
И тут Сид, как настоящий инженер, решил подойти к лечению как к решению задачи.
По факту, он собрал вокруг себя небольшую биотех компанию из агентов. Он накопил максимально полный набор данных о себе – генетика, анализы, сканы – и начал работать с этим как с исследовательским проектом. ИИ помогал структурировать информацию, искать гипотезы и искать релевантные статьи.
В итоге лечение превратилось в цикл проверки гипотез. Инженер быстрыми итерациями параллельно тестировал по несколько подходов, постоянно корректируя стратегию. По сути R&D-пайплайн, только применный к собственной болезни.
По текущему статусу Сид в ремиссии. Эта история, конечно, не только про ИИ, но и про наличие денег и связей. ИИ тут скорее послужил катализатором. Но все же сам факт того, что подобное возможно в наше время – поражает.
Сид, кстати, сам описал весь процесс и подход, можно почитать вот тут -> https://sytse.com/cancer/
3❤259🔥76👍43😁8🤨6🦄5
600 тысяч рублей за решение задачи распознавания голоса
Криптонит запустили дататон по Speaker Recognition. Задача максимально прикладная – нужно собрать модель, устойчивую к искажениям аудио:
🔹 искажения, вносимые акустической средой;
🔹 посторонние шумы;
🔹 реверберация;
🔹 большое расстояние до микрофона;
🔹 искажения каналов связи.
То есть по сути надо приблизить модель к условиям, в которых реально живут голосовые интерфейсы. Это как раз тот слой, где обычно и происходит разница между «моделью из ноутбука» и «моделью в проде».
Отличная возможность прокачать знания с упором на robustness, учитывая, что интересные задачи на аудио ML публикуются не так часто – особенно с фокусом на реальные условия, а не чистые датасеты.
А еще из приятного – призовой фонд в 600 000 рублей🤑
-> Регистрируйтесь до 10 апреля
Криптонит запустили дататон по Speaker Recognition. Задача максимально прикладная – нужно собрать модель, устойчивую к искажениям аудио:
То есть по сути надо приблизить модель к условиям, в которых реально живут голосовые интерфейсы. Это как раз тот слой, где обычно и происходит разница между «моделью из ноутбука» и «моделью в проде».
Отличная возможность прокачать знания с упором на robustness, учитывая, что интересные задачи на аудио ML публикуются не так часто – особенно с фокусом на реальные условия, а не чистые датасеты.
А еще из приятного – призовой фонд в 600 000 рублей
-> Регистрируйтесь до 10 апреля
Please open Telegram to view this post
VIEW IN TELEGRAM
😁48🤨17🗿11❤10👍9🤯3🔥2
В iOS 27 Siri сможет подключаться к любым AI-сервисам из App Store
Те, кто списывали Apple с ИИ-счетов, видимо, поторопились. Теперь они могут начать зарабатывать на ИИ больше любого производителя моделей.
После неудач с собственными моделями они, кажется, выбрали другую тактику: не тратить миллиарды на датацентры, а воспользоваться синицей в руке.
У Apple уже есть огромная база устройств, и теперь они хотят сделать из Siri платформу-агрегатор: она сможет подключаться к любому сервису, – будь то Gemini, ChatGPT или Claude, – а Apple будут зарабатывать до 30% комиссии с проданных подписок.
Так работала монетизация с ChatGPT, когда тот был встроен в iOS 18.
Фишка всей этой истории в том, что Apple, в отличие от всех остальных, могут выходить по ИИ в огромный плюс. The Financial Times недавно считали Показатель «Revenue generated per dollar of fixed assets» (выручка на каждый доллар, вложенный в основные средства).
Смотрите график: у Apple дела относительно остальных просто замечательно. Пока у всех метрика падает из-за затрат на ИИ, у Apple она остается стабильной и высокой. И если они найдут способ эффективно монетизировать свой потенциал в виде миллиардов пользователей их техники, то станут лидерами по отдаче от ИИ, так и не сделав ни одной нормальной собственной модели😎
Те, кто списывали Apple с ИИ-счетов, видимо, поторопились. Теперь они могут начать зарабатывать на ИИ больше любого производителя моделей.
После неудач с собственными моделями они, кажется, выбрали другую тактику: не тратить миллиарды на датацентры, а воспользоваться синицей в руке.
У Apple уже есть огромная база устройств, и теперь они хотят сделать из Siri платформу-агрегатор: она сможет подключаться к любому сервису, – будь то Gemini, ChatGPT или Claude, – а Apple будут зарабатывать до 30% комиссии с проданных подписок.
Так работала монетизация с ChatGPT, когда тот был встроен в iOS 18.
Фишка всей этой истории в том, что Apple, в отличие от всех остальных, могут выходить по ИИ в огромный плюс. The Financial Times недавно считали Показатель «Revenue generated per dollar of fixed assets» (выручка на каждый доллар, вложенный в основные средства).
Смотрите график: у Apple дела относительно остальных просто замечательно. Пока у всех метрика падает из-за затрат на ИИ, у Apple она остается стабильной и высокой. И если они найдут способ эффективно монетизировать свой потенциал в виде миллиардов пользователей их техники, то станут лидерами по отдаче от ИИ, так и не сделав ни одной нормальной собственной модели
Please open Telegram to view this post
VIEW IN TELEGRAM
❤97😁63 38🗿8🔥7🤔4
Самый хайпующий проект в интернете прямо сейчас – Pretext
Инженер из Midjourney выложил в опенсорс алгоритм, который позволяет делать верстку без CSS. То есть он сам считает layout текста, без DOM и без браузерного reflow.
Звучит странно, потому что мы привыкли, что за это отвечает браузер. Но браузер делает это тяжело, через каскад стилей, зависимости между элементами и пересчеты при каждом изменении. Если текст часто меняется, вся система начинает тормозить. Pretext убирает этот слой и сводит задачу к прямой математике.
Собственно, это дает кратный выигрыш по скорости – до 500х.
Зачем это все нужно?
Сейчас появляется все больше интерфейсов, где текст и структура не заданы заранее, а формируются динамически. В частности – это история про агентов.
Когда агент собирает UI под задачу пользователя, интерфейс не фиксирован, он постоянно меняется, иногда буквально на каждом шаге. И каждый такой апдейт через браузерный reflow – это лишняя задержка и непредсказуемость.
С Pretext это занимает гораздо меньше времени + полностью контролируемо со стороны кода. Когда интерфейс генерирует не человек, а система, удобнее работать с прямыми алгоритмами, а не с тяжелым браузерным пайплайном.
Ну и, конечно, выглядит это очень красиво. За счет скорости обработки выдумать поверх Pretext можно что угодно (примеры прикладываем). И все же в первую очередь проект интересен именно тем, как изящно он ложится на новые сценарии.
github.com/chenglou/pretext
Инженер из Midjourney выложил в опенсорс алгоритм, который позволяет делать верстку без CSS. То есть он сам считает layout текста, без DOM и без браузерного reflow.
Звучит странно, потому что мы привыкли, что за это отвечает браузер. Но браузер делает это тяжело, через каскад стилей, зависимости между элементами и пересчеты при каждом изменении. Если текст часто меняется, вся система начинает тормозить. Pretext убирает этот слой и сводит задачу к прямой математике.
Собственно, это дает кратный выигрыш по скорости – до 500х.
Зачем это все нужно?
Сейчас появляется все больше интерфейсов, где текст и структура не заданы заранее, а формируются динамически. В частности – это история про агентов.
Когда агент собирает UI под задачу пользователя, интерфейс не фиксирован, он постоянно меняется, иногда буквально на каждом шаге. И каждый такой апдейт через браузерный reflow – это лишняя задержка и непредсказуемость.
С Pretext это занимает гораздо меньше времени + полностью контролируемо со стороны кода. Когда интерфейс генерирует не человек, а система, удобнее работать с прямыми алгоритмами, а не с тяжелым браузерным пайплайном.
Ну и, конечно, выглядит это очень красиво. За счет скорости обработки выдумать поверх Pretext можно что угодно (примеры прикладываем). И все же в первую очередь проект интересен именно тем, как изящно он ложится на новые сценарии.
github.com/chenglou/pretext
1👍143❤58🔥44🤯7😁5🍓4👏2🤩2
Data Secrets
Самый хайпующий проект в интернете прямо сейчас – Pretext Инженер из Midjourney выложил в опенсорс алгоритм, который позволяет делать верстку без CSS. То есть он сам считает layout текста, без DOM и без браузерного reflow. Звучит странно, потому что мы…
This media is not supported in your browser
VIEW IN TELEGRAM
Теперь можно еще больше отвлекаться, читая статьи 🤟
😁222❤19 17
Что такое RL-среды и почему без них не будет никаких ИИ-агентов
Индустрия переходит от моделей, которые отвечают, к агентам, которые действуют. И если посмотреть на то, как сегодня обучают ИИ, то становится очевидно, что на одних текстах далеко уже не уедешь.
Дело в том, что агентам недостаточно просто уметь воспроизводить правильные ответы, они должны уметь выбирать стратегию поведения, чтобы решать многошаговые задачи и подстраиваться под непредсказуемое поведение пользователя. Отсюда вывод: агентам нужно учиться через опыт.
И тут на сцену выходят RL-среды. Это сейчас один из главных трендов машинного обучения в целом. Над его развитием работают все игроки индустрии: Open AI, Google, Яндекс, Anthropic.
RL-среда = симулятор, где модель обучается через реальные действия. Модель выбирает какую-то стратегию и работает по ней (это называется траектория), затем получает оценку своих действий, и постепенно учится выбирать лучшую политику. Самое главное, что правильного ответа тут иногда просто нет, так что мы говорим именно про сравнение вариантов действий. Работает это потому, что RL-среда учит не отдельным ответам, а последовательностям действий. Модель начинает учитывать последствия своих шагов и учится планированию, адаптации и работе с неопределенностью.
Но и проблем с RL-средами пока хватает. Во-первых, сложно задать корректную функцию награды: модель может научиться "обманывать" метрику, не решая задачу по сути. Во-вторых, остается проблема credit assignment – как понять, на каком шаге стратегия пошла не так. И, наконец, сами среды пока далеки от реальности: симулированный пользователь все еще ведет себя проще, чем настоящий. Вот тут об этих и других вызовах для RL есть побольше вводных на русском.
Суть в том, что чем лучше будут RL-среды – тем лучше (и быстрее) будут агенты, так что следующий этап в ИИ сейчас зависит от того, как хорошо ключевые игроки их прокачают.
Индустрия переходит от моделей, которые отвечают, к агентам, которые действуют. И если посмотреть на то, как сегодня обучают ИИ, то становится очевидно, что на одних текстах далеко уже не уедешь.
Дело в том, что агентам недостаточно просто уметь воспроизводить правильные ответы, они должны уметь выбирать стратегию поведения, чтобы решать многошаговые задачи и подстраиваться под непредсказуемое поведение пользователя. Отсюда вывод: агентам нужно учиться через опыт.
И тут на сцену выходят RL-среды. Это сейчас один из главных трендов машинного обучения в целом. Над его развитием работают все игроки индустрии: Open AI, Google, Яндекс, Anthropic.
RL-среда = симулятор, где модель обучается через реальные действия. Модель выбирает какую-то стратегию и работает по ней (это называется траектория), затем получает оценку своих действий, и постепенно учится выбирать лучшую политику. Самое главное, что правильного ответа тут иногда просто нет, так что мы говорим именно про сравнение вариантов действий. Работает это потому, что RL-среда учит не отдельным ответам, а последовательностям действий. Модель начинает учитывать последствия своих шагов и учится планированию, адаптации и работе с неопределенностью.
Но и проблем с RL-средами пока хватает. Во-первых, сложно задать корректную функцию награды: модель может научиться "обманывать" метрику, не решая задачу по сути. Во-вторых, остается проблема credit assignment – как понять, на каком шаге стратегия пошла не так. И, наконец, сами среды пока далеки от реальности: симулированный пользователь все еще ведет себя проще, чем настоящий. Вот тут об этих и других вызовах для RL есть побольше вводных на русском.
Суть в том, что чем лучше будут RL-среды – тем лучше (и быстрее) будут агенты, так что следующий этап в ИИ сейчас зависит от того, как хорошо ключевые игроки их прокачают.
😁48❤30👍19 10✍3🤨3 3🤯1🗿1
Microsoft выпустили Critique: инструмент для deep research, который может вызывать несколько разных моделей одновременно
То есть теперь вашим запросом занимаются сразу две модели: первая берет на себя основную генерацию, а вторая выступает в роли критика и рецензента и поправляет ошибки и неточности перед тем как система даст окончательный ответ.
Какие модели участвовали в генерации – видно в шапке ответа. По бенчмарку DRACO – яркая SOTA, других бенчей нет.
Появился еще режим Council для обычных запросов: там ваш промпт просто прогоняют через несколько моделей, и вы сразу видите разные варианты ответа. Плюс есть кратенькая выжимка о том, где модели сходятся и где у них разногласия. Удобно.
Пока на широкую общественность не раскатили, но можно податься на ранний доступ.
Какие будут лимиты (и будет ли вообще доступ в обычной подписке за 20$) пока непонятно.Хотя в целом, такое можно и дома на коленке завайбкодить за вечер. Точно будет дешевле.
techcommunity.microsoft.com/blog/microsoft365copilotblog/introducing-multi-model-intelligence-in-researcher/4506011
То есть теперь вашим запросом занимаются сразу две модели: первая берет на себя основную генерацию, а вторая выступает в роли критика и рецензента и поправляет ошибки и неточности перед тем как система даст окончательный ответ.
Какие модели участвовали в генерации – видно в шапке ответа. По бенчмарку DRACO – яркая SOTA, других бенчей нет.
Появился еще режим Council для обычных запросов: там ваш промпт просто прогоняют через несколько моделей, и вы сразу видите разные варианты ответа. Плюс есть кратенькая выжимка о том, где модели сходятся и где у них разногласия. Удобно.
Пока на широкую общественность не раскатили, но можно податься на ранний доступ.
Какие будут лимиты (и будет ли вообще доступ в обычной подписке за 20$) пока непонятно.
techcommunity.microsoft.com/blog/microsoft365copilotblog/introducing-multi-model-intelligence-in-researcher/4506011
😁57🔥23👍14❤10🤔2👏1
This media is not supported in your browser
VIEW IN TELEGRAM
Доброе утро, Anthopic опять приблизили нас к безработице одной фичей ☕️
В Claude Code теперь доступен Computer use. Агент пишет код, компилирует, запускает приложение, кликает по UI, находит баг, фиксит и проверяет результат. Всё по одному запросу.
Пока research preview доступно на Pro и Max планах, только macOS. Включается через /mcp в настройках.
В Claude Code теперь доступен Computer use. Агент пишет код, компилирует, запускает приложение, кликает по UI, находит баг, фиксит и проверяет результат. Всё по одному запросу.
Пока research preview доступно на Pro и Max планах, только macOS. Включается через /mcp в настройках.
Please open Telegram to view this post
VIEW IN TELEGRAM
Data Secrets
Разработчик Claude Code признался, что последние 30 дней 100% его контрибьютов в Claude Code были написаны самим Claude Code И это, причем, не просто какой-то разработчик, а Борис Черный. Он считается «основателем» Claude Code (на самом деле в 2024 это был…
Media is too big
VIEW IN TELEGRAM
Кстати, все последние обновления Claude Code – голимый вайбкодинг
Дарио Амодеи на World Economic Forum в Давосе заявил:
Также напоминаем, что создатель Claude Code еще в конце декабря говорил, что 100% его контрибьютов в CC пишет CC.
Со стороны кажется, что скорость разработки в стартапе увеличилась кратно. Мы посчитали: с момента выпуска Opus 4.6 в феврале они запилили около 17 (!) средних и крупных обновлений. Интересно, какую модель используют внутри стартапа🤔
Дарио Амодеи на World Economic Forum в Давосе заявил:
Инженеры в Anthropic говорят: «Я больше не пишу код. Я просто позволяю модели писать код, а я его редактирую»
Также напоминаем, что создатель Claude Code еще в конце декабря говорил, что 100% его контрибьютов в CC пишет CC.
Со стороны кажется, что скорость разработки в стартапе увеличилась кратно. Мы посчитали: с момента выпуска Opus 4.6 в феврале они запилили около 17 (!) средних и крупных обновлений. Интересно, какую модель используют внутри стартапа
Please open Telegram to view this post
VIEW IN TELEGRAM
👍122😁72🔥22❤16🤔3😎1
Media is too big
VIEW IN TELEGRAM
Понравилось определение AGI, которое дал на днях Франсуа Шолле (создатель ARC-AGI) на подкасте у Y Combinator
Его идея – в том, что в настоящее индустрия путает автоматизацию с интеллектом. AGI чаще всего определяется как то, что автоматизирует большинство экономически значимых задач. Но эта формулировка на самом деле не описывает общий интеллект.
Альтернативное определение Шолле звучит так:
Так что AGI – это не про автоматизацию, а про способность приобретения навыков на уровне человека на том же объеме задач, который люди потенциально могут научиться выполнять.
Подкаст полностью тут: https://youtu.be/k2ZLQC8P7dc
Его идея – в том, что в настоящее индустрия путает автоматизацию с интеллектом. AGI чаще всего определяется как то, что автоматизирует большинство экономически значимых задач. Но эта формулировка на самом деле не описывает общий интеллект.
Альтернативное определение Шолле звучит так:
AGI – это система, которая при встрече с абсолютно новой задачей или абсолютно новым для нее доменом может разобраться в нем с той же эффективностью, что и человек. Это значит, что ей потребуется примерно столько же обучающих данных и компьюта. И это довольно мало, потому что люди крайне эффективно обрабатывают данные.
Так что AGI – это не про автоматизацию, а про способность приобретения навыков на уровне человека на том же объеме задач, который люди потенциально могут научиться выполнять.
Подкаст полностью тут: https://youtu.be/k2ZLQC8P7dc
❤173👍82🔥23🤔11💯9🤯2☃1😁1 1
Media is too big
VIEW IN TELEGRAM
Похоже, Яндекс решил помочь в задачах enterprise по разработке приложений и управлению данными.
Компания представила Stackland – контейнерную платформу, где вся необходимая для разработки инфраструктура предоставляется "из коробки". Там есть базовый слой - Kubernetes, средства обработки и хранения данных, а также встроены управляемые СУБД от Yandex Cloud. Разворачивается все за несколько часов в в закрытом корпоративном контуре и сразу готово к работе.
Это значит без долгой настройки, без ручной сборки и без постоянной поддержки на стороне команды. Можно значительно ускорить запуск сервисов и data-продуктов.
Запросить демо платформы – ссылка.
Компания представила Stackland – контейнерную платформу, где вся необходимая для разработки инфраструктура предоставляется "из коробки". Там есть базовый слой - Kubernetes, средства обработки и хранения данных, а также встроены управляемые СУБД от Yandex Cloud. Разворачивается все за несколько часов в в закрытом корпоративном контуре и сразу готово к работе.
Это значит без долгой настройки, без ручной сборки и без постоянной поддержки на стороне команды. Можно значительно ускорить запуск сервисов и data-продуктов.
Запросить демо платформы – ссылка.
❤35🗿33😁14👍12🔥10🤨4 3☃1🕊1 1
В сеть утек исходный код Claude Code
При публикации пакетов кто-то в Anthropic совершил ✨некий просчет✨, и билд обфусцированного cli.js оказался в публичном npm‑пакете вместе с полноценным cli.js.map, которого там никак не должно было быть. То есть любой, кто установил пакет или скачал его, мог легко восстановить исходники через sourcemap.
Естественно, код почти моментально разошелся по репам. Популярные инфобез-комьюнити подтвердили, что это не фейк и не обычная обертка над API, а именно продвинутая CLI‑платформа.
https://github.com/instructkr/claude-code
Оказалось, что под капотом 1906 файлов TypeScript и примерно 500к строк.
Из интересного:
– Есть намеки на нереализованные фичи типа глубокого планирования, постоянной памяти и "сна".
– Можно посмотреть, как у Anthropic реализована мультиагентность (файл coordinator/coordinatorMode.ts)
– Также доступны все системные промпты (constants/prompts.ts)
С днем опенсорса, так сказать.
UPD: автор начал менять репозиторий, так что вот тут ловите дополнительную ссылку на архив с исходниками
При публикации пакетов кто-то в Anthropic совершил ✨некий просчет✨, и билд обфусцированного cli.js оказался в публичном npm‑пакете вместе с полноценным cli.js.map, которого там никак не должно было быть. То есть любой, кто установил пакет или скачал его, мог легко восстановить исходники через sourcemap.
Естественно, код почти моментально разошелся по репам. Популярные инфобез-комьюнити подтвердили, что это не фейк и не обычная обертка над API, а именно продвинутая CLI‑платформа.
https://github.com/instructkr/claude-code
Оказалось, что под капотом 1906 файлов TypeScript и примерно 500к строк.
Из интересного:
– Есть намеки на нереализованные фичи типа глубокого планирования, постоянной памяти и "сна".
– Можно посмотреть, как у Anthropic реализована мультиагентность (файл coordinator/coordinatorMode.ts)
– Также доступны все системные промпты (constants/prompts.ts)
С днем опенсорса, так сказать.
UPD: автор начал менять репозиторий, так что вот тут ловите дополнительную ссылку на архив с исходниками
😁299❤58🤯23🔥13 10😎8⚡2🤔2👍1