Forwarded from Анализ данных (Data analysis)
This media is not supported in your browser
VIEW IN TELEGRAM
SSoT: Sakana AI научила LLM быть по-настоящему случайными
Попросите любую LLM 100 раз «подбрось монету», и распределение орла и решки перекосится далеко от честных 50 на 50. Похожая история с «придумай 10 идей для романа»: вместо десяти разных сюжетов модель выдаёт десять вариаций одного и того же. Даже если явно передать ей вероятности, генерировать выборку, строго соответствующую распределению, у LLM получается плохо.
Японская лаборатория Sakana AI в новой статье «SSoT: Prompting LLMs for Distribution-Faithful and Diverse Generation», принятой на ICLR 2026, показывает, что эту проблему можно закрыть одним только промптом, без дообучения и без внешних генераторов случайных чисел.
Приём называется String Seed of Thought и устроен максимально просто: модель сначала генерирует у себя в «голове» случайную строку, а потом использует её как сид при формировании итогового ответа. Никаких внешних инструментов и случайных чисел извне не требуется, всё делается средствами самой LLM.
Авторы прогнали SSoT на широком наборе моделей, и картина получилась убедительная. Смещение выборки у открытых и закрытых LLM заметно уменьшается, а у части reasoning-моделей точность распределений почти неотличима от настоящего ГСЧ. Метод работает не только на бинарном выборе вроде монетки, но и на произвольных дискретных распределениях.
SSoT резко повышает разнообразие генерации в задачах, где важна креативность. В экспериментах с написанием коротких художественных текстов добавление одной строчки SSoT в промпт ощутимо увеличивает разнообразие выходных документов, не ломая их качества. То есть один и тот же трюк одновременно чинит и «честную случайность», и типичную проблему с однообразными идеями.
Для AI-инженеров это интересно по нескольким причинам. SSoT можно воспринимать как дешёвый кирпич для построения продакшен-систем на LLM: там, где раньше приходилось прикручивать внешние сэмплеры или городить костыли, чтобы модель не залипала в одном и том же ответе, теперь иногда достаточно грамотно оформленного промпта. Sakana AI прямо называет SSoT базовой техникой для будущих подходов к inference-time scaling, интеграции LLM в реальные пайплайны и для задач, где нужны честные выборки из распределений.
Подробный разбор механизма, теоретический анализ и интерактивное демо лежат в блоге и в статье на arXiv.
Блог: https://pub.sakana.ai/ssot
Статья: https://arxiv.org/abs/2510.21150
Попросите любую LLM 100 раз «подбрось монету», и распределение орла и решки перекосится далеко от честных 50 на 50. Похожая история с «придумай 10 идей для романа»: вместо десяти разных сюжетов модель выдаёт десять вариаций одного и того же. Даже если явно передать ей вероятности, генерировать выборку, строго соответствующую распределению, у LLM получается плохо.
Японская лаборатория Sakana AI в новой статье «SSoT: Prompting LLMs for Distribution-Faithful and Diverse Generation», принятой на ICLR 2026, показывает, что эту проблему можно закрыть одним только промптом, без дообучения и без внешних генераторов случайных чисел.
Приём называется String Seed of Thought и устроен максимально просто: модель сначала генерирует у себя в «голове» случайную строку, а потом использует её как сид при формировании итогового ответа. Никаких внешних инструментов и случайных чисел извне не требуется, всё делается средствами самой LLM.
Авторы прогнали SSoT на широком наборе моделей, и картина получилась убедительная. Смещение выборки у открытых и закрытых LLM заметно уменьшается, а у части reasoning-моделей точность распределений почти неотличима от настоящего ГСЧ. Метод работает не только на бинарном выборе вроде монетки, но и на произвольных дискретных распределениях.
SSoT резко повышает разнообразие генерации в задачах, где важна креативность. В экспериментах с написанием коротких художественных текстов добавление одной строчки SSoT в промпт ощутимо увеличивает разнообразие выходных документов, не ломая их качества. То есть один и тот же трюк одновременно чинит и «честную случайность», и типичную проблему с однообразными идеями.
Для AI-инженеров это интересно по нескольким причинам. SSoT можно воспринимать как дешёвый кирпич для построения продакшен-систем на LLM: там, где раньше приходилось прикручивать внешние сэмплеры или городить костыли, чтобы модель не залипала в одном и том же ответе, теперь иногда достаточно грамотно оформленного промпта. Sakana AI прямо называет SSoT базовой техникой для будущих подходов к inference-time scaling, интеграции LLM в реальные пайплайны и для задач, где нужны честные выборки из распределений.
Подробный разбор механизма, теоретический анализ и интерактивное демо лежат в блоге и в статье на arXiv.
Блог: https://pub.sakana.ai/ssot
Статья: https://arxiv.org/abs/2510.21150
1🔥9🤔7⚡2❤1
Forwarded from Искусственный интеллект. Высокие технологии
Kimi накосячил: ИИ выплюнул чужое резюме с именем, телефоном и почтой
Вчера вечером блогер закинул в Kimi 2.6 случайную картинку, просто чтобы погонять модель перед официальным анонсом.
Сначала нейронка понесла какую-то чушь не по теме, а потом ни с того ни с сего выдала в ответ целое резюме. С настоящим именем, рабочим телефоном, почтой и прочими контактами.
Сначала он подумал, что модель по привычке что-то нагаллюцинировала. Но на всякий случай пробил данные и офигел: человек существует, телефон живой, по WeChat добавляется, почта рабочая.
Это произошло ровно накануне громкого релиза Kimi K2.6, который Moonshot пиарит как новый опенсорсный SOTA по кодингу: топовые цифры на SWE-Bench Pro, BrowseComp, HLE и длинный горизонт на 4000+ шагов.
Красивый лаунч, презентация, бенчмарки и тут же утечка чужих данных в проде.
По словам автора поста, продакт Kimi уже списался с владельцем резюме и сейчас разруливает ситуацию с утечкой приватных данных.
https://x.com/yyyole/status/2046393481132900596
Вчера вечером блогер закинул в Kimi 2.6 случайную картинку, просто чтобы погонять модель перед официальным анонсом.
Сначала нейронка понесла какую-то чушь не по теме, а потом ни с того ни с сего выдала в ответ целое резюме. С настоящим именем, рабочим телефоном, почтой и прочими контактами.
Сначала он подумал, что модель по привычке что-то нагаллюцинировала. Но на всякий случай пробил данные и офигел: человек существует, телефон живой, по WeChat добавляется, почта рабочая.
Это произошло ровно накануне громкого релиза Kimi K2.6, который Moonshot пиарит как новый опенсорсный SOTA по кодингу: топовые цифры на SWE-Bench Pro, BrowseComp, HLE и длинный горизонт на 4000+ шагов.
Красивый лаунч, презентация, бенчмарки и тут же утечка чужих данных в проде.
По словам автора поста, продакт Kimi уже списался с владельцем резюме и сейчас разруливает ситуацию с утечкой приватных данных.
https://x.com/yyyole/status/2046393481132900596
👀15🔥3 3
Forwarded from Diving Deep 🤿 • Василий Рассказов
🧑🏫 Небольшой pet-проект, или как обучать взрослых ИИ-навыкам без боли с меньшей болью (практический гайд)
Собрали для вас методичку и подход: как учить взрослых AI-навыкам на ваших тренингах, да и так по жизни. Кого как делить на группы, как выстраивать коммуникацию с ребятами разного уровня, какие инструменты подсунуть продвинутым. Три шага — погнали.
---
1️⃣ Методология обучения взрослых, «что делать»
Большой лонгрид-исследование про то, как взрослые учатся (это не как детей учить, спойлер: там прикольнее, наука целая оказалась…). Лучшие практики, фреймворки, как выстраивать обучение, чтобы не было «скучно как на алгебре в 8-м классе».
🔗 Андрагогика для бизнеса - https://rasskazov.io/blog/andragogy-handbook/ — 20–25 минут чтения
---
2️⃣ Кого как учить?
Это всё классно, но как делить людей на группы при обучении AI?
- Кого вести за ручку и поддерживать плотно (Педагогика)
- Кому давать свободу и самостоятельное обучение (Андрагогика)
- А кого вообще не трогать и просто ждать, что чел создаст что-то весёлое (Хьютагогика)
Сделали для этого тест. 10 вопросов, 3 минуты, на выходе — чёткое разделение на группы A / B / C с рекомендациями, что делать дальше. Берите для себя или для корпоративных тренингов и оценок на входе.
Работает как с телефона (можно давать прям перед тренингом пройти по ссылке с iPhone и узнать уровень), так и с компа — письмо людям разослать за день до тренинга, чтобы все уже с «буковкой своей» пришли.
🔗 Тест: ваш уровень владения ИИ-скиллами, клик - https://rasskazov.io/tools/ai-level-evaluation.html
---
3️⃣ Для продвинутых — TaskSpec
Если вы уже в группе B или C — ловите методологию постановки задач для AI. Доступна как навык / системный промпт. Просто подаёте на вход как markdown-файл, и Claude / Cursor / Codex помогут вам сформулировать хотелку
🔗 TaskSpec — как ставить задачи AI like a pro - https://rasskazov.io/blog/task-spec-ai-prompting/
---
📺 Лучшие каналы со знаниями и практиками, которые «выжили» после трёх чисток папки «Полезное» в ТГ чтобы давать людям
Полезные практические кейсы и глубокий личный опыт:
• @tsingular — агенты, OpenClaw, Hermes, промпты
• @maxvotek — самый крутой опыт осмысления ИИ на каждый день, свои сетапы и подходы
• @countwithsasha — самые практичные рекомендации для продвинутых, особенно рекомендую
#обучение #AI #андрагогика #методологии #педагогика
---
@rasskazov_io_channel
Закончили тут мини-проект с образовательной командой одной жёлтой и пернатой торговой сети 💛 (пасиб, ребят)
Собрали для вас методичку и подход: как учить взрослых AI-навыкам на ваших тренингах, да и так по жизни. Кого как делить на группы, как выстраивать коммуникацию с ребятами разного уровня, какие инструменты подсунуть продвинутым. Три шага — погнали.
---
1️⃣ Методология обучения взрослых, «что делать»
Большой лонгрид-исследование про то, как взрослые учатся (это не как детей учить, спойлер: там прикольнее, наука целая оказалась…). Лучшие практики, фреймворки, как выстраивать обучение, чтобы не было «скучно как на алгебре в 8-м классе».
💡 Совет: скормите эту статью вашему Claude или Cursor при подготовке образовательных материалов и презентаций. Поможет выстроить коммуникацию по современным фреймворкам — PAH (ПиЭйЭйч читается, не благодарите) Continuum и таксономии Блума (это и есть андрагогика, наука обучения взрослых).
🔗 Андрагогика для бизнеса - https://rasskazov.io/blog/andragogy-handbook/ — 20–25 минут чтения
---
2️⃣ Кого как учить?
Это всё классно, но как делить людей на группы при обучении AI?
- Кого вести за ручку и поддерживать плотно (Педагогика)
- Кому давать свободу и самостоятельное обучение (Андрагогика)
- А кого вообще не трогать и просто ждать, что чел создаст что-то весёлое (Хьютагогика)
Сделали для этого тест. 10 вопросов, 3 минуты, на выходе — чёткое разделение на группы A / B / C с рекомендациями, что делать дальше. Берите для себя или для корпоративных тренингов и оценок на входе.
Работает как с телефона (можно давать прям перед тренингом пройти по ссылке с iPhone и узнать уровень), так и с компа — письмо людям разослать за день до тренинга, чтобы все уже с «буковкой своей» пришли.
🔗 Тест: ваш уровень владения ИИ-скиллами, клик - https://rasskazov.io/tools/ai-level-evaluation.html
---
3️⃣ Для продвинутых — TaskSpec
Если вы уже в группе B или C — ловите методологию постановки задач для AI. Доступна как навык / системный промпт. Просто подаёте на вход как markdown-файл, и Claude / Cursor / Codex помогут вам сформулировать хотелку
Для тренеров: через этот промпт вы можете готовить большие и сложные демо, которые сможете показывать на митапах и воркшопах), так что «забирайте».
🔗 TaskSpec — как ставить задачи AI like a pro - https://rasskazov.io/blog/task-spec-ai-prompting/
---
📺 Лучшие каналы со знаниями и практиками, которые «выжили» после трёх чисток папки «Полезное» в ТГ чтобы давать людям
Полезные практические кейсы и глубокий личный опыт:
• @tsingular — агенты, OpenClaw, Hermes, промпты
• @maxvotek — самый крутой опыт осмысления ИИ на каждый день, свои сетапы и подходы
• @countwithsasha — самые практичные рекомендации для продвинутых, особенно рекомендую
Поделитесь постом с коллегой, который собрался учить команду AI — сэкономите ему месяц подготовки🫡
#обучение #AI #андрагогика #методологии #педагогика
---
@rasskazov_io_channel
🔥7👀7❤4🆒2✍1
GPT Image 2 вышел.
Выкидываем NanoBanana2
Найдёте хоть одну ошибку? я не нашел..
highrez в комментарии
промпт:
#OpenAI #Image
———
@tsingular
Выкидываем NanoBanana2
Найдёте хоть одну ошибку? я не нашел..
highrez в комментарии
промпт:
нарисуй инструкцию к GPT Image 2 русским текстом в виде бесконечного фрактального узора инфографики в стиле киберпанк хохломы
#OpenAI #Image
———
@tsingular
🔥42❤6🏆5⚡3🤔1
This media is not supported in your browser
VIEW IN TELEGRAM
Hugging Face выпустила ml-intern — ИИ-стажёра для пост-обучения LLM
Hugging Face опубликовали ml-intern — автономного агента на базе их фреймворка smolagents, который заменяет исследовательский цикл пост-обучения. Одной команды достаточно и агент сам найдет статьи, подберет датасеты, запустит обучение (на вашем железе или на облачном от HF), диагностирует ошибки и переобучит модели, если необходимо.
🧪 Цикл работы: arXiv → чтение методик → поиск датасетов на HF Hub → инспекция качества → реформатирование → запуск обучения (локально или через HF Jobs) → чтение логов → диагноз ошибок (reward collapse в RLHF, переобучение) → повтор. Всё без человека.
📊 Результат на PostTrainBench: Qwen3-1.7B base (10% GPQA) → 32% за 10 часов на одном H100. 27.5% достигнуто за 3 часа. Claude Code, для сравнения, на том же бенчмарке — 22.99%.
Превышение на 9 процентных пунктов от модели в 4 раза меньше Gemma-3-4B (33% SOTA).
🛠 Архитектура: smolagents + ToolRouter (документация HF, репозитории, датасеты, papers, GitHub Code Search, sandbox, MCP-серверы) + ContextManager с авто-компрессией на 170K токенов + Doom Loop Detector (детекция зацикливаний с инъекцией корректирующих промптов).
Модели: Claude Opus 4.6 по умолчанию, через litellm!! Можно заменитьна свои.
📡 Trackio: Встроенный трекер экспериментов на HF Hub — открытая альтернатива Weights & Biases. Логи, метрики, артефакты — всё привязано к репозиторию модели.
⚡️ Режимы: интерактивный (чат) и headless (одна команда, auto-approve).
💼 Зачем бизнесу: Пост-обучение — самый трудоёмкий этап в продакшене LLM. ml-intern автоматизирует рутину, которая занимает дни у ML-инженеров. Результат: 32% на GPQA с 1.7B моделью за 10 часов. Один H100, ноль ручного труда.
🔮 Будущее: Агенты, которые сами читают статьи и улучшают модели — это следующий шаг после coding-агентов. HF уже использует ml-intern в своём post-training процессе.
ML интерн как часть CI/CD процесса или как агентский навык.
Агентизация профессий происходит на наших глазах.
#HuggingFace #ml-intern #smolagents #LLM #постобучение #ИИ #агенты
------
@tsingular
Hugging Face опубликовали ml-intern — автономного агента на базе их фреймворка smolagents, который заменяет исследовательский цикл пост-обучения. Одной команды достаточно и агент сам найдет статьи, подберет датасеты, запустит обучение (на вашем железе или на облачном от HF), диагностирует ошибки и переобучит модели, если необходимо.
🧪 Цикл работы: arXiv → чтение методик → поиск датасетов на HF Hub → инспекция качества → реформатирование → запуск обучения (локально или через HF Jobs) → чтение логов → диагноз ошибок (reward collapse в RLHF, переобучение) → повтор. Всё без человека.
📊 Результат на PostTrainBench: Qwen3-1.7B base (10% GPQA) → 32% за 10 часов на одном H100. 27.5% достигнуто за 3 часа. Claude Code, для сравнения, на том же бенчмарке — 22.99%.
Превышение на 9 процентных пунктов от модели в 4 раза меньше Gemma-3-4B (33% SOTA).
🛠 Архитектура: smolagents + ToolRouter (документация HF, репозитории, датасеты, papers, GitHub Code Search, sandbox, MCP-серверы) + ContextManager с авто-компрессией на 170K токенов + Doom Loop Detector (детекция зацикливаний с инъекцией корректирующих промптов).
Модели: Claude Opus 4.6 по умолчанию, через litellm!! Можно заменитьна свои.
📡 Trackio: Встроенный трекер экспериментов на HF Hub — открытая альтернатива Weights & Biases. Логи, метрики, артефакты — всё привязано к репозиторию модели.
⚡️ Режимы: интерактивный (чат) и headless (одна команда, auto-approve).
ml-intern "fine-tune llama on my dataset" — и агент начинает работать.💼 Зачем бизнесу: Пост-обучение — самый трудоёмкий этап в продакшене LLM. ml-intern автоматизирует рутину, которая занимает дни у ML-инженеров. Результат: 32% на GPQA с 1.7B моделью за 10 часов. Один H100, ноль ручного труда.
🔮 Будущее: Агенты, которые сами читают статьи и улучшают модели — это следующий шаг после coding-агентов. HF уже использует ml-intern в своём post-training процессе.
ML интерн как часть CI/CD процесса или как агентский навык.
Агентизация профессий происходит на наших глазах.
#HuggingFace #ml-intern #smolagents #LLM #постобучение #ИИ #агенты
------
@tsingular
✍8❤3🔥3⚡2👏1
Вы не поверите, но у нас новый навык дизайнера.
На этот раз Google Stich.
https://github.com/google-labs-code/design.md
Скоро весь интернет будет красивым по умолчанию. :)
#skills #stitch #Google
———
@tsingular
На этот раз Google Stich.
https://github.com/google-labs-code/design.md
Скоро весь интернет будет красивым по умолчанию. :)
#skills #stitch #Google
———
@tsingular
🔥10❤6⚡2
This media is not supported in your browser
VIEW IN TELEGRAM
Google открывает AI Studio для подписчиков Pro и Ultra
Google расширил лимиты подписчикам платных тарифов AI Pro и Ultra в AI Studio. Плюсом открыл доступ к моделям Nano Banana Pro и Gemini Pro без отдельной настройки API-ключей.
🚀 Прототипирование без проблем: Раньше для экспериментов нужен был API-ключ и отслеживание расходов. Теперь подписчики Google One AI получают AI Studio как часть пакета — идея превращается в приложение за минуты.
⚡️ Модельная линейка: Nano Banana Pro + Gemini Pro доступны сразу. Nano для edge-задач и мобильных приложений, Gemini Pro для сложных мультимодальных пайплайнов.
💳 Billing bridge: Те, кто выбрал free tier, теперь могут перейти на Google AI plan без интеграции платёжной системы. Предсказуемые затраты для прототипирования, но для production по-прежнему рекомендуются pay-per-request API keys.
На фоне того, что Антропик вырезал claudecode из дешёвой подписки для новых подписчиков - это прям огонь.
#Google #AIStudio #Gemini #dev
───
@tsingular
Google расширил лимиты подписчикам платных тарифов AI Pro и Ultra в AI Studio. Плюсом открыл доступ к моделям Nano Banana Pro и Gemini Pro без отдельной настройки API-ключей.
🚀 Прототипирование без проблем: Раньше для экспериментов нужен был API-ключ и отслеживание расходов. Теперь подписчики Google One AI получают AI Studio как часть пакета — идея превращается в приложение за минуты.
⚡️ Модельная линейка: Nano Banana Pro + Gemini Pro доступны сразу. Nano для edge-задач и мобильных приложений, Gemini Pro для сложных мультимодальных пайплайнов.
💳 Billing bridge: Те, кто выбрал free tier, теперь могут перейти на Google AI plan без интеграции платёжной системы. Предсказуемые затраты для прототипирования, но для production по-прежнему рекомендуются pay-per-request API keys.
На фоне того, что Антропик вырезал claudecode из дешёвой подписки для новых подписчиков - это прям огонь.
#Google #AIStudio #Gemini #dev
───
@tsingular
👍8🔥6⚡3❤1
💀 Anthropic Mythos: Несанкционированная группа получила доступ к самой защищаемой модели мира
Bloomberg сообщает: приватный онлайн-форум взломан через подрядчика третьей стороны.
⚙️ Вектор атаки: Группа из Discord-сервера, специализирующегося на незапущенных моделях, использовала комбинацию методов: анализ публичных сервисов Anthropic (GitHub), угадывание формата URL по паттернам других моделей, и ключевое — эксплуатация прав доступа сотрудника подрядчика.
Социальная инженерия + OSINT + инсайд.
🔍 Позиция Anthropic: Компания подтвердила расследование, но заявила об отсутствии доказательств влияния на собственные системы. Форумчане утверждают, что используют Mythos «для экспериментов, а не для злонамеренных действий».
Утешение сомнительное: доступ уже есть, мотивация может смениться быстро.
Пока из эффектов Мифоса на безопасность только утечки. С момента появления и до сих пор. Когда уже пользу начнут извлекать хотя бы для себя?!
#Anthropic #Mythos #кибербезопасность #AI #утечки #ProjectGlasswing #cybersecurity
───
@tsingular
Bloomberg сообщает: приватный онлайн-форум взломан через подрядчика третьей стороны.
⚙️ Вектор атаки: Группа из Discord-сервера, специализирующегося на незапущенных моделях, использовала комбинацию методов: анализ публичных сервисов Anthropic (GitHub), угадывание формата URL по паттернам других моделей, и ключевое — эксплуатация прав доступа сотрудника подрядчика.
Социальная инженерия + OSINT + инсайд.
🔍 Позиция Anthropic: Компания подтвердила расследование, но заявила об отсутствии доказательств влияния на собственные системы. Форумчане утверждают, что используют Mythos «для экспериментов, а не для злонамеренных действий».
Утешение сомнительное: доступ уже есть, мотивация может смениться быстро.
Пока из эффектов Мифоса на безопасность только утечки. С момента появления и до сих пор. Когда уже пользу начнут извлекать хотя бы для себя?!
#Anthropic #Mythos #кибербезопасность #AI #утечки #ProjectGlasswing #cybersecurity
───
@tsingular
👍6👻3⚡2😁2❤1
Kimi-k2.6 через ollama в 8 раз медленнее, чем glm-5.1
при этом замечены смысловые неточности в генерируемом русском тексте.
Может она и хороша для программирования и для агентской работы, но точно не быстрее и точно не для русского языка.
#kimi #glm #ollama
———
@tsingular
при этом замечены смысловые неточности в генерируемом русском тексте.
Может она и хороша для программирования и для агентской работы, но точно не быстрее и точно не для русского языка.
#kimi #glm #ollama
———
@tsingular
✍11💯3⚡2😭2👍1
SpaceX договорился купить Cursor за $60 млрд или заплатить $10 млрд за партнёрство
SpaceX объявил сделку с Cursor, платформой для AI-кодинга. Условие: либо приобрести стартап за $60 млрд позже в этом году, либо выплатить $10 млрд за совместную работу. Объявление приурочено к грядущему IPO SpaceX, которое готовится стать крупнейшим в истории.
🚀 Цена вопроса: Cursor недавно вёл раунд на $2 млрд при оценке $50 млрд (Andreessen Horowitz, Nvidia, Thrive Capital). SpaceX предлагает премию в 20% к этой оценке за полный контроль, либо $10 млрд за партнёрство.
Это не стандартная breakup fee, а инвестиция в совместную разработку моделей.
⚡️ Синергия инфраструктуры: SpaceX объединит продукт Cursor и его аудиторию из экспертных инженеров с суперкомпьютером Colossus (миллион эквивалентов H100) в Мемфисе.
Цель — «самые полезные модели в мире». Musk получает доступ к лидирующему инструменту vibe coding, Cursor — доступ к вычислительным мощностям, которых нет ни у одного конкурента.
А главное, - сможет тренировать свои модели на логах разработки и ответах моделей конкурентов!
🔀 Корпоративная матрёшка: SpaceX уже поглотил xAI в феврале (оценка сделки $1.25 трлн). Теперь Cursor может стать частью этого конгломерата. Два руководителя инжиниринга Cursor (Andrew Milich и Jason Ginsberg) присоединились к SpaceX ещё в марте. Сделка выглядит как заранее спланированная интеграция, а не импульсивное приобретение.
💼 Зачем бизнесу: Рынок AI-инструментов для разработки накаляется. OpenAI выпустил Codex, Google создал «ударную группу» под руководством Сергея Брина для догона Anthropic, Anthropic развивает Claude для кодинга. Musk покупает готовую аудиторию и продукт вместо конструирования конкурента с нуля. AI-кодинг становится стратегическим активом уровня M&A, который требует поглощений и интеграций.
🔮 Будущее: Если IPO SpaceX пройдёт при оценке ~$1.75 трлн с привлечением $75 млрд, Cursor станет внутренним AI-ядром публичной компании. Мы увидим интеграцию Grok + Cursor + SpaceX: код для спутников, нейросети для анализа данных полётов, AI-ассистенты для инженеров. Экосистема Musk превращается в вертикально интегрированного AI-гиганта, где каждый актив подпитывает остальные.
#SpaceX #Cursor #xAI #ElonMusk #IPO #AI #кодинг #M&A #Colossus
───
@tsingular
SpaceX объявил сделку с Cursor, платформой для AI-кодинга. Условие: либо приобрести стартап за $60 млрд позже в этом году, либо выплатить $10 млрд за совместную работу. Объявление приурочено к грядущему IPO SpaceX, которое готовится стать крупнейшим в истории.
🚀 Цена вопроса: Cursor недавно вёл раунд на $2 млрд при оценке $50 млрд (Andreessen Horowitz, Nvidia, Thrive Capital). SpaceX предлагает премию в 20% к этой оценке за полный контроль, либо $10 млрд за партнёрство.
Это не стандартная breakup fee, а инвестиция в совместную разработку моделей.
⚡️ Синергия инфраструктуры: SpaceX объединит продукт Cursor и его аудиторию из экспертных инженеров с суперкомпьютером Colossus (миллион эквивалентов H100) в Мемфисе.
Цель — «самые полезные модели в мире». Musk получает доступ к лидирующему инструменту vibe coding, Cursor — доступ к вычислительным мощностям, которых нет ни у одного конкурента.
А главное, - сможет тренировать свои модели на логах разработки и ответах моделей конкурентов!
🔀 Корпоративная матрёшка: SpaceX уже поглотил xAI в феврале (оценка сделки $1.25 трлн). Теперь Cursor может стать частью этого конгломерата. Два руководителя инжиниринга Cursor (Andrew Milich и Jason Ginsberg) присоединились к SpaceX ещё в марте. Сделка выглядит как заранее спланированная интеграция, а не импульсивное приобретение.
💼 Зачем бизнесу: Рынок AI-инструментов для разработки накаляется. OpenAI выпустил Codex, Google создал «ударную группу» под руководством Сергея Брина для догона Anthropic, Anthropic развивает Claude для кодинга. Musk покупает готовую аудиторию и продукт вместо конструирования конкурента с нуля. AI-кодинг становится стратегическим активом уровня M&A, который требует поглощений и интеграций.
🔮 Будущее: Если IPO SpaceX пройдёт при оценке ~$1.75 трлн с привлечением $75 млрд, Cursor станет внутренним AI-ядром публичной компании. Мы увидим интеграцию Grok + Cursor + SpaceX: код для спутников, нейросети для анализа данных полётов, AI-ассистенты для инженеров. Экосистема Musk превращается в вертикально интегрированного AI-гиганта, где каждый актив подпитывает остальные.
#SpaceX #Cursor #xAI #ElonMusk #IPO #AI #кодинг #M&A #Colossus
───
@tsingular
🔥11⚡6❤3🏆1
Геймдев можно агентизировать смело.
ассеты можно генерить автоматом и не переживать за косяки
по шаблону
#Image #GPT #gamedev
———
@tsingular
ассеты можно генерить автоматом и не переживать за косяки
по шаблону
#Image #GPT #gamedev
———
@tsingular
🔥17 7⚡1✍1😐1
Forwarded from Russian OSINT
Исследователь Александр Ханфф обнаружил, что приложение Claude Desktop для macOS от компании Anthropic тайно и без согласия пользователей устанавливает незадокументированный мост Native Messaging.В ходе отладки он нашел в папке своего браузера
com.anthropic.claude_browser_extension.json), который заранее дает разрешение трем конкретным расширениям chrome-native-host) вне защищенной «песочницы» браузера на уровне привилегий пользователя. Утверждается, что скрытая установка бэкдора происходит в момент установки десктопного приложения, даже если пользователь никогда не устанавливал сами браузерные расширения Claude.При установке и запуске Claude Desktop (macOS) приложение автоматически (без какого-либо уведомления, галочки или запроса согласия) создаёт в папках браузеров файл: ~/Library/Application Support/[Browser]/NativeMessagingHosts/com.anthropic.claude_browser_extension.json
— возмущается исследователь.
Приложение целенаправленно и массово внедряет этот манифест в системные пути семи различных браузеров на базе Chromium (Chrome, Edge, Brave, Arc, Chromium, Vivaldi, Opera), причем создает нужные папки даже для тех браузеров, которые вообще не установлены на компьютере. Журналы (логи) самого Claude Desktop подтверждают эти действия.
В случае активации хотя бы одним из указанных расширений этот мост предоставляет Anthropic пугающе широкие возможности по контролю над браузером. Согласно собственной документации компании, функционал включает использование текущих авторизованных сессий пользователя (без необходимости повторного входа на сайты), чтение отрендеренного DOM-дерева и автоматическое заполнение форм. На практике это означает, что мост способен считывать в виде простого текста пароли в момент их ввода, номера кредитных карт и расшифрованные личные сообщения прямо с экрана, обходя защиту HTTPS и сводя на нет изоляцию между различными пользовательскими профилями.
По мнению исследователя, наличие такого «спящего» бэкдора создает критические угрозы безопасности компьютера, значительно расширяя поверхность атаки. Если хотя бы одно из трех разрешенных расширений будет скомпрометировано (например, через атаку на цепочку поставок, взлом аккаунта разработчика или вредоносное обновление), злоумышленники получат прямой доступ к выполнению кода вне песочницы браузера на устройстве жертвы. Ситуация усугубляется тем, что по собственным данным Anthropic расширение Claude для Chrome уязвимо к атакам типа «инъекция промпта» (с вероятностью успеха до 23,6%), что дает потенциальный вектор атаки от вредоносного веб-сайта прямо к операционной системе.
⚖️Ханфф утверждает, что подобные действия нарушают статью 5(3) Директивы ЕС о конфиденциальности электронных коммуникаций (ePrivacy Directive), которая требует получения явного согласия пользователя перед сохранением информации на его устройстве, за исключением случаев, когда это строго необходимо для предоставления услуги. Исследователь пока не подал официальную жалобу в регулирующие органы, но заявляет, что планирует сделать это, если Anthropic не примет должные меры.
👆Anthropic пока никак не отреагировали.
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from GPT/ChatGPT/AI Central Александра Горного
Услышал на звонке:
— У меня было два правильных решения в жизни. Жениться и скачать Claude Code.
— У меня было два правильных решения в жизни. Жениться и скачать Claude Code.
😁20✍5🔥4
Forwarded from Анализ данных (Data analysis)
This media is not supported in your browser
VIEW IN TELEGRAM
Большинство думает, что проблема в LLM или плохом промпте. На практике всё проще. Модель не видит правильные связи между таблицами.
Пример. Запрос вроде “какие издатели получили выплаты выше 5000”. Векторный поиск подтянет publisher и royalty_ledger. Всё логично. Но пропустит vendor_agreement, ту самую таблицу, которая их связывает.
В итоге SQL выглядит валидно. Но возвращает ноль строк.
Это системная проблема всех решений на embeddings. Они ищут по смыслу, но не понимают структуру базы.
Нормальный подход другой. Схему нужно рассматривать как граф.
Таблицы это узлы. Foreign keys это связи. Запрос решается не поиском похожих слов, а обходом графа и поиском join-пути.
Именно так работает QueryWeaver.
Он строит граф базы и при запросе сам находит весь путь, включая промежуточные таблицы. Даже если это цепочка из нескольких шагов.
На практике это выглядит так. В тесте с базой на 60 таблиц он разобрал 5-шаговый запрос через цепочку superpower → capability_matrix → stakeholder_registry → resource_requisition → budget_allocation.
Векторный поиск увидел только начало и конец. Всё между ними потерял, потому что “stakeholder” никак не связан по смыслу с “superpower”.
Графу на это всё равно. Он просто находит единственный путь между сущностями.
И это меняет всё.
Open-source, можно развернуть у себя и наконец получить text-to-SQL, который реально работает.
https://github.com/FalkorDB/QueryWeaver
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥8✍6⚡3
Forwarded from Анализ данных (Data analysis)
Kimi K2.6 теперь можно запускать почти на чём угодно
Модель на 1 триллион параметров ужали до 340 ГБ через Dynamic GGUF. Ключевые слои оставили в более высокой точности, остальное оптимизировали.
В итоге получился компромисс, который реально работает.
Больше не нужен только кластер на сотни GPU.
Сейчас это выглядит так.
Запуск на CPU, GPU и даже SSD-сетапах.
Скорость больше 40 токенов в секунду на конфигурациях с ~350 ГБ RAM или VRAM.
Полная точность доступна при 610 ГБ.
По сути, это один из первых кейсов, когда модель такого масштаба становится доступной вне датацентров.
Если тренд продолжится, граница между локальными и облачными моделями начнёт быстро стираться.
Гайд: https://unsloth.ai/docs/models/kimi-k2.6
GGUF: https://huggingface.co/unsloth/Kimi-K2.6-GGUF
Модель на 1 триллион параметров ужали до 340 ГБ через Dynamic GGUF. Ключевые слои оставили в более высокой точности, остальное оптимизировали.
В итоге получился компромисс, который реально работает.
Больше не нужен только кластер на сотни GPU.
Сейчас это выглядит так.
Запуск на CPU, GPU и даже SSD-сетапах.
Скорость больше 40 токенов в секунду на конфигурациях с ~350 ГБ RAM или VRAM.
Полная точность доступна при 610 ГБ.
По сути, это один из первых кейсов, когда модель такого масштаба становится доступной вне датацентров.
Если тренд продолжится, граница между локальными и облачными моделями начнёт быстро стираться.
Гайд: https://unsloth.ai/docs/models/kimi-k2.6
GGUF: https://huggingface.co/unsloth/Kimi-K2.6-GGUF
🔥19 7⚡2😁1