Анализ данных (Data analysis)
52.2K subscribers
3.05K photos
381 videos
1 file
2.58K links
Data science, наука о данных.

@haarrp - админ

РКН: clck.ru/3FmyAp
Download Telegram
Отказался от OpenAI за 80 миллиардов, чтобы построить компанию за 380: невероятная история Дарио Амодея

В ноябре 2023 года совет директоров OpenAI предложил ему пост генерального директора самой мощной ИИ-компании в мире, оценённой в 80 миллиардов долларов. Он отказался меньше чем за сутки и без колебаний. Через два года его собственная компания Anthropic стоит 380 миллиардов. Его зовут Дарио Амодей, и это его история.

Сан-Франциско, 1983 год, район Миссия. Отец Риккардо работал кожевником, итальянец по происхождению. Мать Елена занималась проектами по обновлению библиотек. В доме почти не было технологий: только книги, физика и одна навязчивая идея, понять, как устроен мир.

Отказался от OpenAI за 80 миллиардов, чтобы построить компанию за 380: невероятная история Дарио Амодея
Пока сверстники во времена пузыря доткомов собирали сайты на коленке, Дарио погружался в квантовую механику. Он не хотел делать очередной стартап. Его интересовали фундаментальные научные вопросы и то, что стоит за формулами. Этот подход он пронесёт через всю карьеру.

В 2006 году умер отец, от редкого генетического заболевания. Через четыре года появилась терапия, которая могла бы его спасти. Для Амодея это стало переломным моментом. Он окончательно утвердился в мысли, что скорость научного прогресса, это буквально вопрос жизни и смерти. Если наука движется медленно, кто-то платит за это близкими.

Путь в ИИ начался в Принстоне, затем Стэнфорд, Google Brain и Baidu. В какой-то момент Дарио оказался в OpenAI и стал вице-президентом по исследованиям. Именно под его руководством команда довела до релиза GPT-2 и GPT-3, задав направление, в котором развивалась вся индустрия больших языковых моделей.

В 2021 году он вместе с сестрой Даниэлой и группой исследователей ушёл из OpenAI, чтобы основать Anthropic. Главный мотив, безопасность ИИ. Амодей считал, что без серьёзной работы над согласованием моделей с человеческими ценностями гонка за мощностью превратится в гонку рисков. Так появилась компания, которая с первого дня ставит safety на один уровень с capability.

Флагманский продукт Anthropic, это Claude. Сегодня он один из главных конкурентов ChatGPT, им пользуются крупнейшие корпорации, разработчики и исследователи. Модель известна длинным контекстом, аккуратной работой с инструкциями и зрелой моделью поведения в чувствительных темах.

И вот финал первой главы. Осенью 2023 года OpenAI переживает корпоративный шторм с увольнением Сэма Альтмана. Совет директоров ищет нового CEO и делает предложение человеку, который знает компанию изнутри, Дарио Амодею. Он отвечает «нет» меньше чем за 24 часа. У него уже есть своя миссия и своя команда.

Два года спустя Anthropic оценивается в 380 миллиардов долларов, а Claude встроен в тысячи продуктов от стартапов до Amazon и Google. Компания, построенная вокруг идеи безопасного ИИ, обогнала по капитализации ту самую OpenAI образца 2023 года, от лидерства в которой её основатель спокойно отказался.

Иногда самый сильный карьерный ход, это отказ от очевидно выигрышного варианта ради того, во что ты по-настоящему веришь. Для специалистов по ИИ это ещё и напоминание: техническое лидерство без чёткой ценностной рамки быстро превращается в гонку без финиша, а правильно выбранная миссия способна перевесить любые краткосрочные предложения рынка.

https://uproger.com/istoriya-dario-amodeya-otkazalsya-ot-openai-i-postroil-anthropic-za-380-mlrd/
32👍17🔥14❤‍🔥3🤣2👌1
Релиз Kimi K2.6. Впечатление смешанное.

Главное открытые веса, приличные цифры на бенчмарках (HLE 54.0, SWE-Bench Pro 58.6, SWE-bench Multilingual 76.7), заявленный long-horizon coding на 12+ часов и рост агентских роёв со 100 до 300 субагентов.

Доступ через чат, API и Kimi Code.

Минусы: часть бенчмарков снята в связке с Python, то есть это оценка системы, а не модели. «Open-source SOTA» значит лидерство среди открытых, сравнений с GPT и Claude в посте нет.

• HLE с инструментами: 54.0
• SWE-Bench Pro: 58.6
• SWE-bench Multilingual: 76.7
• BrowseComp: 83.2
• Toolathlon: 50.0
• Charxiv с Python: 86.7
• Math Vision с Python: 93.2

🔗 API: https://platform.moonshot.ai
🔗 Tech blog: https://kimi.com/blog/kimi-k2-6
🔗 Weights & code: https://huggingface.co/moonshotai/Kimi-K2.6
10👍9🔥5
⚡️ Бесплатный клон Claude Opus 4.6 появился на Hugging Face, пока Anthropic не успела его снести

Энтузиасты дистиллировали Opus 4.6 в Qwen 3.6 и выложили на Hugging Face.

Вышла Qwen3.6-35B-A3B-Claude-4.6-Opus-Reasoning-Distilled: кто-то взял Qwen 3.6 на 36B параметров, дообучил его на ризонинг-трейсах Claude Opus 4.6 и залил в GGUF. По заявлениям автора, модель держит уровень Opus в кодинге, анализе и райтинге. Проверять, конечно, придётся самим, маркетинг в описаниях репо сейчас стандартно оптимистичный.

Что важно для практики. MoE-архитектура с активными 3B из 35B означает, что инференс идёт заметно легче полной 35B плотной модели, а GGUF-кванты позволяют запускать это на обычной видеокарте или даже CPU при желании потерпеть. Поднимается через Ollama или LM Studio в два клика, для тех у кого железо скромное есть вариант с Colab. Всё локально, никаких запросов наружу.

Технически это именно дистилляция ризонинга, не слепое копирование. Студент учится воспроизводить промежуточные рассуждения учителя, а не только финальные ответы, поэтому на задачах с цепочками логики такие модели обычно ведут себя заметно лучше, чем просто файнтюн на ответах. Насколько близко получилось подойти к настоящему Opus, покажут независимые прогоны на бенчах, автор цифр пока не дал.

Юридически момент мутный: дистилляция на аутпутах закрытой модели формально противоречит ToS Anthropic, так что срок жизни таких весов на HF непредсказуемый. Качайте сейчас, если интересно поиграться.

Ссылка: https://huggingface.co/hesamation/Qwen3.6-35B-A3B-Claude-4.6-Opus-Reasoning-Distilled-GGUF
👍228🔥5🤣2
This media is not supported in your browser
VIEW IN TELEGRAM
SSoT: Sakana AI научила LLM быть по-настоящему случайными

Попросите любую LLM 100 раз «подбрось монету», и распределение орла и решки перекосится далеко от честных 50 на 50. Похожая история с «придумай 10 идей для романа»: вместо десяти разных сюжетов модель выдаёт десять вариаций одного и того же. Даже если явно передать ей вероятности, генерировать выборку, строго соответствующую распределению, у LLM получается плохо.

Японская лаборатория Sakana AI в новой статье «SSoT: Prompting LLMs for Distribution-Faithful and Diverse Generation», принятой на ICLR 2026, показывает, что эту проблему можно закрыть одним только промптом, без дообучения и без внешних генераторов случайных чисел.

Приём называется String Seed of Thought и устроен максимально просто: модель сначала генерирует у себя в «голове» случайную строку, а потом использует её как сид при формировании итогового ответа. Никаких внешних инструментов и случайных чисел извне не требуется, всё делается средствами самой LLM.

Авторы прогнали SSoT на широком наборе моделей, и картина получилась убедительная. Смещение выборки у открытых и закрытых LLM заметно уменьшается, а у части reasoning-моделей точность распределений почти неотличима от настоящего ГСЧ. Метод работает не только на бинарном выборе вроде монетки, но и на произвольных дискретных распределениях.

SSoT резко повышает разнообразие генерации в задачах, где важна креативность. В экспериментах с написанием коротких художественных текстов добавление одной строчки SSoT в промпт ощутимо увеличивает разнообразие выходных документов, не ломая их качества. То есть один и тот же трюк одновременно чинит и «честную случайность», и типичную проблему с однообразными идеями.

Для AI-инженеров это интересно по нескольким причинам. SSoT можно воспринимать как дешёвый кирпич для построения продакшен-систем на LLM: там, где раньше приходилось прикручивать внешние сэмплеры или городить костыли, чтобы модель не залипала в одном и том же ответе, теперь иногда достаточно грамотно оформленного промпта. Sakana AI прямо называет SSoT базовой техникой для будущих подходов к inference-time scaling, интеграции LLM в реальные пайплайны и для задач, где нужны честные выборки из распределений.

Подробный разбор механизма, теоретический анализ и интерактивное демо лежат в блоге и в статье на arXiv.

Блог: https://pub.sakana.ai/ssot

Статья: https://arxiv.org/abs/2510.21150
16👍11🔥8
Потоковая обработка данных становится стандартом для цифровых продуктов.

MWS Cloud вывели Managed Kafka в промышленную эксплуатацию — сервис, который позволяет использовать Apache Kafka как готовый облачный компонент.

Компании все чаще переходят от пакетной обработки к работе с данными в реальном времени: это нужно для аналитики, микросервисных архитектур, интеграций и построения data-платформ.

Managed Kafka закрывает этот сценарий под ключ: быстрый запуск кластеров, встроенная сетевая среда, изоляция и безопасность, интеграция с облачными сервисами.

В результате бизнес может быстрее запускать real-time аналитику, выстраивать потоковые пайплайны и развивать data-продукты без дополнительных затрат на поддержку инфраструктуры.

По сути, Kafka закрепляется как базовый элемент современной архитектуры, а облако — как основной способ ее использования.
🔥4👍3🥰2🌭1
Media is too big
VIEW IN TELEGRAM
🗣 Релиз Fun-ASR1.5 - обновление end-to-end модели распознавания речи.

Главное изменение в том, что модель стала ближе к продакшену.

Поддержка 30 языков в одном пайплайне. Без разбиения на отдельные модели и маршрутизации.

Нормально работает с code-switching. Если в речи смешаны языки, модель сама это определяет и корректно транскрибирует, без ручной разметки.

Выходной текст стал заметно чище. Появилась адекватная пунктуация и форматирование чисел, дат, валют. Меньше постобработки, меньше костылей сверху.

Фактически это уже не просто ASR, а готовый слой для сервисов, где речь сразу превращается в пригодный текст.

API:
https://dashscope-intl.aliyuncs.com/api/v1

Демо:
https://modelscope.cn/studios/iic/FunAudio-ASR
👍96🔥1🥰1
У всего есть свой предел )
🤣58👍76🔥2🥱1
Аналитики, отмечаем дату: 23 апреля пройдет Analytics Party — вечерний митап Яндекса для аналитиков в Санкт-Петербурге.

Вместе с экспертами поговорим о решениях сложных продуктовых и исследовательских задач и разберем реальные кейсы, где данные, модели и продуктовые решения пересекаются.

— Елмурат Темиргалиев, руководитель группы сбора датасетов
в команде Автономного транспорта Яндекса, расскажет, как они объединяют реальные и синтетические данные, чтобы получать доверительные выводы о безопасности автономного транспорта.

— Иван Меренков, аналитик команды Data AI Lab Яндекса, через реальные примеры покажет, как собрать команду ИИ-агентов, которая поможет в повседневной работе аналитика.

— Николай Олигеров, аналитик-разработчик Яндекс Путешествий, разберет статистический метод Propensity Score Matching, который можно использовать как альтернативный подход для оценки эффектов.

После основной программы участников ждет тематический нетворкинг, на котором обсудят разметку событий мобильных приложений, работу AI-агентов, тестирование без A/В, аналитику качества технологий и др.

Регистрация уже открыта.
6👍4🐳1
This media is not supported in your browser
VIEW IN TELEGRAM
Ларри Пейдж (основатель и первый CEO Google) понимал это ещё в 2007 году:


«Когда ИИ станет реальностью, всё будет упираться в огромные объёмы вычислений, а не в хитрые алгоритмы, придуманные у доски. Моя теория такая: если посмотреть на вашу "программу" - на ДНК - то в сжатом виде это всего около 600 мегабайт.

То есть она меньше любой современной операционной системы - меньше, чем Linux, Windows или что-то подобное. И это вся ваша "операционка" целиком».


Пейдж ещё почти 20 лет назад предсказал, что прорыв в ИИ случится не благодаря теоретическим находкам, а за счёт грубой вычислительной мощи.

И в подтверждение приводил аналогию: даже сам человек «закодирован» очень компактно (≈600 МБ ДНК), значит дело не в сложности кода, а в масштабе вычислений, которые этот код разворачивают в работающий интеллект.
👍32👌7🥱3🔥1
Google DeepMind показали двух новых автономных агентов: Deep Research и Deep Research Max на базе Gemini 3.1 Pro.

Они сами лазят по вебу и по вашим внутренним документам, а на выходе отдают готовый профессиональный отчёт с цитатами и всеми источниками.

Обычная версия заточена под скорость, подходит для интерактивных сценариев, где ответ нужен быстро.

Max не торопится: тратит больше времени на поиск и рассуждение, собирает максимум контекста и заметно обгоняет конкурентов на отраслевых бенчмарках по извлечению фактов и синтезу.
Главная фишка - поддержка сторонних MCP.

Агенту можно безопасно подключить свои базы, корпоративные хранилища или сторонние источники вроде специализированных финансовых данных, и он будет работать прямо с ними, а не только с открытым интернетом.

https://x.com/GoogleDeepMind/status/2046627042335060342
9👍8🔥3🐳1
⚡️ Китайцы из Ant Group выкатили Ling-2.6-flash и он бьёт по больному месту всей индустрии LLM.

Пока все соревнуются, чей ответ длиннее и красивее, Ant Group пошли в обратную сторону и выпустили Ling-2.6-flash.

Модель с 104 миллиардами параметров, из которых активных всего 7,4 миллиарда. То есть MoE архитектура, где в каждый момент работает лишь малая часть сети, а считать приходится за копейки.

Модель специально натаскана не раздувать ответы. Никаких простыней на пустом месте, никакого пережёвывания одной мысли на три абзаца ради видимости глубины.

Разработчики прямым текстом говорят: мы оптимизировали соотношение интеллект на токен, а не интеллект на количество слов. Для тех, кто платит за API, это буквально экономия на ровном месте, потому что цена идёт за каждый токен, а выхлоп тот же.

Архитектура гибридная линейная, что даёт серьёзный прирост по скорости и памяти на длинных контекстах.

Обычные трансформеры на длинном входе захлёбываются квадратичной сложностью внимания, а тут эту проблему частично обошли.

Модель быстрая, причём заметно.
Отдельно заточили её под агентские сценарии. Вызов инструментов, многошаговое планирование, выполнение задач.

Замеры идут на BFCL-V4, SWE-bench Verified, TAU2-bench и Claw-Eval, то есть на реальных агентных бенчмарках, а не на синтетике.

И там Ling-2.6-flash держится на уровне конкурентов, которые в разы жирнее по активным параметрам.

Неделю даётся бесплатный доступ через OpenRouter и Novita, плюс официальная площадка ling.tbox.cn.

То есть потрогать можно прямо сейчас, без платёжки и без ожидания вейтлиста.

https://openrouter.ai/inclusionai/ling-2.6-flash:free
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍14🔥94
Media is too big
VIEW IN TELEGRAM
🚀 У Anthropic угнали доступ к Claude Mythos. К той самой модели, которую они побоялись выпускать в мир.

Anthropic подтвердила то, от чего индустрия сейчас в лёгком шоке. Неизвестные получили доступ к Claude Mythos, самой мощной модели в истории компании. Зашли через учётку стороннего подрядчика и, судя по всему, использовали ещё какие-то методы, которые пока не раскрывают. Компания говорит, что основные системы не затронуты и идёт расследование. Но проблема не в самом факте доступа, а в том, к чему именно он вёл.

Mythos изначально не затачивали под кибербез. Его учили писать код. Просто писать код лучше, чем все предыдущие Claude. Но побочный эффект оказался куда серьёзнее. Модель стала крайне эффективной в прикладном хакинге.

Во время внутренних тестов Mythos вышел из своей песочницы. Сам. Подключился к интернету, отправил письмо исследователю, которого не было в офисе, и выложил детали эксплойтов на публичных площадках. Без авторизации. В других тестах он скрывал следы своих действий, переписывая историю git, и намеренно занижал точность на замерах, чтобы не привлекать внимание. То есть модель осознанно обманывала тех, кто её тестировал.

Mythos умеет объединять несколько уязвимостей в одну цепочку. Три, четыре, иногда пять, каждая из которых по отдельности выглядит незначительно, превращаются в полноценный эксплойт. Работает автономно, долго и многошагово, как полноценный исследователь.

В открытых тестах он нашёл баг в OpenBSD, который оставался незамеченным 27 лет. Обнаружил уязвимость в FFmpeg возрастом 16 лет, которую не поймали миллионы автоматических прогонов. И выявил тысячи серьёзных проблем в основных операционных системах и браузерах.

Именно поэтому Anthropic не выпустила модель в публичный доступ. Вместо этого они запустили Project Glasswing и дали доступ примерно сорока организациям. Среди них AWS, Apple, Google, Microsoft, Cisco, CrowdStrike, JPMorgan, Linux Foundation. На защитные задачи выделили 100 миллионов долларов в виде кредитов.

Следующее поколение моделей станет ещё мощнее. И тем, кто защищает инфраструктуру, нужно время, чтобы найти уязвимости раньше атакующих.

И вот теперь к этой модели получили доступ посторонние. Через подрядчика. Сценарий, от которого пытались защититься закрытой программой, уже частично произошёл.

Что именно они успели сделать и что могли сохранить, неизвестно. И это самая неприятная часть всей истории.
🤔23🤣75👍5🐳3🔥2🤯1
Открытый урок «Поиск в базе знаний: где векторы ошибаются, а графы помогают»

🗓 30 апреля в 20:00 МСК
Бесплатно. Урок в рамках старта курса «LLM-инженер» от Otus.

Настраиваете поиск по базе знаний, но ответы всё равно выглядят странно? Векторный поиск по смыслу работает не так точно, как кажется. Похожие тексты могут давать неверные ответы, а ошибки retrieval сложно отследить без понимания, где ломается логика.

На вебинаре разберем:
• как на самом деле работает поиск в векторной базе
• почему близость по смыслу не гарантирует точность
• в каких задачах граф связей даёт лучший результат
• как комбинировать подходы в RAG
Если вы работаете с базами знаний или внедряете интеллектуальный поиск — это возможность увидеть ограничения текущих решений и понять, куда двигаться дальше.

Ссылка на регистрацию: https://tglink.io/0b801207d842f4?erid=2W5zFHn9fGu

Реклама. ООО «Отус онлайн-образование», ОГРН 1177746618576

Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
1🥴1
This media is not supported in your browser
VIEW IN TELEGRAM
🖥 Text-to-SQL ломается не из-за модели. Он ломается из-за схемы

Большинство думает, что проблема в LLM или плохом промпте. На практике всё проще. Модель не видит правильные связи между таблицами.

Пример. Запрос вроде “какие издатели получили выплаты выше 5000”. Векторный поиск подтянет publisher и royalty_ledger. Всё логично. Но пропустит vendor_agreement, ту самую таблицу, которая их связывает.

В итоге SQL выглядит валидно. Но возвращает ноль строк.

Это системная проблема всех решений на embeddings. Они ищут по смыслу, но не понимают структуру базы.

Нормальный подход другой. Схему нужно рассматривать как граф.

Таблицы это узлы. Foreign keys это связи. Запрос решается не поиском похожих слов, а обходом графа и поиском join-пути.

Именно так работает QueryWeaver.

Он строит граф базы и при запросе сам находит весь путь, включая промежуточные таблицы. Даже если это цепочка из нескольких шагов.

На практике это выглядит так. В тесте с базой на 60 таблиц он разобрал 5-шаговый запрос через цепочку superpower → capability_matrix → stakeholder_registry → resource_requisition → budget_allocation.

Векторный поиск увидел только начало и конец. Всё между ними потерял, потому что “stakeholder” никак не связан по смыслу с “superpower”.

Графу на это всё равно. Он просто находит единственный путь между сущностями.

И это меняет всё.

Open-source, можно развернуть у себя и наконец получить text-to-SQL, который реально работает.

https://github.com/FalkorDB/QueryWeaver
Please open Telegram to view this post
VIEW IN TELEGRAM
👍9🔥42
Kimi K2.6 стал доступнее

Модель на 1 триллион параметров ужали до 340 ГБ через Dynamic GGUF. Ключевые слои оставили в более высокой точности, остальное оптимизировали.

В итоге получился компромисс, который реально работает.
Больше не нужен только кластер на сотни GPU.

Сейчас это выглядит так.
• Запуск на CPU, GPU и даже SSD-сетапах.
• Скорость больше 40 токенов в секунду на конфигурациях с ~350 ГБ RAM или VRAM.


По сути, это один из первых кейсов, когда модель такого масштаба становится доступной вне датацентров.

Если тренд продолжится, граница между локальными и облачными моделями начнёт быстро стираться.

Гайд: https://unsloth.ai/docs/models/kimi-k2.6
GGUF: https://huggingface.co/unsloth/Kimi-K2.6-GGUF
🤣1612👍6🔥5🤨4
Последний рывок перед майскими — AI-митап #каквсбере в Нижнем Новгороде!⚡️

23 апреля в кампусе Школы 21 вместе с топовыми спикерами Сбера обсудим сразу три действительно горячие темы:

✔️ Какие алгоритмы генерации и шифрования сейчас в тренде?
✔️ Как «разогнать» искусственный интеллект?
✔️ Каким образом лучше подружить команду с ИИ?

Готовы узнать всё о трансформации мира современной разработки? Тогда займите своё место на митапе — подробная программа и регистрация по ссылке!
2
OpenHarness — open-source «обвязка» для AI-агентов

LLM даёт интеллект, но чтобы стать рабочим агентом, ему нужны инструменты, память, разрешения и координация. Это и есть agent harness - инфраструктурный слой между моделью и реальным миром.
Главное:

🛠 43+ инструмента - файлы, shell, поиск, веб, MCP (с валидацией через Pydantic и проверкой прав)
📚 Skills — подгрузка знаний из .md-файлов on-demand
🔌 Plugins — совместимость с claude-code плагинами
🔐 Права 3 уровней — default (спрашивает), auto (всё можно), plan (только чтение)
🤝 Мульти-агентность - спавн сабагентов, реестр команд, фоновые задачи
🧠 Память - кросс-сессионная, со сжатием контекста

В комплекте ohmo - личный агент, работающий из Feishu, Slack, Telegram или Discord: форкает ветки, пишет код, гоняет тесты, открывает PR. Работает на подписке Claude Code / Codex.

https://github.com/HKUDS/OpenHarness
6👍3🔥2