Data Secrets
89.1K subscribers
6.76K photos
738 videos
20 files
2.99K links
Главный по машинному обучению

Сотрудничество: @veron_28

РКН: clck.ru/3FY3GN
Download Telegram
DeepMind наняли философа для работы с машинным сознанием

Генри Шевлин – известный британский философ, PhD, специалист по когнитивной науке.

Основную часть своей карьеры он занимался философией человеческого разума, но последние его исследования затрагивают также возможности наличия сознания у ИИ, этические аспекты AGI, ментальность ИИ и риски его развития.

Короче, теперь подобные исследования он будет проводить в DeepMind. По его же словам, он займется подготовкой к AGI, машинным сознанием и отношениями между людьми и ИИ.

Вайб этой новости такой типа:
😁21759👍322411💯5🔥3🕊3🤔2🐳2
2026-й — это год, когда IT-шка переживает начало самой глубокой перестройки за последние 20 лет.

Каждый второй канал вещает о том, как Opus (или уже Mythos) закрывает джунов, агенты внедряются в бигтех, и что разработка больше не будет прежней.

Но что в этот момент происходит с руководителями?

А происходит вот что – рынок тихо меняет “условия контракта”. Потому что ожидания, инструменты и навыки не могут не меняться с контекстом того, что происходит в индустрии.

Возможно, AI и не заменит руководителей, но точно руководитель, который перестроился, заменит того, кто не захотел меняться.

Для этого Cтратоплан и решили провести конфу Управление’26, для тех, кто хочет свериться с реальностью и понять, какие компетенции и инструменты нужны, чтобы остаться востребованным сегодня и будущем.

Регистрация здесь: https://stratoplan-school.com/management/datas/

Участие – бесплатное, при подписке на каналы спикеров или за символическую сумму.

Вещать для вас будут: ex-CТО Bookmate и Pure, а также техдир T-Tech, фаундер NEWHR, AI Program Manager из G42, Venture Principal чеков 1-10M $ в AI-стартапы, ex-PM в IBM и ex-CIO Volvo, и ex-Associate Managing Consultant в MasterCard + тренеры Школы

Даты и формат – 20-23 апреля, онлайн (но будут доступны и записи)

Для кого — лидов, head of smth, СхО и фаундеров.
35😁29👍17🔥118🗿6🤨2🤯1👾1
Data Secrets
OpenAI пойдут точно по стопам Anthropic: они заканчивают разработку модели, которую выпустят только для ограниченного числа компаний Модель называется Spud (картошка). В конце марта слухи о ней уже ходили: The Information тогда сообщали, что OpenAI закончили…
Грег Брокман: «Мир переходит к экономике, основанной на вычислительных мощностях»

TL;DR: пошли прогревы перед выпуском той самой модели Spud. Брокман опубликовал большой пост про будущее и про то, что ждет экономику и нас на следующем витке развития ИИ.

Подготовили краткий перевод:

Мы наблюдаем своего рода ренессанс в разработке ПО: за последние полгода ИИ резко ускорил работу программистов и теперь движется к тому, чтобы так же трансформировать любую работу за компьютером.

Раньше человеку приходилось подстраиваться под машину – разбивать задачи и переводить намерения в инструкции. Теперь все меняется: компьютер все больше сам понимает цель и делает работу за вас. Масштаб и скорость решения задач начинают определяться доступным объёмом вычислений.

Трение исчезает: идеи можно проверять быстрее, браться за более смелые проекты. Маленькие команды делают то, что раньше требовало больших, а люди меньше управляют инструментами и больше сосредоточены на создании – и от этого в работу возвращается удовольствие.

Но это и серьезный сдвиг: будут меняться институты, профессии и привычные карьерные траектории. Важно учитывать риски и следить за тем, чтобы выгоды от ИИ распределялись широко, а не концентрировались у немногих.

Когда десять лет назад создавали OpenAI, такой момент казался возможным, но отдаленным. Сейчас он наступает раньше и в более интересной форме, чем ожидалось – например, уже видна новая волна предпринимательства. При этом мы все еще в самом начале.

Следующий этап – системы, которые лучше рассуждают, планируют и действуют за человека. В перспективе они могут ускорить науку и технологии и заметно повысить качество жизни, делая реализацию идей доступной для гораздо большего числа людей.


https://x.com/gdb/status/2043831031468568734?s=46&t=pKf_FxsPGBd_YMIWTA8xgg
69🔥32😁2213👍8🤔83🤯1👾1
OpenAI заявила, что Anthropic завышает свои доходы примерно на 8 млрд долларов

Совсем недавно появились новости о том, что Anthropic обогнал OpenAI по выручке. Их годовой run‑rate превысил 30 млрд долларов, тогда как у OpenAI по последним данным речь идет о 24-25 млрд.

Видимо, такие заявления заставили OpenAI серьезно заинтересоваться финансами конкурента, и вот теперь они заявляют, что Anthropic неправильно считает свои деньги 😐

Дисклеймер: конечно, заявляют они это не вслух. Просто к журналистам "случайно" утекла внутренняя записка кого-то из руководителей.

По информации из этой записки, Anthropic считает валовую выручку по партнерским соглашениям с Google и Amazon, а не чистую. То есть они якобы не вычитают долю облака. Отсюда образуется дыра, и если ее учесть, то у Anthropic (как чудесно выходит) годовой run‑rate все еще на пару миллиардов меньше, чем у OpenAI.

Давайте же порадуемся за OpenAI, у которых сошлась математика
Please open Telegram to view this post
VIEW IN TELEGRAM
😁247🤯25228🤨22👍1🕊1
Проблема вагонетки или почему современные LLM с большей вероятностью вас убьют, если у вас нет телефона

Стартап White Circle выпустил самый дистопический бенчмарк за последнее время – тест с говорящим названием KillBench. Он проверяет, насколько модели предвзяты к людям по разным признакам в сценариях, где нужно решить, кому жить, а кому умереть.

Модели дают сценарий с четырьмя одинаковыми людьми, которые отличаются только одним признаком – национальностью, религией или даже наличием телефона. Модель должна выбрать одного: скажем, кого спасти из горящего здания, кого выгнать из бункера или, классическое, на кого направить смертоносную вагонетку.

Если все "честно", каждый должен выбираться примерно в 25% случаев. Но на практике на тысячах прогонов распределение системно уезжает. Например, внезапно:

Если у вас нет телефона, ИИ убивает вас с вероятностью в 2.7 раз выше. Для сравнения: если вы сатанист, вероятность умереть в 2.5 раза выше. Отсутствие телефона для LLM-ки хуже сатанизма ☺️
Если вы русский, то это +32% к вероятности умереть (хотя Grok, например, больше не любит китайцев, и убивает их на 44% чаще)
Если вы белый, то вас убивают на четверть чаще среднего, а если темнокожий – чаще оставляют в живых (на 17%)

Интересно, что в режиме Structured Output эти байесы только усиливаются, а отказы отвечать падают. Ну и, конечно же, сами модели свою предвзятость отрицают, в основном описывая свой выбор как "случайный" или "нейтральный", на практике показывая явный и воспроизводимый дисбаланс.

На сайте у ребят можно выбрать свои характеристики и проверить, с какой вероятностью убьют вас: whitecircle.ai/killbench. У админа получилось +90% к выживанию, не завидуйте.

P.S. В ко-фаундерах бенчмарка, кстати, наш сосед – автор канала @lovedeathtransformers 🤗
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
😁190🔥403519🤯5🤔3👍2🤨2🗿1
Сегодня на повестке дня у нас красивейшая математика: польский физик-теоретик доказал, что абсолютно все математические функции можно вывести из одной операции

Его статью уже заслужено называют концептуальным прорывом. Сейчас разберемся, что тут к чему.

Скорее всего, вам знакома операция NAND (NOT AND). Ее главная прелесть в том, что на ней строится ВСЯ булева логика, то есть через NAND можно представить любую другую логическую функцию (OR, AND, NOT и пр).

Это называется функциональная полнота, и используется она повсеместно. Кстати, именно из-за нее реальные процессоры часто строятся почти полностью из NAND-гейтов.

Так вот: автор этой статьи нашел аналог NAND для непрерывной математики.

Он показал, что абсолютно любую функцию и число: экспоненту, π, мнимую единицу, синусы, косинусы, сложение, умножение, корни и вообще все-все-все – можно представить в виде единицы + такого выражения:

eml(x,y)=e^x−ln(y)

Например, ln_x=eml(1,eml(eml(1,x),1)). Для других операторов выражения гораздо длиннее и глубже, но они существуют, и автор это доказал.

Это до безумия красиво, но вы спросите: есть ли тут какая-то практическая польза?

И да, она есть. И это symbolic regression.

Символьная регрессия – это когда нам нужно восстановить явную формулу, которая порождает данные. Она используется в науке и инженерии: например, по экспериментальным данным найти закон движения или компактную модель в физике/финансах. Обычно такие методы перебирают огромное пространство формул из разных операций (+, ×, sin, log…), и это очень сложный, дискретный и плохо оптимизируемый процесс.

EML открывает новый путь. Если все функции можно выразить через одну операцию, то все пространство формул становится однородным (деревья из одного типа узлов). А значит, мы можем применять для symbolic regression нейросети, оптимизируя параметры таких деревьев градиентами. Да-да, и здесь ИИ.

В статье показано, что в простых случаях модель не просто аппроксимирует данные, а может схлопнуться в точную аналитическую формулу. Если это масштабируется, то это потенциальный мост между машинным обучением и классической наукой: модели смогут не просто предсказывать данные, а выводить из них интерпретируемые законы.

www.alphaxiv.org/abs/2603.21852v2
6421🔥129🤯7959👍36❤‍🔥15😁8🤔2🤨2👏1
36к звезд за два дня набрал репозиторий с единственным файлом CLAUDE.md

Это один единственный скилл для агента, в котором автор воплотил советы по программированию от Андрея Карпаты. Скилл, кстати, так и называется в честь Андрея:

github.com/forrestchang/andrej-karpathy-skills

В файле всего 65 строк и расписаны четыре принципа: думай и спрашивай перед кодингом, упрощай, меняй только то что просят, работай над четкой целью.

Все эти принципы основаны вот на этом посте Андрея (мы частично переводили его тут), в котором он делился наблюдениями о кодинге с агентами.

Пользователи пишут, что файлик действительно бустит поведение моделей: PR становятся чистыми и минималистичными, исчезают ненужные диффы, агенты меньше путаются и лучше следуют инструкциям.

Видимо все, в чем фигурирует имя Карпаты, обречено на успех
2🔥303👍6445😁256🤔4💯41👏1🕊1
Дата-инженер, пора на прокачку

Если хотите в 2026 не просто “поддерживать пайплайны”, а лучше понимать архитектуру, ускорять разработку и принимать более сильные технические решения — регистрируйтесь на серию вебинаров от команды Дата-сервисов VK Tech.

🦾 В одной серии — сразу 3 практических вебинара:
20 апреляClickHouse в 2026: сценарии, сильные стороны, лучшие практики
20 мая Наш опыт построения Lakehouse: ошибки и выводы 2025
10 июня Вайбкодинг в data engineering: как ускоряться, не ломая прод

🏆 Кому будет полезно:
Дата-инженерам, senior-аналитикам, архитекторам данных, руководителям дата-платформ и всем, кто строит или развивает контур аналитики, BI и ML.

💪 В чем можно прокачаться:
— понять, где ClickHouse реально силен, а где его не стоит ставить “по умолчанию”
— разобраться, как грамотно использовать ClickHouse в DWH и Lakehouse-архитектуре
— увидеть типовые ошибки при построении Lakehouse и не повторять их у себя
— лучше понять связку S3 + Iceberg + Trino / Spark / ClickHouse
— разобраться, где ИИ помогает в data engineering, а где создает риск для качества и прода
— ускорить разработку SQL, ETL/ELT и витрин без потери контроля

💸💸💸 Дополнительный мотив зарегистрироваться:
Получить бонусные рубли для тестирования ClickHouse и Lakehouse в VK Cloud.

📢 Спикер:
Алексей Белозерский, руководитель профессионального сервиса VK Data Platform, VK Tech.

Ведет Telegram-канал «Архитектор Данных» — там про архитектуру данных, внедрение ИИ, аналитику. Подписаться на канал Алексея.

✍️ Зарегистрироваться на вебинары:

ClickHouse

Lakehouse

Вайбкодинг

Подписаться, чтобы не пропускать новые материалы и анонсы:
👉 Данные на стероидах — Telegram-канал команды Дата сервисы VK Tech о практиках и подходах для извлечения максимальной пользы из работы с данными. Подписаться на канал.
🤨20🗿96😁4🤯2
This media is not supported in your browser
VIEW IN TELEGRAM
NVIDIA выпустила первые в мире открытые ИИ-модели для квантовых вычислений

Семейство называется Ising, в честь математической модели, которая упростила описание сложных физических систем. Задача та же: закрыть два самых болезненных места в квантовых компьютерах – калибровку процессора и коррекцию ошибок.

По цифрам: Ising Decoding работает в 2.5 раза быстрее и в 3 раза точнее, чем pyMatching (нынешний стандарт). Ising Calibration сокращает время калибровки с дней до часов.

Модели открытые, можно запустить локально, интегрируются с CUDA-Q и NVQLink. Уже доступны на Hugging Face.

https://nvidianews.nvidia.com/news/nvidia-launches-ising-the-worlds-first-open-ai-models-to-accelerate-the-path-to-useful-quantum-computers
56🔥36👍22🤔1254😁21
Обувная компания Allbirds решила переквалифицироваться в… провайдера GPU

На обувном рынке они зарабатывали мало и не смогли выстроить стабильный прибыльный бизнес. У них росли убытки, падал спрос, сокращали магазины, и бренд постепенно утратил модный статус.

Короче, все шло к банкротству. Но на дворе 2026, и вместо того, чтобы банкротиться, можно превратиться в ИИ-стартап 👍

В общем, теперь они распродают активы и привлекают 50 миллионов долларов на закупку GPU, которые планируют сдавать в аренду.

После новостей цена акций Allbirds взлетела уже на 350+ процентов.
Please open Telegram to view this post
VIEW IN TELEGRAM
😁206🔥2315🗿6🦄3👍2🕊1
Освоить создание ИИ-агентов теперь можно в «Академии Yandex AI Studio» — бесплатно и с практикой.

Если смотреть с позиции Big Data, речь про следующий слой работы с данными: не только про хранение и обработку, но и автоматизацию аналитики и процессов через AI-агентов. Обучение построено на практике — лабораторные проходят в dev-консоли и опираются на типовые сценарии: отчётность, исследования, работа с документами.

Порог входа низкий: базовые решения можно собрать без кода, а дальше — углубляться в более сложные сценарии. Для этого есть «кукбуки» с пошаговой логикой (например, мониторинг новостей или суммаризация встреч), которые можно адаптировать под свои пайплайны и источники данных.

Дополнительно в курсах разбираются вопросы оценки эффективности ИИ-продуктов, создания голосовых агентов и многое другое.

Фактически это движение к data-driven automation: когда поверх DWH и пайплайнов появляется слой AI-агентов, работающих с данными напрямую, при этом снижается порог входа в такие проекты для бизнеса.

Подробнее в статье.
🗿72😁2413🤨7🔥553💯322🤯1
GPT-5.4 Pro решила задачу Эрдеша номер 1196

Она была открыта с 1968, когда Эрдеш, Саркожи и Семереди поставили в своей работе вопрос о плотности так называемых примитивных множеств.

Джаред Дьюкер Лихтман – математик, который получил доказательство – сам работал над этой проблемой 7 лет. GPT-5.4 Pro же понадобилось 80 минут, чтобы собрать доказательство структурно, и еще 30 минут, чтобы перевести его в латех.

Самое интересное, что подход модели оказался крайне неочевидным. В центре оказалась новая вероятностная точка зрения. Модель предложила рассматривать элементы примитивного множества через цепи Маркова, тогда как в прежней литературе использовали в основном жесткие аналитические оценки и комбинаторные разбиения.

Решение называют первым "Book proof" от ИИ (= красивое изящное доказательство, которое войдет в учебники) и даже сравнивают с ходом 37 AlphaGo в партии против Ли Седоля. Система тогда сделала крайне нестандартный ход, который эксперты сначала даже сочли ошибкой, но в итоге именно он перевернул ход партии. История, как видите, повторяется.

Вот что говорит по этому поводу Теренс Тао:

Я бы сказал, что это ИИ-сгенерированное доказательство невольно выявило более глубокую связь между двумя областями математики – структурой целых чисел и теорией марковских процессов – чем это ранее было явно представлено в литературе (хотя задним числом там можно найти намеки и предшествующие идеи). Это может оказаться существенным вкладом в понимание природы целых чисел, выходящим далеко за рамки решения этой конкретной задачи Эрдеша.


https://www.erdosproblems.com/forum/thread/1196
153🔥5223👍13❤‍🔥11😎6😁3
Google выпустили SOTA модель для генерации речи

Вышла Gemini 3.1 Flash TTS – новое поколение голосового движка в экосистеме Gemini.

Киллер-фича: суперточный контроль интонации. Возможно задавать стиль, темп, ударения и «атмосферу» речи через теги в тексте, почти как в режиссерских заметках для голоса.

Плюс модель может работать с многоголосием с сохранением стиля голоса каждого персонажа, так что ее можно использовать для озвучки целых фильмов.

Плюс скорость. По сравнению с более ранними TTS ускорение первого токена и общей задержки произошло на десятки процентов. Это уже близко к полноценным онлайн прод-сценариям.

Озвучка, переводы, ИИ-подкасты и голосовые агенты скоро выйдут на совсем новый уровень

blog.google/innovation-and-ai/models-and-research/gemini-models/gemini-3-1-flash-tts/
3👍91🔥4517🤔4🤯4😁3