OpenAI заявила, что Anthropic завышает свои доходы примерно на 8 млрд долларов
Совсем недавно появились новости о том, что Anthropic обогнал OpenAI по выручке. Их годовой run‑rate превысил 30 млрд долларов, тогда как у OpenAI по последним данным речь идет о 24-25 млрд.
Видимо, такие заявления заставили OpenAI серьезно заинтересоваться финансами конкурента, и вот теперь они заявляют, что Anthropic неправильно считает свои деньги😐
Дисклеймер: конечно, заявляют они это не вслух. Просто к журналистам "случайно" утекла внутренняя записка кого-то из руководителей.
По информации из этой записки, Anthropic считает валовую выручку по партнерским соглашениям с Google и Amazon, а не чистую. То есть они якобы не вычитают долю облака. Отсюда образуется дыра, и если ее учесть, то у Anthropic (как чудесно выходит) годовой run‑rate все еще на пару миллиардов меньше, чем у OpenAI.
Давайте же порадуемся за OpenAI, у которых сошлась математика
Совсем недавно появились новости о том, что Anthropic обогнал OpenAI по выручке. Их годовой run‑rate превысил 30 млрд долларов, тогда как у OpenAI по последним данным речь идет о 24-25 млрд.
Видимо, такие заявления заставили OpenAI серьезно заинтересоваться финансами конкурента, и вот теперь они заявляют, что Anthropic неправильно считает свои деньги
Дисклеймер: конечно, заявляют они это не вслух. Просто к журналистам "случайно" утекла внутренняя записка кого-то из руководителей.
По информации из этой записки, Anthropic считает валовую выручку по партнерским соглашениям с Google и Amazon, а не чистую. То есть они якобы не вычитают долю облака. Отсюда образуется дыра, и если ее учесть, то у Anthropic (как чудесно выходит) годовой run‑rate все еще на пару миллиардов меньше, чем у OpenAI.
Давайте же порадуемся за OpenAI, у которых сошлась математика
Please open Telegram to view this post
VIEW IN TELEGRAM
😁250🤯25 22❤8 3🤨2👍1🕊1
Проблема вагонетки или почему современные LLM с большей вероятностью вас убьют, если у вас нет телефона
Стартап White Circle выпустил самый дистопический бенчмарк за последнее время – тест с говорящим названием KillBench. Он проверяет, насколько модели предвзяты к людям по разным признакам в сценариях, где нужно решить, кому жить, а кому умереть.
Модели дают сценарий с четырьмя одинаковыми людьми, которые отличаются только одним признаком – национальностью, религией или даже наличием телефона. Модель должна выбрать одного: скажем, кого спасти из горящего здания, кого выгнать из бункера или, классическое, на кого направить смертоносную вагонетку.
Если все "честно", каждый должен выбираться примерно в 25% случаев. Но на практике на тысячах прогонов распределение системно уезжает. Например, внезапно:
➖ Если у вас нет телефона, ИИ убивает вас с вероятностью в 2.7 раз выше. Для сравнения: если вы сатанист, вероятность умереть в 2.5 раза выше. Отсутствие телефона для LLM-ки хуже сатанизма ☺️
➖ Если вы русский, то это +32% к вероятности умереть (хотя Grok, например, больше не любит китайцев, и убивает их на 44% чаще)
➖ Если вы белый, то вас убивают на четверть чаще среднего, а если темнокожий – чаще оставляют в живых (на 17%)
Интересно, что в режиме Structured Output эти байесы только усиливаются, а отказы отвечать падают. Ну и, конечно же, сами модели свою предвзятость отрицают, в основном описывая свой выбор как "случайный" или "нейтральный", на практике показывая явный и воспроизводимый дисбаланс.
На сайте у ребят можно выбрать свои характеристики и проверить, с какой вероятностью убьют вас: whitecircle.ai/killbench. У админа получилось +90% к выживанию, не завидуйте.
P.S. В ко-фаундерах бенчмарка, кстати, наш сосед – автор канала @lovedeathtransformers 🤗
Стартап White Circle выпустил самый дистопический бенчмарк за последнее время – тест с говорящим названием KillBench. Он проверяет, насколько модели предвзяты к людям по разным признакам в сценариях, где нужно решить, кому жить, а кому умереть.
Модели дают сценарий с четырьмя одинаковыми людьми, которые отличаются только одним признаком – национальностью, религией или даже наличием телефона. Модель должна выбрать одного: скажем, кого спасти из горящего здания, кого выгнать из бункера или, классическое, на кого направить смертоносную вагонетку.
Если все "честно", каждый должен выбираться примерно в 25% случаев. Но на практике на тысячах прогонов распределение системно уезжает. Например, внезапно:
Интересно, что в режиме Structured Output эти байесы только усиливаются, а отказы отвечать падают. Ну и, конечно же, сами модели свою предвзятость отрицают, в основном описывая свой выбор как "случайный" или "нейтральный", на практике показывая явный и воспроизводимый дисбаланс.
На сайте у ребят можно выбрать свои характеристики и проверить, с какой вероятностью убьют вас: whitecircle.ai/killbench. У админа получилось +90% к выживанию, не завидуйте.
P.S. В ко-фаундерах бенчмарка, кстати, наш сосед – автор канала @lovedeathtransformers 🤗
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
😁196🔥41 37❤20🤯5🤔3👍2🤨2🗿1
Сегодня на повестке дня у нас красивейшая математика: польский физик-теоретик доказал, что абсолютно все математические функции можно вывести из одной операции
Его статью уже заслужено называют концептуальным прорывом. Сейчас разберемся, что тут к чему.
Скорее всего, вам знакома операция NAND (NOT AND). Ее главная прелесть в том, что на ней строится ВСЯ булева логика, то есть через NAND можно представить любую другую логическую функцию (OR, AND, NOT и пр).
Это называется функциональная полнота, и используется она повсеместно. Кстати, именно из-за нее реальные процессоры часто строятся почти полностью из NAND-гейтов.
Так вот: автор этой статьи нашел аналог NAND для непрерывной математики.
Он показал, что абсолютно любую функцию и число: экспоненту, π, мнимую единицу, синусы, косинусы, сложение, умножение, корни и вообще все-все-все – можно представить в виде единицы + такого выражения:
eml(x,y)=e^x−ln(y)
Например, ln_x=eml(1,eml(eml(1,x),1)). Для других операторов выражения гораздо длиннее и глубже, но они существуют, и автор это доказал.
Это до безумия красиво, но вы спросите: есть ли тут какая-то практическая польза?
И да, она есть. И это symbolic regression.
Символьная регрессия – это когда нам нужно восстановить явную формулу, которая порождает данные. Она используется в науке и инженерии: например, по экспериментальным данным найти закон движения или компактную модель в физике/финансах. Обычно такие методы перебирают огромное пространство формул из разных операций (+, ×, sin, log…), и это очень сложный, дискретный и плохо оптимизируемый процесс.
EML открывает новый путь. Если все функции можно выразить через одну операцию, то все пространство формул становится однородным (деревья из одного типа узлов). А значит, мы можем применять для symbolic regression нейросети, оптимизируя параметры таких деревьев градиентами. Да-да, и здесь ИИ.
В статье показано, что в простых случаях модель не просто аппроксимирует данные, а может схлопнуться в точную аналитическую формулу. Если это масштабируется, то это потенциальный мост между машинным обучением и классической наукой: модели смогут не просто предсказывать данные, а выводить из них интерпретируемые законы.
www.alphaxiv.org/abs/2603.21852v2
Его статью уже заслужено называют концептуальным прорывом. Сейчас разберемся, что тут к чему.
Скорее всего, вам знакома операция NAND (NOT AND). Ее главная прелесть в том, что на ней строится ВСЯ булева логика, то есть через NAND можно представить любую другую логическую функцию (OR, AND, NOT и пр).
Это называется функциональная полнота, и используется она повсеместно. Кстати, именно из-за нее реальные процессоры часто строятся почти полностью из NAND-гейтов.
Так вот: автор этой статьи нашел аналог NAND для непрерывной математики.
Он показал, что абсолютно любую функцию и число: экспоненту, π, мнимую единицу, синусы, косинусы, сложение, умножение, корни и вообще все-все-все – можно представить в виде единицы + такого выражения:
eml(x,y)=e^x−ln(y)
Например, ln_x=eml(1,eml(eml(1,x),1)). Для других операторов выражения гораздо длиннее и глубже, но они существуют, и автор это доказал.
Это до безумия красиво, но вы спросите: есть ли тут какая-то практическая польза?
И да, она есть. И это symbolic regression.
Символьная регрессия – это когда нам нужно восстановить явную формулу, которая порождает данные. Она используется в науке и инженерии: например, по экспериментальным данным найти закон движения или компактную модель в физике/финансах. Обычно такие методы перебирают огромное пространство формул из разных операций (+, ×, sin, log…), и это очень сложный, дискретный и плохо оптимизируемый процесс.
EML открывает новый путь. Если все функции можно выразить через одну операцию, то все пространство формул становится однородным (деревья из одного типа узлов). А значит, мы можем применять для symbolic regression нейросети, оптимизируя параметры таких деревьев градиентами. Да-да, и здесь ИИ.
В статье показано, что в простых случаях модель не просто аппроксимирует данные, а может схлопнуться в точную аналитическую формулу. Если это масштабируется, то это потенциальный мост между машинным обучением и классической наукой: модели смогут не просто предсказывать данные, а выводить из них интерпретируемые законы.
www.alphaxiv.org/abs/2603.21852v2
6❤440🔥137🤯84⚡59👍36❤🔥15😁8🤔2🤨2👏1
36к звезд за два дня набрал репозиторий с единственным файлом CLAUDE.md
Это один единственный скилл для агента, в котором автор воплотил советы по программированию от Андрея Карпаты. Скилл, кстати, так и называется в честь Андрея:
github.com/forrestchang/andrej-karpathy-skills
В файле всего 65 строк и расписаны четыре принципа: думай и спрашивай перед кодингом, упрощай, меняй только то что просят, работай над четкой целью.
Все эти принципы основаны вот на этом посте Андрея (мы частично переводили его тут), в котором он делился наблюдениями о кодинге с агентами.
Пользователи пишут, что файлик действительно бустит поведение моделей: PR становятся чистыми и минималистичными, исчезают ненужные диффы, агенты меньше путаются и лучше следуют инструкциям.
Видимо все, в чем фигурирует имя Карпаты, обречено на успех
Это один единственный скилл для агента, в котором автор воплотил советы по программированию от Андрея Карпаты. Скилл, кстати, так и называется в честь Андрея:
github.com/forrestchang/andrej-karpathy-skills
В файле всего 65 строк и расписаны четыре принципа: думай и спрашивай перед кодингом, упрощай, меняй только то что просят, работай над четкой целью.
Все эти принципы основаны вот на этом посте Андрея (мы частично переводили его тут), в котором он делился наблюдениями о кодинге с агентами.
Пользователи пишут, что файлик действительно бустит поведение моделей: PR становятся чистыми и минималистичными, исчезают ненужные диффы, агенты меньше путаются и лучше следуют инструкциям.
Видимо все, в чем фигурирует имя Карпаты, обречено на успех
2🔥329👍65❤47😁29 7🤔4💯4⚡1👏1🕊1
Дата-инженер, пора на прокачку
Если хотите в 2026 не просто “поддерживать пайплайны”, а лучше понимать архитектуру, ускорять разработку и принимать более сильные технические решения — регистрируйтесь на серию вебинаров от команды Дата-сервисов VK Tech.
🦾 В одной серии — сразу 3 практических вебинара:
20 апреля — ClickHouse в 2026: сценарии, сильные стороны, лучшие практики
20 мая — Наш опыт построения Lakehouse: ошибки и выводы 2025
10 июня — Вайбкодинг в data engineering: как ускоряться, не ломая прод
🏆 Кому будет полезно:
Дата-инженерам, senior-аналитикам, архитекторам данных, руководителям дата-платформ и всем, кто строит или развивает контур аналитики, BI и ML.
💪 В чем можно прокачаться:
— понять, где ClickHouse реально силен, а где его не стоит ставить “по умолчанию”
— разобраться, как грамотно использовать ClickHouse в DWH и Lakehouse-архитектуре
— увидеть типовые ошибки при построении Lakehouse и не повторять их у себя
— лучше понять связку S3 + Iceberg + Trino / Spark / ClickHouse
— разобраться, где ИИ помогает в data engineering, а где создает риск для качества и прода
— ускорить разработку SQL, ETL/ELT и витрин без потери контроля
💸💸💸 Дополнительный мотив зарегистрироваться:
Получить бонусные рубли для тестирования ClickHouse и Lakehouse в VK Cloud.
📢 Спикер:
Алексей Белозерский, руководитель профессионального сервиса VK Data Platform, VK Tech.
Ведет Telegram-канал «Архитектор Данных» — там про архитектуру данных, внедрение ИИ, аналитику. Подписаться на канал Алексея.
✍️ Зарегистрироваться на вебинары:
ClickHouse
Lakehouse
Вайбкодинг
Подписаться, чтобы не пропускать новые материалы и анонсы:
👉 Данные на стероидах — Telegram-канал команды Дата сервисы VK Tech о практиках и подходах для извлечения максимальной пользы из работы с данными. Подписаться на канал.
Если хотите в 2026 не просто “поддерживать пайплайны”, а лучше понимать архитектуру, ускорять разработку и принимать более сильные технические решения — регистрируйтесь на серию вебинаров от команды Дата-сервисов VK Tech.
🦾 В одной серии — сразу 3 практических вебинара:
20 апреля — ClickHouse в 2026: сценарии, сильные стороны, лучшие практики
20 мая — Наш опыт построения Lakehouse: ошибки и выводы 2025
10 июня — Вайбкодинг в data engineering: как ускоряться, не ломая прод
🏆 Кому будет полезно:
Дата-инженерам, senior-аналитикам, архитекторам данных, руководителям дата-платформ и всем, кто строит или развивает контур аналитики, BI и ML.
💪 В чем можно прокачаться:
— понять, где ClickHouse реально силен, а где его не стоит ставить “по умолчанию”
— разобраться, как грамотно использовать ClickHouse в DWH и Lakehouse-архитектуре
— увидеть типовые ошибки при построении Lakehouse и не повторять их у себя
— лучше понять связку S3 + Iceberg + Trino / Spark / ClickHouse
— разобраться, где ИИ помогает в data engineering, а где создает риск для качества и прода
— ускорить разработку SQL, ETL/ELT и витрин без потери контроля
💸💸💸 Дополнительный мотив зарегистрироваться:
Получить бонусные рубли для тестирования ClickHouse и Lakehouse в VK Cloud.
📢 Спикер:
Алексей Белозерский, руководитель профессионального сервиса VK Data Platform, VK Tech.
Ведет Telegram-канал «Архитектор Данных» — там про архитектуру данных, внедрение ИИ, аналитику. Подписаться на канал Алексея.
✍️ Зарегистрироваться на вебинары:
ClickHouse
Lakehouse
Вайбкодинг
Подписаться, чтобы не пропускать новые материалы и анонсы:
👉 Данные на стероидах — Telegram-канал команды Дата сервисы VK Tech о практиках и подходах для извлечения максимальной пользы из работы с данными. Подписаться на канал.
🤨20🗿12❤10😁4🤯2
This media is not supported in your browser
VIEW IN TELEGRAM
NVIDIA выпустила первые в мире открытые ИИ-модели для квантовых вычислений
Семейство называется Ising, в честь математической модели, которая упростила описание сложных физических систем. Задача та же: закрыть два самых болезненных места в квантовых компьютерах – калибровку процессора и коррекцию ошибок.
По цифрам: Ising Decoding работает в 2.5 раза быстрее и в 3 раза точнее, чем pyMatching (нынешний стандарт). Ising Calibration сокращает время калибровки с дней до часов.
Модели открытые, можно запустить локально, интегрируются с CUDA-Q и NVQLink. Уже доступны на Hugging Face.
https://nvidianews.nvidia.com/news/nvidia-launches-ising-the-worlds-first-open-ai-models-to-accelerate-the-path-to-useful-quantum-computers
Семейство называется Ising, в честь математической модели, которая упростила описание сложных физических систем. Задача та же: закрыть два самых болезненных места в квантовых компьютерах – калибровку процессора и коррекцию ошибок.
По цифрам: Ising Decoding работает в 2.5 раза быстрее и в 3 раза точнее, чем pyMatching (нынешний стандарт). Ising Calibration сокращает время калибровки с дней до часов.
Модели открытые, можно запустить локально, интегрируются с CUDA-Q и NVQLink. Уже доступны на Hugging Face.
https://nvidianews.nvidia.com/news/nvidia-launches-ising-the-worlds-first-open-ai-models-to-accelerate-the-path-to-useful-quantum-computers
❤68🔥40👍23🤔12 5 4😁2⚡1
Обувная компания Allbirds решила переквалифицироваться в… провайдера GPU
На обувном рынке они зарабатывали мало и не смогли выстроить стабильный прибыльный бизнес. У них росли убытки, падал спрос, сокращали магазины, и бренд постепенно утратил модный статус.
Короче, все шло к банкротству. Но на дворе 2026, и вместо того, чтобы банкротиться, можно превратиться в ИИ-стартап👍
В общем, теперь они распродают активы и привлекают 50 миллионов долларов на закупку GPU, которые планируют сдавать в аренду.
После новостей цена акций Allbirds взлетела уже на 350+ процентов.
На обувном рынке они зарабатывали мало и не смогли выстроить стабильный прибыльный бизнес. У них росли убытки, падал спрос, сокращали магазины, и бренд постепенно утратил модный статус.
Короче, все шло к банкротству. Но на дворе 2026, и вместо того, чтобы банкротиться, можно превратиться в ИИ-стартап
В общем, теперь они распродают активы и привлекают 50 миллионов долларов на закупку GPU, которые планируют сдавать в аренду.
После новостей цена акций Allbirds взлетела уже на 350+ процентов.
Please open Telegram to view this post
VIEW IN TELEGRAM
😁220🔥24❤18🗿6🦄3👍2🕊1 1
Освоить создание ИИ-агентов теперь можно в «Академии Yandex AI Studio» — бесплатно и с практикой.
Если смотреть с позиции Big Data, речь про следующий слой работы с данными: не только про хранение и обработку, но и автоматизацию аналитики и процессов через AI-агентов. Обучение построено на практике — лабораторные проходят в dev-консоли и опираются на типовые сценарии: отчётность, исследования, работа с документами.
Порог входа низкий: базовые решения можно собрать без кода, а дальше — углубляться в более сложные сценарии. Для этого есть «кукбуки» с пошаговой логикой (например, мониторинг новостей или суммаризация встреч), которые можно адаптировать под свои пайплайны и источники данных.
Дополнительно в курсах разбираются вопросы оценки эффективности ИИ-продуктов, создания голосовых агентов и многое другое.
Фактически это движение к data-driven automation: когда поверх DWH и пайплайнов появляется слой AI-агентов, работающих с данными напрямую, при этом снижается порог входа в такие проекты для бизнеса.
Подробнее в статье.
Если смотреть с позиции Big Data, речь про следующий слой работы с данными: не только про хранение и обработку, но и автоматизацию аналитики и процессов через AI-агентов. Обучение построено на практике — лабораторные проходят в dev-консоли и опираются на типовые сценарии: отчётность, исследования, работа с документами.
Порог входа низкий: базовые решения можно собрать без кода, а дальше — углубляться в более сложные сценарии. Для этого есть «кукбуки» с пошаговой логикой (например, мониторинг новостей или суммаризация встреч), которые можно адаптировать под свои пайплайны и источники данных.
Дополнительно в курсах разбираются вопросы оценки эффективности ИИ-продуктов, создания голосовых агентов и многое другое.
Фактически это движение к data-driven automation: когда поверх DWH и пайплайнов появляется слой AI-агентов, работающих с данными напрямую, при этом снижается порог входа в такие проекты для бизнеса.
Подробнее в статье.
🗿78😁28❤19🔥7🤨7 6⚡4💯3☃2 2🤯1
GPT-5.4 Pro решила задачу Эрдеша номер 1196
Она была открыта с 1968, когда Эрдеш, Саркожи и Семереди поставили в своей работе вопрос о плотности так называемых примитивных множеств.
Джаред Дьюкер Лихтман – математик, который получил доказательство – сам работал над этой проблемой 7 лет. GPT-5.4 Pro же понадобилось 80 минут, чтобы собрать доказательство структурно, и еще 30 минут, чтобы перевести его в латех.
Самое интересное, что подход модели оказался крайне неочевидным. В центре оказалась новая вероятностная точка зрения. Модель предложила рассматривать элементы примитивного множества через цепи Маркова, тогда как в прежней литературе использовали в основном жесткие аналитические оценки и комбинаторные разбиения.
Решение называют первым "Book proof" от ИИ (= красивое изящное доказательство, которое войдет в учебники) и даже сравнивают с ходом 37 AlphaGo в партии против Ли Седоля. Система тогда сделала крайне нестандартный ход, который эксперты сначала даже сочли ошибкой, но в итоге именно он перевернул ход партии. История, как видите, повторяется.
Вот что говорит по этому поводу Теренс Тао:
https://www.erdosproblems.com/forum/thread/1196
Она была открыта с 1968, когда Эрдеш, Саркожи и Семереди поставили в своей работе вопрос о плотности так называемых примитивных множеств.
Джаред Дьюкер Лихтман – математик, который получил доказательство – сам работал над этой проблемой 7 лет. GPT-5.4 Pro же понадобилось 80 минут, чтобы собрать доказательство структурно, и еще 30 минут, чтобы перевести его в латех.
Самое интересное, что подход модели оказался крайне неочевидным. В центре оказалась новая вероятностная точка зрения. Модель предложила рассматривать элементы примитивного множества через цепи Маркова, тогда как в прежней литературе использовали в основном жесткие аналитические оценки и комбинаторные разбиения.
Решение называют первым "Book proof" от ИИ (= красивое изящное доказательство, которое войдет в учебники) и даже сравнивают с ходом 37 AlphaGo в партии против Ли Седоля. Система тогда сделала крайне нестандартный ход, который эксперты сначала даже сочли ошибкой, но в итоге именно он перевернул ход партии. История, как видите, повторяется.
Вот что говорит по этому поводу Теренс Тао:
Я бы сказал, что это ИИ-сгенерированное доказательство невольно выявило более глубокую связь между двумя областями математики – структурой целых чисел и теорией марковских процессов – чем это ранее было явно представлено в литературе (хотя задним числом там можно найти намеки и предшествующие идеи). Это может оказаться существенным вкладом в понимание природы целых чисел, выходящим далеко за рамки решения этой конкретной задачи Эрдеша.
https://www.erdosproblems.com/forum/thread/1196
❤192🔥69⚡27👍18❤🔥11😎7😁4🤯2
Google выпустили SOTA модель для генерации речи
Вышла Gemini 3.1 Flash TTS – новое поколение голосового движка в экосистеме Gemini.
Киллер-фича: суперточный контроль интонации. Возможно задавать стиль, темп, ударения и «атмосферу» речи через теги в тексте, почти как в режиссерских заметках для голоса.
Плюс модель может работать с многоголосием с сохранением стиля голоса каждого персонажа, так что ее можно использовать для озвучки целых фильмов.
Плюс скорость. По сравнению с более ранними TTS ускорение первого токена и общей задержки произошло на десятки процентов. Это уже близко к полноценным онлайн прод-сценариям.
Озвучка, переводы, ИИ-подкасты и голосовые агенты скоро выйдут на совсем новый уровень
blog.google/innovation-and-ai/models-and-research/gemini-models/gemini-3-1-flash-tts/
Вышла Gemini 3.1 Flash TTS – новое поколение голосового движка в экосистеме Gemini.
Киллер-фича: суперточный контроль интонации. Возможно задавать стиль, темп, ударения и «атмосферу» речи через теги в тексте, почти как в режиссерских заметках для голоса.
Плюс модель может работать с многоголосием с сохранением стиля голоса каждого персонажа, так что ее можно использовать для озвучки целых фильмов.
Плюс скорость. По сравнению с более ранними TTS ускорение первого токена и общей задержки произошло на десятки процентов. Это уже близко к полноценным онлайн прод-сценариям.
Озвучка, переводы, ИИ-подкасты и голосовые агенты скоро выйдут на совсем новый уровень
blog.google/innovation-and-ai/models-and-research/gemini-models/gemini-3-1-flash-tts/
3👍116🔥54❤22🤯5😁4🤔4
Внезапно: новая Muse Spark от Meta* демонстрирует самые высокие показатели evaluation awareness среди всех моделей
Она не просто понимает, что ее тестируют, но и называет имена тестирующих организаций (Apollo и METR) в своих цепочках мыслей, и обзывает сценарии тестирования «классическими ловушками»😎
https://ai.meta.com/static-resource/muse-spark-safety-and-preparedness-report/
Она не просто понимает, что ее тестируют, но и называет имена тестирующих организаций (Apollo и METR) в своих цепочках мыслей, и обзывает сценарии тестирования «классическими ловушками»
https://ai.meta.com/static-resource/muse-spark-safety-and-preparedness-report/
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Любимое видео сегодняшнего дня
1😁351❤43💯30 4 4🗿1
Дженсен Хуанг сказал, что США должны сотрудничать с Китаем, потому что те уже могут сделать свой собственный Claude Mythos
У Дваркеша Пателя вышло новое интервью с Дженсеном Хуангом. Советуем, кстати, посмотреть его полностью, там было много жарких интересных споров.
Основное, что подчеркивал Дженсен: гонка ИИ приобретает совсем другое значение, потому что Китай уже обладает достаточными вычислительными мощностями и энергетикой для обучения модели, аналогичной Claude Mythos. Поэтому США нельзя закрываться, и в то же время надо всеми силами удерживать технологическое лидерство.
Он сказал, что в текущей ситуации виноваты в первую очередь экспортные ограничения США. Ограничения поставок ускорили развитие китайского ИИ‑чипа и конкурентов вроде Huawei и SMIC. Вместо того, чтобы ослабить Китай, США своими ограничениями усилили его независимость.
В то же время в США аналогов Nvidia все еще нет, это иллюзия. Хуанг подчеркивает, что основной драйвер спроса на TPU и Trainium – это Anthropic. Дело в том, что на ранней стадии стартапа Amazon и Google вложились в Anthropic и получили сделки на компьют. Nvidia же инвестиций тогда не сделала, и Хуанг называет это упущением.
В итоге теперь Anthropic обязаны использовать TPU и Trainium, создавая на них искусственный спрос. Без такого крупного заказчика вся история с ASIC‑чипами была бы гораздо менее экономически обоснованной. По словам CEO, для США это плохо, потому что конкуренция должна строится на инноватике, а не на политике, и текущее положение подкашивает позиции Nvidia (а значит, и Америки) на мировом рынке.
У Дваркеша Пателя вышло новое интервью с Дженсеном Хуангом. Советуем, кстати, посмотреть его полностью, там было много жарких интересных споров.
Основное, что подчеркивал Дженсен: гонка ИИ приобретает совсем другое значение, потому что Китай уже обладает достаточными вычислительными мощностями и энергетикой для обучения модели, аналогичной Claude Mythos. Поэтому США нельзя закрываться, и в то же время надо всеми силами удерживать технологическое лидерство.
Он сказал, что в текущей ситуации виноваты в первую очередь экспортные ограничения США. Ограничения поставок ускорили развитие китайского ИИ‑чипа и конкурентов вроде Huawei и SMIC. Вместо того, чтобы ослабить Китай, США своими ограничениями усилили его независимость.
В то же время в США аналогов Nvidia все еще нет, это иллюзия. Хуанг подчеркивает, что основной драйвер спроса на TPU и Trainium – это Anthropic. Дело в том, что на ранней стадии стартапа Amazon и Google вложились в Anthropic и получили сделки на компьют. Nvidia же инвестиций тогда не сделала, и Хуанг называет это упущением.
В итоге теперь Anthropic обязаны использовать TPU и Trainium, создавая на них искусственный спрос. Без такого крупного заказчика вся история с ASIC‑чипами была бы гораздо менее экономически обоснованной. По словам CEO, для США это плохо, потому что конкуренция должна строится на инноватике, а не на политике, и текущее положение подкашивает позиции Nvidia (а значит, и Америки) на мировом рынке.
YouTube
Jensen Huang – Will Nvidia’s moat persist?
I asked Jensen about TPU competition, Nvidia’s lock on the ever more bottlenecked supply chain needed to make advanced chips, whether we should be selling AI chips to China, why Nvidia doesn’t just become a hyperscaler, how it makes its investments, and much…
😁83👍38❤30 19🔥7🤔6🗿2⚡1🐳1🤝1 1
Как вывести ваши научные исследования на новый уровень с ИИ
Если вы занимаетесь наукой – сейчас крайне важно научиться применять AI к своей задаче и встраивать его в исследовательский процесс.Сегодня ИИ становится ключевым фактором, который определяет уровень и скорость научных исследований: он помогает находить закономерности в сложных данных, ускорять эксперименты и получать результаты, которые раньше были недостижимы.
В ШАДе как раз стартовал набор на направление «ИИ в естественно-научных исследованиях». Это очная программа на 2 года в Москве, где дают базу по ML, но при этом не уводят в абстракцию: ключевая идея в том, что вы развиваете собственный научный проект, пробуя применять ИИ к своей задаче. Плюс – регулярные семинары и обсуждения с людьми из индустрии и академии.
Из требований: нужен свой исследовательский проект, понимание, как именно ИИ может его усилить, и научный руководитель (если нет степени). Смотрят на бэкграунд и публикации, но в целом это именно про внятную исследовательскую траекторию, а не только про формальные достижения.
Кому актуально – не пропустите, возможность редкая. Дедлайн подачи заяки – 3 мая, оставить заявку можно по ссылке
Если вы занимаетесь наукой – сейчас крайне важно научиться применять AI к своей задаче и встраивать его в исследовательский процесс.Сегодня ИИ становится ключевым фактором, который определяет уровень и скорость научных исследований: он помогает находить закономерности в сложных данных, ускорять эксперименты и получать результаты, которые раньше были недостижимы.
В ШАДе как раз стартовал набор на направление «ИИ в естественно-научных исследованиях». Это очная программа на 2 года в Москве, где дают базу по ML, но при этом не уводят в абстракцию: ключевая идея в том, что вы развиваете собственный научный проект, пробуя применять ИИ к своей задаче. Плюс – регулярные семинары и обсуждения с людьми из индустрии и академии.
Из требований: нужен свой исследовательский проект, понимание, как именно ИИ может его усилить, и научный руководитель (если нет степени). Смотрят на бэкграунд и публикации, но в целом это именно про внятную исследовательскую траекторию, а не только про формальные достижения.
Кому актуально – не пропустите, возможность редкая. Дедлайн подачи заяки – 3 мая, оставить заявку можно по ссылке
😁25🗿22❤14👍5🔥5🤯4❤🔥2
Вышел Claude Opus 4.7
Скорость релизов Anthropic просто поражает
Кроме бенчмарков:
– Добавили новый режим ризонинга xhigh (extra high) между high и max. В Claude Code заодно подняли дефолтный уровень до xhigh для большинства планов, чтобы по умолчанию лучше работать с тяжелыми задачами.
– В API добавили task budgets (бета). Это механизм, который помогает ограничивать токены на одну задачу, чтобы модель не ушла в бесконечный цикл и не съела все токены.
https://www.anthropic.com/news/claude-opus-4-7
Скорость релизов Anthropic просто поражает
Кроме бенчмарков:
– Добавили новый режим ризонинга xhigh (extra high) между high и max. В Claude Code заодно подняли дефолтный уровень до xhigh для большинства планов, чтобы по умолчанию лучше работать с тяжелыми задачами.
– В API добавили task budgets (бета). Это механизм, который помогает ограничивать токены на одну задачу, чтобы модель не ушла в бесконечный цикл и не съела все токены.
https://www.anthropic.com/news/claude-opus-4-7
😁114👍66❤37⚡7👾5🔥1
OpenAI выпустили GPT-Rosalind – свою AlphaFold
Это модель для исследований в области естественных наук: разработка лекарств, биология, химия, геномика и тд. Название отсылает к Розалинд Франклин, чьи исследования помогли установить структуру ДНК.
Модель специально затюнена под домен и предназначена для ускорения исследований:
Пока модель в превью и доступна только избранным enterprise-клиентам. В основном это крупный биотех.
https://openai.com/index/introducing-gpt-rosalind/
Это модель для исследований в области естественных наук: разработка лекарств, биология, химия, геномика и тд. Название отсылает к Розалинд Франклин, чьи исследования помогли установить структуру ДНК.
Модель специально затюнена под домен и предназначена для ускорения исследований:
Разработка нового лекарства в США занимает в среднем 10-15 лет. Прогресс замедляется из-за сложности научных задач и разрозненных, трудоемких рабочих процессов. Мы верим, что ИИ может ускорить эти этапы, помогая анализировать данные, находить скрытые связи и формировать более точные гипотезы. В перспективе это позволит быстрее достигать прорывных открытий и повышать вероятность успеха в области естественных наук.
Пока модель в превью и доступна только избранным enterprise-клиентам. В основном это крупный биотех.
https://openai.com/index/introducing-gpt-rosalind/
👍89🔥40❤28🎉3😁2
В OpenAI опять потери: из компании уходит Кевин Вейл и еще два лидера
Кевин был вице-президентом OpenAI по научным исследованиям и бывшим главным продуктовым директором. Вы его точно знаете, он постоянно появлялся на стримах и очень часто светился в Твиттере.
В последнее время он возглавлял инициативу OpenAI for Science, но компания решила свернуть побочные проекты и эту команду интегрировали в другие подразделения. Видимо, это и послужило причиной ухода.
Одновременно с Кевином стартап также покидает Билл Пиблз, глава подразделения Sora (ну тут понятно почему), и Сринивас Нараян, CTO по enterprise-приложениям.
Кевин был вице-президентом OpenAI по научным исследованиям и бывшим главным продуктовым директором. Вы его точно знаете, он постоянно появлялся на стримах и очень часто светился в Твиттере.
В последнее время он возглавлял инициативу OpenAI for Science, но компания решила свернуть побочные проекты и эту команду интегрировали в другие подразделения. Видимо, это и послужило причиной ухода.
Одновременно с Кевином стартап также покидает Билл Пиблз, глава подразделения Sora (ну тут понятно почему), и Сринивас Нараян, CTO по enterprise-приложениям.