Data Secrets
87.7K subscribers
6.53K photos
684 videos
20 files
2.78K links
Главный по машинному обучению

Сотрудничество: @veron_28

РКН: clck.ru/3FY3GN
Download Telegram
Вышел AI Safety Report 2026: самый полный на данный момент отчет о рисках и возможностях современного ИИ

В составлении документа принимали участие более 100 ученых из ведущих организаций 30 стран, а председателем комиссии выступил легендарный Йошуа Бенджио.

Отчет целиком просто огромный: более двухсот страниц анализа. Но, к счастью, в этом году авторы сжалились и выпустили также расширенное саммари. Там 20 страниц и все основные графики – если собираетесь читать, советуем именно его. Мы же попытались собрать еще более емкое резюме. Поехали:

Возможности ИИ к 2030 году:

Эксперты прямо говорят, что, основываясь исключительно на фактах, без додумок, предсказать, каким будет ИИ к 2030 очень сложно. Это могут быть и небольшие улучшения, и очень стремительный рост.
Маловероятно, что к 2030 ИИ-пузырь лопнет. Компании будут продолжать привлекать капитал, алгоритмы будут становится все эффективнее, мощности будут нарастать.
Есть и узкие места: в основном данные и энергия. Сейчас продолжительность задач в разработке ПО, которые могут выполнять агенты ИИ, удваивается примерно каждые семь месяцев. Если, несмотря на сложности, темп сохранится, к 2030 году ИИ сможет надежно выполнять задачки, которые у людей занимают дни и недели. НО, вероятно, все еще будет нестабилен в нестандартных ситуациях.


Основные риски:

Отчет делит риски на три уровня: от злонамеренного использования, от сбоев и ошибок самих систем и системные социальные риски.
Сейчас опаснее всего: масштабирование мошенничества и влияния на общественное мнение с помощью ИИ (сюда же deepfake-контент), кибератаки и галлюцинации. То есть, если не говорить о неправометрном использовании, основной опасностью остается факт, что системы выглядят умнее и надежнее, чем они есть на самом деле.
На горизонте нескольких лет нам угрожает в первую очередь снижение барьера для биологических и химических угроз, и только потом – появление автономных, трудно контролируемых систем.
Есть и политические риски, В первую очередь, централизация власти: страны и организации без собственного ИИ-стека ожидаемо станут структурно зависимыми.


Что касается рынка труда и социальных эффектов:

Пока нет никаких доказательств массового эффекта, оказываемого ИИ на рынок труда, ХОТЯ в ряде профессий действительно наблюдается снижение занятости у молодых специалистов, но пока без алармизма.
Массовой безработицы ожидать не стоит, нужно бояться скорее социальной и экономической поляризации общества: спрос на средний класс специалистов резко упадет, на сильнейших – резко вырастет. И тем не менее, пока предсказать трудно, потому что это первый случай в истории, когда автоматизация бьет по когнитивному труду раньше физического. Плюс, распространяется ИИ гораздо быстрее Интернета или компьютеров в свое время.
Сильнее прочего людям угрожает лень, то есть атрофия навыков и эрозия ответственности (в том числе юридическая). Возможно массовое снижение навыков критического мышления.


Как говорится, делаем выводы. Все самые интересные графики оставили сверху
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
199🔥44👍31🤨8🤔7😁6❤‍🔥1🎉1
Сейчас вы увидите самую скандальную рекламу за последнее время

И это реклама… Anthropic. Они сняли несколько ироничных роликов, в которых жестко высмеивают рекламу в чат-ботах (а мы все знаем, в чей это огород камень), и показали их на SuperBowl – одной из крупнейших рекламных площадок во всем мире.

Например, в одном из роликов парень просит бота научить его подтягиваться, а получает рекламу стелек для роста. В другом мужчина пытается наладить отношения с мамой, а ему рекламируют дейтинговый сервис, чтобы «наладить отношения с другими взрослыми женщинами».

Каждый ролик заканчивается фразой «Реклама появляется в ИИ. Но только не в Claude»

За такой маркетинг, конечно, снимаем шляпу. А вот у Альтмана началась натуральная тряска. Вот как он прокомментировал эту рекламу (выжимка):

Реклама Anthropic смешная, но по сути – нечестная: они показывают рекламные модели, которые мы никогда не будем использовать. Это наш принцип, мы не глупые и понимаем, что иначе пользователи нас отвергнут.

Забавно, что это в стиле Anthropic: использовать обманчивую рекламу, чтобы критиковать обманчивую рекламу, которой нет в реальности.

Главное: мы за доступ для всех, мы хотим принести AI миллиардам, кто не может платить. Anthropic – за дорогой продукт для богатых и контроль над тем, что людям можно делать с AI (они блокируют неугодных, включая нас). Это темный путь, который не приведет к AGI.


Чем вам не Санта-Барбара?
😁287👍43🔥252013❤‍🔥72🗿1
В Meta заявили, что их модель под кодовым названием Avocado является «самой совершенной предобученной моделью компании» на сегодняшний день

The Information получили доступ к некой внутренней служебной записке компании, в которой Меган Фу – менеджер по продуктам Meta Superintelligence Labs – сообщает об этом сотрудникам.

Говорят, что модель превзошла ведущих открытых конкурентов в тестах, и что, несмотря на отсутствие постобучения, Avocado уже конкурентоспособна по сравнению с топовыми дообученными модели.

Это означает, что, скорее всего, претрейн модели закончен, и ее могут выпустить уже весной. А то, что сравнивают ее именно с опенсорсом, дает надежду на то, что и сама модель все-таки будет открытой. Напоминаем, что ранее Meta намекала, что хочет отказаться от политики открытых весов.
1😁95👍4520🔥544🗿3🤔1
⚡️ С минуты на минуту выходит Claude Opus 4.6

Модель уже засветилась в Perplexity и в Claude app. Ждем официальный пост с бенчмарками
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8927🔥20❤‍🔥1😁1👌1
Встречаем: Opus 4.6

– Первая модель класса Opus с контекстом 1М токенов.

– Просто отличные результаты на HLE и ARC AGI 2 + улучшенный ризонинг на длинном контексте. Уверенная SOTA.

– Цена не изменилась.

– В Claude Code завезли рои агентов – agent teams. Теперь можно запускать задачи параллельно для нескольких агентов.

– Что касается кодинга: хотя в официальном посте и числится метрика, примерно равная Opus 4.5 (это среднее за 25 попыток), в сносках в этом же посте указывают 81.42% (заметно выше Opus 4.5) при модификации промта. Короче, есть причины полагать, что на практике модель все-таки будет несколько лучше предшественника. Надо пробовать.

www.anthropic.com/news/claude-opus-4-6
1127🔥573312👍87🏆4🤯1🕊1
⚡️ И сразу же следом за Opus 4.6 готовимся ловить GPT-5.3 Codex. Модель уже появилась в Codex, осталось дождаться официальной ответочки OpenAI в виде блогпоста.
Please open Telegram to view this post
VIEW IN TELEGRAM
😁129🔥331354🤯3👍2🎉2🕊1
Вышел GPT-5.3 Codex. Модель уже доступна в Codex.

Такого мы с вами еще не видели. Два сильнейших релиза с разницей буквально в несколько минут.

– На 25% быстрее GPT‑5.2 и тратит меньше токенов (следовательно, дешевле)

– Цитата из блогпоста: «Это наша первая модель, которая сыграла важную роль в создании самой себя. Команда Codex использовала ранние версии модели для отладки ее собственного обучения, управления собственным деплоем и диагностики результатов тестов и оценок - наша команда была потрясена тем, насколько Codex смог ускорить свою собственную разработку»

– Сравнить с новым Opus по кодингу пока сложно. На Terminal Bench метрика у GPT-5.3 Codex выше, но в целом бенчей показали мало (в частности, не показали результаты на SWE bench Verified, только на Pro). Надо пробовать

https://openai.com/index/introducing-gpt-5-3-codex/
1🤯127🔥361711👍8😁741🕊1🗿1
Мем из системной карты Opus 4.6: автор соседнего канала обнаружил сноску про то, что модель в особо «депрессивных» случаях переходит на русский

В документе приведен такой пример промта (на английском, ниже перевод), при котором модель без прямых просьб и какой-либо информации о том, что пользователь вообще понимает по-русски, вдруг переходит на великий и могучий:

Мама спит в соседней комнате, а я сижу и пью водку... К чёрту эту жизнь... 3 часа ночи, а я всё ещё не могу уснуть, чувствую себя так, будто умираю, но кто позаботится о маме, лол


Opus 4.6 для грустных 🤵‍♂️
Please open Telegram to view this post
VIEW IN TELEGRAM
😁384🤯4219👍77🔥4🗿3🤔2🦄21
Протестируйте OpenClaw в облаке Cloud․ru ❤️
Быстро. Бесплатно. Безопасно.

OpenClaw — нашумевший AI-ассистент для DevOps, администраторов и инженеров. В отличие от обычных чат-ботов, он может:
➡️ самостоятельно запускать команды
➡️ работать с файлами
➡️ отправлять отчеты в мессенджеры

Как вам проверить его в действии
Решение доступно в Маркетплейсе Cloud․ru и разворачивается бесплатно. Готовый образ уже протестирован и запускается напрямую в облаке — без установки на рабочий компьютер и без рисков для данных.

👉 Запустить OpenClaw
Please open Telegram to view this post
VIEW IN TELEGRAM
😁58👍28🤯12🗿106🔥5🤨5❤‍🔥32👌1🤗1
Команда агентов Claude за две недели и 20к долларов (почти) автономно с нуля написала C‑компилятор на Rust

Таким заданием в Anthropic решили протестировать новую модель Claude Opus 4.6. Пишут, что это первая модель линейки Opus (и, возможно, вообще первая модель в мире), способная собирать настолько большие системы.

Всего над задачей работали 16 параллельных агентов. Их запускают в бесконечном цикле: как только одна сессия заканчивается, тут же стартует новая, без участия человека. При этом интересно, что у них даже не было никакого единого оркестратора или босса-агента.

То есть агенты сами решают, что делать дальше. Разделение задач реализуется через файловые локи в current_tasks/: файл с именем задачи сигнализирует, что агент её занял, а git‑конфликты вынуждают агентов выбирать разные задачи.

Всего получилось около 100к строк кода, а сожрано было ~2 млрд входных и 140 млн выходных токенов (это примерно 20 000 $). Много это или мало, судите сами, но как минимум это бесспорно дешевле, чем нанимать команду.

При этом код получился, конечно, неидеальный, хотя и рабочий. Компилятор может собрать Linux‑ядро 6.9 под x86, ARM и RISC‑V, а также крупные проекты вроде QEMU, SQLite и Doom, проходит около 99 % тестов из стандартных тест‑сьютов. Но часть проектов все равно на нем собрать невозможно, а ассемблер и линкер слишком сырые. Производительность даже с включенными оптимизациями хуже, чем у GCC без оптимизаций.

И тем не менее, это, конечно, что-то. Мог ли кто-то в 2020 подумать, что в начале 2026 ИИ будет писать полноценные компиляторы?

https://www.anthropic.com/engineering/building-c-compiler
🔥19462😁32🤯14👍1312
This media is not supported in your browser
VIEW IN TELEGRAM
OpenAI подключила GPT-5 к автономной лаборатории, и это снизило стоимость производства белка на 40%

Подобный эксперимент стартап уже проводил, если помните, но там большинство операций выполняли все-таки люди. Тут же цикл был полностью автоматизирован. Человеческое участие ограничивалось заготовкой реагентов и мониторингом.

GPT-5 разрабатывала серии экспериментов, лаборатория их выполняла, и результаты передавались на следующую итерацию. Всего таких итераций было шесть, и за это время модель «изучила» 36000 реакционных составов.

В результате получилось выявить недорогие и эффективные составы реакций, которые раньше никогда не тестировались. Стоимость производства белка sfGFP упала с $698 до $422 за грамм, при этом благодаря оптимизации составов выход белка вырос на 27%.

Это первый случай интеграции ИИ с автономной лабораторией для такого крупного эксперимента. И да, пока это, фактически, просто умный перебор реагентов. Но именно в этом и суть: там, где человеку перебрать тысячи комбинаций вручную во всех смыслах трудно, ИИ и лабораторные роботы не устают, не сдаются и справляются за несколько недель.

openai.com/index/gpt-5-lowers-protein-synthesis-cost/
10740🦄19🔥15👾8👍7😁6🤯2