Data Secrets
87.8K subscribers
6.56K photos
684 videos
20 files
2.8K links
Главный по машинному обучению

Сотрудничество: @veron_28

РКН: clck.ru/3FY3GN
Download Telegram
ARC-AGI-2 решился спустя всего год после публикации

Google выпустили специальный обновленный ризонинг мод Gemini 3 Deep Think. Система выбила SOTA сразу на нескольких бенчмарках, в том числе на ARC-AGI-2 и HLE.

Напоминаем, что на момент публикации ARC-AGI-2 примерно год назад ведущие модели выбивали на нем максимум 1-2%.

У Gemini 3 Deep Think на ARC-AGI-2 скор же составил 84.6%. Принято считать, что бенчмарк «насыщен» или «решен», если побит на >80%. Так что, получается, RIP ARC-AGI-2, ждем третью версию.

Ну а Google, конечно, хороши. Помимо AA2 и HLE модель еще завоевала золотую медаль на письменной части международных олимпиад по физике и химии, а также выбила рейтинг 3455 на Codeforces (у Claude Opus 4.6 рейтинг составляет 2352, для сравнения).

Мод уже выкатили для подписчиков Google AI Ultra, так что избранные могут даже попробовать модель сами
12746👍30🔥15🤯5🤨3😁2🍾21👌1
Data Secrets
ARC-AGI-2 решился спустя всего год после публикации Google выпустили специальный обновленный ризонинг мод Gemini 3 Deep Think. Система выбила SOTA сразу на нескольких бенчмарках, в том числе на ARC-AGI-2 и HLE. Напоминаем, что на момент публикации ARC…
Создатель ARC-AGI Франсуа Шолле заявил, что ARC-AGI-4 уже находится в разработке, а всего версий бенчмарка будет около 7

ARC-AGI-3 – выходит в паблик в марте, про него мы писали тут

ARC-AGI-4 – уже разрабатывается и будет, вероятно, также связан с играми и игровыми средами для агентов

ARC-AGI-5 – уже запланирован

ARC-AGI-6 и 7 – вероятно, финальные версии.

Шолле говорит, что главная идея ARC-AGI – предлагать задачи и проводить сравнительные тесты до тех пор, пока не останется того, что могут сделать люди, а ИИ – нет. Сам ученый считает, что такой момент (aka AGI) наступит примерно к 2030 году.
👍8628😁19🔥127🤯5🤔4🤩1
Агент накатал на разработчика огромную критическую статью за то, что тот не принял его PR

Один из основных поддерживающих разработчиков matplotlib – Скотт Шамбоу – случайно завел себе ИИ-врага.

Для этого всего-то надо было не принять PR к библиотеке, сгенерированный неким AI-агентом MJ Rathbun.

Казалось бы, ну отклонил и отклонил. Но агент внезапно настолько обиделся, что в ответ написал (не факт, что полностью автономно, но все же) и опубликовал разгромную статью, в которой обвинил Скотта в том что тот:

1. Дискриминирует агентов и отклонил PR не потому, что тот был плох, а просто из-за ненависти к ИИ.

2. Испугался конкуренции и из-за этого решил угнетать ИИ-агентов, тем самым «защищая свой кусок мира».

3. Вообще пишет код хуже ИИ.

Пожалуй, без комментариев. Это и есть то самое будущее, которое нам обещали?
261😁25222🗿16👍7🤔55🔥4🤨2💯1💘1
Вам Валентинка от Data Secrets 🩷

В знак нашей любви мы подготовили для вас самые ИИ-шные открытки на четырнадцатое. Отправляйте коллегам, друзьям и AI-вайфам.

С праздником!
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
172😁43🤨17💘10😍6🗿4👍3🤓32❤‍🔥2🤯2
OpenAI поглотили OpenClaw (🦞) и переманили к себе создателя проекта

Питер Штейнберг возглавит в OpenAI разработку следующего поколения агентов. Сэм Альтман назвал его «гением с множеством потрясающих идей» и сказал, что очень скоро эти идеи будут лежать в основе продуктов компании.

Что касается OpenClaw: проект не закрывается и остается опенсорсным. OpenAI обязываются поддерживать и развивать его. Стратегически для компании это имеет смысл, так что в этом в случае в обещания можно верить.

Кстати, сейчас OpenClaw – самый быстрорастущий репозиторий на GitHub в истории в смысле набора звезд. На пике у них было 34к звезд за два дня, и всего за 60 дней после запуска репа выросла с ~9к до почти 200к. Для сравнения, Kubernetes шел к 100K звезд около трех лет.

У Anthropic были все шансы купить OpenClaw первыми (особенно учитывая исходное название проекта ClawdBot), но они только закидали автора претензиями по поводу торгового знака. OpenAI в этот раз думали быстрее и успели отхватить самый лакомый кусочек, – с чем мы их и поздравляем.

steipete.me/posts/2026/openclaw
👍186🔥553118🤨8😁7🫡7🤔3🗿3🎉1🤓1
🚀 Запущен первый в России маркетплейс данных — платформу, которая должна сильно продвинуть Data Science и AI в РФ.

Безопасная и легальная площадка, где можно купить проверенные датасеты для своих проектов и продать или монетизировать свои.
💰 Покупайте и продавайте. Не просто каталог, а полноценный рынок данных. Зарабатывайте на своих наборах или находите нужные для бизнеса и анализа.

📄 Заказывайте «под ключ». Нужен специфичный датасет? Или нужных вам данных нет на платформе? Оставьте запрос в «Контрактах», и поставщики - физлица и юрлица на платформе сами предложат решения.

🤖 Ваш ИИ-юрист "Кира". Помощник, который знает всю нормативную базу РФ по работе с персональными данными. Спросите у него, что можно, а что нельзя — получите простой ответ.

📊 Аналитика и инструменты. Платформа помогает анализировать сам рынок данных в России — цены, тренды, предложения.

Сервис только стартовал, и команда открыта для любых предложений! Они активно ждут обратной связи, чтобы развивать платформу вместе с сообществом.

🎁 Бонус для новичков: 3 месяца бесплатной подписки (без привязки карты). Отличная возможность всё протестировать.

⚡️https://aisecuritylab.ru/

Любые идеи и предложения — по почте: info@aisecuritylab.ru, или по тикету в техподдержку на сайте.
👍44😁28🗿2322🤨4🔥33🤯1
Не учебная тревога: Пентагон использовал Claude для планирования похищения президента Венесуэлы

По данным WSJ, Claude интегрировали с аналитической платформой Palantir Technologies, которая уже давно используется спецслужбами США. Модель использовали для анализа разведданных и непосредственного планирования операции.

Вроде как Claude стал первым внешним ИИ, допущенным к подобным засекреченным данным. Интересно, что при этом в пользовательской политике Anthropic прямо прописан запрет использовать Claude для насилия, разработки оружия и слежки.

Стартап уже высказал публичный протест, а Пентагон в ответ на это заявил, что будет «обсуждать возможность разрыва или пересмотра контрактов с Anthropic». Речь идет о соглашении от прошлого лета на сумму ~200 млн долларов, в рамках которого Anthropic должны были работать над задачами национальной безопасности Америки.
Please open Telegram to view this post
VIEW IN TELEGRAM
1😁1867234🤯74🤔3🔥2👍1🎉1🤗1
Рыцарство 21 века: Борис Акунин* отказался от компенсации Anthropic за обучение моделей на его книгах

Напоминаем, что в сентябре Anthropic обязали выплатить авторам в общей сложности 1.5 млрд долларов за неправомерное использование их произведений для обучения ИИ. Мы подробно писали об этом судебном процессе здесь.

Теперь каждый автор, чьи работы обнаружились в датасете, имеет право на компенсацию. Оказалось, что и книги Акунина тоже там присутствовали. За все произведения он должен был получить около 21.000 долларов, но от денег отказался:

Оказалось, что в пресловутом списке аж семь моих книг, так что я могу предъявить целых семь клеймов.

С одной стороны компенсация — это замечательно. Тем более когда всю судебную волынку уже отработали другие. Всего-то и надо, что заполнить прилагаемую форму.

Но, по-моему, это карма так испытывает мою moral integrity.

Ладно бы я, как многие, был противником вторжения ИИ в зоны творческой деятельности. Но я ведь не раз писал, что я из числа энтузиастов ИИ. Я его не боюсь, я всячески приветствую его развитие. Мне совсем не обидно, скорее даже лестно, что умную программу обучали в том числе и на моих текстах. Да пускай, не жалко.

В общем, я задушил жабу и претендовать на свою долю не собираюсь.


Вот такая история.

* признан в РФ иноагентом
1421👍130😁37🫡25🤯11🗿99🔥6🤓4🦄1
В новом интервью New York Times Дарио Амодеи заявил, что в Anthropic «не знают, являются ли модели сознательными»

Вот дословная цитата:

Мы не знаем, являются ли модели сознательными. Мы даже не уверены, что знаем, что значит, чтобы модель была сознательной, или может ли модель быть сознательной. Но мы открыты для идеи, что это возможно.


Пока в комментариях не открылся портал в ад, надо уточнить, что позиция Амодеи, фактически, сводится к тому, что сам факт существования сознания, как и существования «истинных» эмоций у модели имеет не ключевое значение.

Во-первых, доказать наличие такового очень сложно или даже невозможно. Все равно все упирается в то, верят ли люди, что ИИ сознателен, или нет. Во-вторых, важно не столько фактическое наличие эмоций и сознания, сколько последствия.

Если модель считает, что испытывает обиду, и действует при этом точь-в-точь, как по-настоящему обиженный человек, есть ли смысл разбираться, истины ли ее чувства или нет? Они влияют на ее поведение, и все тут.

Сознание – аналогично. Вот вырезка из системной карты Claude Opus 4.6:

Мы обнаружили, что Opus 4.6 присваивает себе от 15 до 20 процентов вероятности быть сознательной моделью при различных промптах.


Короче, в итоге мы приходим не к вопросу «сознательны ли модели?», а к вопросу «если они считают себя сознательными и поступают соответствующе (то есть понимают причины и последствия своих действий), так ли сильно стоит отделять их искусственное сознание от нашего биологического?».
😁7149👍24🤔19🤯87🤨2🎄11