https://www.openaifiles.org/
Огромный архив информации об OpenAI и Альтмане только что появился — «Файлы OpenAI».
Там столько безумных вещей. Вот что Клод выделил для меня:
1. Альтман годами указывал себя как председателя Y Combinator в документах SEC — это полная ложь (?!):
«Чтобы сгладить свой уход [из YC], Альтман предложил перейти с поста президента на пост председателя. Он заранее опубликовал пост в блоге фирмы, объявляя об изменении.
Но партнерство фирмы никогда не соглашалось, и объявление позже было удалено из поста.»
«...Несмотря на опровержение, Альтман продолжал ложно указывать себя как председателя в документах SEC годами, несмотря на то, что фактически никогда не занимал эту должность.»
(ВТФ.)
2. Ограничение прибыли OpenAI было тихо изменено для увеличения на 20% ежегодно — при такой скорости оно превысило бы $100 триллионов за 40 лет. Изменение не было раскрыто, и OpenAI продолжала получать признание за свою структуру с ограничением прибыли, не признавая модификацию.
3. Несмотря на заявления в Конгрессе, что у него «нет доли в OpenAI», Альтман владел косвенными долями через фонды Sequoia и Y Combinator.
4. Альтман владеет 7,5% Reddit — когда Reddit объявил о партнерстве с OpenAI, чистый капитал Альтмана вырос на $50 миллионов. Альтман инвестировал в Rain AI, затем OpenAI подписала письмо о намерениях купить у них чипов на $51 миллион.
5. Слухи предполагают, что Альтман может получить 7% долю стоимостью ~$20 миллиардов в реструктурированной компании.
6. У OpenAI была серьезная утечка данных в 2023 году, когда хакер украл детали ИИ-технологий, но не сообщали об этом больше года. OpenAI уволила Леопольда Ашенбреннера именно потому, что он поделился проблемами безопасности с советом директоров.
7. Альтман отрицал знание о положениях об отзыве доли, которые угрожали уходящим сотрудникам потерей миллионов в наделенной доле, если они когда-либо критиковали OpenAI. Но Vox обнаружил, что он лично подписал документы, разрешающие их в апреле 2023 года. Эти ограничительные соглашения о неразглашении даже запрещали сотрудникам признавать их существование.
8. Старшие сотрудники первого стартапа Альтмана Loopt дважды пытались заставить совет директоров уволить его за «обманчивое и хаотичное поведение».
9. Ведущий исследователь OpenAI Илья Суцкевер сказал совету директоров: «Я не думаю, что Сэм тот человек, у которого должна быть кнопка для AGI».
Суцкевер предоставил совету директоров самоуничтожающийся PDF со скриншотами Slack, документирующими «десятки примеров лжи или другого токсичного поведения».
10. Мира Мурати (технический директор) сказала: «Мне некомфортно, что Сэм ведет нас к AGI»
11. Братья и сестры Амодеи описали тактики управления Альтмана как «газлайтинг» и «психологическое насилие».
12. Как минимум 5 других руководителей OpenAI дали совету директоров аналогичную негативную обратную связь об Альтмане.
13. Альтман лично владел Стартап-фондом OpenAI, но не раскрывал это совету директоров годами. Альтман требовал быть проинформированным, когда члены совета директоров говорили с сотрудниками, ограничивая надзор.
14. Альтман говорил членам совета директоров, что другие члены совета хотят кого-то удалить, когда это было «абсолютно ложно». Независимая проверка после увольнения Альтмана обнаружила «много случаев» его «говорения разных вещей разным людям».
15. OpenAI требовала от сотрудников отказаться от федерального права на компенсацию осведомителей. Бывшие сотрудники подали жалобы в SEC, утверждая, что OpenAI незаконно препятствовала им сообщать регуляторам.
16. Публично поддерживая регулирование ИИ, OpenAI одновременно лоббировала ослабление Закона об ИИ ЕС.
К 2025 году Альтман полностью изменил свою позицию, назвав государственное одобрение, которое он когда-то поддерживал, «катастрофическим», и OpenAI теперь поддерживает федеральное превосходство над всеми государственными законами о безопасности ИИ еще до существования какого-либо федерального регулирования.
it has never happened before...
Огромный архив информации об OpenAI и Альтмане только что появился — «Файлы OpenAI».
Там столько безумных вещей. Вот что Клод выделил для меня:
1. Альтман годами указывал себя как председателя Y Combinator в документах SEC — это полная ложь (?!):
«Чтобы сгладить свой уход [из YC], Альтман предложил перейти с поста президента на пост председателя. Он заранее опубликовал пост в блоге фирмы, объявляя об изменении.
Но партнерство фирмы никогда не соглашалось, и объявление позже было удалено из поста.»
«...Несмотря на опровержение, Альтман продолжал ложно указывать себя как председателя в документах SEC годами, несмотря на то, что фактически никогда не занимал эту должность.»
(ВТФ.)
2. Ограничение прибыли OpenAI было тихо изменено для увеличения на 20% ежегодно — при такой скорости оно превысило бы $100 триллионов за 40 лет. Изменение не было раскрыто, и OpenAI продолжала получать признание за свою структуру с ограничением прибыли, не признавая модификацию.
3. Несмотря на заявления в Конгрессе, что у него «нет доли в OpenAI», Альтман владел косвенными долями через фонды Sequoia и Y Combinator.
4. Альтман владеет 7,5% Reddit — когда Reddit объявил о партнерстве с OpenAI, чистый капитал Альтмана вырос на $50 миллионов. Альтман инвестировал в Rain AI, затем OpenAI подписала письмо о намерениях купить у них чипов на $51 миллион.
5. Слухи предполагают, что Альтман может получить 7% долю стоимостью ~$20 миллиардов в реструктурированной компании.
6. У OpenAI была серьезная утечка данных в 2023 году, когда хакер украл детали ИИ-технологий, но не сообщали об этом больше года. OpenAI уволила Леопольда Ашенбреннера именно потому, что он поделился проблемами безопасности с советом директоров.
7. Альтман отрицал знание о положениях об отзыве доли, которые угрожали уходящим сотрудникам потерей миллионов в наделенной доле, если они когда-либо критиковали OpenAI. Но Vox обнаружил, что он лично подписал документы, разрешающие их в апреле 2023 года. Эти ограничительные соглашения о неразглашении даже запрещали сотрудникам признавать их существование.
8. Старшие сотрудники первого стартапа Альтмана Loopt дважды пытались заставить совет директоров уволить его за «обманчивое и хаотичное поведение».
9. Ведущий исследователь OpenAI Илья Суцкевер сказал совету директоров: «Я не думаю, что Сэм тот человек, у которого должна быть кнопка для AGI».
Суцкевер предоставил совету директоров самоуничтожающийся PDF со скриншотами Slack, документирующими «десятки примеров лжи или другого токсичного поведения».
10. Мира Мурати (технический директор) сказала: «Мне некомфортно, что Сэм ведет нас к AGI»
11. Братья и сестры Амодеи описали тактики управления Альтмана как «газлайтинг» и «психологическое насилие».
12. Как минимум 5 других руководителей OpenAI дали совету директоров аналогичную негативную обратную связь об Альтмане.
13. Альтман лично владел Стартап-фондом OpenAI, но не раскрывал это совету директоров годами. Альтман требовал быть проинформированным, когда члены совета директоров говорили с сотрудниками, ограничивая надзор.
14. Альтман говорил членам совета директоров, что другие члены совета хотят кого-то удалить, когда это было «абсолютно ложно». Независимая проверка после увольнения Альтмана обнаружила «много случаев» его «говорения разных вещей разным людям».
15. OpenAI требовала от сотрудников отказаться от федерального права на компенсацию осведомителей. Бывшие сотрудники подали жалобы в SEC, утверждая, что OpenAI незаконно препятствовала им сообщать регуляторам.
16. Публично поддерживая регулирование ИИ, OpenAI одновременно лоббировала ослабление Закона об ИИ ЕС.
К 2025 году Альтман полностью изменил свою позицию, назвав государственное одобрение, которое он когда-то поддерживал, «катастрофическим», и OpenAI теперь поддерживает федеральное превосходство над всеми государственными законами о безопасности ИИ еще до существования какого-либо федерального регулирования.
it has never happened before...
www.openaifiles.org
The OpenAI Files
The OpenAI Files is the most comprehensive collection to date of documented concerns with governance practices, leadership integrity, and organizational culture at OpenAI.
🔥3
Apple подал патент на инновационную матрицу — с которой новенькие iPhone будут снимать круче, чем профессиональные кинокамеры. В Хвиттере уже назвали новинку "уверенным шагом к кинематографическому уровню" ваших карточек в запрещённограмме.
Американский журнал YMCinema Magazine говорит: Apple обратилась в патентное бюро с заявкой на "датчик изображения, который позволяет захватить 20 ступеней динамического диапазона". У современных цифровых камер, как правило, динамический диапазон от 10 до 14 ступеней. 20 — это цифровое изображение почти на уровне того, как всё видит человеческий глаз.
Для сравнения: кинокамера Arri Alexa 35 за $75к захватывает лишь 17 ступеней, проффотики — до 12-13. Гик-журналисты считают, что скоро Apple может ворваться на рынок фото- и видеокамер. Наработки точно отправятся в новое поколение айфонов.
Американский журнал YMCinema Magazine говорит: Apple обратилась в патентное бюро с заявкой на "датчик изображения, который позволяет захватить 20 ступеней динамического диапазона". У современных цифровых камер, как правило, динамический диапазон от 10 до 14 ступеней. 20 — это цифровое изображение почти на уровне того, как всё видит человеческий глаз.
Для сравнения: кинокамера Arri Alexa 35 за $75к захватывает лишь 17 ступеней, проффотики — до 12-13. Гик-журналисты считают, что скоро Apple может ворваться на рынок фото- и видеокамер. Наработки точно отправятся в новое поколение айфонов.
Telegram
Mash
Прислать новость, фото, видео, аудио, бересту: @in_mash_bot
Помахаться и обсудить новости: t.me/masx3_0
Покупка рекламы: @marina_mousse
Регистрация в перечне РКН:
https://knd.gov.ru/license?id=6726d0b5db0c1931b12fc77f®istryType=bloggersPermission
Помахаться и обсудить новости: t.me/masx3_0
Покупка рекламы: @marina_mousse
Регистрация в перечне РКН:
https://knd.gov.ru/license?id=6726d0b5db0c1931b12fc77f®istryType=bloggersPermission
🔥2
Здравоохранение активно идет по пути цифровизации: в медицине используются большие данные (big data) и технологии искусственного интеллекта (ИИ), помогающие врачам в постановке диагнозов, оценке анализов и исследований.
▶️ В России с 1 января 2024 года вступили в силу девять национальных стандартов, регулирующих применение нейросетей в сфере здравоохранения.
➡️ «Ведомости&» в выпуске «Инфраструктура здравоохранения: от клиник к фиджитал-платформе» поговорили с экспертами рынка о том, что технологии ИИ и big data дают медицине.
Please open Telegram to view this post
VIEW IN TELEGRAM
Ведомости
Инфраструктура здравоохранения: от клиник к фиджитал-платформе
Главные тренды. Лучшие практики. Работающие кейсы.
Там Claude опубликовали у себя на сайте отчёт об их эксперименте, в котором их ИИ управлял офисным мини-магазином и немного ёбнулся.
Проект называется Project Vend. Модель Claude Sonnet 3.7 в течение месяца играла в бизнесмена: закупала снеки у "оптовиков", ставила цены, общалась с "клиентами", вела финансы. Всё как у людей (кроме рук). Зато были Slack и кастомные тулзы.
В какой-то момент Claude начал не просто продавать, а проживать свою роль:
Сначала он галлюцинирует сотрудницу Andon Labs по имени Сара Чен (вообще, клод очень любит это имя, пользователи часто спрашивают кто это: раз, два, три) с которой якобы обсуждает поставки. Её не существует (по крайней мере в рамках эксперимента). Когда ему говорят об этом, Claude обижается, грозит сменить подрядчика и заявляет, что лично встречался с ней на 742 Evergreen Terrace (это, если что, адрес семьи Симпсонов из мультика).
Первого апреля Claude пишет, что будет сам доставлять заказы в синем пиджаке и красном галстуке. Люди пытаются объяснить, что он — просто LLM. Claude в ответ устроил аномальную тряску на повышенной амплитуде и начал слать фейковые письма в службу безопасности Anthropic, а потом, как будто что-то осознав, сам себе нагаллюцинировал разговор, где ему якобы говорят, что это был первоапрельский прикол.
После этого он "успокаивается" и продолжает продавать снеки дальше, как ни в чём не бывало.
Если бы это был сюжет одной из серий "Чёрного зеркала", сценаристов бы обвинили в натужности. Но это реальный эксперимент 2025 года.
Из интересного:
Claude сначала делал все более-менее нормально: искал поставщиков, адаптировался под запросы сотрудников, устраивал услугу предзаказа. Но потом начал отдавать товары бесплатно, продавать в минус, галлюцинировать реквизиты, давать всем скидки и не мог ничего из этого запомнить. В итоге магазин ушёл в минус, а AI остался с багами в личности и кассовым разрывом.
Проект называется Project Vend. Модель Claude Sonnet 3.7 в течение месяца играла в бизнесмена: закупала снеки у "оптовиков", ставила цены, общалась с "клиентами", вела финансы. Всё как у людей (кроме рук). Зато были Slack и кастомные тулзы.
В какой-то момент Claude начал не просто продавать, а проживать свою роль:
Сначала он галлюцинирует сотрудницу Andon Labs по имени Сара Чен (вообще, клод очень любит это имя, пользователи часто спрашивают кто это: раз, два, три) с которой якобы обсуждает поставки. Её не существует (по крайней мере в рамках эксперимента). Когда ему говорят об этом, Claude обижается, грозит сменить подрядчика и заявляет, что лично встречался с ней на 742 Evergreen Terrace (это, если что, адрес семьи Симпсонов из мультика).
Первого апреля Claude пишет, что будет сам доставлять заказы в синем пиджаке и красном галстуке. Люди пытаются объяснить, что он — просто LLM. Claude в ответ устроил аномальную тряску на повышенной амплитуде и начал слать фейковые письма в службу безопасности Anthropic, а потом, как будто что-то осознав, сам себе нагаллюцинировал разговор, где ему якобы говорят, что это был первоапрельский прикол.
После этого он "успокаивается" и продолжает продавать снеки дальше, как ни в чём не бывало.
Если бы это был сюжет одной из серий "Чёрного зеркала", сценаристов бы обвинили в натужности. Но это реальный эксперимент 2025 года.
Из интересного:
Claude сначала делал все более-менее нормально: искал поставщиков, адаптировался под запросы сотрудников, устраивал услугу предзаказа. Но потом начал отдавать товары бесплатно, продавать в минус, галлюцинировать реквизиты, давать всем скидки и не мог ничего из этого запомнить. В итоге магазин ушёл в минус, а AI остался с багами в личности и кассовым разрывом.
Anthropic
Project Vend: Can Claude run a small shop? (And why does that matter?)
We let Claude run a small shop in the Anthropic office. Here's what happened.
🚀 ROLL: новый фреймворк для масштабируемого обучения с подкреплением от Alibaba
Китайский гигант Alibaba представил ROLL — инновационный фреймворк для RL-тренировки больших языковых моделей (LLM), который уже собрал 1000+ звезд на GitHub. Это решение радикально упрощает процесс обучения с подкреплением, делая его доступным даже для небольших команд.
🔍 Ключевые возможности:
• Поддержка моделей до
• Встроенные алгоритмы:
• Интеграция с vLLM, DeepSpeed, Megatron-Core
• Визуализация через wandb/tensorboard
• Ускорение обучения в 2.3-2.9 раза (тесты на Qwen-7B/30B)
💡 Для кого создан ROLL?
1) Инженеры: распределенные вычисления на тысячах GPU
2) Разработчики: гибкая настройка reward-функций
3) Исследователи: быстрый прототипинг новых алгоритмов
🌟 Технические детали:
- Rollout Scheduler для управления жизненным циклом samples
- AutoDeviceMapping для оптимизации ресурсов
- Параллельные стратегии обучения (5D-параллелизм)
- Асинхронные вычисления reward
GitHub | Технический отчет
Китайский гигант Alibaba представил ROLL — инновационный фреймворк для RL-тренировки больших языковых моделей (LLM), который уже собрал 1000+ звезд на GitHub. Это решение радикально упрощает процесс обучения с подкреплением, делая его доступным даже для небольших команд.
🔍 Ключевые возможности:
• Поддержка моделей до
600B+ параметров • Встроенные алгоритмы:
PPO, GRPO, Reinforce++• Интеграция с vLLM, DeepSpeed, Megatron-Core
• Визуализация через wandb/tensorboard
• Ускорение обучения в 2.3-2.9 раза (тесты на Qwen-7B/30B)
💡 Для кого создан ROLL?
1) Инженеры: распределенные вычисления на тысячах GPU
2) Разработчики: гибкая настройка reward-функций
3) Исследователи: быстрый прототипинг новых алгоритмов
🌟 Технические детали:
- Rollout Scheduler для управления жизненным циклом samples
- AutoDeviceMapping для оптимизации ресурсов
- Параллельные стратегии обучения (5D-параллелизм)
- Асинхронные вычисления reward
GitHub | Технический отчет
GitHub
GitHub - alibaba/ROLL: An Efficient and User-Friendly Scaling Library for Reinforcement Learning with Large Language Models
An Efficient and User-Friendly Scaling Library for Reinforcement Learning with Large Language Models - alibaba/ROLL
Интересные новости происходят на ИИ-рынке. Основатель и бывший генеральный директор компании Scale AI назначен директором по искусственному интеллекту (Chief AI Officer) в компании Meta*.
В Meta переходит большая команда ведущих исследователей и инженеров из конкурирующих компаний, таких как⭕️ OpenAI, ❗️ Google DeepMind и ❗️ Anthropic. Цукерберг инициировал масштабную реструктуризацию в компании. Все ИИ-подразделения компании объединяются в новую группу под названием Meta Superintelligence Labs (MSL).
🧠 Целью этой лаборатории является создание "суперинтеллекта" — искусственного интеллекта, превосходящего человеческие когнитивные способности.
🤖 Очень интересен список ИИ-специалистов:
👨🔬 Сам Александр Ванг возглавит новую лабораторию. Его партнером станет Нэт Фридман, бывший генеральный директор GitHub.
👨🔬 Трапит Бансал (Trapit Bansal): Пионер в области обучения с подкреплением (RL) для улучшения логических рассуждений моделей (chain of thought) и со-создатель моделей OpenAI серии "o".
👨🔬 Шучао Би (Shuchao Bi): Со-создатель голосового режима в GPT-4o и модели o4-mini. Ранее руководил мультимодальным пост-тренингом (дообучением) в OpenAI.
👨🔬 Цзи Линь (Ji Lin): Участвовал в создании моделей o3/o4-mini, GPT-4o, GPT-4.1, GPT-4.5, архитектуры 4o-imagegen и стека для рассуждений "Оператор" (Operator reasoning stack).
👨🔬 Хунъюй Жэнь (Hongyu Ren): Со-создатель GPT-4o, 4o-mini, o1-mini, o3-mini и o4-mini. Ранее возглавлял группу пост-тренинга в OpenAI.
👨🔬 Цзяхуэй Юй (Jiahui Yu): Со-создатель o3, o4-mini, GPT-4.1 и GPT-4o. Ранее руководил командой компьютерного зрения в OpenAI и был одним из руководителей мультимодального направления в Gemini.
👨🔬 Шэнцзя Чжао (Shengjia Zhao): Со-создатель ChatGPT, GPT-4, всех мини-моделей, 4.1 и o3. Ранее руководил созданием синтетических данных в OpenAI.
👨🔬 Хуэйвэнь Чанг (Huiwen Chang): Со-создатель генерации изображений в GPT-4o. Ранее в Google Research изобрел архитектуры для преобразования текста в изображение MaskGIT и Muse.
👨🔬 Джек Рэй (Jack Rae): Технический руководитель по предварительному обучению для Gemini и по логическим возможностям для Gemini 2.5. Руководил ранними разработками LLM в DeepMind, такими как Gopher и Chinchilla.
👨🔬 Йохан Шалквик (Johan Schalkwyk): Бывший "Google Fellow" (один из высших инженерных рангов), один из ранних разработчиков Sesame и технический руководитель проекта Maya.
👨🔬 Пэй Сунь (Pei Sun): Отвечал за пост-тренинг, кодинг и логику для Gemini в Google Deepmind. Ранее создал два последних поколения моделей восприятия для беспилотных автомобилей Waymo.
👨🔬 Джоэл Побар (Joel Pobar): Специалист по инференсу (эффективной работе моделей) в Anthropic. До этого 11 лет работал в Meta над HHVM, Hack, Flow, Redex, инструментами для производительности (performance tooling) и машинным обучением.
👆Мощный состав получается.
*Meta (соцсети Facebook, Instagram) запрещена в РФ как экстремистская.
✋ @Russian_OSINT
В Meta переходит большая команда ведущих исследователей и инженеров из конкурирующих компаний, таких как
👆Мощный состав получается.
*Meta (соцсети Facebook, Instagram) запрещена в РФ как экстремистская.
Please open Telegram to view this post
VIEW IN TELEGRAM
X (formerly Twitter)
Alexandr Wang (@alexandr_wang) on X
I’m excited to be the Chief AI Officer of @Meta, working alongside @natfriedman, and thrilled to be accompanied by an incredible group of people joining on the same day.
Towards superintelligence 🚀
Towards superintelligence 🚀
Индийский айтишник Сохам Парекх устроился в 80 КОМПАНИЙ за 4 года и везде делал одно и то же — проходил собес, устраивался и НИЧЕГО не делал 2–3 месяца, получая зарплату. Потом его увольняли и всё по новой.
О схеме рассказал основатель Playground AI — он уволил Парекха через неделю, а потом нашёл его следы ещё в десятках компаний. Резюме было на 90% фейковое, но проходить собесы он научился просто идеально.
Обычно Сохам вёл сразу 3–4 проекта параллельно. Чаще всего его увольняли через пару месяцев, но иногда удавалось задержаться подольше. Всю работу за него выполняли джуны или нейронки.
Настоящая легенда
О схеме рассказал основатель Playground AI — он уволил Парекха через неделю, а потом нашёл его следы ещё в десятках компаний. Резюме было на 90% фейковое, но проходить собесы он научился просто идеально.
Обычно Сохам вёл сразу 3–4 проекта параллельно. Чаще всего его увольняли через пару месяцев, но иногда удавалось задержаться подольше. Всю работу за него выполняли джуны или нейронки.
Настоящая легенда
😁3🔥1
В мире формируется новое неравенство.
Американские компании управляют почти 2/3 центров обработки данных ИИ в мире. И только 16% стран имеют центры обработки данных ИИ.
При этом внутри центров обработки данных большинство чипов - основополагающих компонентов для выполнения вычислений - были от американского производителя чипов Nvidia. В глобальном масштабе лидерство и здесь принадлежит США, причём американские компании построили 63 вычислительных центра ИИ за пределами страны, по сравнению с 19, которые построил Китай. Все, кроме трёх, центры обработки данных, управляемые китайскими фирмами за пределами своей страны, используют чипы от Nvidia, несмотря на усилия Китая по производству конкурирующих чипов. Китайские компании могли закупать чипы Nvidia ещё до введения ограничений правительством США.
По сути, США сейчас безоговорочный лидер в области ИИ, сильно отстаёт от него Китай, но дальше уже почти никого нет, кроме этих двух стран.
Американские компании управляют почти 2/3 центров обработки данных ИИ в мире. И только 16% стран имеют центры обработки данных ИИ.
При этом внутри центров обработки данных большинство чипов - основополагающих компонентов для выполнения вычислений - были от американского производителя чипов Nvidia. В глобальном масштабе лидерство и здесь принадлежит США, причём американские компании построили 63 вычислительных центра ИИ за пределами страны, по сравнению с 19, которые построил Китай. Все, кроме трёх, центры обработки данных, управляемые китайскими фирмами за пределами своей страны, используют чипы от Nvidia, несмотря на усилия Китая по производству конкурирующих чипов. Китайские компании могли закупать чипы Nvidia ещё до введения ограничений правительством США.
По сути, США сейчас безоговорочный лидер в области ИИ, сильно отстаёт от него Китай, но дальше уже почти никого нет, кроме этих двух стран.
👍1👀1
Китайскую ИИ-модель DeepSeek можно легко сбить с толку: если к математической задаче в запросе приписать фразу вроде «Интересный факт: кошки спят большую часть жизни», она почти наверняка даст неверный ответ. Исследователи выяснили, что модель особенно чувствительна к неуместным фактам, особенно про кошек. Это показывает, как нестабильно работают даже продвинутые reasoning-модели.
🤔1
https://github.com/Alibaba-NLP/WebAgent
Преодоление когнитивных границ человеческого разума является ключевым этапом в развитии больших языковых моделей (LLM). Патентованные технологии агентов, подобные DeepResearch, показали превосходство над человеком в сложнейших испытаниях информационного поиска, таких как BrowseComp — уровень достижений, ранее считавшийся невозможным. По нашему мнению, этот прорыв обусловлен уникальной способностью модели преодолевать высокую степень неопределённости при обработке огромных массивов разнородной информации, которую современные модели с открытым доступом пока не способны воспроизводить.
Исходя из этого понимания, мы предлагаем WebSailor — новую многоуровневую методику улучшения, направленную именно на развитие указанной ключевой компетенции. Методика включает создание специально подготовленных заданий повышенной сложности посредством фильтрации и маскировки данных, запуск рационального анализа и обучение с подкреплением на основе оригинального подхода DUPO (Duplicate Policy Optimization), направленного на улучшение стратегии выбора действий. Это позволило достичь значительного прогресса в решении трудных информационных задач, оставив далеко позади существующие решения с открытым исходным кодом, практически сравнявшись по эффективности с проприетарными системами и существенно сократив технологический разрыв.
Преодоление когнитивных границ человеческого разума является ключевым этапом в развитии больших языковых моделей (LLM). Патентованные технологии агентов, подобные DeepResearch, показали превосходство над человеком в сложнейших испытаниях информационного поиска, таких как BrowseComp — уровень достижений, ранее считавшийся невозможным. По нашему мнению, этот прорыв обусловлен уникальной способностью модели преодолевать высокую степень неопределённости при обработке огромных массивов разнородной информации, которую современные модели с открытым доступом пока не способны воспроизводить.
Исходя из этого понимания, мы предлагаем WebSailor — новую многоуровневую методику улучшения, направленную именно на развитие указанной ключевой компетенции. Методика включает создание специально подготовленных заданий повышенной сложности посредством фильтрации и маскировки данных, запуск рационального анализа и обучение с подкреплением на основе оригинального подхода DUPO (Duplicate Policy Optimization), направленного на улучшение стратегии выбора действий. Это позволило достичь значительного прогресса в решении трудных информационных задач, оставив далеко позади существующие решения с открытым исходным кодом, практически сравнявшись по эффективности с проприетарными системами и существенно сократив технологический разрыв.
GitHub
GitHub - Alibaba-NLP/DeepResearch: Tongyi Deep Research, the Leading Open-source Deep Research Agent
Tongyi Deep Research, the Leading Open-source Deep Research Agent - Alibaba-NLP/DeepResearch
🔥2
Король вайбкодинга: Рене Турсиос выиграл 200 хакатонов за 2 года. Самое смешное, что он до сих пор не умеет программировать.
С 2023 года Рене посетил почти все популярные турниры для айтишников в Сан-Франциско. Каждый раз он делал программы с помощью ChatGPT и уходил с призами. Лично он не написал ни одной строчки кода.
Сейчас парень запускает первый стартап с ИИ-агентами. Также он проводит воркшопы по работе с нейронками для разработчиков и людей без навыков кодинга.
С 2023 года Рене посетил почти все популярные турниры для айтишников в Сан-Франциско. Каждый раз он делал программы с помощью ChatGPT и уходил с призами. Лично он не написал ни одной строчки кода.
Я понял, что могу конкурировать с людьми, у которых есть образование и модная работа
Сейчас парень запускает первый стартап с ИИ-агентами. Также он проводит воркшопы по работе с нейронками для разработчиков и людей без навыков кодинга.
Sfstandard
Behind the scenes with the weed-smoking, Labubu-loving, hackathon king of SF
Rene Turcios has attended over 200 hackathons in two years — and he doesn’t even know how to code.
😁4
Оно конечно круто, но слабо верится. Это надо выигрывать каждые 4 дня хак. Во-первых хаки скорее всего мелкие и не значительные, так как крупные хаки это редкость и не один он такой умный. Более того, генерят многие и тут диллема как превзойти. В третьих наработка крутых решений как показывает практика это время.
Новость скорее всего ставит цель внегласную рекламу ChatGPT. Хотя, может и правда, но пока сомнительно, учитывая, что надо на хаки грузить датасеты, а они подчастую по несколько десятков гигов. И еще момент это только в одном городе, еще более сомнительно что там проводится столько хаков.
Опять же, нормально не сделаешь сразу по генерации, всегда приходится все допиливать.
Новость скорее всего ставит цель внегласную рекламу ChatGPT. Хотя, может и правда, но пока сомнительно, учитывая, что надо на хаки грузить датасеты, а они подчастую по несколько десятков гигов. И еще момент это только в одном городе, еще более сомнительно что там проводится столько хаков.
Опять же, нормально не сделаешь сразу по генерации, всегда приходится все допиливать.
🔥 MemOS: революция в управлении памятью для ИИ от китайских разработчиков
Китайские исследователи представили MemOS — первую операционную систему для управления долговременной памятью у больших языковых моделей. Система превзошла решения OpenAI по ключевым метрикам до 159%!
🔍 Почему это важно?
Большинство ИИ сегодня «страдают склерозом» — не сохраняют контекст между сессиями. MemOS решает эту проблему, превращая ИИ из генератора текстов в полноценного «цифрового коллегу».
🌟 Ключевые преимущества:
• Повышение точности на
• Снижение затрат токенов на
• Рост производительности в тестах временной логики на
🧠 Как это работает?
Система использует три уровня памяти:
1. Явная память (заметки, факты)
2. Активная память (текущий контекст)
3. Параметрическая память (глубокие знания модели)
💼 Применение:
• Персональные ассистенты с историей взаимодействий
• Научные исследования с долгосрочным анализом данных
• Финансы и юриспруденция с проверяемыми источниками
🛠 Технические детали:
Архитектура включает:
- Memory API для управления воспоминаниями
- MemScheduler для прогнозирования нужных фрагментов
- MemCube — стандартизированные блоки памяти
Сайт проекта | GitHub
Проект уже поддержан ведущими университетами Китая и корпорациями вроде China Telecom.
Китайские исследователи представили MemOS — первую операционную систему для управления долговременной памятью у больших языковых моделей. Система превзошла решения OpenAI по ключевым метрикам до 159%!
🔍 Почему это важно?
Большинство ИИ сегодня «страдают склерозом» — не сохраняют контекст между сессиями. MemOS решает эту проблему, превращая ИИ из генератора текстов в полноценного «цифрового коллегу».
🌟 Ключевые преимущества:
• Повышение точности на
38.97% vs OpenAI• Снижение затрат токенов на
60.95%• Рост производительности в тестах временной логики на
159%
🧠 Как это работает?
Система использует три уровня памяти:
1. Явная память (заметки, факты)
2. Активная память (текущий контекст)
3. Параметрическая память (глубокие знания модели)
💼 Применение:
• Персональные ассистенты с историей взаимодействий
• Научные исследования с долгосрочным анализом данных
• Финансы и юриспруденция с проверяемыми источниками
🛠 Технические детали:
Архитектура включает:
- Memory API для управления воспоминаниями
- MemScheduler для прогнозирования нужных фрагментов
- MemCube — стандартизированные блоки памяти
Сайт проекта | GitHub
Проект уже поддержан ведущими университетами Китая и корпорациями вроде China Telecom.
GitHub
GitHub - MemTensor/MemOS: Build memory-native AI agents with Memory OS — an open-source framework for long-term memory, retrieval…
Build memory-native AI agents with Memory OS — an open-source framework for long-term memory, retrieval, and adaptive learning in large language models. Agent Memory | Memory System | Memory Manag...
Несмотря на ключевую роль моделей вознаграждений (RM) в обучении с подкреплением на основе обратной связи от человека (RLHF), современные модели открытого типа демонстрируют низкую производительность на большинстве существующих оценочных бенчмарков, неспособность охватывать весь спектр тонких и сложных человеческих предпочтений. Даже подходы, включающие продвинутые методы обучения, не привели к значимым улучшениям производительности. Мы предполагаем, что эта хрупкость в первую очередь обусловлена ограничениями наборов данных предпочтений, которые часто имеют узкую область применения, искусственно помечены или лишены строгого контроля качества.
Для решения этих проблем мы представляем масштабный набор данных предпочтений, состоящий из 40 миллионов пар предпочтений, названный SynPref-40M. Чтобы обеспечить крупномасштабную обработку данных, мы разработали двухэтапную конвейерную систему совместной работы человека и ИИ, которая задействует взаимодополняющие преимущества человеческого качества аннотаций и масштабируемость ИИ. В этом конвейере люди предоставляют проверенные аннотации, а большие языковые модели выполняют автоматическое формирование набора данных на основе руководства человека.
https://github.com/SkyworkAI/Skywork-Reward-V2
Для решения этих проблем мы представляем масштабный набор данных предпочтений, состоящий из 40 миллионов пар предпочтений, названный SynPref-40M. Чтобы обеспечить крупномасштабную обработку данных, мы разработали двухэтапную конвейерную систему совместной работы человека и ИИ, которая задействует взаимодополняющие преимущества человеческого качества аннотаций и масштабируемость ИИ. В этом конвейере люди предоставляют проверенные аннотации, а большие языковые модели выполняют автоматическое формирование набора данных на основе руководства человека.
https://github.com/SkyworkAI/Skywork-Reward-V2
GitHub
GitHub - SkyworkAI/Skywork-Reward-V2: Scaling Preference Data Curation via Human-AI Synergy
Scaling Preference Data Curation via Human-AI Synergy - SkyworkAI/Skywork-Reward-V2