305K subscribers
4.93K photos
1.1K videos
17 files
5.31K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
Download Telegram
Media is too big
VIEW IN TELEGRAM
✔️ OpenAI закроет возможность файнтюна своих моделей к началу 2027 года

Компания уведомила разработчиков о закрытии платформы самостоятельного дообучения своих моделей. Для новых клиентов возможность запускать тренировки уже заблокирована, а с 6 января 2027 года отключение затронет всех. Инференс существующих кастомных моделей сохранится вплоть до полного вывода их базовых версий из эксплуатации.

Компания смещает фокус с модификации весов на RAG, промпт-инжиниринг и оркестрацию. Консолидация логики внутри экосистемы OpenAI упростит управление обновлениями и биллингом. Тем, кто использовал дообучение для адаптации под узкие ниши, придется пересматривать архитектуру.
startupfortune.com

✔️ В Google DeepMind появился директор по экономике AGI

Профессор Чикагского университета Алекс Имас перешел в Google DeepMind на должность Director of AGI Economics. Он работает в прямом подчинении у сооснователя компании и главного ученого по AGI Шейна Легга.

Команда Имаса займется прогнозированием влияния сильного ИИ на макроэкономику: трансформации рынка труда, перераспределения капитала и адаптации институтов. Отдельный фокус - воздействие автономных ИИ-агентов на рынки.

Для моделирования пост-AGI экономики исследователи задействуют масштабные агентные симуляции. Основная задача нового подразделения - разработать прогностические модели и переосмыслить фундаментальные концепции дефицита и распределения ресурсов.

Имас специализируется на исследованиях на стыке поведенческой экономики и машинного обучения. Также он известен как соавтор книги нобелевского лауреата Ричарда Талера.
Alex Imas в сети Х

✔️ Epoch AI оценила удельную выручку топовых ИИ-лабораторий

По данным Epoch AI, выручка на одного сотрудника в Anthropic достигает $9 млн, в OpenAI - $5,6 млн. Эти показатели выше, чем у любой IT-компании из списка Forbes 2000.
Для сравнения: у NVIDIA этот показатель равен $5,1 млн.

Расчеты Epoch AI опираются на открытые данные о доходах и динамику найма. Аналитики отмечают, что параллельный рост удельной выручки и многомиллиардных годовых доходов нетипичен для технологического сектора.

Высокая капитальная эффективность ИИ-лабораторий достигается за счет концентрации инженеров и масштабного использования вычислительных мощностей. Это обеспечивает уровень производительности, недоступный при традиционной разработке ПО.
epoch.ai

✔️ Higgsfield сделал ИИ-оценщика виральности видео

ИИ-агрегатор запустил инструмент Virality Predictor для моделирования реакции аудитории на видео длиной до 15 секунд. Платформа рассчитывает индекс виральности, вовлеченность с первой секунды и прогнозируемое удержание зрителей.

Инструмент генерирует тепловую карту мозга, которая показывает предполагаемую стимуляцию зрительной коры или миндалевидного тела. Virality Predictor интегрирован в рабочий процесс Ad Reference для перегенерации креативов на основе полученных метрик.

Помимо веб-интерфейса, доступ к оценщику открыт через CLI и MCP. Поддержка MCP позволяет напрямую подключать платформу к Claude Code и OpenClaw. Через API агенты могут генерировать видео, собирать метрики симуляции внимания и самостоятельно корректировать хук на основе полученных данных без участия человека.
higgsfield.ai

✔️ Фейковая модель OpenAI заражала локальные системы инфостилером

Вредоносный репозиторий Open-OSS/privacy-filter возглавил топ Hugging Face, маскируясь под инструмент OpenAI. Под видом модели Privacy Filter распространялся инфостилер для Windows. Проект набрал 244 тысячи скачиваний за 18 часов.

При попытке использования установочные скрипты загружали вредонос, который повышал привилегии в системе через UAC и добавляла себя в исключения Microsoft Defender. Стилер собирал пароли, данные криптокошельков, токены сессий Discord и конфигурации FileZilla, после чего полностью удалял свои следы из системы.

По данным аналитиков HiddenLayer, эта атака использует инфраструктуру, связанную с китайской хакерской группировкой Silver Fox. Администрация Hugging Face уже заблокировала доступ к репозиторию.
thehackernews.com

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍49🤔2815💯8👀8🔥5🤬4🌚3😨2
Палладиевый ИИ-проект «Норникеля»: ставка на технологический суверенитет и рынки будущего
 
За соглашением «Норникеля» и ИОНХ РАН стоит долгосрочная стратегия. Россия — крупнейший производитель палладия в мире. Но чтобы этот ресурс превратился в устойчивый источник доходов и технологического влияния, нужны новые рынки сбыта.
 
Компания инвестирует около $100 млн в палладиевые технологии до 2030 года и уже открыла первую в мире специализированную лабораторию по материалам на основе палладия в кластере «Ломоносов».
 
Сставка на ИИ — это не хайп, а обоснованный ход.
Открытые международные базы (Materials Project и др.) содержат данные о соединениях в идеальных условиях — без учёта деформаций, лигатур, перепадов температур. А именно эти факторы принципиально меняют свойства материалов в реальном производстве. Мировые AI-модели пока не умеют предсказывать поведение сплавов в технологических процессах. Здесь и открывается окно.
 
Платформа «Норникеля» будет генерировать материалы сразу под заданные параметры конкретного техпроцесса. Например:
— финишные покрытия для контактных площадок печатных плат;
— проводящие покрытия для электроники, работающей в экстремальных условиях;
— катализаторы и сенсоры на базе 2D-материалов и высокоэнтропийных сплавов.
 
Только в микроэлектронике перевод части потребления с золота на палладий — это рынок в сотни тонн металла ежегодно. А дальше — водородная энергетика, химическая промышленность, новые типы сенсоров.
 
Более того, «Норникель» строит модель академического хаба: ИОНХ РАН станет центром систематизации данных, и к проекту будут подключаться другие институты и университеты с накопленными экспериментальными базами.
 
Стратегический результат для страны: загрузка высокотехнологичных производств, укрепление позиций в цепочках поставок критических материалов. И главное — компетенция проектировать материалы с помощью ИИ становится одной из ключевых в XXI веке. Здесь, похоже, Россия начинает играть вдолгую.
 
👍65😁22👏15🤔10🔥6🤣43🙈3🤬2🗿1🤷1
✔️ Релиз Ernie 5.1: треть параметров Ernie 5.0 и 4 место в Arena Search Leaderboard

Baidu выпустила языковую модель Ernie 5.1 с закрытыми весами. Затраты на претрейн составили 6% от типичного бюджета для моделей этого класса.

Новинка построена на базе Ernie 5.0, но содержит треть от общего числа параметров и использует вдвое меньше активных параметров при инференсе.

В Arena Search Leaderboard модель заняла 1 место среди китайских сетей и 4 в мире. По заявлению Baidu, в тестах агентов Ernie 5.1 обходит DeepSeek-V4-Pro, а в логике и математике сопоставима с Gemini 3.1 Pro.


Экономия вычислений достигнута за счет методики Once-For-All. Baidu обучала семейство моделей за один проход: сети делят общие веса, варьируясь по глубине и количеству активных блоков MoE.

Основной претрейн выполнили при создании Ernie 5.0, для версии 5.1 потребовалось только извлечь оптимальную конфигурацию.


Для борьбы с эффектом качелей (падение креативности при улучшении логики) применили четырехэтапный файнтюн: SFT, параллельная тренировка узкоспециализированных экспертов, дистилляция их навыков в единую модель-ученика и финальный RL.

Доступ к Ernie 5.1 открыт через онлайн-площадки компании.

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥40🏆3922🎉16👏12🤓7👍6🌭1💯1
🌟 Poolside открыл публичный доступ к кодинг-моделям

Стартап Poolside открыл публичный доступ к своим кодинг-моделям линейки Laguna.

До этого компания работала только с клиентами из государственного и публичного сектора. Релиз подготовила команда ~60 человек.

Poolside - стартап в области генеративного ИИ для разработки ПО, основанный в апреле 2023 года.

Компанию возглавляют бывший технический директор GitHub, курировавший запуск Copilot, и ex-основатель source{d} - одной из первых компаний, применивших ИИ для анализа кода.


🟡Флагман - проприетарная MoE-модель Laguna M.1 (225B-A23B).

SWE-bench Pro - 46,9%
SWE-bench Verified - 72,5%
Terminal-Bench 2.0 - 40,7%

Laguna M.1 доступна через API и OpenRouter. На ограниченное время - бесплатно.

🟡Открытая модель - Laguna XS.2 (33B-A3B)

SWE-bench Pro - 44,5%
Verified - 68,2%
Terminal-Bench 2.0 - 30,1%.

Заявлены: поддержка NVIDIA TensorRT-LLM и NVFP4-версия для Blackwell.

Laguna XS.2 распространяется по лицензии Apache 2.0 через API, OpenRouter, Ollama и на HuggingFace.

Говорят, что локально запускается на Mac с 36 ГБ памяти

Вместе с моделями Poolside предлагает агентную обвязку на базе Agent Client Protocol, на которой тестировались модели и проводился RL.


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🤔41👏1816🎉10👌6👍5
📌Модели при длительной работе с документами в среднем теряют около четверти их содержимого

Команда Microsoft Research опубликовала препринт, в который демонстрирует, что современные LLM при долгом редактировании документов вносят редкие, но серьёзные искажения.

Для проведения эксперимента был создан бенчмарк DELEGATE-52 из 310 рабочих сценариев в 52 областях, от программирования и кристаллографии до нотной записи и генеалогии.

Методика тестирования основана на принципе обратимости: модель получает задание изменить документ, а затем - обратную инструкцию, которая должна вернуть его к исходному виду. Чем сильнее итоговый файл отличается от оригинала, тем больше накопленных ошибок.

В эксперименте прогнали 19 моделей, включая GPT-5.4, Claude 4.6 и Gemini 3.1 Pro на документах в 3–5 тысяч токенов и контекстом до 12 тысяч токенов.

По результатам эксперимента, после 20 последовательных правок эти 3 модели в среднем повреждают около 25% содержимого документа, а среднее значение по всей выборке составило около 50% потерь.

Лучший результат показала Gemini 3.1 Pro: она признана готовой к делегированию (≥98% сохранения исходного содержания) только в 11 из 52 областей.

Единственная область, где большинство моделей справляется почти без потерь, — программирование на Python: 17 из 19 моделей сохраняют код практически без искажений.


Хуже всего модели работают с тестом и редкими форматами: рецептами, художественной прозой, нотами и финансовыми отчетами.

Дополнительные тесты показали, что подключение агентских инструментов поиска, выполнения кода, прямой правки файлов - в базовой реализации не улучшает результат, а в среднем добавляет около 6% потерь.

Авторы заметили, что объём документа, длина взаимодействия и наличие посторонних файлов в контексте также ухудшают качество, причём эти эффекты, накапливаются и со временем усиливают друг друга.


По наблюдениям, потери распределены неравномерно: чаще всего модель работает почти безупречно, но раз в несколько шагов допускает резкий сбой и теряет 10–30% содержимого за одну итерацию. Такое поведение объясняет около 80% всех зафиксированных потерь.

Слабые модели чаще удаляют фрагменты целиком, топовые - искажают то, что остаётся в документе.


📌Лицензирование: MIT License


🟡Arxiv
🟡Датасет
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #LLM #DELEGATE52 #Microsoft
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🤔32👍27😇19👏12👀1110🤣3🔥1
Энтузиаст собрал «Википедию», где всё на 100% выдумано ИИ

Проект называется Halupedia.

На сайте нет заранее написанных статей. Каждая страница появляется только в тот момент, когда ты её открываешь. Правило одно: эта вселенная существует только пока на неё кто-то смотрит.

Выглядит всё почти как Wikipedia: шрифты, верстка, академический тон, ссылки, случайная статья через stumble. Только есть маленький нюанс - ничего из этого не существовало до клика.

Примеры статей там уже сами по себе прекрасны:

- Великая перепись голубей 1887 года
- Министерство слегка неправильных карт
- Халдическая арифметика - раздел математики, где запрещено вычитание
- Армунд, картограф рек - человек, который нанес на карту 14 000 лиг рек, не вставая со стула
- Общество по предотвращению ненужных вторников

На странице ещё показывается, сколько людей читают статью прямо сейчас. Обычно там фраза в духе: «вы один сейчас изучаете этот фолиант».

Но лучший поинт - описание от автора:

«Энциклопедия вселенной, которая не существует, пока вы её не посетите».

Бэкенд тоже в тему: open-source репозиторий vibeserver с описанием «маленький веб-сервер, который придумывает вещи ровно вовремя».

Мы построили крупнейшую базу знаний в истории человечества, а потом кто-то сделал её кривое галлюцинирующее отражение и выложил в открытый интернет.

Вот это уже нормальное использование ИИ.

halupedia.com

@ai_machinelearning_big_data
2🔥60🤣4717👍15🤓9🎉6😁1💔1🤨1🙉1