337K subscribers
4.6K photos
942 videos
17 files
5.04K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
Download Telegram
⚡️ Anthropic выпустили Claude Sonnet 4.6

В коде улучшения особенно заметны:
- модель лучше понимает большие проекты
- аккуратнее вносит правки
- реже ломает существующую логику

Anthropic также отмечает рост производительности в долгих сессиях - модель меньше «теряет нить» и держит цель задачи до конца.

Большой скачок по сравнению с Sonnet 4.5
Почти во всех задачах рост:
• Terminal coding: 59% → 51%
• Computer use: 72.5% → 61.4%

Поиск и работа с инструментами: сильный прирост.

Novel problem solving: 58% → 13.6% - огромный скачок

Это значит: модель стала гораздо лучше работать как агент.

Разработчики с ранним доступом:
зачастую выбирают Sonnet 4.6, вместо более мощной Claude Opus 4.5

То есть уровень задач, который раньше требовал Opus-модели, теперь доступен в более дешёвом классе.

И всё это - без изменения цены:
$3 / $15 за миллион токенов (как у Sonnet 4.5).

Модель уже стала стандартной в Claude для пользователей Free и Pro.

https://www.anthropic.com/news/claude-sonnet-4-6

@ai_machinelearning_big_data

#Claude
👨‍💻9896👍47😢32🔥26❤‍🔥23🎉2220💘19🤷19😍17
Media is too big
VIEW IN TELEGRAM
✔️ Релиз паблик-беты Grok 4.20.

xAI начала раскатывать Grok 4.20, которую Илон Маск описал как значительный апгрейд по сравнению с 4.1. Внутри работают сразу 4 агента: Grok, Harper, Benjamin и Lucas. Вместо одиночной генерации они устраивают дебаты: агенты спорят, перепроверяют факты друг друга и выдают согласованный ответ.

По цифрам: контекст 256 тыс. токенов, полная мультимодальность (текст, фото, видео). Ризонинг оценивается в 1505–1535 пунктов ELO.

Grok 4.20 под видом анонимной модели успела проявить себя в торговом соревновании Alpha Arena, показав доходность до 35% на крипторынках. Обновление уже доступно в X и через API.
Elon Musk в сети X

✔️ Mistral AI покупает облачный стартап Koyeb.

Koyeb делал serverless-платформу для развертывания ИИ. Цель предсказуема - интегрировать технологии стартапа в экосистему Mistral. Главный трофей - технология Koyeb Sandboxes, которая создает изолированные среды для безопасного запуска ИИ-агентов.

Mistral планирует внедрить эти наработки в свои продукты и использовать опыт команды для развития платформы Mistral Compute (той самой, что работает на серверах с водяным охлаждением). В марте вся команда Koyeb из 16 инженеров переходит в штат Mistral. Цену сделки не раскрыли.
reuters.com

✔️ OpenAI добавила режим Lockdown Mode в ChatGPT.

Новая настройка безопасности, Lockdown Mode, это "кнопка паники" для корпоративных клиентов, которые боятся утечек и промпт-инъекций.

Работает жестко: при активации система отрубает потенциально опасные инструменты и блокирует внешние запросы за периметр OpenAI. Админы могут включить этот режим принудительно и настроить белые списки для проверенных приложений.

Еще в интерфейсах (ChatGPT, Atlas, Codex) появятся метки Elevated Risk, которые будут предупреждать о функциях, несущих потенциальные риски. OpenAI говорит, что полагаться на мягкие программные фильтры уже нельзя и требуются жесткие архитектурные блокировки.
openai.com

✔️ Unity обещает создание игр через текстовые команды.

CEO Unity Мэтт Бромберг определил "AI-driven authoring" как приоритетное направление развития компании на 2026 год. Компания готовит инструмент, который сможет собирать казуальные игры с нуля, используя только естественный язык.

Бета-версию Unity AI покажут на GDC в марте 2026 года. Технология будет работать нативно внутри платформы, Unity возьмет топовые внешние модели и доучит их понимать контекст движка.

В компании уверены, что такой подход даст результат лучше, чем попытки заставить универсальные LLM писать сложный игровой код. Цель - окончательная демократизация геймдева, порог входа в который, похоже, скоро исчезнет совсем.
wccftech.com

✔️ Western Digital уже распродала все объемы на 2026 год.

По словам генерального директора Ирвинга Тана, почти весь производственный пул выбрали 7 главных клиентов для своих ИИ-проектов. С тремя из них уже подписаны контракты даже на 2027 и 2028 годы..

Бизнес WD меняется на глазах: доля потребительского рынка в выручке упала до 5%. В условиях, когда дата-центры требуют все больше ресурсов для обучения и работы ИИ, производителям становится невыгодно ориентироваться на рядовых пользователей. Деньги теперь там, где нейросети.
mashable.com

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
68🐳43👍20🔥85🤔5😢3🏆1😐1
This media is not supported in your browser
VIEW IN TELEGRAM
✔️ Реклама в Японии - это не просто маркетинг, а часть культуры.

Станция Рёгоку считается священным местом сумо, здесь проходят главные турниры и живёт дух этого спорта.

И даже реклама PlayStation оформлена так, чтобы визуально вписаться в атмосферу района и показать уважение к его традициям.

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
81👍36🔥36🥰7👏6😍6🤩5😁2🌚1🤗1
⚡️ Врываемся на студкемп по аппаратной разработке умных устройств от Яндекс Образования. Осталось 5 дней на регистрацию!

Две насыщенные недели обучения в Москве, с 13 по 24 апреля. В программе — лекции и домашние задания, практические задания и командный проект. Среди спикеров: разработчики Яндекса, участвовавшие в создании Алисы и других умных устройств, а также преподаватели ФПМИ МФТИ, ФКН ВШЭ и эксперты ШАД.

Что даст студкемп:

1. Понимание цикла разработки умного устройства: от идеи до готового продукта.
2. Навыки интеграции машинного обучения в устройства с сохранением их скорости и предсказуемости, даже при ограниченных ресурсах.
3. Знакомство с современными подходами в исследованиях и разработках.
4. Новые знакомства и обмен опытом с профессионалами.

Участие бесплатное. Организаторы покрывают расходы на проезд и проживание для тех, кто прошел отбор. Для тестового потребуются знания C++ или Java/Kotlin, умение работать с командной строкой.

Регистрация открыта только до 22 февраля. Узнать подробности студкемпа и зарегистрироваться можно по ссылке.
26👍128🎉5🤩5😈2🤗1
This media is not supported in your browser
VIEW IN TELEGRAM
2024: Промпт-инженер
2025: Вайб-кодер
2026: Менеджер ИИ-агентов
2027: Безработный
2028: ваш вариант

🙂

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍115😭57😁35🤣22😐11💯8😍7🤨53🔥2😴1
🌟 От ETA к вероятностной модели: новое ML-ранжирование маршрутов.

Мы привыкли, что навигация = минимизация ETA. Но в реальности пользователь сходит с неудобного маршрута, даже если тот экономит 30 секунд. Команда маршрутизации Яндекс Карт пересобрала ранжирование. Теперь варианты оцениваются не только по времени в пути, но и по совокупности факторов, влияющих на удобство поездки.

🟡Как это работает

Ранжированием занимается ML-модель, обученная на обезличенных данных поведения пользователей - агрегированных паттернах, таких как плотность сходов или предпочтения на перекрестках. В качестве метрики было выбрано совпадение фактического трека пользователя с предложенным маршрутом. Этот показатель и стал новым таргетом для ML-модели.

🟡От времени - к портрету маршрута

Раньше маршруты ранжировались в первую очередь по ETA. Теперь каждый вариант описывается сотнями признаков: от времени в пути до сложности манёвров и исторических данных о сходах. На основе этого «признакового портрета» модель рассчитывает скор - вероятность того, что водитель успешно доедет без отклонений.

🟡Как именно учится модель

Акцент при обучении модели сместился: теперь она оптимизируется в первую очередь на то, чтобы первый предложенный маршрут оказался тем, по которому человек действительно доедет до конца. Именно топ-1 получает максимальное внимание, при этом остальные варианты никуда не исчезают и доступны для выбора.

В поездке человек не строит рейтинг маршрутов - он выбирает один, а все остальные варианты для него в этот момент перестают существовать. Поэтому мы перешли от классического «ранжирования» к задаче «выбора», используя функцию потерь на основе Softmax с one‑hot‑таргетом.


🟡Что на практике

Долгое время порядок формировался простой сортировкой по ETA - удобные и предсказуемые маршруты не всегда были на первом месте и иногда вовсе выпадали из топ-3.

- Синий маршрут - результат старого ранжирования (ETA-first);
- Красный - новое ML‑ранжирование, он чуть медленнее по времени, но с него реже сходят.

Модель начала чаще поднимать такие варианты наверх, обходя сложные участки или центр города. В итоге первым оказывается не самый быстрый путь, а тот, который на практике понятнее и чаще проезжаем. При этом пользователю предлагаются и другие варианты и выбор всегда остается за ним.

Такой подход позволяет учитывать реальные сценарии движения и легко масштабируется: модель может учитывать новые факторы - от персонализации до адаптации под локальные дорожные особенности.

Технические детали и логику работы модели команда разложила на Хабре.

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍98🤷‍♂2619🤔16🍾15🙏14🤷12👌11🏆8😎8🔥7
Tiny Aya: семейство мультиязычных SLM.

Cohere Labs выкатили семейство моделей Tiny Aya на 3 млрд. параметров с контекстным окном 8К, которое поддерживает 70+ языков.

Семейство заявляется как достойный кандидат для локальных переводчиков, чат-ботов и образовательных тулзов в оффлайн-режиме. Если необходимо, чтобы было быстро, локально и переводить суахили или кхмерский лучше, чем Llama - это вот оно.

🟡Фишка релиза в дата-инжиниринге.

Tiny Aya учили на 6 трлн. токенов, а проблему нехватки данных для редких языков решали через синтетику от моделей-учителей (своя Command R + DeepSeek-V3).

Вместо того чтобы учить одну модель всему сразу, разбили данные на языковые кластеры (Европа, Азия, Африка и т.д.) и дотюнивали отдельные ветки, после чего смержили эти региональные чекпоинты в глобальную модель Tiny Aya Global.

🟡Состав семейства

Tiny Aya Global: Универсальный чекпоинт для всех языков.

Tiny Aya Earth: Африка и Западная Азия.

Tiny Aya Fire: Южная Азия.

Tiny Aya Water: Азиатско-Тихоокеанский регион и Европа. Мы тут

GGUF: Есть к каждой версии в 4, 8 и 16-бит.

iOS и Android: модели доступны в PocketPal

🟡Результаты тестов

Global-версия бьет Gemma 3-4B в 46 языках из 61 на бенче WMT24++.

На iPhone 17 Pro выдает 32 токена/сек, на стареньком iPhone 13 - около 10 токенов/сек в квантовании Q4_k_m.

Самый высокий показатель безопасности (91.1%) среди конкурентов (Qwen3-4B, Ministral-3-3B).

🟡Капля реализма

Это 3B модель. В сложных задачах она очевидно хуже или где-то рядом с одноклассниками, чудес ждать не стоит.

Несмотря на заявленное разнообразие, английский язык занимает львиную долю датасета во всех кластерах.

При сильном сжатии (ниже Q4) качество начинает заметно страдать, особенно на редких языках.



📌Лицензирование: CC-BY-NC-4.0 License.


🟡Блогпост
🟡Набор моделей
🟡Техотчет
🟡Demo


@ai_machinelearning_big_data

#AI #ML #SLM #TinyAya #Cohere
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🤓57💯36🥱33🤩2722🔥19🦄19😴17🙈16😇14👍13
Media is too big
VIEW IN TELEGRAM
✔️ OpenAI и Paradigm представили инструмент для оценки навыков ИИ в защите смарт-контрактов.

EVMbench - специализированный фреймворк, который проверяет, насколько хорошо языковые модели справляются с 3 задачами: находят баги в коде смарт-контрактов, эксплуатируют их в контролируемой среде и исправляют без нарушения логики контракта.

Тестовая база построена на реальных примерах багов, найденных ранее в ходе аудитов и профильных соревнований.

Авторы рассчитывают, что EVMbench станет отраслевым стандартом, что важно для защиты активов в секторе децентрализованных финансов, где исправить ошибку после деплоя уже невозможно.
openai.com

✔️ Google обновила NotebookLM.

Теперь в NotebookLM сгенерированные презентации можно дорабатывать прямо в диалоге с ИИ, без ручной правки каждого слайда. Достаточно написать, что изменить, и модель перестроит контент сама.

Второе обновление - экспорт в PPTX. Готовую презентацию можно скачать и открыть в Microsoft PowerPoint. Поддержка Google Slides анонсирована, но пока не запущена.
NotebookLM в сети Х

✔️ Perplexity полностью отказывается от рекламы.

ИИ-поисковик прекратил эксперименты с рекламной монетизацией, посчитав, что она фундаментально противоречит миссии сервиса. Несмотря на то, что стартап одним из первых начал тестировать спонсорские ответы в 2024 году, сейчас руководство решило свернуть эту инициативу.

Представители компании пояснили, что их главная ценность - это точность и объективность информации. Даже если промо-блоки четко маркированы и технически не влияли на генерацию текста, сам факт их наличия заставляет людей сомневаться в честности ответов.

В Perplexity пришли к выводу, что для удержания платных подписчиков пользователь должен быть уверен, что получает лучший возможный ответ, не искаженный коммерческими интересами рекламодателей.
ft.com

✔️ Gemini теперь может генерировать музыку.

В чат-бот добавили модель Lyria 3 от DeepMind. На вход она принимает текст, картинку или видео, а если указать в запросе имя исполнителя, Gemini создаст трек в похожем стиле (но скопировать артиста напрямую не получится).

Инструмент в бете, но уже пишет полноценные треки на английском, немецком, испанском, французском, хинди, японском, корейском и португальском языках. Вся музыка, созданная через Lyria 3, получает метку SynthID.
blog.google

✔️ В MIT приспособили языковую модель для удешевления производства лекарств.

Команда инженеров-химиков института адаптировала архитектуру LLM для нужд биотехнологий. Созданный алгоритм помогает промышленным дрожжам Komagataella phaffii эффективнее производить сложные белки, используемые в вакцинах и препаратах от рака.

Суть разработки - решении проблемы генетических синонимов. Одна и та же аминокислота может кодироваться разными триплетами ДНК (кодонами), но на классических методах оптимизации выбор самых часто встречающихся вариантов нередко приводит к дефициту ресурсов клетки и снижению выработки.

Инженеры обучили модель на геноме дрожжей, заставив ее воспринимать ДНК как текст. ИИ не просто запомнил частоту кодонов, но и усвоил скрытый контекст — «синтаксис» их взаимодействия. В тестах на реальных белках, включая человеческий гормон роста и моноклональные антитела, последовательности от ИИ превзошли результаты лучших коммерческих инструментов в 5 случаях из 6.
Технология обещает сократить расходы на разработку новых лекарств, которые на этапе подготовки производства сейчас составляют до 20% от общего бюджета.
news.mit.edu


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
31👏23👍12🔥9🤩8😎5🤔4🎉3🤝1🆒1