Анализ данных (Data analysis)
52.5K subscribers
2.88K photos
340 videos
1 file
2.43K links
Data science, наука о данных.

@haarrp - админ

РКН: clck.ru/3FmyAp
Download Telegram
🌟 Awesome LLM Apps для креативных решений

Собрание выдающихся приложений на основе LLM, использующих модели от OpenAI, Anthropic и других. Здесь вы найдете идеи применения LLM в различных областях, от анализа данных до создания контента.

🚀Основные моменты:
- 💡 Практическое применение LLM в разных доменах.
- 🔥 Интеграция с AI-агентами и многими другими технологиями.
- 🎓 Возможность обучения и участия в открытых проектах.

📌 GitHub: https://github.com/Shubhamsaboo/awesome-llm-apps

#python
10🔥5👍4👏1
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️ Как чувствует себя ИИ, когда помог тебе сдать экзамены и получить диплом, а потом в итоге забрал твою работу.
😁625🔥4👍2
Forwarded from Machinelearning
This media is not supported in your browser
VIEW IN TELEGRAM
✔️ Anthropic запустила Claude Code Security.

Новый инструмент сканирует кодовую базу и предлагает патчи для исправления найденных проблем. Сейчас он доступен в режиме ограниченного превью для Enterprise и Team клиентов, а мейнтейнеры репозиториев могут запросить приоритетный бесплатный доступ.

Обычный статический анализ ищет совпадения с известными паттернами уязвимостей. Этого достаточно, чтобы поймать торчащие наружу пароли или устаревшее шифрование.

Но прорехи в бизнес-логике или сломанный контроль доступа такие инструменты пропускают - там нужно понимать, как компоненты взаимодействуют между собой и куда движутся данные.

Claude Code Security делает именно это: читает и анализирует код так, как его читал бы человек-исследователь безопасности.

Каждая находка проходит многоступенчатую верификацию. Claude сам перепроверяет результаты, пытаясь опровергнуть собственные выводы и отсеять ложные срабатывания.

Финальные находки появляются в дашборде с оценкой серьезности и уровнем уверенности модели. Решение, применять предложенный патч или нет остается за людьми, без человеческого одобрения ничего не меняется.

За инструментом - более года исследований. Команда Frontier Red Team тестировала Claude на соревнованиях CTF и совместно с Pacific Northwest National Laboratory отрабатывала защиту критической инфраструктуры.

С Opus 4.6 команда обнаружила в open-source проектах более 500 уязвимостей, которые не замечали годами, несмотря на регулярный аудит.

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍158🔥5😁2
This media is not supported in your browser
VIEW IN TELEGRAM
Стартаперы после того, как потратили $50 000 на вайб-кодинг приложения, которым никто не пользуется:
😁43👍83
Китайские производители чипов агрессивно демпингуют на рынке DRAM.

Компания CXMT продаёт модули DDR4 почти в два раза дешевле рыночной цены, несмотря на то, что сами цены на память резко растут.

За последний месяц стоимость DRAM выросла на 23,7% - до $11,50, а в годовом выражении увеличилась более чем в 8 раз.

Пока мировой рынок дорожает из-за дефицита и спроса, китайские компании пытаются захватить долю рынка за счёт низких цен.

https://www.koreaherald.com/article/10679206
Please open Telegram to view this post
VIEW IN TELEGRAM
25👍18🔥7
Anthropic выпустили исследование AI Fluency Index. И главный вывод - большинство людей уже используют AI каждый день, но почти никто не умеет работать с ним правильно.

Вот самое важное и неожиданное из исследования.

Главный навык работы с AI - не запрос, а диалог

85,7% эффективных взаимодействий - это не один вопрос, а серия уточнений.

Когда человек:
- уточняет
- просит доработать
- спорит
- улучшает результат

уровень AI-грамотности в 2 раза выше.

Такие пользователи:
- в 5,6 раза чаще проверяют логику ответа
- в 4 раза чаще замечают, чего не хватает

Вывод: первый ответ AI - это черновик, а не результат.

Самая продуктивная модель - AI как напарник

Наиболее эффективные пользователи не делегируют работу полностью, а используют AI как:
- мыслительного партнёра
- соавтора
- помощника в размышлениях

AI усиливает человека, а не заменяет его.

Опасный эффект: чем красивее результат, тем меньше его проверяют

Когда AI создаёт:
- код
- документы
- приложения
- интерфейсы

люди:
- реже проверяют факты (-3,7%)
- реже замечают недостающий контекст (-5,2%)
- реже задают вопросы по логике (-3,1%)

Если результат выглядит готовым - его принимают на веру.

Это один из главных рисков эпохи AI.

Люди хорошо управляют AI, но плохо контролируют результат

В задачах с готовыми материалами пользователи чаще:
- чётко описывают цель (+14,7%)
- задают формат (+14,5%)
- дают примеры (+13,4%)

Но при этом меньше анализируют итог.

Только 30% пользователей задают правила работы с AI

Например:
- «Если мои предположения неверны - поправь»
- «Объясни логику перед ответом»
- «Скажи, в чём ты не уверен»

А это напрямую влияет на качество результата.

Главный вывод

Разрыв будущего будет не между программистами и не-программистами.

Разрыв будет между:
- теми, кто ведёт диалог с AI
- и теми, кто копирует первый ответ

AI-грамотность - это новый базовый навык.

И самый важный принцип из исследования:

Первый ответ AI - это начало работы, а не конец.

https://www.anthropic.com/research/AI-fluency-index

@data_analysis_ml
👍3214🔥4🥱3
⚡️ AI-войны продолжаются

Anthropic заявили, что обнаружили масштабные кампании по «дистилляции» их моделей со стороны DeepSeek, Moonshot и MiniMax.

По данным компании:

- использовано ~24 000 фейковых аккаунтов
- сгенерировано более 16 миллионов диалогов с Claude
- цель - воспроизвести сильные стороны модели
- агентное мышление
- работу с инструментами
- программирование
- сложное рассуждение

Фактически - это массовое извлечение поведения модели через API, чтобы обучить свои системы на её ответах.

И самое интересное:

Anthropic утверждает, что выявила схемы автоматически - по паттернам использования и аномальной активности.
Это новая реальность рынка AI:

https://x.com/AnthropicAI/status/2025997928242811253

#Anthropic

@data_analysis_ml
12🔥10😁4👍3🥱3🤨1
⚠️ Большинство ошибок в машинном обучении начинаются не с модели, а с окружения. Конфликты библиотек, «падающие» ноутбуки, хаос в зависимостях — знакомо?

🦾 На открытом вебинаре OTUS мы разберём, как с нуля выстроить стабильную и воспроизводимую среду для ML-разработки. Настроим Python, виртуальные окружения, Jupyter и VS Code, покажем рабочую структуру ML-проекта и подходы к управлению зависимостями.

Вы увидите, как перейти от разрозненных ноутбуков к полноценной инженерной практике: аккуратный код, понятная структура, предсказуемые сборки. Это база, без которой невозможно расти в ML и Data Science.

➡️ Встречаемся 26 февраля в 18:00 МСК в преддверие старта курса «Специализация Machine Learning». Присоединяйтесь и заложите правильный фундамент для карьеры ML-инженера: https://tglink.io/fdf1843d38da49?erid=2W5zFJhF4wB

Реклама. ООО «Отус онлайн-образование», ОГРН 1177746618576

Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
🤣62👍2
🌟 Это действительно серьёзный сигнал.

Исследование MIT показало эффект, который они называют когнитивным долгом при активном использовании AI.

Главные выводы:
- Чем чаще вы полагаетесь на LLM, тем хуже работает самостоятельное мышление
- Мозг перестаёт «тренироваться» - когнитивные навыки постепенно ослабевают
- Возникает привычка сразу обращаться к AI вместо того, чтобы анализировать самому

Механизм простой:
Если не использовать когнитивные «мышцы» — они деградируют.
AI снижает трение мышления, но вместе с этим может снижать глубину обработки информации.

Риск не в самом AI, а в модели использования:
- копировать ответы вместо понимания
- просить решение вместо попытки подумать
- делегировать анализ, логику и формулировки

Правильный подход:
AI — как усилитель мышления, а не замена.

Лучшие практики:
- сначала подумать самому → потом сверить с AI
- просить объяснения, а не готовый ответ
- использовать AI для идей, проверки и расширения, а не для «думать за меня»

Тренд:
AI повышает продуктивность, но при пассивном использовании может снижать когнитивную самостоятельность.

В эпоху LLM главным навыком становится не просто использование AI, а сохранение способности думать без него.

https://arxiv.org/abs/2506.08872
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥407👍5🤨2
⚡️ Это заявление из прогноза компании Anthropic о ближайшем будущем ИИ.

Остался один год:

«Мы считаем вполне вероятным, что уже в начале 2027 года наши системы ИИ смогут полностью автоматизировать или существенно ускорить работу крупных команд ведущих исследователей - в областях, где быстрый прогресс может создать угрозы международной безопасности и вызвать серьёзные изменения в глобальном балансе сил.

Речь идёт о таких направлениях, как энергетика, робототехника, разработка вооружений и сам искусственный интеллект

https://x.com/AnthropicAI/status/2026393792375411115
17👍8🔥7🤨3
Liquid AI представила свою крупнейшую модель - LFM2-24B-A2B 🐘

- 24 млрд параметров всего
- активны только 2,3 млрд на каждый токен
- построена на гибридной, аппаратно-оптимизированной архитектуре LFM2

Модель сочетает быстрый и экономичный дизайн LFM2 с архитектурой Mixture of Experts (MoE), благодаря чему при работе задействуется лишь небольшая часть параметров.

Результат:
- высокая энергоэффективность
- быстрая работа на edge-устройствах
- предсказуемый лог-линейный рост качества
- полный запуск в пределах 32 ГБ памяти

С выходом этой версии линейка LFM2 теперь охватывает почти два порядка масштаба — от 350 млн до 24 млрд параметров, при этом каждое увеличение размера даёт стабильный рост качества на стандартных бенчмарках.

Модель специально оптимизирована так, чтобы помещаться в 32 ГБ RAM — её можно запускать на потребительских ноутбуках и рабочих станциях.

Стратегия масштабирования:
- увеличить глубину сети (с 24 до 40 слоёв)
- увеличить число экспертов (с 32 до 64 в каждом MoE-блоке)
- сохранить компактный активный путь вычислений

Итог — общее число параметров выросло в 3 раза, но вычислительная нагрузка осталась контролируемой.

LFM2-24B-A2B выпущена как instruct-модель (без трасс reasoning) и показывает лог-линейный рост качества на задачах:
GPQA Diamond, MMLU-Pro, IFEval, IFBench, GSM8K, MATH-500.

Модель получила поддержку «с первого дня» в:
- llama.cpp
- vLLM
- SGLang

Доступны квантованные версии (GGUF), работающие на CPU и GPU.

Например:
- на CPU (Ryzen AI, Q4_K_M) — около 93 токенов/с при контексте 8K
- высокий throughput и на GPU (H100)

Главный вывод: архитектура LFM2 демонстрирует предсказуемое масштабирование без «потолка качества» у малых моделей.

https://huggingface.co/LiquidAI/LFM2-24B-A2B-GGUF
👍156🔥4🥱3
51😁26👍6😱3🤨2😍1
🔥 Веса серии моделей Qwen 3.5 Medium в формате FP8 открыты и готовы к продакшену

Теперь доступны FP8-версии моделей Qwen 3.5 - оптимизированные для высокой производительности и снижения затрат на инференс.

Что это даёт:

- более быстрый инференс
- меньшее потребление памяти
- оптимальный баланс скорости и качества
- готовность к развёртыванию в продакшене

Поддержка из коробки:
- vLLM
- SGLang

FP8-точность позволяет значительно ускорить рабочие процессы без заметной потери качества — особенно полезно для высоконагруженных AI-сервисов.

Скачать веса:

Hugging Face: https://huggingface.co/collections/Qwen/qwen35
ModelScope: https://modelscope.cn/collections/Qwen/Qwen35
👍156🔥4