Технозаметки Малышева
8.53K subscribers
3.81K photos
1.43K videos
40 files
4K links
Новости инноваций из мира Искусственного Интеллекта. 🤖

Всё об ИИ, ИТ трендах и Технологической Сингулярности.

🤖: @ai_gptfreebot [бесплатный бот]
✍️: @tsingular_bot [каталог ботов и курсов]

💸[поддержка]: pay.cloudtips.ru/p/c8960bbb
Download Telegram
Forwarded from Machinelearning
⚡️ Qwen2.5 Family: Релиз Qwen2.5, Qwen2.5-Coder и Qwen2.5-Math.

Команда разработки Qwen (Alibaba Group) опубликовала большой релиз нового поколения моделей - Qwen2.5, специализированные модели: Qwen2.5-Coder, Qwen2.5-Math, их инструктивные и квантованные версии, анонсированы закрытые Qwen-Plus и Qwen-Turbo.

Вместе с релизом нового поколения 2.5 в отрытый доступ опубликована Qwen2-VL-72B-Instruct предыдущего поколения.

▶️ Qwen2.5

В дополнение к традиционным вариантам с 0,5-1,5-7-72 млрд параметров, Qwen2.5 предлагает две новые модели среднего размера 14 млрд и 32 млрд параметров и компактную модель 3 млрд параметров.

Qwen2.5 обучались на увеличенном и улучшенном наборе данных размером в 18 трлн токенов.

Значительно расширены знания моделей: возможности в области программирования,
усовершенствованы математические способности Qwen2.5, повышено соответствие ответов модели предпочтениям человека: следование инструкциям, генерация длинных текстов (до 8 тыс. токенов), понимание структурированных данных и генерация структурированных выводов (в частности, JSON).

Список моделей:

🟢Qwen2.5: 0.5B, 1.5B, 3B, 7B, 14B, 32B, 72B;

🟢Qwen2.5-Instruct: 0.5B, 1.5B, 3B, 7B, 14B, 32B, 72B;

🟢Qwen2.5-Instruct: все варианты в форматах GPTQ, AWQ, GGUF.

В дополнение к этим моделям открыт доступ по API для флагманских моделей: Qwen-Plus и Qwen-Turbo через Model Studio.

▶️ Qwen2.5 Coder

Qwen2.5-Coder доступна в трех размерах: 1,5 млрд, 7 млрд и 32 млрд параметров (последняя появится в ближайшее время). Обновление состоит из двух основных улучшений: больше объем обучающих данных и расширение возможностей программирования в общих задачах и в математике.

Модели обучались на массиве данных объемом 5,5 триллиона токенов, включающем исходный код, данные для сопоставления текста и кода и синтетические данные.

Qwen2.5-Coder поддерживает до 128 тысяч токенов контекста, знает 92 языка программирования и выполняет операции по генерации кода, автодополнению и исправлению кода.

Qwen2.5-Coder-Instruct имеет способность к обобщению, знает более 40 языков программирования, справляется с задачами, связанными с логическим мышлением в коде, и показывает высокие результаты в задачах, связанных с математическим мышлением.

Список моделей:

🟠Qwen2.5-Coder: 1.5B, 7B;

🟠Qwen2.5-Coder-Instruct: 1.5B, 7B;

🟠Qwen2.5-Coder-Instruct в формате GGUF: 1.5B, 7B.


▶️ Qwen2.5 Math

Qwen2.5-Math обучались на корпусе математических данных Qwen Math Corpus v2, который содержит более 1 трлн. токенов.

Помимо базовых моделей, серия Qwen2.5-Math включает в себя инструктивные модели: Qwen2.5-Math-Instruct и модель математического вознаграждения, Qwen2.5-Math-RM-72B.

Qwen2.5-Math-Instruct обучалась с использованием данных CoT и TIR на китайском и английском языках, а также данных SFT, созданных с использованием Qwen2.5-Math-RM-72B.

Список моделей:

🟠Qwen2.5-Math: 1.5B, 7B, 72B, RM-72B;

🟠Qwen2.5-Math-Instruct: 1.5B, 7B, 72B.


▶️ Вместе с релизом Qwen2.5, опубликована Qwen2-VL-72B-Instruct и ее квантованные Int8 и Int4 версии в форматах GPTQ, AWQ.


📌Лицензирование:

🟢Apache 2.0 для всех base и instruct моделей, кроме 3B и 72B.
🟠Qwen2.5-3B - Qwen Research License.
🟠Qwen2.5-72B и Qwen2.5-Math-72B - Qwen License.



🟡Страница проекта
🟡Коллекция моделей на HF
🟡Demo Qwen2.5-Instruct-72B
🟡Demo Qwen2.5-Coder-Instruct-7B
🟡Demo Qwen2.5-Math
🟡Сообщество в Discord
🖥Github


@ai_machinelearning_big_data

#AI #ML #LLM #Qwen
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
4👍1
Forwarded from Data Secrets
No Context Russia
😁11🎃2
ИИ в ИБ - на примере защиты веб сайта

Провёл тут небольшое упражнение:

Берём простой сайт, буквально лэндинг с чат-ботом (это чтобы API security тоже проработать), запускаем и смотрим логи.

В логах сразу видим разных ботов и прочие хакер-сканеры. Буквально через пару минут они к вам придут, если не быстрее.

Но у нас же ИБ паранойя, - начинаем думать что бы прикрыть в первую очередь своими силами.

Security Hardening, - есть такой базовый термин - настроить то, что уже есть под рукой или взять open source.

Берём какой-нибудь более менее бесплатный внешний сканер (или платный в режиме промо), смотрим что же у нас не так.

Получаем на почту отчет, - в моём примере он что-то в размере 5 средних и 4 не страшных уязвимостей нашел и еще рекомендации дал WAF поднять и еще по мелочи.

Берём этот отчёт и кормим Sonnet 3.5 вместе с конфигом nginx! тут важно, чтобы он не нагалюцинировал что-то, что порушит ваш текущий конфиг!

И получаем на выходе новый исправленный конфиг и еще описание шагов по установке WAF и настройке ufw и т.д.

Получается можно очень быстро поднять уровень безопасности своей веб инфраструктуры без привлечения вообще никого за несколько десятков тысяч токенов, - т.е. даром.

Мастер-класс нужен кому ? :)

#securityhardening #security #manual
———
@tsingular
1🔥18👍94
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
Media is too big
VIEW IN TELEGRAM
Это видео я хотел прикрепить к посту про то, что Lionsgate заключила сделку с Runway.

Но забыл.

Исправляюсь. Это картинки из Флюкса+Лоры, присунутые в Runway. В большом количестве.

На реддите отчаянно ищут блох - зубы кривые, башка большая, тело маленькое..

Стадия гнев. Скоро депрессия и принятие.

Обратите внимание, ничего (почти) не кипит, это вам не AnimDiff, это video генерация

Заберите девочку и скормите ея в video2video. Она и так хороша, но можно будет снимать сериалы и накидывать на них скины: аниме, пластилин, киберпанк..

И тут мне пришла в голову идея выпить за модный эмоциональный интеллект.

Берем актеров и студентов актерских вузов, курсов, тусовок. Размечаем датасет. Тут радость, тут грусть, тут нереальное сопререживание, тут чудовищная эмпатия.
Дальше пишем промпты. Точнее пишем, что надо выдавить из кожаного зрителя, а chatGPT или Жан Клод напишет оптимальный промпт для генерации.

Ну, за эмоциональный интеллект, которые плавно приватизирован искусственным интеллектом.

@cgevent
👍12
🫥Paper Watch: Методы для обнаружения утечек данных в LLM

В новом выпуске #paperwatch разбираем самые последние статьи по детекции утечек данных в LLM:

1️⃣DETECTING PRETRAINING DATA FROM LARGE LANGUAGE MODELS
2️⃣Min-K%++: Improved Baseline for Detecting Pre-Training Data from Large Language Models
3️⃣ Generalization or Memorization: Data Contamination and TrustworthyEvaluation for Large Language Models

👀Запись
💭Слайды

#nlp #llm
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Machinelearning
🌟 Агенты GenAI: Репозиторий Github c обширной базой знаний и примерами.

GenAI-агенты - это системы ИИ, способные взаимодействовать с окружающим миром и выполнять разнообразные задачи, подобно человеку. В отличие от традиционных систем ИИ, GenAI-агенты обладают большей гибкостью, адаптивностью и способностью к обучению.

Репозиторий - кладезь теоретических и практических знаний: примеры, начиная от простых разговорных ботов до сложных многоагентных систем, обучающие материалы для всех уровней — от начинающих до опытных пользователей, заинтересованных в изучении и применении современных технологий GenAI.

Простые агенты:

🟢простые диалоговые агентов и агенты для ответов на вопросы;
🟢агенты для анализа данных;

Агенты для конкретных задач:

🟠клиентская поддержка;
🟠оценка эссе и сочинений;
🟠планировщик путешествий;

Творческие агенты:

🟢агент генерации GIF-анимации;
🟢агент для генерации речи на основе текста;
🟢агент для генерации музыкальных композиций;

Сложные системы агентов:

🟠разговорный агент с расширенной памятью;
🟠многоагентные системы;
🟠самосовершенствующиеся агенты;
🟠агенты, ориентированные на выполнение задач;
🟠агенты для поиска и обобщения информации в Интернете;
🟠 исследовательские группы агентов на базе Autogen;

Специальные сложные агенты:

🟢агент для комплексных задач с использованием RAG.


▶️Практическое изучение и создание агентов GenAI::

# Клонируйте репозиторий
git clone https://github.com/NirDiamant/GenAI_Agents.git

#Перейдите к интересующей вас технике
cd all_agents_tutorials/technique-name

#Следуйте подробному руководству по применению в каталоге каждой техники.


📌 Лицензирование : Apache 2.0 License.


🟡Сообщество в Discord
🖥Github


@ai_machinelearning_big_data

#AI #ML #Agents #AwesomeGenAI #Github
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥8
Перезапуск Three Mile Island: АЭС оживят для ИИ-проектов Microsoft

Компания Constellation Energy перезапустит реактор на Three Mile Island в связи с дефицитом мощностей под ИИ-проекты Microsoft.
20-летний контракт обеспечит 835 МВт мощности и создаст 3400 рабочих мест.
Проект принесёт экономике Пенсильвании $16 млрд. и продлит работу АЭС до 2054 года.
Станцию переименуют в Crane Clean Energy Center, запуск намечен на 2028 год.
Это отражает тренд роста потребления генерации на фоне бума ИИ проектов в мире.
К 2030 году потребление энергии дата-центрами вырастет на 160%.
Потенциал необходимого объёма в будущем на порядок превышает текущие мощности.

1 B200 - 1кВт, грубо. + 50%, допустим, на обвязку.
1 электростанция на ~500тыс видеокарт, что не мало, конечно, но в целом впритык.

Покупаем акции Росатома, получается :)

#ThreeMileIsland #Microsoft #ConstellationEnergy
-------
@tsingular
8👏1😁1
Автоматизация защиты от дефейса на примере AWS и CloudWatch Synthetics

А вот еще простая, но интересная техника наблюдения за сайтом, - не взломали ли его и не подменили ли страницу.

Система использует скрипты, регулярно делающие скриншоты сайта и сравнивающие их с эталонными.

При превышении порога расхождения запускается автоматическое реагирование через EventBridge и SNS.

Для минимизации ложных срабатываний предусмотрено исключение динамического контента и настройка порогов.

В случае подтверждения атаки AWS WAF может оперативно развернуть страницу обслуживания.

Ну т.е. теперь можно ИИ заставить посмотреть на скриншот (каждую минуту, его глазки-то не жалко) и определить есть ли изменения за пределами нормы, - если есть, решаем скриптами или зовём человеков.
И причём эта система может же быть удалённой, мониторить ИИ-глазками сайты.
Вот вам и стартап. :)

#AWS #CloudWatch #cybersecurity
-------
@tsingular
🔥111👍1
Salesforce открывает бесплатные курсы по ИИ для всех

Крупнейший CRM-провайдер запускает масштабную образовательную инициативу в сфере искусственного интеллекта.
Онлайн-платформа Trailhead предоставит доступ к курсам до конца 2025 года.
В штаб-квартире компании в Сан-Франциско откроются пространства для очного обучения.
Для 72 000 сотрудников Salesforce вводятся ежеквартальные дни обучения ИИ с практикой на инструментах Agentforce.
Программа включает основы ИИ, этичное использование и промптинг.
40% из 2,6 млн значков по ИИ на Trailhead уже получены работниками компании.

Salesforce очень сильно рванул вперёд в ИИ гонке именно в плане применения в бизнесе.
Т.е. они не разрабатывают ИИ модели, но тюнят готовые от лидеров и создают экосистемы вокруг.
В том числе, как видим, - теперь и курсы.
Ежеквартальное обучение сотрудников новинкам ИИ, - это вообще что-то за гранью! 🤖💼
Одобряю.

#Salesforce #Trailhead #AIEducation
-------
@tsingular
👍21
Forwarded from Data Secrets
Microsoft оценили рост популярности ИИ

И самое интересное, что сделали они это очень крутой метрикой: не объемами рынка, не числом новых стартапов, не суммой инвестиций и вот этим всем, а с помощью простого человеческого количества ИИ-контрибьютов на GitHub в минуту.

Получился вот такой симпатичный график. Как всегда, видна четкая граница до/после релиза ChatGPT. Всего с этого момента рост метрики произошел на 230% (!!!), и это действительно показательно (потому что где, как не на гитхабе, сейчас наблюдать тренды экономики?)

Красивое, в общем 😍
Please open Telegram to view this post
VIEW IN TELEGRAM
6👍2🍓2
This media is not supported in your browser
VIEW IN TELEGRAM
GameGen-O: революция в создании видеоигр с открытым миром

Tencent представила GameGen-O - первую диффузионную трансформер-модель для генерации видеоигр с открытым миром.
Разработка симулирует функции игрового движка: персонажей, окружение, действия и события.
Модель обучена на OGameData - наборе данных из сотни игр с открытым миром.
Двухэтапное обучение включает предварительную тренировку и настройку инструкций через InstructNet.
GameGen-O сочетает креативную генерацию с интерактивным контролем, предлагая альтернативу традиционным техникам рендеринга.

Скоро геймдизайнеры будут просто описывать идею игры или фильма, а ИИ сделает всю черновую работу.
Разработчикам и сценаристам достаточно будет на словах описать свою идею.
А нужны ли они будут тогда?
Может игрок или зритель сам скажет что хочет увидеть сегодня. 🎮🤖

#GameGen #Tencent #Games #Китай
———
@tsingular
🔥35🤔8👏6👍4👀32
Forwarded from NLP Wanderer
🔥 Новые модели Vikhr: Приближаемся к локальной gpt-4o-mini, собственный метод алайнмента и Grounded RAG

Мы выпускаем в релиз свои лучшие модели и тулкит алайнмента. который использовался для их тренировки.

Итак, наш флагман - Vikhr-Nemo-12B-Instruct-R-21-09-24 (карточка на HF)

12B модель на основе Mistral-Nemo, с качеством на русском языке в некоторых задачах не хуже gpt-4o-mini и имеет 128к токенов контекста, была специально заалайнена под решение широкого спектра задач на реальных и синтетических вопросах пользователей, включая код, математику, суммаризацию, ризонинг, ответы в специальном формате (JSON/HTML и тд) и многие другие.

Модель получила винрейт 79.8 (относительно gpt-3.5-turbo) на оффлайн бенчмарке Ru-General-Arena, что лучше любой текущей опенсорс модели до 30В для русского языка.

Для достижения такого качества мы собрали большой инструктивный датасет со втроенным CoT, что позволило сильно прочкать ризонинг модели, далее обучили Reward модель, сделали Rejection Sampling и применили собственный метод SMPO (вариация DPO) для выполнения преференс-тюнинга.

Вторая модель - Vikhrmodels/Vikhr-Llama3.1-8B-Instruct-R-21-09-24 (карточка на HF)

Так же обучена Llama-3,1-8B и имеет аналогичный размер контекста в 128k токенов. Винрейт на Ru-Arena-General - 63.9, что делает ее одной из лучших 8B моделей дла русского языка.

Модели обучены работать с RAG

Обе модели имеют уникальную особенность - они заалайнены для работы с RAG, т.е. используя системный промпт и спец. роль documents, вы сможете подавать ей документы в стандартизированной форме (JSON). При этом сам текст каждого документа может быть грязным чанком HTML, Markdown или Plain text формата до 4к символов каждый.

Модели умеют выделять информацию из предоставленных документов самостоятельно, реализуя таким образом "реранкер" на уровне LLM. Это сделано за счет двух-этапного ответа. Первый ответ модели представляет из себя JSON со списокм релевантных идентификаторов документов, а второй, если юзер его запросит, будет уже текстовым ответом модели на вопрос пользователя.

Благодаря такому обучению, на нашем бенчмарке для RAG (судья gpt-4o) Vikhr-Nemo показала качество в RAG задачах даже лучше, чем gpt-4o-mini (цифры в карточках моделей)

SMPO - Simple Margin Preference Optimization

Наш собственный метод выравнивания, разработанный для стабилизации прцоесса PO. Этот метод во многом заимствует идеи IPO, SimPO, C-RLFT, а также содержит собственную функцию потерь для разделения выбранных и отклоненных пар, отказываясь от классической сигмойды.

Основная идея метода заключается в стремлении плавно достичь желаемого уровня margin, не заставляя модель переобучаться, в том числе с помощью добавления балансирующего SFT лосса для выбранных и отклоненных вариантов одновременно.

Тулкит на Github - effective_llm_alignment

Репозиторий содержит скрипты и конфиги которые использовались для всех этапов обучения моделей. он позволяет удобно работать с основными методами алайнмента для LLM, включая наш SMPO.

Больше подробностей о моделях, как с ними работать, бенчмарках, процедуре обучения, вы можете найти в их карточках на HF.

Поиграться с Vikhr-Nemo-12B можно в tg bot_e (@vikhrbot), Gradio инференс
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
На Подмосковных Вечерах клуба 4CIO
https://pv2024.4cio.ru/

Первые 4 часа,- огромная детальная сессия мастер-класс по ИИ в бизнесе.

Интересные практические приёмы.
Позже будет в записи,- поделюсь тут.

#4cio #ПВ2024
------
@tsingular
🔥11
Forwarded from Data Secrets
Андрей Карпаты выложил видео с 20-минутным рассказом о том, как он создавал знаменитый llm.c проект

Кратко: его не устраивал PyTorch и метод compile и он решил переписать все сам на C 😃

Сейчас llm.c – космически популярный для петпроекта релиз. Разработчики продолжают добавлять туда оптимизации, а в скором времени обещают завезти поддержку llama-3.1

Идеально для просмотра в воскресенье
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2
UltraPixel: 4K+ генерация детальных изображений сверхвысокого качества

На Гитхабе появилась новая моделька, которая, по описанию, генерит изображения с ультравысоким разрешением и мега-детализацией.

Проект основан на StableCascade и Trans-inr, поддерживает ControlNet для точной генерации, а также позволяет обучать модели на собственных данных.

По ссылке - инструкции по установке, использованию и оптимизации под различные GPU.

Звучит как фантастика, на самом деле. Локально генерить картинки в таком качестве и разрешении...
По описанию на RTX 4090 24G 4096х4096 генерит за 44 секунды.

Если есть у кого возможность, - проверьте, накидайте в комментах генерации, я пока занят на конфе.
Завтра обязательно проверю.

UPD: из исходников не запустилось, но получилось сделать копию HF Space через докер:

docker run -it -p 7860:7860 --platform=linux/amd64 --gpus all registry.hf.space/roubaofeipi-ultrapixel-demo:latest python app.py

на 3080 mobile примерно 2 минуты на картинку 2048

#UltraPixel #ImageGen #highres
———
@tsingular
👍133🔥1
Ответы на вопрос - в каких задачах ваша компания использует ИИ сейчас?

Ответ - Никакие - самый популярный 😂.

Человечество в безопасности :)

#4CIO #ПВ2024
------
@tsingular
🤔8😁6💯4👍3
Qwen2.5-Coder по тестам в разработке превосходит более тяжелые варианты DeepSeek Code

Qwen2.5-Coder, как был анонс выше, релизнули в вариантах 1.5B и 7B параметров.

Qwen2.5-Coder-1.5B
https://hf.co/qwen/Qwen/Qwen2.5-Coder-1.5B

Qwen2.5-Coder-7B
https://hf.co/qwen/Qwen/Qwen2.5-Coder-7B

И по тестам, получается, что Qwen2.5-Coder лидирует в бенчмарках HumanEval, MBPP, BigCodeBench и MultiPL-E, превосходя более крупные модели.

Показывает интересные результаты в генерации и автодополнении кода, а так же в Text-to-SQL задачах.

И вот не понятно, то ли правда китайские товарищи умудрились упаковать математическую мудрость в столь малый размер или это всё-таки файнтюн под бенчмарк.
В общем, нужно тестить.

Ну и традиционно, Qwen2.5 уже есть в ollama варианте:
ollama run qwen2.5

#Qwen #code #Alibaba #Китай
———
@tsingular
1