Технозаметки Малышева
8.53K subscribers
3.81K photos
1.43K videos
40 files
3.99K links
Новости инноваций из мира Искусственного Интеллекта. 🤖

Всё об ИИ, ИТ трендах и Технологической Сингулярности.

🤖: @ai_gptfreebot [бесплатный бот]
✍️: @tsingular_bot [каталог ботов и курсов]

💸[поддержка]: pay.cloudtips.ru/p/c8960bbb
Download Telegram
Forwarded from Machinelearning
🌟 Агенты GenAI: Репозиторий Github c обширной базой знаний и примерами.

GenAI-агенты - это системы ИИ, способные взаимодействовать с окружающим миром и выполнять разнообразные задачи, подобно человеку. В отличие от традиционных систем ИИ, GenAI-агенты обладают большей гибкостью, адаптивностью и способностью к обучению.

Репозиторий - кладезь теоретических и практических знаний: примеры, начиная от простых разговорных ботов до сложных многоагентных систем, обучающие материалы для всех уровней — от начинающих до опытных пользователей, заинтересованных в изучении и применении современных технологий GenAI.

Простые агенты:

🟢простые диалоговые агентов и агенты для ответов на вопросы;
🟢агенты для анализа данных;

Агенты для конкретных задач:

🟠клиентская поддержка;
🟠оценка эссе и сочинений;
🟠планировщик путешествий;

Творческие агенты:

🟢агент генерации GIF-анимации;
🟢агент для генерации речи на основе текста;
🟢агент для генерации музыкальных композиций;

Сложные системы агентов:

🟠разговорный агент с расширенной памятью;
🟠многоагентные системы;
🟠самосовершенствующиеся агенты;
🟠агенты, ориентированные на выполнение задач;
🟠агенты для поиска и обобщения информации в Интернете;
🟠 исследовательские группы агентов на базе Autogen;

Специальные сложные агенты:

🟢агент для комплексных задач с использованием RAG.


▶️Практическое изучение и создание агентов GenAI::

# Клонируйте репозиторий
git clone https://github.com/NirDiamant/GenAI_Agents.git

#Перейдите к интересующей вас технике
cd all_agents_tutorials/technique-name

#Следуйте подробному руководству по применению в каталоге каждой техники.


📌 Лицензирование : Apache 2.0 License.


🟡Сообщество в Discord
🖥Github


@ai_machinelearning_big_data

#AI #ML #Agents #AwesomeGenAI #Github
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥8
Перезапуск Three Mile Island: АЭС оживят для ИИ-проектов Microsoft

Компания Constellation Energy перезапустит реактор на Three Mile Island в связи с дефицитом мощностей под ИИ-проекты Microsoft.
20-летний контракт обеспечит 835 МВт мощности и создаст 3400 рабочих мест.
Проект принесёт экономике Пенсильвании $16 млрд. и продлит работу АЭС до 2054 года.
Станцию переименуют в Crane Clean Energy Center, запуск намечен на 2028 год.
Это отражает тренд роста потребления генерации на фоне бума ИИ проектов в мире.
К 2030 году потребление энергии дата-центрами вырастет на 160%.
Потенциал необходимого объёма в будущем на порядок превышает текущие мощности.

1 B200 - 1кВт, грубо. + 50%, допустим, на обвязку.
1 электростанция на ~500тыс видеокарт, что не мало, конечно, но в целом впритык.

Покупаем акции Росатома, получается :)

#ThreeMileIsland #Microsoft #ConstellationEnergy
-------
@tsingular
8👏1😁1
Автоматизация защиты от дефейса на примере AWS и CloudWatch Synthetics

А вот еще простая, но интересная техника наблюдения за сайтом, - не взломали ли его и не подменили ли страницу.

Система использует скрипты, регулярно делающие скриншоты сайта и сравнивающие их с эталонными.

При превышении порога расхождения запускается автоматическое реагирование через EventBridge и SNS.

Для минимизации ложных срабатываний предусмотрено исключение динамического контента и настройка порогов.

В случае подтверждения атаки AWS WAF может оперативно развернуть страницу обслуживания.

Ну т.е. теперь можно ИИ заставить посмотреть на скриншот (каждую минуту, его глазки-то не жалко) и определить есть ли изменения за пределами нормы, - если есть, решаем скриптами или зовём человеков.
И причём эта система может же быть удалённой, мониторить ИИ-глазками сайты.
Вот вам и стартап. :)

#AWS #CloudWatch #cybersecurity
-------
@tsingular
🔥111👍1
Salesforce открывает бесплатные курсы по ИИ для всех

Крупнейший CRM-провайдер запускает масштабную образовательную инициативу в сфере искусственного интеллекта.
Онлайн-платформа Trailhead предоставит доступ к курсам до конца 2025 года.
В штаб-квартире компании в Сан-Франциско откроются пространства для очного обучения.
Для 72 000 сотрудников Salesforce вводятся ежеквартальные дни обучения ИИ с практикой на инструментах Agentforce.
Программа включает основы ИИ, этичное использование и промптинг.
40% из 2,6 млн значков по ИИ на Trailhead уже получены работниками компании.

Salesforce очень сильно рванул вперёд в ИИ гонке именно в плане применения в бизнесе.
Т.е. они не разрабатывают ИИ модели, но тюнят готовые от лидеров и создают экосистемы вокруг.
В том числе, как видим, - теперь и курсы.
Ежеквартальное обучение сотрудников новинкам ИИ, - это вообще что-то за гранью! 🤖💼
Одобряю.

#Salesforce #Trailhead #AIEducation
-------
@tsingular
👍21
Forwarded from Data Secrets
Microsoft оценили рост популярности ИИ

И самое интересное, что сделали они это очень крутой метрикой: не объемами рынка, не числом новых стартапов, не суммой инвестиций и вот этим всем, а с помощью простого человеческого количества ИИ-контрибьютов на GitHub в минуту.

Получился вот такой симпатичный график. Как всегда, видна четкая граница до/после релиза ChatGPT. Всего с этого момента рост метрики произошел на 230% (!!!), и это действительно показательно (потому что где, как не на гитхабе, сейчас наблюдать тренды экономики?)

Красивое, в общем 😍
Please open Telegram to view this post
VIEW IN TELEGRAM
6👍2🍓2
This media is not supported in your browser
VIEW IN TELEGRAM
GameGen-O: революция в создании видеоигр с открытым миром

Tencent представила GameGen-O - первую диффузионную трансформер-модель для генерации видеоигр с открытым миром.
Разработка симулирует функции игрового движка: персонажей, окружение, действия и события.
Модель обучена на OGameData - наборе данных из сотни игр с открытым миром.
Двухэтапное обучение включает предварительную тренировку и настройку инструкций через InstructNet.
GameGen-O сочетает креативную генерацию с интерактивным контролем, предлагая альтернативу традиционным техникам рендеринга.

Скоро геймдизайнеры будут просто описывать идею игры или фильма, а ИИ сделает всю черновую работу.
Разработчикам и сценаристам достаточно будет на словах описать свою идею.
А нужны ли они будут тогда?
Может игрок или зритель сам скажет что хочет увидеть сегодня. 🎮🤖

#GameGen #Tencent #Games #Китай
———
@tsingular
🔥35🤔8👏6👍4👀32
Forwarded from NLP Wanderer
🔥 Новые модели Vikhr: Приближаемся к локальной gpt-4o-mini, собственный метод алайнмента и Grounded RAG

Мы выпускаем в релиз свои лучшие модели и тулкит алайнмента. который использовался для их тренировки.

Итак, наш флагман - Vikhr-Nemo-12B-Instruct-R-21-09-24 (карточка на HF)

12B модель на основе Mistral-Nemo, с качеством на русском языке в некоторых задачах не хуже gpt-4o-mini и имеет 128к токенов контекста, была специально заалайнена под решение широкого спектра задач на реальных и синтетических вопросах пользователей, включая код, математику, суммаризацию, ризонинг, ответы в специальном формате (JSON/HTML и тд) и многие другие.

Модель получила винрейт 79.8 (относительно gpt-3.5-turbo) на оффлайн бенчмарке Ru-General-Arena, что лучше любой текущей опенсорс модели до 30В для русского языка.

Для достижения такого качества мы собрали большой инструктивный датасет со втроенным CoT, что позволило сильно прочкать ризонинг модели, далее обучили Reward модель, сделали Rejection Sampling и применили собственный метод SMPO (вариация DPO) для выполнения преференс-тюнинга.

Вторая модель - Vikhrmodels/Vikhr-Llama3.1-8B-Instruct-R-21-09-24 (карточка на HF)

Так же обучена Llama-3,1-8B и имеет аналогичный размер контекста в 128k токенов. Винрейт на Ru-Arena-General - 63.9, что делает ее одной из лучших 8B моделей дла русского языка.

Модели обучены работать с RAG

Обе модели имеют уникальную особенность - они заалайнены для работы с RAG, т.е. используя системный промпт и спец. роль documents, вы сможете подавать ей документы в стандартизированной форме (JSON). При этом сам текст каждого документа может быть грязным чанком HTML, Markdown или Plain text формата до 4к символов каждый.

Модели умеют выделять информацию из предоставленных документов самостоятельно, реализуя таким образом "реранкер" на уровне LLM. Это сделано за счет двух-этапного ответа. Первый ответ модели представляет из себя JSON со списокм релевантных идентификаторов документов, а второй, если юзер его запросит, будет уже текстовым ответом модели на вопрос пользователя.

Благодаря такому обучению, на нашем бенчмарке для RAG (судья gpt-4o) Vikhr-Nemo показала качество в RAG задачах даже лучше, чем gpt-4o-mini (цифры в карточках моделей)

SMPO - Simple Margin Preference Optimization

Наш собственный метод выравнивания, разработанный для стабилизации прцоесса PO. Этот метод во многом заимствует идеи IPO, SimPO, C-RLFT, а также содержит собственную функцию потерь для разделения выбранных и отклоненных пар, отказываясь от классической сигмойды.

Основная идея метода заключается в стремлении плавно достичь желаемого уровня margin, не заставляя модель переобучаться, в том числе с помощью добавления балансирующего SFT лосса для выбранных и отклоненных вариантов одновременно.

Тулкит на Github - effective_llm_alignment

Репозиторий содержит скрипты и конфиги которые использовались для всех этапов обучения моделей. он позволяет удобно работать с основными методами алайнмента для LLM, включая наш SMPO.

Больше подробностей о моделях, как с ними работать, бенчмарках, процедуре обучения, вы можете найти в их карточках на HF.

Поиграться с Vikhr-Nemo-12B можно в tg bot_e (@vikhrbot), Gradio инференс
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
На Подмосковных Вечерах клуба 4CIO
https://pv2024.4cio.ru/

Первые 4 часа,- огромная детальная сессия мастер-класс по ИИ в бизнесе.

Интересные практические приёмы.
Позже будет в записи,- поделюсь тут.

#4cio #ПВ2024
------
@tsingular
🔥11
Forwarded from Data Secrets
Андрей Карпаты выложил видео с 20-минутным рассказом о том, как он создавал знаменитый llm.c проект

Кратко: его не устраивал PyTorch и метод compile и он решил переписать все сам на C 😃

Сейчас llm.c – космически популярный для петпроекта релиз. Разработчики продолжают добавлять туда оптимизации, а в скором времени обещают завезти поддержку llama-3.1

Идеально для просмотра в воскресенье
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2
UltraPixel: 4K+ генерация детальных изображений сверхвысокого качества

На Гитхабе появилась новая моделька, которая, по описанию, генерит изображения с ультравысоким разрешением и мега-детализацией.

Проект основан на StableCascade и Trans-inr, поддерживает ControlNet для точной генерации, а также позволяет обучать модели на собственных данных.

По ссылке - инструкции по установке, использованию и оптимизации под различные GPU.

Звучит как фантастика, на самом деле. Локально генерить картинки в таком качестве и разрешении...
По описанию на RTX 4090 24G 4096х4096 генерит за 44 секунды.

Если есть у кого возможность, - проверьте, накидайте в комментах генерации, я пока занят на конфе.
Завтра обязательно проверю.

UPD: из исходников не запустилось, но получилось сделать копию HF Space через докер:

docker run -it -p 7860:7860 --platform=linux/amd64 --gpus all registry.hf.space/roubaofeipi-ultrapixel-demo:latest python app.py

на 3080 mobile примерно 2 минуты на картинку 2048

#UltraPixel #ImageGen #highres
———
@tsingular
👍133🔥1
Ответы на вопрос - в каких задачах ваша компания использует ИИ сейчас?

Ответ - Никакие - самый популярный 😂.

Человечество в безопасности :)

#4CIO #ПВ2024
------
@tsingular
🤔8😁6💯4👍3
Qwen2.5-Coder по тестам в разработке превосходит более тяжелые варианты DeepSeek Code

Qwen2.5-Coder, как был анонс выше, релизнули в вариантах 1.5B и 7B параметров.

Qwen2.5-Coder-1.5B
https://hf.co/qwen/Qwen/Qwen2.5-Coder-1.5B

Qwen2.5-Coder-7B
https://hf.co/qwen/Qwen/Qwen2.5-Coder-7B

И по тестам, получается, что Qwen2.5-Coder лидирует в бенчмарках HumanEval, MBPP, BigCodeBench и MultiPL-E, превосходя более крупные модели.

Показывает интересные результаты в генерации и автодополнении кода, а так же в Text-to-SQL задачах.

И вот не понятно, то ли правда китайские товарищи умудрились упаковать математическую мудрость в столь малый размер или это всё-таки файнтюн под бенчмарк.
В общем, нужно тестить.

Ну и традиционно, Qwen2.5 уже есть в ollama варианте:
ollama run qwen2.5

#Qwen #code #Alibaba #Китай
———
@tsingular
1
Эра Интеллекта: грядущая революция ИИ глазами Сэма Альтмана

Грядет эпоха небывалого прогресса, где искусственный интеллект станет ключом к решению глобальных вызовов.

Персональные ИИ-ассистенты превратятся в незаменимых помощников, расширяя возможности каждого человека.

Глубокое обучение продолжит совершенствоваться, открывая новые горизонты в науке и технологиях.

Для массового внедрения ИИ необходимо снизить стоимость вычислений и сделать их общедоступными.

Грядущие изменения трансформируют рынок труда, но не оставят людей без дела.

Эра Интеллекта обещает беспрецедентное процветание и решение многовековых проблем человечества.

Человечество открыло алгоритм, который действительно способен по-настоящему изучить любое распределение данных.

До шокирующей степени точности, чем больше вычислительных мощностей и данных доступно, тем лучше ИИ помогает людям решать сложные проблемы.

Сколько бы я ни думал об этом, мне кажется что я не смогу по-настоящему осознать масштаб последствий этого.


Прекрасное далёко уже совсем близко.

#IntelligenceAge #SamAltman #FutureOfWork
------
@tsingular
🔥8👾4
Некоторые промпты нужно отливать в золоте

Anthropic представила детальное описание техники Contextual Retrieval - сильнейшего метода повышения качества RAG систем.

Технология объединяет Contextual Embeddings и Contextual BM25, чем снижает долю неудачных результатов поиска на 67%.

Суть метода в генерации через Claude Haiku (самая быстрая версия Клода) описательной части для каждого чанка, а иногда и предложения, которая включает саммари всего документа в применении к обрабатываемому куску текста:

<document>
{{WHOLE_DOCUMENT}}
</document>
Here is the chunk we want to situate within the whole document
<chunk>
{{CHUNK_CONTENT}}
</chunk>
Please give a short succinct context to situate this chunk within the overall document for the purposes of improving search retrieval of the chunk. Answer only with the succinct context and nothing else.


в итоге получается что-то вроде:

original_chunk = "The company's revenue grew by 3% over the previous quarter."

contextualized_chunk = "This chunk is from an SEC filing on ACME corp's performance in Q2 2023; the previous quarter's revenue was $314 million. The company's revenue grew by 3% over the previous quarter."


Т.е. отдельно строка "The company's revenue grew by 3% over the previous quarter." в чанке смысла не несёт, но с расширенным описанием в контексте всего документа, - да.
И именно это расширенное описание и кладётся в вектор.

Дополнительно поход комбинируется с классическим поиском по ключевым словам, только ищется не слово целиком, а его ближайший похожий экземпляр.
Собственно это был предшественник семантического поиска, - выдаёт word similarity в %.

Комбинация семантического и лексического поиска, в итоге, значительно повышает эффективность работы с большими объёмами документов, а главное, - позволяет не потерять сутевые точечные детали, что подтверждается тестами на различных наборах данных и моделях эмбеддингов.

блокнот поиграться

Техника логичная сама по себе и кто-то приходит к ней эмпирически и через серию экспериментов, но Антропику отдельный респект за то, что систематизирует и делится с ИИ сообществом!

#Anthropic #RAG #ContextualRetrieval
———
@tsingular
🔥9👍3
Чтобы заменить программистов на ИИ, заказчику придётся точно сформулировать, что именно он хочет.

Получается программисты без работы не останутся :)

#юмор
———
@tsingular
😁13👍7
C такими темпами падения стоимости инференса мы и 1руб. за 1 млн. токенов увидим совсем скоро.
И вот выбор, - купить видеокарту за 500тыс (с компом) или пользовать 500млрд токенов...
А на это времени уйдёт примерно столько, за сколько карта обесценится и её придётся менять опять.

#цены
———
@tsingular
118
This media is not supported in your browser
VIEW IN TELEGRAM
OpenAI выпустили голосовой режим.

До конца недели обещают раскатить на всех подписчиков chatGPT.

50 языков и качественные эмоции.

#OpenAI #voice
------
@tsingular
🤔104
Intel запускает новый ИИ-ускоритель Gaudi 3

Intel наконец запустили, анонсированный ранее ИИ ускоритель Gaudi 3, который должен стать в 1,5 раза быстрее NVIDIA H100 и вдвое энергоэффективнее.

Gaudi 3 оптимизирован для генИИ и LLM, поддерживает работу с Llama, Falcon, задачи 3D-генерации, перевода, анализа тональности и т.д.

В следующем году так же ожидается выпуск Falcon Shores - модификации схемы, объединяющий CPU и GPU на одной подложке для серверов.

Если только Qualcomm не перепишет их планы.

#Intel #Gaudi3 #NVIDIA
-------
@tsingular
👍4
Google проапгрейдила Gemini: мощнее, дешевле, быстрее

Вышли обновления версий Gemini-1.5-Pro-002 и Flash-002.
Улучшения: +7% в MMLU-Pro, +20% в математике, +2-7% в визуальном анализе и кодировании.
Модели стали лаконичнее в ответах.

Цены снижены: -64% на входные токены, -52% на выход, -64% на токены инкрементального кэширования (sic!).

Лимиты запросов тоже подняли: Flash до 2000 RPM, Pro до 1000 RPM.

Так же представлена экспериментальная версия Gemini-1.5-Flash-8B-Exp-0924 с ускоренной генерацией.

Обновления доступны через Google AI Studio и Gemini API.

Anthropic до рождества, похоже будет тянуть :) Opus 3.5 когда уже? 🧠🏷

#Gemini #GoogleAI #MachineLearning
-------
@tsingular
NVIDIA допилили Llama: выпустили Nemotron-51B

NVIDIA представила Llama 3.1-Nemotron-51B - оптимизированную версию Llama-3.1-70B.

Новый подход - Neural Architecture Search (NAS) позволил создать модель, обеспечивающую в 2.2 раза более быстрый инференс.

Меньше жрёт память, что позволяет запускать в 4 раза больше задач на одном GPU (рекомендован H100 80Gb).

Есть версия Llama-3.1-Nemotron-40B-Instruct для диалогов.

Попробовать можно тут:
https://build.nvidia.com/nvidia/llama-3_1-nemotron-51b-instruct

В этот раз ставка сделана на скорость, при сохранении результата. Даже в части тестов получается на 1-2% слабее Llama 3.1 70B.
Ну и H100 80Gb не в каждом гараже, конечно, есть пока.

#NVIDIA #Llama #Nemotron
-------
@tsingular