🎓 Hugging Face сегодня запустил бесплатный курс по AI-агентам!
Обещанный ранее курс стартовал (на английском).
📚 Что интересного:
- Полностью бесплатный
- Ведут инженеры Hugging Face с боевым опытом в разработке агентов
- Будем работать с популярными фреймворками: smolagents, LangChain, LlamaIndex
- Все агенты будут храниться на Hugging Face Hub (можно будет подсмотреть чужие решения 😉)
🎯 Самое вкусное:
- Есть два трека: базовый (для понимания концепций) и полный с сертификатом
- В конце курса - соревнование агентов между собой (с лидербордом!)
- Дедлайн по сертификации - до 1 мая 2025
⏰ Темп занятий комфортный: примерно 3-4 часа в неделю.
🔥 А уже в эту среду (12 февраля, 19:00 МСК) будет первый live-стрим, где расскажут все детали. (на Youtube)
Кстати, для участия нужен только комп с интернетом и базовые знания Python. Ну и аккаунт на Hugging Face, конечно.
#агенты #huggingface
———
@tsingular
Обещанный ранее курс стартовал (на английском).
📚 Что интересного:
- Полностью бесплатный
- Ведут инженеры Hugging Face с боевым опытом в разработке агентов
- Будем работать с популярными фреймворками: smolagents, LangChain, LlamaIndex
- Все агенты будут храниться на Hugging Face Hub (можно будет подсмотреть чужие решения 😉)
🎯 Самое вкусное:
- Есть два трека: базовый (для понимания концепций) и полный с сертификатом
- В конце курса - соревнование агентов между собой (с лидербордом!)
- Дедлайн по сертификации - до 1 мая 2025
⏰ Темп занятий комфортный: примерно 3-4 часа в неделю.
🔥 А уже в эту среду (12 февраля, 19:00 МСК) будет первый live-стрим, где расскажут все детали. (на Youtube)
Кстати, для участия нужен только комп с интернетом и базовые знания Python. Ну и аккаунт на Hugging Face, конечно.
#агенты #huggingface
———
@tsingular
🔥13👍5🙏3
This media is not supported in your browser
VIEW IN TELEGRAM
В порядке PoC сделал плагин для Excel, который работает локально с ollama для ответов на вопросы по таблицам.
Чисто технически это позволяет сделать вообще любые ИИ интеграции в офисные продукты без необходимости в Копайлотах и VPN.
Точно так же можно сделать и для R7, например.
Кому нужен исходник, - нажимайте 🌟
#ollama #Excel #office #PoC
———
@tsingular
Чисто технически это позволяет сделать вообще любые ИИ интеграции в офисные продукты без необходимости в Копайлотах и VPN.
Точно так же можно сделать и для R7, например.
Кому нужен исходник, - нажимайте 🌟
#ollama #Excel #office #PoC
———
@tsingular
2🔥11👍3
Forwarded from эйай ньюз
На AI Action Summit, президент Эммануэль Макрон анонсировал гигантские инвестиции во французскую ИИ индустрию - 109 миллиардов евро в течении следующих нескольких лет. Вплоть до 50 миллиардов придёт от фонда MGX из ОАЭ (он также участвует в финансировании Stargate), 20 миллиардов - от канадской инвестионной фирмы Brookfield, остальные деньги от плеяды более мелких инвесторов.
Значительная часть из вычислительных ресурсов, построенных на эти деньги, явно уйдёт Mistral - это сейчас единственная европейская компания способная выдавать конкурентноспособные LLM. Стартапам поменьше тоже достанется порядочно, но вот сколько - вопрос.
Похоже, что это всё - часть единой европейской стратегии по ИИ, которую должны представить завтра. Франция в ней должна сыграть лидирующую роль - у страны есть и куча талантов, и большие избытки атомной электроэнергии и доступ к современным чипам.
Государства всё ещё лишь начинают играть мышцами в сфере ИИ, это не последний такой анонс в этом году. Мои выводы после анонса Stargate лишь подтверждаются.
@ai_newz
Please open Telegram to view this post
VIEW IN TELEGRAM
2🔥4
Forwarded from Не баг, а фича
⚡️ Илон Маск ПОКУПАЕТ OpenAI — миллиардер вместе с инвесторами готов выкупить контрольный пакет компании за 100 МИЛЛИАРДОВ ДОЛЛАРОВ!
Он хочет снова получить контроль над разработчиками ChatGPT, потому что они в шаге от AGI — по его словам, их нужно вернуть в русло открытого кода и отказаться от коммерческих целей.
Альтман уже отказался от оффера и предложил Маску «продать Твиттер за $9 млрд» — в ответ Маск назвал его мошенником и Скам Альтманом.
Решение должен принять совет директоров. Будущее ChatGPT решается в прямом эфире!
🙂 Не баг, а фича
Он хочет снова получить контроль над разработчиками ChatGPT, потому что они в шаге от AGI — по его словам, их нужно вернуть в русло открытого кода и отказаться от коммерческих целей.
Альтман уже отказался от оффера и предложил Маску «продать Твиттер за $9 млрд» — в ответ Маск назвал его мошенником и Скам Альтманом.
Решение должен принять совет директоров. Будущее ChatGPT решается в прямом эфире!
Please open Telegram to view this post
VIEW IN TELEGRAM
😁16👍4🤯3
🤖 Критическое мышление vs AI: что показало новое исследование Microsoft Research
Интересное исследование от Microsoft Research про влияние генеративного AI на критическое мышление у офисных работников.
Изучили 936 реальных кейсов использования AI от 319 специалистов.
Ключевые находки:
1. Эффект доверия к AI:
- Чем больше человек доверяет AI, тем меньше критически оценивает его ответы
- При этом те, кто уверен в своей экспертизе, чаще проверяют и улучшают результаты AI
2. Смещение когнитивной нагрузки:
- AI берет на себя рутину по поиску/обработке информации
- НО появляются новые задачи: верификация данных, интеграция ответов AI в работу, общий контроль качества
🚨 Главные риски:
- "Цифровая амнезия": люди могут разучиться самостоятельно решать задачи, полагаясь на AI
- Особенно опасно для рутинных задач - без регулярной практики навыки атрофируются
- При этом в критических ситуациях, когда AI ошибется, человек может оказаться неготовым
Получается парадокс: AI вроде бы упрощает работу, но требует новых метакогнитивных навыков - умения оценивать результаты, интегрировать их, сохранять контроль над процессом.
Рекомендации исследователей:
- Не передавать AI полностью даже простые задачи
- Развивать "AI literacy" - понимание возможностей и ограничений систем
- Создавать инструменты, которые поддерживают критическое мышление, а не заменяют его
В общем, похоже на ситуацию с калькуляторами в школе - важно найти баланс между использованием инструмента и сохранением базовых навыков. 🤔
Как бы фильм "Идиократия" не оказался пророческим.
Исследование тут
#идиократия #FutureOfWork #Microsoft
———
@tsingular
Интересное исследование от Microsoft Research про влияние генеративного AI на критическое мышление у офисных работников.
Изучили 936 реальных кейсов использования AI от 319 специалистов.
Ключевые находки:
1. Эффект доверия к AI:
- Чем больше человек доверяет AI, тем меньше критически оценивает его ответы
- При этом те, кто уверен в своей экспертизе, чаще проверяют и улучшают результаты AI
2. Смещение когнитивной нагрузки:
- AI берет на себя рутину по поиску/обработке информации
- НО появляются новые задачи: верификация данных, интеграция ответов AI в работу, общий контроль качества
🚨 Главные риски:
- "Цифровая амнезия": люди могут разучиться самостоятельно решать задачи, полагаясь на AI
- Особенно опасно для рутинных задач - без регулярной практики навыки атрофируются
- При этом в критических ситуациях, когда AI ошибется, человек может оказаться неготовым
Получается парадокс: AI вроде бы упрощает работу, но требует новых метакогнитивных навыков - умения оценивать результаты, интегрировать их, сохранять контроль над процессом.
Рекомендации исследователей:
- Не передавать AI полностью даже простые задачи
- Развивать "AI literacy" - понимание возможностей и ограничений систем
- Создавать инструменты, которые поддерживают критическое мышление, а не заменяют его
В общем, похоже на ситуацию с калькуляторами в школе - важно найти баланс между использованием инструмента и сохранением базовых навыков. 🤔
Как бы фильм "Идиократия" не оказался пророческим.
Исследование тут
#идиократия #FutureOfWork #Microsoft
———
@tsingular
1👍9❤2
Media is too big
VIEW IN TELEGRAM
Перевёл для вас ролик с официального канала n8n с примером создания ИБ агента.
Суть следующая, - агент работает с векторной базой Qdrant создавая в ней эмбеддинги на основе MITRE ATT&CK каталога.
Извлекается json объект, чистится (вот это жалко не показали, было бы полезно посмотреть что остаётся), импортируется в базу, векторизируется через OpenAI (800 вызовов - может быть накладно для экспериментов - рекомендую локальный эмбеддер).
Дальше агенту на вход подаётся событие из SIEM системы, которое он находит в базе и даёт развёрнутую оценку с указанием ссылки на тип уязвимости, которая эксплуатируется в примере.
Дальше подключается Zendesk и агент сам создаёт тикет с предположениями по событию и с данными вызова.
Как всегда переводы делаются ElevenLabs, поддержать можно тут:
https://pay.cloudtips.ru/p/c8960bbb
или насыпать звёздочек ⭐️ на пост :)
#переводы #n8n #security
———
@tsingular
Суть следующая, - агент работает с векторной базой Qdrant создавая в ней эмбеддинги на основе MITRE ATT&CK каталога.
Извлекается json объект, чистится (вот это жалко не показали, было бы полезно посмотреть что остаётся), импортируется в базу, векторизируется через OpenAI (800 вызовов - может быть накладно для экспериментов - рекомендую локальный эмбеддер).
Дальше агенту на вход подаётся событие из SIEM системы, которое он находит в базе и даёт развёрнутую оценку с указанием ссылки на тип уязвимости, которая эксплуатируется в примере.
Дальше подключается Zendesk и агент сам создаёт тикет с предположениями по событию и с данными вызова.
Как всегда переводы делаются ElevenLabs, поддержать можно тут:
https://pay.cloudtips.ru/p/c8960bbb
или насыпать звёздочек ⭐️ на пост :)
#переводы #n8n #security
———
@tsingular
1🔥12👍3✍2❤🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
🚀 YangWang U9: Рыцарь дорог от BYD из Китая!
Китайский автопром представил электрический гиперкар, способный самостоятельно проходить гоночную трассу.
Тесты проводили в Нюрбургринге, где он достиг максимальной скорости в 375,12 км/ч.
Система автономного управления позволяет ему не только летать по прямым участкам, но и самостоятельно проходить сложные повороты, адаптируясь к дорожным условиям благодаря передовым алгоритмам ИИ.
Технические характеристики: 1305 л.с., разгон до 100 км/ч за 2.36 секунды, и запас хода около 465 км на одном заряде батареи.
Система подвески DiSus-X позволяет автомобилю буквально "прыгать" через препятствия или выполнять танковый разворот.
С помощью комплекса камер, датчиков и радаров, YangWang U9 может работать как настоящий пилот, используя такие функции как:
- Автоматическая парковка
- Адаптивный круиз-контроль
- Ассистент полосы движения
- Распознавание дорожных знаков
- Контроль слепых зон
- Активная система стабилизации
Цена как у 20 видеокарт 5090, ну или как 1 B200 :)
Надеюсь у него будет диалоговый режим с юмором:
#YangWangU9 #BYD #Китай #cars
———
@tsingular
Китайский автопром представил электрический гиперкар, способный самостоятельно проходить гоночную трассу.
Тесты проводили в Нюрбургринге, где он достиг максимальной скорости в 375,12 км/ч.
Система автономного управления позволяет ему не только летать по прямым участкам, но и самостоятельно проходить сложные повороты, адаптируясь к дорожным условиям благодаря передовым алгоритмам ИИ.
Технические характеристики: 1305 л.с., разгон до 100 км/ч за 2.36 секунды, и запас хода около 465 км на одном заряде батареи.
Система подвески DiSus-X позволяет автомобилю буквально "прыгать" через препятствия или выполнять танковый разворот.
С помощью комплекса камер, датчиков и радаров, YangWang U9 может работать как настоящий пилот, используя такие функции как:
- Автоматическая парковка
- Адаптивный круиз-контроль
- Ассистент полосы движения
- Распознавание дорожных знаков
- Контроль слепых зон
- Активная система стабилизации
Цена как у 20 видеокарт 5090, ну или как 1 B200 :)
Надеюсь у него будет диалоговый режим с юмором:
- Знаешь, чего я не понимаю?
- Мне не хватит суток, чтобы перечислить все, что ты не понимаешь!
#YangWangU9 #BYD #Китай #cars
———
@tsingular
🔥11
Forwarded from Machinelearning
⚡️ LLM4Decompile – это открытая большая языковая модель, предназначенная для декомпиляции бинарного кода в удобочитаемый исходный код.
В текущей версии она способна преобразовывать двоичные файлы Linux x86_64, скомпилированные с уровнями оптимизации GCC от O0 до O3, обратно в человеко-читаемый код на языке C.
Проект также ставит перед собой цель расширения поддержки различных архитектур и языков программирования.
Все материалы проекта доступны на Hugging Face под лицензией MIT и DeepSeek.
🟡 Github
🟡 Models
🟡 Paper
🟡 Colab
@ai_machinelearning_big_data
#llm #ml #ai #opensource #LLM4Decompile
#reverseengineering #decompile
В текущей версии она способна преобразовывать двоичные файлы Linux x86_64, скомпилированные с уровнями оптимизации GCC от O0 до O3, обратно в человеко-читаемый код на языке C.
Проект также ставит перед собой цель расширения поддержки различных архитектур и языков программирования.
Все материалы проекта доступны на Hugging Face под лицензией MIT и DeepSeek.
git clone https://github.com/albertan017/LLM4Decompile.git
cd LLM4Decompile
conda create -n 'llm4decompile' python=3.9 -y
conda activate llm4decompile
pip install -r requirements.txt@ai_machinelearning_big_data
#llm #ml #ai #opensource #LLM4Decompile
#reverseengineering #decompile
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6🤯4
OpenAI создаёт собственный чип для нейросетей
Руководство ChatGPT-гиганта планирует завершить разработку дизайна первого процессора до конца года.
Производственным партнером выбрана TSMC с передовым 3-нм техпроцессом.
Проект возглавляет Ричард Хо, экс-разработчик TPU в Google.
Команда выросла до 40 специалистов при поддержке Broadcom.
Ключевые особенности: высокоскоростная память и расширенные сетевые возможности.
Начальное развертывание запланировано на 2025 год.
#OpenAI #TSMC #чипы
-------
@tsingular
Руководство ChatGPT-гиганта планирует завершить разработку дизайна первого процессора до конца года.
Производственным партнером выбрана TSMC с передовым 3-нм техпроцессом.
Проект возглавляет Ричард Хо, экс-разработчик TPU в Google.
Команда выросла до 40 специалистов при поддержке Broadcom.
Ключевые особенности: высокоскоростная память и расширенные сетевые возможности.
Начальное развертывание запланировано на 2025 год.
#OpenAI #TSMC #чипы
-------
@tsingular
🔥5✍1
Zonos: мультиязычный TTS с клонированием голоса
Новый open source проект Zonos представляет революционную систему преобразования текста в речь.
База в 200 000 часов аудио обеспечивает поддержку 5 языков: английский, японский, китайский, французский и немецкий.
Система позволяет клонировать голос по короткому образцу с возможностью настройки скорости, тона и эмоциональной окраски.
Архитектура построена на eSpeak и DAC-трансформере с выводом звука в качестве 44кГц.
Интерфейс реализован через Gradio с возможностью многократного сэмплирования и Docker-установкой.
Жаль пока без русского
#Zonos #TTS #VoiceCloning
-------
@tsingular
Новый open source проект Zonos представляет революционную систему преобразования текста в речь.
База в 200 000 часов аудио обеспечивает поддержку 5 языков: английский, японский, китайский, французский и немецкий.
Система позволяет клонировать голос по короткому образцу с возможностью настройки скорости, тона и эмоциональной окраски.
Архитектура построена на eSpeak и DAC-трансформере с выводом звука в качестве 44кГц.
Интерфейс реализован через Gradio с возможностью многократного сэмплирования и Docker-установкой.
Жаль пока без русского
#Zonos #TTS #VoiceCloning
-------
@tsingular
✍2🤨1
ЕС инвестирует €200 млрд в гонку ИИ-вооружений
Европейский Союз анонсировал масштабную программу инвестиций в развитие искусственного интеллекта на €200 млрд.
План включает €50 млрд государственных средств и €150 млрд частных инвестиций через European AI Champions Initiative.
Франция дополнительно выделяет €109 млрд в ответ на американский проект Stargate ($500 млрд).
Основной фокус направлен на создание гигафабрик для обучения крупных языковых моделей.
Параллельно ЕС первым внедряет комплексное регулирование AI Act, вызывая критику США за 'чрезмерный контроль'.
Великобритания и Штаты отказались подписывать декларацию о безопасном развитии технологий на саммите в Париже.
#EU #инвестиции
-------
@tsingular
Европейский Союз анонсировал масштабную программу инвестиций в развитие искусственного интеллекта на €200 млрд.
План включает €50 млрд государственных средств и €150 млрд частных инвестиций через European AI Champions Initiative.
Франция дополнительно выделяет €109 млрд в ответ на американский проект Stargate ($500 млрд).
Основной фокус направлен на создание гигафабрик для обучения крупных языковых моделей.
Параллельно ЕС первым внедряет комплексное регулирование AI Act, вызывая критику США за 'чрезмерный контроль'.
Великобритания и Штаты отказались подписывать декларацию о безопасном развитии технологий на саммите в Париже.
#EU #инвестиции
-------
@tsingular
👍7
YouTube и AI в 2025: что нового рассказал CEO
CEO YouTube Neal Mohan рассказал о планах компании на 2025.
Самое интересное по части AI:
Dream Screen и Dream Track развиваются:
- Скоро интегрируют Veo 2 для генерации видео-бэкграундов в Shorts
- Уже сейчас умеют генерить картинки для фона и музыку
Автоматический перевод голоса:
- 40% просмотров контента с дубляжом приходится на переведенные версии
- Автудубляж станет доступен всем участникам YouTube Partner Program
- Обещают больше языков в течение года
Защита от AI-фейков:
- Разрабатывают инструменты для детекции AI-контента
- Топовые креаторы уже тестируют раннюю версию системы
- Будут внедрять контроль за тем, как AI используется для изображения людей
ML для определения возраста:
- Научатся различать детей и взрослых
- Цель - адаптировать контент под возраст
Что интересно - YouTube не стал делать ставку на генеративный AI как главный тренд. Вместо этого фокус на практических инструментах:
- Помощь в создании тайтлов/превью
- Автоматизация рутины
- Улучшение существующего контента
Кстати, забавно что они до сих пор называют это "early days" для AI. Видимо, реально крутые штуки еще впереди!
ElevenLabs в опасности.
Вообще автоперевод тема, конечно, интересно когда наши добавят?
Рутуб, ВК, Дзен по идее оно уже всё есть в опенсорсе, видеокарты у них есть.
Работы на выходные для MVP :)
#YouTube #ContentCreation
———
@tsingular
CEO YouTube Neal Mohan рассказал о планах компании на 2025.
Самое интересное по части AI:
Dream Screen и Dream Track развиваются:
- Скоро интегрируют Veo 2 для генерации видео-бэкграундов в Shorts
- Уже сейчас умеют генерить картинки для фона и музыку
Автоматический перевод голоса:
- 40% просмотров контента с дубляжом приходится на переведенные версии
- Автудубляж станет доступен всем участникам YouTube Partner Program
- Обещают больше языков в течение года
Защита от AI-фейков:
- Разрабатывают инструменты для детекции AI-контента
- Топовые креаторы уже тестируют раннюю версию системы
- Будут внедрять контроль за тем, как AI используется для изображения людей
ML для определения возраста:
- Научатся различать детей и взрослых
- Цель - адаптировать контент под возраст
Что интересно - YouTube не стал делать ставку на генеративный AI как главный тренд. Вместо этого фокус на практических инструментах:
- Помощь в создании тайтлов/превью
- Автоматизация рутины
- Улучшение существующего контента
Кстати, забавно что они до сих пор называют это "early days" для AI. Видимо, реально крутые штуки еще впереди!
ElevenLabs в опасности.
Вообще автоперевод тема, конечно, интересно когда наши добавят?
Рутуб, ВК, Дзен по идее оно уже всё есть в опенсорсе, видеокарты у них есть.
Работы на выходные для MVP :)
#YouTube #ContentCreation
———
@tsingular
👍8
Forwarded from Сиолошная
Competitive Programming with Large Reasoning Models
OpenAI выпустили скорее не статью, а отчёт о том, как они замеряют прогресс в программировании у моделей, и сравнивают o3 с o1 и o1-ioi (системой, которая была заточена на решение международной олимпиады по информатике; там были свои методы с агрегацией и фильтрацией решений).
Большая часть метрик уже была показана ранее, тут больших сюрпризов нет, просто добавили деталей. Одна из важнейших — это то, как сравнивают решения LLM с решениями людей в соревнованиях, где играет роль время отправки решения и количество ошибок. Недостаточно просто написать код, который прошёл все тесты — нужно это делать как можно быстрее. Понятно, что кластер с 100,000 видеокарт сгенерирует пару сотен решений быстрее, чем человек, так ещё и одновременно для всех задач сразу — как быть?
OpenAI выбрали, как мне кажется, достаточно резонную стратегию (тут и ниже — в контексте оценки рейтинга CodeForces): они использовали медианное время отправки и количество попыток среди всех людей, кто решил задачу. Таким образом полученные оценки слегка занижены относительно того, если бы OpenAI гнались за максимальным скором, и считали, что отправляют решения быстрее всех (или хотя бы как топ-10-20%, а не медианный).
<тут я должен напомнить что при таком замере рейтинг o3 достигает 2724, или 99.8 перцентиль, то есть лучше неё очень малая доля участников>
===
Другая интересная вещь: o3 во время рассуждений может пользоваться инструментами (o1 пока нет), то есть запускать код, который сама пишет, без отправки решения. Почти наверняка модель так обучалась.
На картинке вы видите одну из стратегий, обнаруженную o3 во время тренировки и применяемую тут: для проблем, где проверка нетривиальна, она часто пишет простые решения методом перебора — жертвуя эффективностью ради правильности — затем перекрестно проверяет результаты с помощью своих более оптимизированных алгоритмических реализаций. Этот самодельный механизм проверки позволяет o3 выявлять потенциальные ошибки и повышать надежность своих решений.
Говоря проще код на картинке — это проверка в духе «так, вот тут решение, в котором я точно уверен, а вот моё оптимизированное. Не продолбался ли я где-то? Ща проверим на сотне случайных примеров». И всё это в рамках цепочки рассуждений.
Благодаря DeepSeek R1 мы знаем, что OpenAI не врали, когда говорили, что модель сама по себе придумывает паттерны рассуждений, без вмешательства человека и явного прописывания таких стратегий. Скорее всего, этот пример тоже относится к таким — модель во время обучения просто поняла, что такие проверки позволяют чаще справляться с задачами, меньше ошибаться (что вполне логично), и начала применять технику. Ведь по сути это та же самопроверка, которую мы видели для математических задач, просто с отдельным запуском кода.
Absolute Cinema 🖐😶🤚
OpenAI выпустили скорее не статью, а отчёт о том, как они замеряют прогресс в программировании у моделей, и сравнивают o3 с o1 и o1-ioi (системой, которая была заточена на решение международной олимпиады по информатике; там были свои методы с агрегацией и фильтрацией решений).
Большая часть метрик уже была показана ранее, тут больших сюрпризов нет, просто добавили деталей. Одна из важнейших — это то, как сравнивают решения LLM с решениями людей в соревнованиях, где играет роль время отправки решения и количество ошибок. Недостаточно просто написать код, который прошёл все тесты — нужно это делать как можно быстрее. Понятно, что кластер с 100,000 видеокарт сгенерирует пару сотен решений быстрее, чем человек, так ещё и одновременно для всех задач сразу — как быть?
OpenAI выбрали, как мне кажется, достаточно резонную стратегию (тут и ниже — в контексте оценки рейтинга CodeForces): они использовали медианное время отправки и количество попыток среди всех людей, кто решил задачу. Таким образом полученные оценки слегка занижены относительно того, если бы OpenAI гнались за максимальным скором, и считали, что отправляют решения быстрее всех (или хотя бы как топ-10-20%, а не медианный).
<тут я должен напомнить что при таком замере рейтинг o3 достигает 2724, или 99.8 перцентиль, то есть лучше неё очень малая доля участников>
===
Другая интересная вещь: o3 во время рассуждений может пользоваться инструментами (o1 пока нет), то есть запускать код, который сама пишет, без отправки решения. Почти наверняка модель так обучалась.
На картинке вы видите одну из стратегий, обнаруженную o3 во время тренировки и применяемую тут: для проблем, где проверка нетривиальна, она часто пишет простые решения методом перебора — жертвуя эффективностью ради правильности — затем перекрестно проверяет результаты с помощью своих более оптимизированных алгоритмических реализаций. Этот самодельный механизм проверки позволяет o3 выявлять потенциальные ошибки и повышать надежность своих решений.
Говоря проще код на картинке — это проверка в духе «так, вот тут решение, в котором я точно уверен, а вот моё оптимизированное. Не продолбался ли я где-то? Ща проверим на сотне случайных примеров». И всё это в рамках цепочки рассуждений.
Благодаря DeepSeek R1 мы знаем, что OpenAI не врали, когда говорили, что модель сама по себе придумывает паттерны рассуждений, без вмешательства человека и явного прописывания таких стратегий. Скорее всего, этот пример тоже относится к таким — модель во время обучения просто поняла, что такие проверки позволяют чаще справляться с задачами, меньше ошибаться (что вполне логично), и начала применять технику. Ведь по сути это та же самопроверка, которую мы видели для математических задач, просто с отдельным запуском кода.
Absolute Cinema 🖐😶🤚
👍6❤🔥3❤1🔥1
Интересная фундаментальная мысль из курса HF про агентов.
Использование агента с функцией написания кода позволяет снизить количество действий.
#agents #dev #huggingface
———
@tsingular
Использование агента с функцией написания кода позволяет снизить количество действий.
#agents #dev #huggingface
———
@tsingular
🔥4⚡2👍1
Forwarded from Анализ данных (Data analysis)
🌟 GenBI AI Agent с открытым исходным кодом, который позволяет разработчикам, работающим с данными, использовать свои данные для создания текстовых SQL-преобразований, диаграмм, электронных таблиц, отчетов и бизнес-аналитики. 📊
Помогает вам взаимодействовать с данными для генерации SQL, диаграмм и отчетов, используя выбранный вами LLM. Он предоставляет решение GenBI с открытым исходным кодом для команд, работающих с данными и ищущих информацию без кода.
Что он предлагает:ц
→ Wren AI — это агент GenBI AI с открытым исходным кодом, который позволяет командам, работающим с данными, взаимодействовать со своими данными через промпты.
→ Он генерирует запросы Text-to-SQL, диаграммы, электронные таблицы, отчеты и аналитические данные BI.
→ Поддерживает несколько LLM, включая OpenAI, Azure OpenAI, DeepSeek, Google Gemini, Vertex AI, Bedrock, Anthropic, Groq, Ollama и Databricks.
→ Wren AI позволяет пользователям задавать вопросы о данных на нескольких языках и предоставляет созданные ИИ сводки и визуализации результатов запросов.
→ Он включает в себя исследование данных на основе искусственного интеллекта, семантическое индексирование для контекста и позволяет экспортировать данные в Excel и Google Таблицы.
⚡️ Github
@data_analysis_ml
Помогает вам взаимодействовать с данными для генерации SQL, диаграмм и отчетов, используя выбранный вами LLM. Он предоставляет решение GenBI с открытым исходным кодом для команд, работающих с данными и ищущих информацию без кода.
Что он предлагает:ц
→ Wren AI — это агент GenBI AI с открытым исходным кодом, который позволяет командам, работающим с данными, взаимодействовать со своими данными через промпты.
→ Он генерирует запросы Text-to-SQL, диаграммы, электронные таблицы, отчеты и аналитические данные BI.
→ Поддерживает несколько LLM, включая OpenAI, Azure OpenAI, DeepSeek, Google Gemini, Vertex AI, Bedrock, Anthropic, Groq, Ollama и Databricks.
→ Wren AI позволяет пользователям задавать вопросы о данных на нескольких языках и предоставляет созданные ИИ сводки и визуализации результатов запросов.
→ Он включает в себя исследование данных на основе искусственного интеллекта, семантическое индексирование для контекста и позволяет экспортировать данные в Excel и Google Таблицы.
— curl -L https://github.com/Canner/WrenAI/releases/latest/download/wren-launcher-darwin.tar.gz | tar -xz && ./wren-launcher-darwin@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6❤🔥1
Media is too big
VIEW IN TELEGRAM
Примерно с такой скоростью deepseek-r1:70b Q4 думает о Римской Империи на Mac Pro M4 Max локально.
gemma2:27b при этом выдает 24 токена в секунду.
#macbook #test
———
@tsingular
gemma2:27b при этом выдает 24 токена в секунду.
#macbook #test
———
@tsingular
🔥10❤1
Forwarded from Data Secrets
Сэм Альтман внезапно запостил в X планы OpenAI. GPT-4.5 (aka тот самый Orion, для которого из o3 генерировали синтетику) станет последней не-ризонинг моделью и выйдет уже в течение нескольких недель.
После этого компания надеется создать единую модель, которая будет воплощать в себе все технологии OpenAI, включая o3: GPT-5. По словам Сэма, она сама будет знать, когда думать дольше, а когда нет. Также в нее интегрируют голосовой режим, агентов, поиск и canvas.
При этом GPT-5 будет доступна бесплатно! А Plus и Pro юзеры смогут запускать ее на более высоком уровне компьюта.
Мы хотим, чтобы ИИ «просто работал» для вас, и мечтаем вернуться к единому волшебному интеллекту вместо множества моделей, из которых приходится выбирать
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡7❤🔥4❤1
Законы масштабирования ИИ от NVIDIA
Pretraining Scaling:
Больше параметров
Больше данных
Больше вычислительной мощности
= Лучше результат
Именно отсюда растут модели на триллионы параметров и MoE (Mixture of Experts) архитектуры.
Post-training Scaling:
Fine-tuning на специфических задачах
Дистилляция (большая модель учит маленькую)
RLHF/RLAIF для коррекции на обратной связи от человека или ИИ
Best-of-n sampling для улучшения выходных данных
Неожиданный факт: на пост-тренинг производных моделей уходит в 30 раз больше вычислений, чем на тренировку базовой! 🤯
Test-time Scaling (он же Long/Deep Thinking) - горячий тренд:
Модель не выдаёт ответ сразу, а "размышляет"
На сложных задачах может думать минутами или часами
Потребляет в 100 раз больше ресурсов по сравнению с обычным инференсом
Использует chain-of-thought prompting и поиск по дереву решений
Технические детали:
Chain-of-thought: разбивает сложные проблемы на простые шаги
Majority voting: генерирует несколько ответов и выбирает самый частый
Search: исследует дерево возможных решений
Что дальше?
Уже появились первые модели с упором на reasoning:
OpenAI o1-mini и o3-mini
DeepSeek R1
Gemini 2.0 Flash Thinking
Индустрия делает серьёзную ставку на "думающие" модели - но это требует космических вычислительных ресурсов.
Нужно больше золота, милорд! :)
#NVIDIA #ScalingLaws #Computing
———
@tsingular
Pretraining Scaling:
Больше параметров
Больше данных
Больше вычислительной мощности
= Лучше результат
Именно отсюда растут модели на триллионы параметров и MoE (Mixture of Experts) архитектуры.
Post-training Scaling:
Fine-tuning на специфических задачах
Дистилляция (большая модель учит маленькую)
RLHF/RLAIF для коррекции на обратной связи от человека или ИИ
Best-of-n sampling для улучшения выходных данных
Неожиданный факт: на пост-тренинг производных моделей уходит в 30 раз больше вычислений, чем на тренировку базовой! 🤯
Test-time Scaling (он же Long/Deep Thinking) - горячий тренд:
Модель не выдаёт ответ сразу, а "размышляет"
На сложных задачах может думать минутами или часами
Потребляет в 100 раз больше ресурсов по сравнению с обычным инференсом
Использует chain-of-thought prompting и поиск по дереву решений
Технические детали:
Chain-of-thought: разбивает сложные проблемы на простые шаги
Majority voting: генерирует несколько ответов и выбирает самый частый
Search: исследует дерево возможных решений
Что дальше?
Уже появились первые модели с упором на reasoning:
OpenAI o1-mini и o3-mini
DeepSeek R1
Gemini 2.0 Flash Thinking
Индустрия делает серьёзную ставку на "думающие" модели - но это требует космических вычислительных ресурсов.
Нужно больше золота, милорд! :)
#NVIDIA #ScalingLaws #Computing
———
@tsingular
👍7