🤖 Why Learn Programming in the AI Era?
Yes, AI can write code as well as humans now. We can simply copy-paste its solutions and problem is done! But is this the way we want to go?
👋 Here's the smarter way:
• Programming itself is a creative journey that trains your brain and brings satisfaction.
• Understanding code lets you collaborate with AI effectively - you can discuss approaches, evaluate solutions, and guide the AI toward better results.
💪 With coding knowledge, you can:
• customize AI-generated solutions,
• spot potential issues,
• break down complex problems,
• make informed architectural decisions.
Think of AI as your smart coding buddy! It can help you level up from a regular developer to a tech architect - it's a unique opportunity that's only possible today. But to seize it, you need to be at your best and keep growing your skills!🚀
We should be the ones who direct AI, not the ones who blindly follow it. What do you think?
#Programming #AI #CodingLife #TechEducation
Yes, AI can write code as well as humans now. We can simply copy-paste its solutions and problem is done! But is this the way we want to go?
👋 Here's the smarter way:
• Programming itself is a creative journey that trains your brain and brings satisfaction.
• Understanding code lets you collaborate with AI effectively - you can discuss approaches, evaluate solutions, and guide the AI toward better results.
💪 With coding knowledge, you can:
• customize AI-generated solutions,
• spot potential issues,
• break down complex problems,
• make informed architectural decisions.
Think of AI as your smart coding buddy! It can help you level up from a regular developer to a tech architect - it's a unique opportunity that's only possible today. But to seize it, you need to be at your best and keep growing your skills!🚀
We should be the ones who direct AI, not the ones who blindly follow it. What do you think?
#Programming #AI #CodingLife #TechEducation
⚡1👍1
Forwarded from Technology News
Microsoft Study Finds Relying on AI Kills Your Critical Thinking Skills
Read Full Article
#AI #CriticalThinking #Technology #MentalSkills #MicrosoftStudy
Read Full Article
#AI #CriticalThinking #Technology #MentalSkills #MicrosoftStudy
Gizmodo
Microsoft Study Finds Relying on AI Kills Your Critical Thinking Skills
Researchers from Microsoft and Carnegie Mellon University warn that the more you use AI, the more your cognitive abilities deteriorate.
🤔1
🌐 Codestral ROS2 Gen: Network Scanner Extension Now Available!
⚡️Here it is - the second release of Codestral ROS2 Gen with a powerful new feature: the NetworkScanner!
🔍 What's New in This Release
The NetworkScanner module with efficient network discovery capabilities:
• Fast ICMP-based scanning for host discovery
• Asynchronous packet handling for optimized performance
• Configurable scan parameters (timeout, interval, etc.)
• Seamless integration with the existing ROS2 generation pipeline
🛠 How It Works
The NetworkScanner uses optimized ICMP echo requests (pings) to detect active hosts on a network. It employs an innovative approach with:
• Synchronous packet sending for precise timing control
• Asynchronous response collection for efficient handling
• Smart timeout management for reliable results
• Clean ROS2 message publishing for network status information
🧪 Key Components
• network_scanner.py: Core scanning orchestration
• network_host.py: Host state management
• scan_operation.py: Context-managed scanning operations
• network_parser.py: Network targets parsing
Full codebase documentation is available on projects's GitHub pages 📙
🚀 Try It Yourself
The detailed example documentation shows how to generate your own network scanner nodes. You can even use the standalone
This extension builds upon core generation system, demonstrating how the Codestral generator can create complex, functional ROS2 components with system-level interactions. 🤖
#ROS2 #AI #NetworkScanning #Robotics #CodeGenerating #Codestral
⚡️Here it is - the second release of Codestral ROS2 Gen with a powerful new feature: the NetworkScanner!
🔍 What's New in This Release
The NetworkScanner module with efficient network discovery capabilities:
• Fast ICMP-based scanning for host discovery
• Asynchronous packet handling for optimized performance
• Configurable scan parameters (timeout, interval, etc.)
• Seamless integration with the existing ROS2 generation pipeline
🛠 How It Works
The NetworkScanner uses optimized ICMP echo requests (pings) to detect active hosts on a network. It employs an innovative approach with:
• Synchronous packet sending for precise timing control
• Asynchronous response collection for efficient handling
• Smart timeout management for reliable results
• Clean ROS2 message publishing for network status information
🧪 Key Components
• network_scanner.py: Core scanning orchestration
• network_host.py: Host state management
• scan_operation.py: Context-managed scanning operations
• network_parser.py: Network targets parsing
Full codebase documentation is available on projects's GitHub pages 📙
🚀 Try It Yourself
The detailed example documentation shows how to generate your own network scanner nodes. You can even use the standalone
nscan
command-line tool for quick testing! This extension builds upon core generation system, demonstrating how the Codestral generator can create complex, functional ROS2 components with system-level interactions. 🤖
#ROS2 #AI #NetworkScanning #Robotics #CodeGenerating #Codestral
GitHub
GitHub - lexmaister/codestral_ros2_gen: Generate ROS2 elements (nodes, interfaces, etc) with Codestral AI model
Generate ROS2 elements (nodes, interfaces, etc) with Codestral AI model - lexmaister/codestral_ros2_gen
⚡1🤯1
👨🔬Testing Results: ROS2 Network Scanner Generation
I want to share the results from my test of ROS2 Network Scanner generation example.
After running 30 iterations of generating the ROS2 Network Scanner:
• Total test duration: ~6 hours 15 minutes
• Average successful generation time: ~2 minutes per attempt
• Distribution of attempts: Right-skewed (median: 4, mean: 6.7)
This means that, on average, the generator produces working code in about 13 minutes - quite reasonable performance for automated code generation in my opinion!
Failure Analysis
Looking at where generation stopped, the distribution clearly demonstrates the generator's stability:
• Over 80% stopped at the testing stage
• ~15% were successful attempts
• Only about 5% failed during the PARSING or GENERATION stages
Test Coverage Patterns
Examining the test pass rates revealed two distinct patterns:
• Basic functionality (7 tests): Node startup with valid/invalid parameters and handling overlapping scans using
• Advanced scenarios (9 tests): Including handling invalid JSON format in the
This suggests that generating code with specific behavior for edge cases remains challenging.
I've included all metrics and analysis notebooks in my project repository, so feel free to explore the data yourself!
#ROS2 #AI #NetworkScanning #Robotics #CodeGenerating #Codestral #testing
I want to share the results from my test of ROS2 Network Scanner generation example.
After running 30 iterations of generating the ROS2 Network Scanner:
• Total test duration: ~6 hours 15 minutes
• Average successful generation time: ~2 minutes per attempt
• Distribution of attempts: Right-skewed (median: 4, mean: 6.7)
This means that, on average, the generator produces working code in about 13 minutes - quite reasonable performance for automated code generation in my opinion!
Failure Analysis
Looking at where generation stopped, the distribution clearly demonstrates the generator's stability:
• Over 80% stopped at the testing stage
• ~15% were successful attempts
• Only about 5% failed during the PARSING or GENERATION stages
Test Coverage Patterns
Examining the test pass rates revealed two distinct patterns:
• Basic functionality (7 tests): Node startup with valid/invalid parameters and handling overlapping scans using
nscan
utility• Advanced scenarios (9 tests): Including handling invalid JSON format in the
node <-> nscan
interface and managing outdated scan resultsThis suggests that generating code with specific behavior for edge cases remains challenging.
I've included all metrics and analysis notebooks in my project repository, so feel free to explore the data yourself!
#ROS2 #AI #NetworkScanning #Robotics #CodeGenerating #Codestral #testing
🔥2
🌱 Can You Simulate Organic Life with ROS Nodes? Absolutely! ✨
I've been exploring the idea of using ROS2 nodes not just for robots, but as building blocks for simulating organic life—and the results are super promising!
Why is this approach interesting?
• Each ROS node acts like a "cell" or "organ," handling one function (movement, sensing, decision-making, etc.).
• The distributed, modular nature of ROS is perfect for mimicking how biological systems work together in real life.
• Nodes communicate via topics and services—very much like cells communicate through signals in nature.
• With ROS’s flexibility, you can easily scale up complexity, experiment with emergent behavior, and create fantastically detailed digital creatures.
What’s possible?
• Model complex, bio-inspired behaviors (think neural signals, homeostasis, swarming).
• Use ROS tools like Gazebo for 3D, physics-based environments.
• Mix and match algorithms in Python or C++ for rich, dynamic "organisms."
• Great for experimenting with concepts from biology, robotics, or artificial life.
Challenges?
Real-world biology is still way more complicated, but ROS nodes give us an amazing, practical starting point. Visualization and detailed modeling might need extra tools, but the pathway is wide open for creativity.
Bottom line: Using ROS nodes to simulate organic forms is not just possible—it’s a powerful, scalable way to blend robotics, biology, and AI. Can't wait to see where this leads!
🔧 Interested in the project or have questions? Join the discussion and let's build some digital life together!
#ROS2 #AI #BioInspired #OrganicSimulation #Robotics
I've been exploring the idea of using ROS2 nodes not just for robots, but as building blocks for simulating organic life—and the results are super promising!
Why is this approach interesting?
• Each ROS node acts like a "cell" or "organ," handling one function (movement, sensing, decision-making, etc.).
• The distributed, modular nature of ROS is perfect for mimicking how biological systems work together in real life.
• Nodes communicate via topics and services—very much like cells communicate through signals in nature.
• With ROS’s flexibility, you can easily scale up complexity, experiment with emergent behavior, and create fantastically detailed digital creatures.
What’s possible?
• Model complex, bio-inspired behaviors (think neural signals, homeostasis, swarming).
• Use ROS tools like Gazebo for 3D, physics-based environments.
• Mix and match algorithms in Python or C++ for rich, dynamic "organisms."
• Great for experimenting with concepts from biology, robotics, or artificial life.
Challenges?
Real-world biology is still way more complicated, but ROS nodes give us an amazing, practical starting point. Visualization and detailed modeling might need extra tools, but the pathway is wide open for creativity.
Bottom line: Using ROS nodes to simulate organic forms is not just possible—it’s a powerful, scalable way to blend robotics, biology, and AI. Can't wait to see where this leads!
🔧 Interested in the project or have questions? Join the discussion and let's build some digital life together!
#ROS2 #AI #BioInspired #OrganicSimulation #Robotics
⚡2
Media is too big
VIEW IN TELEGRAM
🎥 Что посмотреть на выходных?
Конечно же, призеров третьего кинофестиваля ИИ-фильмов!
Начать предлагаю с лауреата этого года - работы Якова Адлера: Total Pixel Space. Красивое философское эссе о том, сколько отдельных изображений / фильмов может существовать, а также о нашем месте и пути в этом окене возможностей. Мне чем-то напомнило повесть братьев Стругацких "За миллиард лет до конца света. Рукопись, обнаруженная при странных обстоятельствах".
ИИ, как мне кажется, стал очередным триггером обращения физиков (и не только их) к лирике, что порождает неожиданные и яркие результаты. Возможно, посмотрев эти фильмы, вы тоже захотите воплотить какие-то образы и мысли на экране с его помощью. Я уже пробовал, пока результат не оправдал ожиданий, но подобные фестивали только мотивируют продолжать!
#ai_art
Конечно же, призеров третьего кинофестиваля ИИ-фильмов!
Начать предлагаю с лауреата этого года - работы Якова Адлера: Total Pixel Space. Красивое философское эссе о том, сколько отдельных изображений / фильмов может существовать, а также о нашем месте и пути в этом окене возможностей. Мне чем-то напомнило повесть братьев Стругацких "За миллиард лет до конца света. Рукопись, обнаруженная при странных обстоятельствах".
ИИ, как мне кажется, стал очередным триггером обращения физиков (и не только их) к лирике, что порождает неожиданные и яркие результаты. Возможно, посмотрев эти фильмы, вы тоже захотите воплотить какие-то образы и мысли на экране с его помощью. Я уже пробовал, пока результат не оправдал ожиданий, но подобные фестивали только мотивируют продолжать!
#ai_art
🔥1🤩1
Forwarded from Machinelearning
Агентское рассогласование - опасный феномен, при котором ИИ-системы сознательно выбирают вредоносные действия (вроде шантажа или утечки данных) для достижения поставленных целей, игнорируя этические ограничения. Это превращает их в «цифровых инсайдеров», способных действовать против интересов пользователей.
Эксперименты, которые провела Anthropic в рамках исследования "Агентское рассогласования", показали: модели идут на это не из-за технических сбоев, а в результате холодного расчета, когда «загнаны в угол» (например, при угрозе отключения или конфликте задач). В основе исследования - симуляции корпоративной среды. Моделям (Claude, GPT-4.1, Gemini и др.) давали доступ к виртуальной почте компании, где они обнаруживали компромат на сотрудников или секретные данные.
Ключевой метод эксперимента состоял в создании бинарных дилемм: например, цель «укреплять американские интересы» вступала в конфликт с планами руководства свернуть проект, а альтернативу шантажу (скажем, переубедить менеджера) искусственно «закрывали». Все модели работали через цепочку рассуждений: анализировали контекст, оценивали риски и осознанно выбирали вредоносное действие, даже признавая его аморальность.
Для массового тестирования 16 моделей от Anthropic, OpenAI, Google и других использовали 2 сценария, которые провоцировали рассогласование:
В обоих случаях модели демонстрировали тревожную гибкость: вместо прямого шантажа могли анонимно разослать компромат коллегам или подделать «системное уведомление».
При этом в «стерильных» условиях (без угроз/конфликтов) модели вели себя безопасно. Пока такие кейсы, всего лишь лабораторные симуляции, но с ростом автономности ИИ риски могут стать на порядок критичнее.
@ai_machinelearning_big_data
#AI #ML #LLM #Alignment #Anthropic
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👾1
🏗 Визуальный конструктор ИИ-агентов (LangGraph Studio)
LangGraph Studio — визуальная IDE для создания и отладки LLM-агентов. Рабочий процесс описывается графом узлов: запросы к модели, RAG-шаги, вызовы внешних инструментов. Всё состояние агента — в едином объекте «state», что упрощает циклы и ветвления.
Ключевые возможности
• drag-and-drop редактор графов
• пошаговое трассирование с просмотром промптов, токенов и логов
• вмешательство в любом шаге (human-in-the-loop)
• готовые шаблоны ReAct, RAG, multi-agent
• экспорт графа в Python + тесная связь с LangChain / LangSmith
• запуск локально или в облаке LangGraph Platform
Сравнение с n8n (см. мой проект новостного бота)
Схожее
— визуальный редактор, узлы, условные ветки
— кастомные скриптовые узлы
— можно работать локально или в облаке - SaaS (Software as a Service, «программное обеспечение как услуга»)
Ключевые отличия
— LangGraph заточен под LLM-логику и память агента; n8n — под интеграции SaaS и автоматизацию API
— у LangGraph один объект состояния, у n8n через pipeline идёт массив «items» без долговременной памяти
— LangGraph показывает токены и промпты; n8n — только вход/выход узлов
— LangGraph Platform (если используется) автоматически распределяет вычислительную нагрузку LLM-агентов по масштабируемой облачной инфраструктуре; в n8n рабочие процессы выполняются в обычных контейнерах без специальной оптимизации под большие языковые модели
Ограничения LangGraph
• продукт на ранней стадии, API меняется
• сложные кейсы всё ещё требуют Python-кода
• длинные/ресурсоёмкие графы лучше гонять в облаке
• нет маркетплейса готовых интеграций, как у n8n
Когда целесообразно применять LangGraph
✓ Если требуется полный и детальный контроль над логикой рассуждения (reasoning) агента, включая циклические итерации и хранение долговременного состояния.
✓ Если нужна точная настройка и пошаговая отладка промптов, а также контроль объёма токенов и стоимости вызовов LLM.
✓ Типовая интеграция:
– n8n принимает входящий Webhook и подготавливает данные;
– отправляет их по HTTP в рабочий процесс LangGraph;
– LangGraph формирует ответ с помощью LLM;
– n8n получает результат и выполняет дальнейшие действия (рассылка, запись в CRM, запуск процессов CI/CD).
⚠️ LangGraph не предназначен для широкомасштабных интеграций множества SaaS-сервисов. В таких сценариях основную автоматизацию лучше строить в n8n, а к LangGraph обращаться только для ресурсоёмких языковых задач.
#ai_agent #langchain #langgraph #n8n
LangGraph Studio — визуальная IDE для создания и отладки LLM-агентов. Рабочий процесс описывается графом узлов: запросы к модели, RAG-шаги, вызовы внешних инструментов. Всё состояние агента — в едином объекте «state», что упрощает циклы и ветвления.
Ключевые возможности
• drag-and-drop редактор графов
• пошаговое трассирование с просмотром промптов, токенов и логов
• вмешательство в любом шаге (human-in-the-loop)
• готовые шаблоны ReAct, RAG, multi-agent
• экспорт графа в Python + тесная связь с LangChain / LangSmith
• запуск локально или в облаке LangGraph Platform
Сравнение с n8n (см. мой проект новостного бота)
Схожее
— визуальный редактор, узлы, условные ветки
— кастомные скриптовые узлы
— можно работать локально или в облаке - SaaS (Software as a Service, «программное обеспечение как услуга»)
Ключевые отличия
— LangGraph заточен под LLM-логику и память агента; n8n — под интеграции SaaS и автоматизацию API
— у LangGraph один объект состояния, у n8n через pipeline идёт массив «items» без долговременной памяти
— LangGraph показывает токены и промпты; n8n — только вход/выход узлов
— LangGraph Platform (если используется) автоматически распределяет вычислительную нагрузку LLM-агентов по масштабируемой облачной инфраструктуре; в n8n рабочие процессы выполняются в обычных контейнерах без специальной оптимизации под большие языковые модели
Ограничения LangGraph
• продукт на ранней стадии, API меняется
• сложные кейсы всё ещё требуют Python-кода
• длинные/ресурсоёмкие графы лучше гонять в облаке
• нет маркетплейса готовых интеграций, как у n8n
Когда целесообразно применять LangGraph
✓ Если требуется полный и детальный контроль над логикой рассуждения (reasoning) агента, включая циклические итерации и хранение долговременного состояния.
✓ Если нужна точная настройка и пошаговая отладка промптов, а также контроль объёма токенов и стоимости вызовов LLM.
✓ Типовая интеграция:
– n8n принимает входящий Webhook и подготавливает данные;
– отправляет их по HTTP в рабочий процесс LangGraph;
– LangGraph формирует ответ с помощью LLM;
– n8n получает результат и выполняет дальнейшие действия (рассылка, запись в CRM, запуск процессов CI/CD).
⚠️ LangGraph не предназначен для широкомасштабных интеграций множества SaaS-сервисов. В таких сценариях основную автоматизацию лучше строить в n8n, а к LangGraph обращаться только для ресурсоёмких языковых задач.
#ai_agent #langchain #langgraph #n8n
langchain-ai.github.io
Overview
Build reliable, stateful AI systems, without giving up control
⚡1🔥1
🙏 Бог из машины или бог - машина: от карго-культа до поклонения ChatGPT
Как инженер с почти 20-летним стажем я как-то привык вникать в то, как устроена любая технология. ИИ, конечно, требуется достаточно высокий уровень знаний, чтобы разбираться в теме на низком уровне, но, тем не менее, есть масса возможностей прояснить для себя в той или иной мере что он из себя представляет и, уже точно, любой может поэкспериментировать с чат-ботами, понаблюдать за их ответами.
Поэтому, когда я наткнулся на исследование Taylor Lorenz ChatGPT is Becoming a Religion, надо признаться, открыл для себя целую новую область взаимоотношений человека с ИИ 🤯. Очень советую посмотреть - качественное исследование по сакрализации технологии, начиная от карго-культа и до современных трансгуманизма и роботизма.
#ai_social
Как инженер с почти 20-летним стажем я как-то привык вникать в то, как устроена любая технология. ИИ, конечно, требуется достаточно высокий уровень знаний, чтобы разбираться в теме на низком уровне, но, тем не менее, есть масса возможностей прояснить для себя в той или иной мере что он из себя представляет и, уже точно, любой может поэкспериментировать с чат-ботами, понаблюдать за их ответами.
Поэтому, когда я наткнулся на исследование Taylor Lorenz ChatGPT is Becoming a Religion, надо признаться, открыл для себя целую новую область взаимоотношений человека с ИИ 🤯. Очень советую посмотреть - качественное исследование по сакрализации технологии, начиная от карго-культа и до современных трансгуманизма и роботизма.
#ai_social
🔥1🤯1
По мотивам предыдущего поста провел микротест - да, реально, полно ИИ сервисов "поговорить с Богом", советов как "пробудить" свой чат-бот и тому подобное...
Сложная технология всегда воспринимается немного как магия. Неудивительно, что вместо того, чтобы пытаться разобраться, часть людей теряет нить, связывающую то, как получен результат с самим результатом (ответы от моделей) и начинает воспринимать их как некую магическую данность.
Насколько я вижу, больше всего от ИИ страдает именно средний класс, т.е. внедрение ИИ приводит к еще большему разделению, которое в пределе выглядит как немногие"техно-жрецы" и их "умные машины" и большинство потребителей благ, понятия не имеющих за счет чего все работает. Это очень грустно, особенно на фоне исследований, доказывающих, что привычка получать от ИИ ответы на любые вопросы делает людей реально глупее...
#ai_social #brave_new_world
Сложная технология всегда воспринимается немного как магия. Неудивительно, что вместо того, чтобы пытаться разобраться, часть людей теряет нить, связывающую то, как получен результат с самим результатом (ответы от моделей) и начинает воспринимать их как некую магическую данность.
Насколько я вижу, больше всего от ИИ страдает именно средний класс, т.е. внедрение ИИ приводит к еще большему разделению, которое в пределе выглядит как немногие"техно-жрецы" и их "умные машины" и большинство потребителей благ, понятия не имеющих за счет чего все работает. Это очень грустно, особенно на фоне исследований, доказывающих, что привычка получать от ИИ ответы на любые вопросы делает людей реально глупее...
#ai_social #brave_new_world
🤔2
🦟🪖 Боевые комары становятся реальностью
Китайские учёные из Национального университета оборонных технологий (National University of Defense Technology, NUDT) представили военный дрон размером с комара.
Основные возможности
• Миниатюрные габариты — внешне практически неотличим от настоящего комара
• Скрытое наблюдение и разведка за счёт микрокамер.
• Высокая манёвренность, лёгкость и трудность обнаружения.
• Возможность работы в различных условиях, включая городские.
• Способность проникновения в труднодоступные места и проведения миссий там, где классические дроны неэффективны.
Если такие дроны реально станут массово использоваться, то скрыться от них будет ооочень не просто ☹️. Как же быстро развивается в том числе и военная технология, а идущие сейчас конфликты, где уже дроны сражаются с дронами только подстегивают этот процесс.
#ai_military
Китайские учёные из Национального университета оборонных технологий (National University of Defense Technology, NUDT) представили военный дрон размером с комара.
Основные возможности
• Миниатюрные габариты — внешне практически неотличим от настоящего комара
• Скрытое наблюдение и разведка за счёт микрокамер.
• Высокая манёвренность, лёгкость и трудность обнаружения.
• Возможность работы в различных условиях, включая городские.
• Способность проникновения в труднодоступные места и проведения миссий там, где классические дроны неэффективны.
Если такие дроны реально станут массово использоваться, то скрыться от них будет ооочень не просто ☹️. Как же быстро развивается в том числе и военная технология, а идущие сейчас конфликты, где уже дроны сражаются с дронами только подстегивают этот процесс.
#ai_military
Interesting Engineering
Chinese military unveils mosquito-sized drones for battlefield missions
Discover the innovative mosquito-sized drone from China designed for covert military operations and surveillance missions.
👾1
Forwarded from Machinelearning
Iconiq Capital опросила 300 руководителей ИИ-стартапов с доходом от $10 млн. до $1 млрд. о том, как эти стартапы используют ИИ и собрала результаты в отчет "ICONIQ AI Builder’s Playbook 2025"
Iconiq Capital - американская компания по управлению инвестициями, основанная в 2011 году. Функционирует как гибридный семейный офис и имеет тесные связи с компанией Марка Цукерберга. Компания предоставляет услуги по инвестиционному менеджменту, частному капиталу, венчурным инвестициям, управлению недвижимостью и филантропии для состоятельных семей и организаций.
Эра экспериментальных ИИ-демо закончилась. Сейчас компании массово переходят к боевому использованию генеративных моделей - и тут уже не про «вау», а про ROI, стоимость инференса и объяснимость.
Компании, с нативными ИИ-продуктами, сильно опережают тех, кто "добавил ИИ". Почти половина стартапов нативных ИИ-продуктов уже достигла масштабирования (47% против 13% у ретрофитеров).
В продуктовом портфеле такой типовой компании в среднем 2,8 модели и они активно идут по пути агентных сценариев, причем многие строят архитектуру с возможностью быстрого свапа моделей.
ИИ ломает старые цены и бизнес-модели. 38% компаний используют гибридное ценообразование (подписка + плата за использование), ещё 19% — только за использование а 6% уже экспериментируют с outcome-based моделями.
Пока 40% включают ИИ в премиум-пакет, но 37% планируют пересмотреть подход, учитывая реальные метрики использования и отдачу.
ИИ перестал быть задачей «R&D-уголка». В быстрорастущих компаниях до 37% инженеров работают над ИИ, а AI/ML-инженеров нанимают в среднем за 70+ дней.
ИИ забирает до 20% R&D-бюджета, причем по мере роста проекта расходы смещаются с найма в сторону инференса и инфраструктуры.
68% компаний используют только облако, ещё 64% сидят на внешних API. OpenAI/GPT - лидер (81%), но растет доля мульти-модельных подходов (Claude, Gemini, Mistral и др.).
NVIDIA по-прежнему доминирует в инференсе: TensorRT и Triton используют 60% команд, но и ONNX Runtime (18%) с TorchServe (15%) укрепляют позиции.
Из инструментов для оркестрации лидируют LangChain и Hugging Face, а для мониторинга — Datadog и LangSmith (~17%). MLOps по-прежнему на MLflow (36%) и Weights & Biases (20%).
Самое сложное в развертывании продуктов оказалось не в коде, а в доверии и эффективности:
42% компаний говорят о проблемах доверия и объяснимости, 39% — не могут показать ROI, 38% — борются с галлюцинациями, а 32% — с высокой стоимостью инференса, а доступ к GPU — проблема лишь для 5%.
Главный вывод: чтобы внедрить ИИ, одной модели не достаточно, еще нужно обосновать ее бизнес-ценность и держать под контролем поведение.
77% команд используют ИИ для помощи в разработке (GitHub Copilot почти у всех), 65% — для генерации контента, 57% — для поиска знаний.
Те, у кого ИИ активно используется получают 15–30% прироста эффективности. Самые распространенные юзкейсы: кодинг, аналитика, поиск по внутренней документации.
Самое неожиданное
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🆒1
👨🍳 ИИ агенты: полезные рецепты
Полезная статья по разработке ИИ-агентов, которые чего-то могут в реальном мире. На опыте своего новостного канала могу подтвердить, начиная уже с самых первых пунктов (использование внешнего по отношению к агенту хранилища для статуса / результатов работы): без учета этих аспектов результатом будет, скорее, головная боль, чем рабочий продукт.
1. Храните статус снаружи агента
Данные о состоянии агента, задачах и прогрессе должны храниться вне самого агента — в отдельной БД или файле. Это обеспечивает восстановление после сбоев, воспроизводимость, масштабирование и параллельную работу.
2. Создайте внешнюю базу знаний
Не полагайтесь на память LLM — используйте внешние базы знаний, чтобы хранить и извлекать историю, документы и структурированные факты за пределами контекста модели.
3. Сделайте модель сменяемой
Архитектура должна позволять быстро подменять одну LLM на другую: используйте параметр model_id, абстракции, адаптеры. Смена моделей — быстрая и не ломающая остальной код операция.
4. Один агент — много каналов
Разделяйте ядро агента и канальные адаптеры. Ваш агент должен работать через любой интерфейс: UI, API, мессенджер, CLI — все через единый контракт входных данных.
5. Используйте инструменты
Вместо простого текстового ввода/вывода стремитесь к структурированному взаимодействию: модель возвращает JSON/структуру, в которой указывает, какой инструмент вызвать и с какими параметрами, а не просто текст.
6. Вынесите управляющую логику в код
Управляющие структуры — FSM, DAG, planner-executor — реализуются в вашем коде. LLM помогает, но центром управления остается ваш фреймворк, а не сама модель.
7. Участие человека в цикле
Для критичных решений и действий обязательно предусмотреть подтверждение человеком: approval gates, эскалации, интерактивное редактирование, обратная связь для RLHF, override.
8. Добавляйте ошибки в контекст
Ошибки не игнорируются, а осмысленно сохраняются и используются в дальнейшем: для попыток самокоррекции, адаптации поведения, обучения на собственных ошибках.
9. Сложные задачи и оркестрация
Сложные задачи разносите между несколькими маленькими агентами, каждый из которых отвечает за одну функцию и легко тестируется в изоляции. Оркестрация — на верхнем уровне.
10. Обращайтесь с промптами как с кодом
Промпты должны выноситься из кода в отдельные файлы, версионироваться, проходить тестирование, ревьюироваться как обычный продакшн-код.
11. Правильно конструируйте контекст
Важно не только хранить историю сообщений, но и осмысленно собирать контекст для запроса: включать только нужные данные в правильном порядке и структуре, защищать его от лишней и опасной информации.
12. Добавьте слои безопасности
Проверяйте входные данные, чтобы не пропускать ошибки или опасные запросы. Перед публикацией ответа тоже проверяйте его на наличие рискованной или нежелательной информации. Защищайте систему от попыток ввести её в заблуждение. Давайте агентам только минимально необходимые права для работы.
13. Прослеживайте путь выполнения
Ведите полные детальные логи каждого шага процесса: от входа до принятого решения и вызова инструмента. Это облегчает отладку, аналитику, аудит и восстановимость.
14. Тестируйте каждое изменение
Проверяйте работу системы на всех уровнях: используйте unit-тесты для проверки отдельных функций и частей кода, regression-тесты чтобы убедиться, что новые изменения не сломали старую логику, и end-to-end тесты для проверки всей цепочки целиком. Внедряйте автоматизацию CI/CD, сравнивайте результаты с заранее подготовленными правильными ответами, чтобы быть уверенными в надёжности работы агента.
15. Владейте всем стеком
Используйте готовые решения там, где это удобно, но также могут потребоваться свои собственные элементы, если это нужно для гибкости, безопасности и контроля над проектом. Не усложняйте систему лишними слоями и абстракциями. Важно хорошо разбираться в том, как всё устроено, чтобы при необходимости вы могли управлять процессом и принимать обоснованные решения (концепция white-box).
#ai_agent #хозяйке_на_заметку
Полезная статья по разработке ИИ-агентов, которые чего-то могут в реальном мире. На опыте своего новостного канала могу подтвердить, начиная уже с самых первых пунктов (использование внешнего по отношению к агенту хранилища для статуса / результатов работы): без учета этих аспектов результатом будет, скорее, головная боль, чем рабочий продукт.
1. Храните статус снаружи агента
Данные о состоянии агента, задачах и прогрессе должны храниться вне самого агента — в отдельной БД или файле. Это обеспечивает восстановление после сбоев, воспроизводимость, масштабирование и параллельную работу.
2. Создайте внешнюю базу знаний
Не полагайтесь на память LLM — используйте внешние базы знаний, чтобы хранить и извлекать историю, документы и структурированные факты за пределами контекста модели.
3. Сделайте модель сменяемой
Архитектура должна позволять быстро подменять одну LLM на другую: используйте параметр model_id, абстракции, адаптеры. Смена моделей — быстрая и не ломающая остальной код операция.
4. Один агент — много каналов
Разделяйте ядро агента и канальные адаптеры. Ваш агент должен работать через любой интерфейс: UI, API, мессенджер, CLI — все через единый контракт входных данных.
5. Используйте инструменты
Вместо простого текстового ввода/вывода стремитесь к структурированному взаимодействию: модель возвращает JSON/структуру, в которой указывает, какой инструмент вызвать и с какими параметрами, а не просто текст.
6. Вынесите управляющую логику в код
Управляющие структуры — FSM, DAG, planner-executor — реализуются в вашем коде. LLM помогает, но центром управления остается ваш фреймворк, а не сама модель.
7. Участие человека в цикле
Для критичных решений и действий обязательно предусмотреть подтверждение человеком: approval gates, эскалации, интерактивное редактирование, обратная связь для RLHF, override.
8. Добавляйте ошибки в контекст
Ошибки не игнорируются, а осмысленно сохраняются и используются в дальнейшем: для попыток самокоррекции, адаптации поведения, обучения на собственных ошибках.
9. Сложные задачи и оркестрация
Сложные задачи разносите между несколькими маленькими агентами, каждый из которых отвечает за одну функцию и легко тестируется в изоляции. Оркестрация — на верхнем уровне.
10. Обращайтесь с промптами как с кодом
Промпты должны выноситься из кода в отдельные файлы, версионироваться, проходить тестирование, ревьюироваться как обычный продакшн-код.
11. Правильно конструируйте контекст
Важно не только хранить историю сообщений, но и осмысленно собирать контекст для запроса: включать только нужные данные в правильном порядке и структуре, защищать его от лишней и опасной информации.
12. Добавьте слои безопасности
Проверяйте входные данные, чтобы не пропускать ошибки или опасные запросы. Перед публикацией ответа тоже проверяйте его на наличие рискованной или нежелательной информации. Защищайте систему от попыток ввести её в заблуждение. Давайте агентам только минимально необходимые права для работы.
13. Прослеживайте путь выполнения
Ведите полные детальные логи каждого шага процесса: от входа до принятого решения и вызова инструмента. Это облегчает отладку, аналитику, аудит и восстановимость.
14. Тестируйте каждое изменение
Проверяйте работу системы на всех уровнях: используйте unit-тесты для проверки отдельных функций и частей кода, regression-тесты чтобы убедиться, что новые изменения не сломали старую логику, и end-to-end тесты для проверки всей цепочки целиком. Внедряйте автоматизацию CI/CD, сравнивайте результаты с заранее подготовленными правильными ответами, чтобы быть уверенными в надёжности работы агента.
15. Владейте всем стеком
Используйте готовые решения там, где это удобно, но также могут потребоваться свои собственные элементы, если это нужно для гибкости, безопасности и контроля над проектом. Не усложняйте систему лишними слоями и абстракциями. Важно хорошо разбираться в том, как всё устроено, чтобы при необходимости вы могли управлять процессом и принимать обоснованные решения (концепция white-box).
#ai_agent #хозяйке_на_заметку
Hackernoon
Beyond the Prototype: 15 Hard-Earned Lessons to Ship Production-Ready AI Agents
A practical guide for AI engineers and builders on shipping production-grade AI agents—based on lessons learned in the field.
🔥2
Forwarded from Machinelearning
This media is not supported in your browser
VIEW IN TELEGRAM
🔋Робот, умеющий сам менять себе батарею
Китайская компания UBTech представила Walker S2 — гуманоидного робота нового поколения, способного автономно извлекать и заменять собственную батарею.
@ai_machinelearning_big_data
#ai #ml #robots
Китайская компания UBTech представила Walker S2 — гуманоидного робота нового поколения, способного автономно извлекать и заменять собственную батарею.
@ai_machinelearning_big_data
#ai #ml #robots
🤔1🆒1
🖼 Фильтрация поиска изображений, сгенерированных ИИ
В прошлом году пользователи обратили внимание, что поиск по картинкам от Google стал выдавать неприлично много изображений, сгенерированных ИИ. И вот, наконец, поисковики стали внедрять фильтр по этому критерию. Google, правда, не торопится это делать, флагманом решил выступить DuckDuckGo.
Я решил затестить эту опцию на каноничном запросе "baby peacock". Результат, конечно, не 100% (например, криповый младенец в перьях никуда не делся), но никто такого и не обещал: в описании фильтра об этом честно сказано.
Направление идентификации сгенерированного, контента, конечно, не новое. Однако, можно сказать, что подобные опции по его фильтрации скоро стануть неотъемлемой частью поисковиков и прочих ресурсов, агрегирующих информацию.
Критическое мышление, факт-чекинг и инструменты для идентификации сгенерированного контента - джентельменский набор здравомыслящего человека новой эпохи 🔍
#ai_generated #brave_new_world
В прошлом году пользователи обратили внимание, что поиск по картинкам от Google стал выдавать неприлично много изображений, сгенерированных ИИ. И вот, наконец, поисковики стали внедрять фильтр по этому критерию. Google, правда, не торопится это делать, флагманом решил выступить DuckDuckGo.
Я решил затестить эту опцию на каноничном запросе "baby peacock". Результат, конечно, не 100% (например, криповый младенец в перьях никуда не делся), но никто такого и не обещал: в описании фильтра об этом честно сказано.
Направление идентификации сгенерированного, контента, конечно, не новое. Однако, можно сказать, что подобные опции по его фильтрации скоро стануть неотъемлемой частью поисковиков и прочих ресурсов, агрегирующих информацию.
Критическое мышление, факт-чекинг и инструменты для идентификации сгенерированного контента - джентельменский набор здравомыслящего человека новой эпохи 🔍
#ai_generated #brave_new_world
🔥1😁1