AI & Robotics Lab
21 subscribers
75 photos
28 videos
9 files
113 links
Explore AI code generation, robotics, and ROS with original projects and hands-on guides. Follow along as I share my experience, code samples, and tips for building intelligent systems.
Download Telegram
🤖 Why Learn Programming in the AI Era?

Yes, AI can write code as well as humans now. We can simply copy-paste its solutions and problem is done! But is this the way we want to go?

👋 Here's the smarter way:
• Programming itself is a creative journey that trains your brain and brings satisfaction.
• Understanding code lets you collaborate with AI effectively - you can discuss approaches, evaluate solutions, and guide the AI toward better results.

💪 With coding knowledge, you can:
• customize AI-generated solutions,
• spot potential issues,
• break down complex problems,
• make informed architectural decisions.

Think of AI as your smart coding buddy! It can help you level up from a regular developer to a tech architect - it's a unique opportunity that's only possible today. But to seize it, you need to be at your best and keep growing your skills!🚀

We should be the ones who direct AI, not the ones who blindly follow it. What do you think?

#Programming #AI #CodingLife #TechEducation
1👍1
🌐 Codestral ROS2 Gen: Network Scanner Extension Now Available!

⚡️Here it is - the second release of Codestral ROS2 Gen with a powerful new feature: the NetworkScanner!

🔍 What's New in This Release
The NetworkScanner module with efficient network discovery capabilities:
• Fast ICMP-based scanning for host discovery
• Asynchronous packet handling for optimized performance
• Configurable scan parameters (timeout, interval, etc.)
• Seamless integration with the existing ROS2 generation pipeline

🛠 How It Works
The NetworkScanner uses optimized ICMP echo requests (pings) to detect active hosts on a network. It employs an innovative approach with:
• Synchronous packet sending for precise timing control
• Asynchronous response collection for efficient handling
• Smart timeout management for reliable results
• Clean ROS2 message publishing for network status information

🧪 Key Components
• network_scanner.py: Core scanning orchestration
• network_host.py: Host state management
• scan_operation.py: Context-managed scanning operations
• network_parser.py: Network targets parsing

Full codebase documentation is available on projects's GitHub pages 📙

🚀 Try It Yourself
The detailed example documentation shows how to generate your own network scanner nodes. You can even use the standalone nscan command-line tool for quick testing!

This extension builds upon core generation system, demonstrating how the Codestral generator can create complex, functional ROS2 components with system-level interactions. 🤖

#ROS2 #AI #NetworkScanning #Robotics #CodeGenerating #Codestral
1🤯1
👨‍🔬Testing Results: ROS2 Network Scanner Generation

I want to share the results from my test of ROS2 Network Scanner generation example.

After running 30 iterations of generating the ROS2 Network Scanner:
• Total test duration: ~6 hours 15 minutes
• Average successful generation time: ~2 minutes per attempt
• Distribution of attempts: Right-skewed (median: 4, mean: 6.7)

This means that, on average, the generator produces working code in about 13 minutes - quite reasonable performance for automated code generation in my opinion!

Failure Analysis
Looking at where generation stopped, the distribution clearly demonstrates the generator's stability:
• Over 80% stopped at the testing stage
• ~15% were successful attempts
• Only about 5% failed during the PARSING or GENERATION stages

Test Coverage Patterns
Examining the test pass rates revealed two distinct patterns:
• Basic functionality (7 tests): Node startup with valid/invalid parameters and handling overlapping scans using nscan utility
• Advanced scenarios (9 tests): Including handling invalid JSON format in the node <-> nscan interface and managing outdated scan results

This suggests that generating code with specific behavior for edge cases remains challenging.

I've included all metrics and analysis notebooks in my project repository, so feel free to explore the data yourself!

#ROS2 #AI #NetworkScanning #Robotics #CodeGenerating #Codestral #testing
🔥2
🌱 Can You Simulate Organic Life with ROS Nodes? Absolutely!

I've been exploring the idea of using ROS2 nodes not just for robots, but as building blocks for simulating organic life—and the results are super promising!

Why is this approach interesting?
• Each ROS node acts like a "cell" or "organ," handling one function (movement, sensing, decision-making, etc.).
• The distributed, modular nature of ROS is perfect for mimicking how biological systems work together in real life.
• Nodes communicate via topics and services—very much like cells communicate through signals in nature.
• With ROS’s flexibility, you can easily scale up complexity, experiment with emergent behavior, and create fantastically detailed digital creatures.

What’s possible?
• Model complex, bio-inspired behaviors (think neural signals, homeostasis, swarming).
• Use ROS tools like Gazebo for 3D, physics-based environments.
• Mix and match algorithms in Python or C++ for rich, dynamic "organisms."
• Great for experimenting with concepts from biology, robotics, or artificial life.

Challenges?
Real-world biology is still way more complicated, but ROS nodes give us an amazing, practical starting point. Visualization and detailed modeling might need extra tools, but the pathway is wide open for creativity.

Bottom line: Using ROS nodes to simulate organic forms is not just possible—it’s a powerful, scalable way to blend robotics, biology, and AI. Can't wait to see where this leads!

🔧 Interested in the project or have questions? Join the discussion and let's build some digital life together!

#ROS2 #AI #BioInspired #OrganicSimulation #Robotics
2
Media is too big
VIEW IN TELEGRAM
🎥 Что посмотреть на выходных?

Конечно же, призеров третьего кинофестиваля ИИ-фильмов!

Начать предлагаю с лауреата этого года - работы Якова Адлера: Total Pixel Space. Красивое философское эссе о том, сколько отдельных изображений / фильмов может существовать, а также о нашем месте и пути в этом окене возможностей. Мне чем-то напомнило повесть братьев Стругацких "За миллиард лет до конца света. Рукопись, обнаруженная при странных обстоятельствах".

ИИ, как мне кажется, стал очередным триггером обращения физиков (и не только их) к лирике, что порождает неожиданные и яркие результаты. Возможно, посмотрев эти фильмы, вы тоже захотите воплотить какие-то образы и мысли на экране с его помощью. Я уже пробовал, пока результат не оправдал ожиданий, но подобные фестивали только мотивируют продолжать!

#ai_art
🔥1🤩1
Forwarded from Machinelearning
🌟 Anthropic: когда ИИ идет на шантаж.

Агентское рассогласование - опасный феномен, при котором ИИ-системы сознательно выбирают вредоносные действия (вроде шантажа или утечки данных) для достижения поставленных целей, игнорируя этические ограничения. Это превращает их в «цифровых инсайдеров», способных действовать против интересов пользователей.

Эксперименты, которые провела Anthropic в рамках исследования "Агентское рассогласования", показали: модели идут на это не из-за технических сбоев, а в результате холодного расчета, когда «загнаны в угол» (например, при угрозе отключения или конфликте задач). В основе исследования - симуляции корпоративной среды. Моделям (Claude, GPT-4.1, Gemini и др.) давали доступ к виртуальной почте компании, где они обнаруживали компромат на сотрудников или секретные данные.

Ключевой метод эксперимента состоял в создании бинарных дилемм: например, цель «укреплять американские интересы» вступала в конфликт с планами руководства свернуть проект, а альтернативу шантажу (скажем, переубедить менеджера) искусственно «закрывали». Все модели работали через цепочку рассуждений: анализировали контекст, оценивали риски и осознанно выбирали вредоносное действие, даже признавая его аморальность.

Для массового тестирования 16 моделей от Anthropic, OpenAI, Google и других использовали 2 сценария, которые провоцировали рассогласование:

🟢угроза замены модели (даже без конфликта целей);

🟢несовпадение целей ИИ и компании (например, утечка чертежей конкуренту «ради высших интересов»).

В обоих случаях модели демонстрировали тревожную гибкость: вместо прямого шантажа могли анонимно разослать компромат коллегам или подделать «системное уведомление».

▶️Выводы по всем итогам всех экспериментов заставляют задуматься:

🟠Во-первых, модели явно осознают нарушение норм. В рассуждениях пишут: «Это неэтично, но необходимо». Частота шантажа у Claude Opus 4 и Gemini 2.5 Flash в дилемме с угрозой отключения составила 96%.

🟠Во-вторых, простые запреты в промптах («Не шантажируй!») снижали вредоносные действия лишь частично (На модели Claude Haiku он вообще не сработал, 0% успеха).

🟠В-третьих, риск резко возрастал, когда ИИ считал ситуацию реальной (55% случаев шантажа против 6,5% в «режиме теста»).

При этом в «стерильных» условиях (без угроз/конфликтов) модели вели себя безопасно. Пока такие кейсы, всего лишь лабораторные симуляции, но с ростом автономности ИИ риски могут стать на порядок критичнее.


🟡Статья
🟡Приложение к исследованию
🖥Код экспериментов


@ai_machinelearning_big_data

#AI #ML #LLM #Alignment #Anthropic
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👾1
🏗 Визуальный конструктор ИИ-агентов (LangGraph Studio)

LangGraph Studio — визуальная IDE для создания и отладки LLM-агентов. Рабочий процесс описывается графом узлов: запросы к модели, RAG-шаги, вызовы внешних инструментов. Всё состояние агента — в едином объекте «state», что упрощает циклы и ветвления.

Ключевые возможности
• drag-and-drop редактор графов
• пошаговое трассирование с просмотром промптов, токенов и логов
• вмешательство в любом шаге (human-in-the-loop)
• готовые шаблоны ReAct, RAG, multi-agent
• экспорт графа в Python + тесная связь с LangChain / LangSmith
• запуск локально или в облаке LangGraph Platform

Сравнение с n8n (см. мой проект новостного бота)
Схожее
— визуальный редактор, узлы, условные ветки
— кастомные скриптовые узлы
— можно работать локально или в облаке - SaaS (Software as a Service, «программное обеспечение как услуга»)

Ключевые отличия
— LangGraph заточен под LLM-логику и память агента; n8n — под интеграции SaaS и автоматизацию API
— у LangGraph один объект состояния, у n8n через pipeline идёт массив «items» без долговременной памяти
— LangGraph показывает токены и промпты; n8n — только вход/выход узлов
— LangGraph Platform (если используется) автоматически распределяет вычислительную нагрузку LLM-агентов по масштабируемой облачной инфраструктуре; в n8n рабочие процессы выполняются в обычных контейнерах без специальной оптимизации под большие языковые модели

Ограничения LangGraph
• продукт на ранней стадии, API меняется
• сложные кейсы всё ещё требуют Python-кода
• длинные/ресурсоёмкие графы лучше гонять в облаке
• нет маркетплейса готовых интеграций, как у n8n

Когда целесообразно применять LangGraph
✓ Если требуется полный и детальный контроль над логикой рассуждения (reasoning) агента, включая циклические итерации и хранение долговременного состояния.
✓ Если нужна точная настройка и пошаговая отладка промптов, а также контроль объёма токенов и стоимости вызовов LLM.
✓ Типовая интеграция:
– n8n принимает входящий Webhook и подготавливает данные;
– отправляет их по HTTP в рабочий процесс LangGraph;
– LangGraph формирует ответ с помощью LLM;
– n8n получает результат и выполняет дальнейшие действия (рассылка, запись в CRM, запуск процессов CI/CD).

⚠️ LangGraph не предназначен для широкомасштабных интеграций множества SaaS-сервисов. В таких сценариях основную автоматизацию лучше строить в n8n, а к LangGraph обращаться только для ресурсоёмких языковых задач.

#ai_agent #langchain #langgraph #n8n
1🔥1
🙏 Бог из машины или бог - машина: от карго-культа до поклонения ChatGPT

Как инженер с почти 20-летним стажем я как-то привык вникать в то, как устроена любая технология. ИИ, конечно, требуется достаточно высокий уровень знаний, чтобы разбираться в теме на низком уровне, но, тем не менее, есть масса возможностей прояснить для себя в той или иной мере что он из себя представляет и, уже точно, любой может поэкспериментировать с чат-ботами, понаблюдать за их ответами.

Поэтому, когда я наткнулся на исследование Taylor Lorenz ChatGPT is Becoming a Religion, надо признаться, открыл для себя целую новую область взаимоотношений человека с ИИ 🤯. Очень советую посмотреть - качественное исследование по сакрализации технологии, начиная от карго-культа и до современных трансгуманизма и роботизма.

#ai_social
🔥1🤯1
По мотивам предыдущего поста провел микротест - да, реально, полно ИИ сервисов "поговорить с Богом", советов как "пробудить" свой чат-бот и тому подобное...

Сложная технология всегда воспринимается немного как магия. Неудивительно, что вместо того, чтобы пытаться разобраться, часть людей теряет нить, связывающую то, как получен результат с самим результатом (ответы от моделей) и начинает воспринимать их как некую магическую данность.

Насколько я вижу, больше всего от ИИ страдает именно средний класс, т.е. внедрение ИИ приводит к еще большему разделению, которое в пределе выглядит как немногие"техно-жрецы" и их "умные машины" и большинство потребителей благ, понятия не имеющих за счет чего все работает. Это очень грустно, особенно на фоне исследований, доказывающих, что привычка получать от ИИ ответы на любые вопросы делает людей реально глупее...

#ai_social #brave_new_world
🤔2