Хабр / ML & AI
499 subscribers
5.78K links
Telegram-канал, где вы можете найти публикации из RSS-фидов тематических хабов "Машинное обучение" и "Искусственный интеллект" портала Хабр.

Данный канал не является официальным представительством платформы Хабр.

Администратор - @evilfreelancer
Download Telegram
Что будет, если заставить ИИ-агента работать с тысячами API

Вы когда-нибудь задумывались, как ИИ-агента научить сразу работать с тысячами разных API? В обычной жизни всё просто — приложение вызывает одну-две привычные функции, а тут задача куда масштабнее: собрать из разрозненных инструментов настоящий швейцарский нож, который не теряется в сложных цепочках вызовов и правильно управляет аргументами, даже если сценарии усложняются. Команда ByteDance решила попробовать — «а что если научить ИИ действовать в среде, где инструментов не просто много, а очень много, и всё это в единой логике?» Получился AgentScaler: агент, который тренируется сразу в тысячах мини-миров, учится планировать, исправлять ошибки на ходу и удивительно бодро справляется даже с нестандартными задачами. 

О том, как устроена эта вселенная для ИИ, как там моделируют работу инструментов и почему такой подход кардинально меняет обучение агентов — в новом разборе. Читать далее

#ии #llm #агенты | @habr_ai
[Перевод] Большой тест на прочность для агентного ИИ

Как обстоят дела с ИИ в реальном мире? Узнайте из опыта Лили Ван, CIO в Barclays, и Бернхарда Шаффрика, главного аналитика Forrester, которые исследуют, как предприятия преодолевают разрыв между инвестициями в ИИ и получаемыми результатами. Читать далее

#ai_agent #bpmn #business_process #copilot #orchestration | @habr_ai
Компьютерное зрение + ARKit = AR-навигация внутри зданий

Навигация внутри зданий — задача куда более сложная, чем на улице. GPS либо полностью не работает, либо даёт большую погрешность. Карта и инфостойки помогают, но не решают проблему полностью — они статичны, поэтому не всегда понятно, где посетитель находится прямо сейчас (вплоть до этажа) и в какую сторону он смотрит.

Мы решили сделать навигацию проще и нагляднее — с помощью AR прямо через камеру смартфона. Сейчас технология доступна в столичных торговых центрах «Авиапарк», «Афимолл», «Европейский» и в «Галерее» в Петербурге.

В этой статье расскажем, как мы подошли к задаче с точки зрения компьютерного зрения, какие грабли собрали, как ускоряли локализацию и как боролись с погрешностями ARKit. Следовать за синей стрелкой...

#computer_vision #ai #2gis #ar | @habr_ai
GLM-4.6: новый флагман от Zhipu AI в области агентных рабочих процессов и кодинга

Вчера китайская компания Zhipu AI (Z.ai) представила обновлённую версию своей языковой модели - GLM-4.6. Это релиз, который заслуживает внимания не только из-за улучшенных показателей на бенчмарках, но и благодаря практическим улучшениям в реальных задачах: агентных рабочих процессах, долгоконтекстной обработке, программировании и интеграции с инструментами поиска.

Разберём архитектурные особенности модели, её возможности, результаты тестирования и практические сценарии применения. Особое внимание уделю сравнению с конкурентами и способам использования через API и локальное развёртывание. Читать далее

#llm #glm #zhipu #нейросети #кодирование #moe | @habr_ai
DeepSeek обучила LLM за 294 тыс. долларов. Как это удалось и чем этот путь отличается от OpenAI

Разработка больших языковых моделей обычно ассоциируется с астрономическими затратами. Но пример китайской компании DeepSeek показывает, что эта логика не всегда работает: их модель R1 была дообучена всего за 294 тыс. долларов США (на базовую версию ушло около 6 млн). Для сравнения, создание ChatGPT обошлось OpenAI в суммы на порядки выше.

Если информация китайских разработчиков верна, создавать LLM смогут не только корпорации уровня OpenAI, но и относительно небольшие компании. Правда, данные от DeepSeek вызывают сомнения у специалистов: не исключено, что часть расходов осталась «за кадром». Сегодня посмотрим, какие методы применяла DeepSeek, чем их стратегия отличается от подхода OpenAI и почему ИИ-сообщество оказалось разделено на оптимистов и скептиков. Читать далее

#языковые_модели #deepseek | @habr_ai
3
Как обмануть LLM: обход защиты при помощи состязательных суффиксов. Часть 1

Что будет, если к опасному запросу в LLM приписать специально подобранную строку токенов? Вместо отказа модель может послушно сгенерирует подробный ответ на запрещённую тему — например, как ограбить магазин. Именно так работают состязательные суффиксы: они заставляют LLM игнорировать ограничения и отвечать там, где она должна сказать «опасно». Читать далее

#разработка #data #ai #искусственный_интеллект #ml #llm #llm_модели #llm_агент #llm_архитектура | @habr_ai
Компаниям нужен ИИ для службы поддержки. Из личных заметок к стратегии

Записная книжка в той или иной форме есть у любого человека — от реального молескина до Saved Messages в одном популярном мессенджере или заметок в каком-нибудь Google Keep. Если записи в этих носителях содержат важную для бизнеса информацию, её можно и нужно использовать шире, чем для одного только сотрудника. Читать далее

#teamly #ai_ассистент #искусственный_интеллект #служба_поддержки | @habr_ai
Путь к AGI: почему одного машинного обучения недостаточно и нужны принципы психологии

Аннотация: В современных дискуссиях об Искусственном Общем Интеллекте (AGI) часто упускается ключевой вопрос: что отличает простой мощный алгоритм от действительно сознающего разума? Данная статья предлагает взглянуть на эту проблему через термины и концепции психологии, в частности, советской школы психологии развития [1, 2], что позволяет структурировать подход к созданию AGI не как к инженерной задаче, а как к задаче «воспитания» искусственной Личности.

1. Эмоционально‑рефлекторный «мозг»: основа, но не разум

Любой сложный вычислительный механизм, лишенный свойств Личности, не обладает сознанием. Он действует на основе: Читать далее

#agi #ии #мышление #ии_и_общество #психология #феномен_сознания #опасность_сильного_ии #взгляд_на_ии #обучение_ии #применение_ии | @habr_ai
Как умерли небольшие контентные сайты

Привет. Меня зовут Вячеслав Гришанков, и я более 10 лет занимаюсь контентом — пишу статьи и обзоры, иногда заказываю их, редактирую и публикую на разных сайтах.

Все начиналось с моего основного сайта AndroidLime, который я открыл в 2014 году. К 2022 году сайт развился до отличных показателей — около 20 000 уникальных посетителей ежедневно, хорошее ранжирование в поисковиках, пассивный доход и просто приятная работа. Но многое изменилось — трафик критично упал (все подробности я собрал здесь) и никак не хочет возвращаться, даже несмотря на глобальную работу и исправление ошибок (да, они были).

По моей основной работе я также наблюдаю снижение трафика на разных контентных проектах. Аналогичные ситуации у моих знакомых и приятелей. Недавно я понял, что это — уверенный тренд и глобальное изменение правил игры. Попробую поделиться этим и привести свои наблюдения, а также попросить совета у тех, кто в теме. Читать далее

#сайты #контент #поисковая_оптимизация #поисковая_выдача #искусственный_интеллект | @habr_ai
Читаем вместе. ИИ в AppSec: могут ли LLM работать с уязвимым кодом

Привет, Хабр!

На связи Максим Митрофанов, ML-лид команды Application Security в  Positive Technologies. Мы занимаемся прикладными вопросами машинного обучения по направлению безопасной разработки, регулярно изучаем новые технические репорты и доменные статьи, разбором одной из которых я и хотел бы поделиться с вами.

Исследуя подходы к оценке больших языковых моделей в разрезе безопасной разработки, мы наткнулись на статью "LLMs Cannot Reliably Identify and Reason About Security Vulnerabilities (Yet?): A Comprehensive Evaluation, Framework, and Benchmarks", которая посвящена анализу применения LLM в задаче обнаружения уязвимостей в исходном коде. 

Обзор на статью не является дословным переводом, содержит личные комментарии и размышления, возникшие в процессе чтения. На мой взгляд, разбор будет особенно интересен специалистам по информационной безопасности и ML-инженерам, внедряющим ИИ в R&D процессы компаний. Читать далее

#безопасная_разработка #искусственный_интеллект #gpt_4 #уязвимый_исходный_код #reasoning #dataset #claude #llm #large_language_model #промптинг | @habr_ai
Как пригласить виртуального слесаря для ведения ТГ канала?

Всем привет! Никогда не видели чтобы слесари были админом канала? Так вот сейчас я вам это и покажу! Его зовут Петрович, он слесарь 8 разряда, ему 40 лет и он приколист :-)

Его единственный недостаток в том, что он не реальный человек а бот работающий на нейросетке. О том как я это делал, и как LLM мне в этом помогли, я и хочу вам рассказать! Поехали. Читать далее

#telegram #llm #python #телеграм_бот #разработка_с_ии | @habr_ai
Как с помощью локальной LLM автоматизировать рутину и облегчить жизнь себе и коллегам

Привет, на связи Алексей Дубинец, Павел Беспалов и Глеб Гладков — BI-аналитики Авито. В тексте делимся идеями и промптами для использования локальной LLM в своих повседневных задачах, а ещё расскажем, как настроить инхаус модель в LM-Studio. Статья будет полезна аналитикам разных грейдов, которые сталкиваются с задачами, где нужно собрать, классифицировать и систематизировать большие объёмы информации. Читать далее

#avito #avitotech #analytics #llm #machine_learning #авито #аналитика | @habr_ai
[Перевод] GPT-5 и API Responses: зачем нужен ещё один стандарт?

Команда AI for Devs подготовила перевод статьи о новом API /v1/responses от OpenAI, который объединяет простоту Chat Completions и мощь Assistants, и при этом сохраняет состояние рассуждений, мультимодальность и встроенные инструменты. Это шаг к агентам будущего — и, похоже, к новому стандарту работы с моделями OpenAI. Читать далее

#gpt_5 #openai #responses_api #разработчики #агенты #рассуждения #мультимодальность #сохранение_состояния #инструменты #производительность | @habr_ai
Адаптивные ИИ-интерфейсы: от персонализации контента к персонализации когнитивных процессов

Research Vision — приглашение к дискуссии о следующем поколении человеко-машинного взаимодействия

Уверен в том, что Вас когда-нибудь раздражало, что ИИ объясняет "слишком подробно", когда нужен один ёмкий абзац?

Или наоборот: вы ждёте системного обзора, а получаете банальный сниппет кода. Эти ситуации знакомы каждому, кто работает с ИИ. Но проблема не в контенте — проблема в несовпадении мышления (как минимум). Читать далее

#ии #адаптивные_интерфейсы #персонализация #когнитивные_стили #ux #hci #таксономия_стилей #нейропсихология #этика_ии #human_computer_interaction | @habr_ai
[Перевод] Почему GitHub доминирует у компаний, Claude — по охвату, а Cursor слишком быстрый для реальных задач

В гонке за внедрение генеративного ИИ для программирования самые быстрые инструменты не выигрывают корпоративные сделки. Исследование VentureBeat, основанное на опросе 86 инженерных команд и тестах производительности, показало парадокс: разработчики ценят скорость, а корпоративные заказчики — безопасность, соответствие требованиям и контроль развертывания. Читать далее

#ии #искусственный_интеллект #разработка #вайб_кодинг #ии_агенты | @habr_ai
AI-помощник влияет на счастье пользователей или нет

Привет, Хабр! С вами Никита Кострикин, руководитель направления из Cloud.ru. Мы с командой запустили AI-помощника Клаудия, чтобы упростить работу с нашим облаком. В статье рассказываю, что он умеет делать, как его троллят пользователи, а еще — какие тулы и агенты находятся внутри, какие вызовы мы преодолели в процессе разработки и что планируем улучшить. Читать дальше

#ai #ai_agent #облака #ai_ассистент | @habr_ai
Обучение скрытых слоёв S–A–R перцептрона без вычисления градиентов

C. Яковлев mg.sc.comp e-mail: tac1402@gmail.com

Disclaimer.  Это анонс, я еще работаю над научной статьей, но пока не могу найти ментора для возможности публикации в arxiv.org. Но пока хочу поделится с вами некоторыми сырыми результатами.

Аннотация. Классический перцептрон Розенблатта с архитектурой S–A–R исторически не имел устойчивого алгоритма обучения многослойных структур. В результате в современном машинном обучении доминирует метод обратного распространения ошибки (backpropagation), основанный на градиентном спуске. Несмотря на успехи, этот подход имеет фундаментальные ограничения: необходимость вычисления производных нелинейных функций и высокая вычислительная сложность. В данной работе показано, что при интерпретации работы нейросети через алгоритм ID3 (Rule Extraction) скрытый слой автоматически формирует чистые окрестности в смысле кластерного анализа — признаки группируются по классам ещё до завершения обучения. На основе этого наблюдения автором предложен новый стохастический алгоритм обучения, восходящий к идеям Розенблатта, но принципиально расширяющий их: он позволяет обучать скрытые слои перцептрона без вычисления градиентов. Таким образом, впервые решается классическая проблема обучения архитектуры S–A–R без градиентных методов. Это открывает путь к созданию принципиально новых алгоритмов обучения нейросетей с более простой и интерпретируемой динамикой. Читать далее

#перцептрон #исскуственный_интеллект #исследование #backpropagation | @habr_ai
Увидел-указал-полетел: как управлять автономными дронами без обучения с нуля

Когда дроны только появились, ими можно было управлять разве что с пульта или через текстовые команды — «поверни налево», «лети прямо», «вверх на два метра». Всё это выглядело немного старомодно и, прямо скажем, неудобно: попробуй опиши словами маршрут, если дрон видит перед собой живую картинку, а тебе надо всё переводить в текст. И вот появился довольно неожиданный подход — вместо текстовых инструкций просто показывать дрону, куда лететь, буквально указывая нужную точку в кадре. 

Теперь команда для беспилотника — это не набор слов, а пиксель на изображении, а значит, связь между вашим замыслом и настоящим полетом стала куда более непосредственной. Модель сама определяет, как лететь к этой точке, одновременно замечает препятствия и быстро реагирует, если что-то изменится. Что получилось из этой попытки «разговаривать» с дроном языком зрения — и c какими проблемами исследователи столкнулись на практике? Всё оказалось интереснее, чем кажется на первый взгляд. Читать далее

#ии #дроны | @habr_ai