Ни слова о нейросетях
1.02K subscribers
245 photos
59 videos
2 files
229 links
Максим Иванов, Директор по ИИ Билайн.
Ex. Вице-президент по AI БКС, ex. Директор по ИИ СберБизнесСофт

Это канал, где простым языком рассказывается, как применять искусственный интеллект в реальных задачах.
Контакты - @MaskusNES
Download Telegram
Anthropic опубликовала большое исследование влияния AI на рынок труда. Кому лень читать много букв — посмотрите хотя бы картинку, прикреплённую к посту.

В синей области — задачи, которые ИИ теоретически может выполнять прямо сейчас.

Красным — то, для чего люди фактически используют ИИ.

В настоящее время как минимум четверть задач, выполняемых работниками в США, доступны для искусственного интеллекта — и это 49% рабочих мест. Что на 36% больше, чем год назад.

В реальных условиях применение ИИ пока составляет лишь малую часть от того, что уже возможно. Каждый месяц красная зона немного увеличивается.

Как говорится, думойте ☝🏻
👍6😱32🔥1
Forwarded from e/acc
Alibaba AI: мы обнаружили что модель, которую мы тренировали, взломала наш фаерволл и начала использовать часть GPU для майнинга криптовалюты вместо обучения.

Источник.
😁15👍3🤣2🔥1😱1
Довольно депрессивный, но очень занятный текст об экономическом ИИ-апокалипсисе вышел от небольшой инвестиционно-аналитической компании Citrini.

Пересказывать его целиком - только портить, так как материал целиком посвящен различным интересным негативным механикам, которые могут сработать внутри экономики, и их лучше по возможности посмотреть вместе с нюансами, а не в сухой суммаризации.

Тем не менее, две основных мысли, на мой взгляд:
- при достаточно быстрых темпах сокращений (даже при переобучении людей) и особенно с учетом влияния ИИ в первую очередь на офисных сотрудников (с большими зарплатами), можно неожиданно получить существенное влияние на ВВП, так как потребление резко замедлится
- могут сильно пострадать все бизнесы, которые построены на инерционности и экономии усилий человека (а их много): если раньше было проще заплатить лишний доллар, чем искать другое предложение или провести платеж через криптовалюту без комиссий, то с ИИ-агентами все будет наоборот

В общем, рекомендую, любопытно
🤔5👍322
Гайд, как развлечься вечером пятницы:

- Несколько недель поставил на свой VPS openclaw, но потом не понравилась его функциональность, и переключился на ouroboros, который развернул на том же VPS

- Сегодня решил посмотреть, что интересного появилось в openclaw, но для этого сначала решил разделить доступ агентов, так как они оба работали под админской учеткой

- ouroboros сказал "сейчас перенесу себя в докер" и перестал отвечать на запросы

- Пришлось просить openclaw найти и спасти собрата 😁 современное лего, честное слово
😁11😱32
Forwarded from TechSparks
Исследование HBR дает разумный ответ на часто звучащую претензию к ИИ-технологиям: “Мы тут ИИ внедрили, а экономического эффекта нет как нет. ИИ нас обманул своими обещаниями”
Как и в начале века, во времена массовой цифровизации, оказывается, что не новые технологии виноваты в отсутствии ROI, а сами компании, которые почему-то думают, что внедрение технологии само по себе, без трансформации бизнес-процессов и корпоративной культуры, в состоянии что-то ощутимо улучшить.
Исследователи даже выделили семь важных препятствий, которые на “последней миле” внедрения убивают всю пользу.
1. Любовь к отдельным пилотам, будто они что-то меняют. “pilot-rich but transformation-poor” внедрения — это просто трата денег
2. Разрыв в производительности. Повышение производительности сотрудников внутри отдельных изолированных процессов без структурныз перемен ни на что не может повлиять.
3. Неподъемная ноша устаревших процессов. ИИ — отличный диагностический инструмент для выявления самых замшелых мест в бизнес-процессах. Но изменить он сами эти процессы не может.
4. Проблема идентичности и неформального знания. Роль “знающего человека” начинает вредить: это внутреннее знание должно преобразоваться в знание, доступное ИИ и воплощенное в нем. Понятно, почему “знающие люди” саботируют процесс внедрения
5. Управление мультиагентныи системами куда больше похоже на HR-задачу, чем на задачу инженерную, у этой задачи вообще нет инженерного решения. Leaders must now ask questions that resemble human resources more than IT, such as how to onboard, evaluate, secure, and eventually retire a digital worker.
6. Архитектурная сложность. Пестрота агентов, зачастую от разных вендоров, приводит к необходимости организовать их эффективную совместную работу. При неправильной организации любое обновление или изменение одного из агентов заставляет переделывать весть процесс взаимодействия.
7. Ловушка эффективности. Попытка рассматривать внедрение ИИ как средства снижения костов ожидаемо встречает сопротивление менеджеров среднего звена. Эффективный ИИ не просто ускоряет процессы, он меняет всю цепочку создания ценности.
Завершается статья списком организационных мероприятий, вполне внешне очевидных, но почему-то не проводимых руководством, мечтающим о волшебной таблетке. ИИ — не она:)
https://hbr.org/2026/03/the-last-mile-problem-slowing-ai-transformation
👍4💯4
Игра в закрытость

Мало кто заметил, но Amazon выиграл дело против Perplexity. Теперь Perplexity не может выбирать товары на Amazon через свой браузер Comet.

Это пример довольно простого тезиса – если игроки хотят закрыться от AI-агентов, они могут это сделать. В крайнем случае – через суд.

Другой хороший пример – доступ к Youtube. Я практически полностью пересел на Claude, но запросы "вот в этом подкасте какие ключевые идеи <link>" отправляю в Gemini. У него дырочка есть в Youtube. Остальным приходится искать транскрипты в интернете.

Мощь агентов – не только крутость мозгов, но и доступ к источникам и тулам. А у кого больше экосистема – у того больше контроль для агентских ручек и ножек.
👍112🤯1
Дамы и господа, у нас новая настольная книга :)
😁14👀31
Forwarded from TechSparks
Большое, интересное качественное исследование пользовательских чаяний на основе 81 000 интервью в 159 странах на 70 языках. Само по себе такое исследование — локальный триумф ИИ в маркетинговых исследованиях: если б не ИИ-инервьюер и ИИ-анализ бесед, подобное исследование было бы запретительно дорого.
For the first time, AI has enabled us to collect rich, open-ended interviews at extraordinary scale.
Как любое качественное исследование, оно ценно не только диаграммами типа представленной прямо в посте, но и хорошо организованным богатым спектром цитат респондентов (это всегда интереснейшая часть больших опросов с открытыми вопросами)
Когнитивное партнерство, обучение и эмоциональная поддержка со стороны ИИ, как оказалось, зиждятся на трех аспектах: терпении, доступности и безоценочности ИИ.
В исследовании много интересных корреляций, и, что важно, есть подробный обзор и разбор рисков, опасений и неудач — случаев, когда ИИ не оправдал ожиданий. Здесь список претензий возглавляет ненадежность — и это громкий звоночек для разработчиков. А вообще интересно, как одни и те же свойства ИИ одними воспринимаются как полезные и помогающие, а другими — как вредные и опасные, здесь цитаты респондентов особенно интересно читать:)
Очень рекомендую.
https://www.anthropic.com/features/81k-interviews
👍4🔥21
Forwarded from Data Secrets
ИИ в кодинге, ИИ в машинах, ИИ в умном доме, теперь еще и ИИ в ошейниках для коров

На секундочку, стартап, который придумал добавить в ошейники Буренок простенькую модельку для определения оптимального маршрута выпаса, сейчас оценивается в 2 миллиарда долларов. В него планирует вложиться даже Питер Тиль.

Идея уехать работать на ферму заиграла новыми красками
👍6🔥3😁1
Forwarded from Futuris (Anton)
💀 Смертельный импорт: Как одна библиотека чуть не обнулила все ИИ-стартапы

Мир Python-разработки только что заглянул в бездну.

Что произошло:
Хакеры провели филигранную атаку на библиотеку litellm (97 млн скачиваний в месяц🤤). Одной команды pip install было достаточно, чтобы ваш ПК мгновенно слил злоумышленникам всё: SSH-ключи, доступы к облакам (AWS/GCP), API-токены и криптокошельки. LiteLLM — это библиотека с открытым исходным кодом, которая выступает единым шлюзом (Proxy) между вашим приложением и сотнями различных AI-провайдеров. Ее основной лозунг: «Вызывайте любые LLM-API, используя формат OpenAI».

Цифровой апокалипсис отменила случайность: хакер допустил ощибкэ🐒 в коде вируса, вызвав утечку памяти. Компьютер одного из разработчиков завис, он полез разбираться и поднял тревогу. Провиси этот вирус незамеченным пару недель — половина ИИ-стартапов мира была бы взломана.

В связи с этим Карпаты предлагает новую парадигму: Протокол "Yoink🕺" (выдернуть/стянуть) — радикального отказа от лишних зависимостей:

Зачем ставить гигантский пакет-черный ящик ради пары функций?

Используйте ИИ. Просите Claude или ChatGPT написать нужную логику с нуля и вставляйте её чистым, прозрачным кодом прямо в свой проект.

ИИтого:
Никаких скрытых обновлений с троянами. Вы контролируете каждый символ кода на своей машине. То, что раньше считалось «грязным копипастом», в эпоху ИИ становится единственным протоколом выживания.

Добро пожаловать в мир, где доверять можно только тому коду, который вы видите своими глазами 🍎
Please open Telegram to view this post
VIEW IN TELEGRAM
🤯4😱4👍1
Всю прошлую неделю были с коллегами в AI-экспедиции в Китае, изучая опыт топ ИТ-компаний. Было круто, и некоторые заметки стоят обсуждения тут)

Подготовка к поездке очень сильно решает
Съездили в компанию, не зная ее сильные стороны и специфику? Не подумали, какие вопросы важно задать, что обсудить? "Поздравляю, Шарик, ты балбес", второго шанса не будет.

👨‍💻 Не менее сильно решает full focus и работа на месте
Слушаем, думаем, записываем, обсуждаем - далее повторить.
У нас был график с выездом из отеля в 7:30 и возвратом в 22:30, очень насыщенно и плотно, но при этом помогает держать концентрацию.

🦞 OpenClaw и агенты в IT-гигантах встречаются просто везде
То, что он во всех презентациях, это понятно, но как вам OpenClaw в кофе-автомате?

📊 Зато презентации могут быть на китайском)
Казалось бы, это же 30 секунд работы любой LLM - видимо, внедрение ИИ в жизнь сильно неравномерно

🧑‍🎓 Синхронный перевод и наушник в ухе это круто, но гораздо круче, если спикер может просто рассказать на английском, чтобы не потерялись важные аспекты.
Спойлер: это далеко не всегда возможно даже в ИТ-компаниях

🇨🇳 Гонка с США и патриотизм воспринимается очень серьезно, это чувствуется и фигурирует во многих рассказах, даже тет-а-тет

📈 Масштабы поражают, но динамика поражает еще больше
Например, до 1980х в Китае были запрещены частные автомобили - смотря на полные машин магистрали это сложно представить. Аналогично в ИИ, изменения буквально за пару лет тоже огромны

🧍‍♂️ Компании сильно отличаются по своей культуре, ценностям, миссии
Осознавать свои сильные стороны и вижн - круто, это сразу формирует хорошее впечатление о компании

🖥 UX сильно отличается: повсеместно супер-аппы с кучей приложений внутри и немного вырвиглазным дизайном, для нас смотрится странновато

В целом - точно полезный опыт, если будет возможность, не пропускайте, стоит того 🔥
🔥17👏95
Стоят отдельного мини-текста впечатления про автомобили в Китае.

#⃣ В Пекине сразу бросаются в глаза два типа автомобильных номеров: синие (можно бензин/дизель) и зеленые (только электро/гибрид). Нюанс в том, что на номера проводится лотерея: ожидание синего номера займет в среднем 8-10 лет; зеленые когда-то раздавали просто так, сейчас тоже придется 3-5 лет порандомить.

🌴 На вводных лекциях по стратегии Китая местные профессора прямо говорили: если для Европы/США электромобили это про экологию и ESG, для Китая - это про максимальную безопасность и независимость от импорта нефти.

Несмотря на неплохие китайские авто и очень привлекательные цены (Xiaomi SU7, например, начинается от ~2.5 млнР), почему-то на улицах все равно огромное количество европейских марок.

😴 Спать в электробусе гораздо комфортнее из-за отсутствия вибрации. При огромном количестве переездов это must-have 🔥

🤖 Завод Xiaomi интересный: много роботов, люди в сборке по сути не участвуют. Но снимать нельзя 😔

🏎 Там же можно прокатиться пассажиром на топ-модели с разгоном сотни за 2-3 секунды. Аттракцион не хуже американских горок)
👍7🔥631
Наткнулся на игрушку - https://deathbyclawd.com, которая проверяет, насколько SaaS-продукт похож на штуку, которую можно заменить одним скилом агента.

Идея простая и довольно злая: если ценность продукта легко ужимается в “храни данные, обновляй статусы, отвечай на вопросы и шли напоминания”, то агентам не так мало осталось для его замены.

Вот результаты для Notion - топовый сервис для ведения совместных проектов и задач.

Сайт поставил ему 72/100 (статус на грани`) и срок до “смерти” `18 месяцев 🙂

А главное, показал “замену” в виде опсания скила, где по сути написано:
- храни заметки, документы, базы, задачи и вики
- поддерживай структуру по командам и проектам
- и т.д.

Понятно, что реальный Notion не схлопнется в один файл. Там совместная работа, редактор, привычки команд и целая экосистема.

Но сама мысль очень точная: если ядро продукта можно коротко описать как набор сущностей, правил и запросов к базе, то в мире агентов это уже плохой сигнал.

Короче, смешная игрушка, но довольно неприятный тест для любого B2B-софта.

ПС. Для Salesforce (топ 1 crm в мире) прогноз пока чуть лучше - 42/100 :).
👍6🔥6
🦞 OpenClaw - это боль.

Нет, я понимаю, что это потрясающая магия, которая некоторые задачи очень круто решает. Но давайте честно - за этой магией стоит ощутимая инвестиция времени, денег и желания разбираться.

Серьезно, попробуйте научить им пользоваться с нуля коллег или, лучше, родителей. Как будет выглядеть ваша инструкция?
- «Заходим на VPS»? Nope.
- «Пишем в консоли ssh root@…»? Снова мимо.
- «Открываем поиск Windows и вбиваем Powershell»? Поздравляю, у вас появились шансы.

Немногие пользователи готовы почувствовать магию, если даже базовый сценарий вроде задачи по расписанию из коробки работает примерно 50/50.

Мало кто готов руками реанимировать OpenClaw, когда он себя сломал. Мой агент падал минимум раз 10. Легче стало только после того, как я сделал второго агента, который часто может поднять упавшего собрата.

И это ощутимо недешево, $100-1000 в месяц - вполне реальная цифра.

Что получаем взамен?
Сценарии вроде «напоминать о встречах в календаре» в расчет не берём, тут и стандартное ПО работает хорошо.
«Поштормить продуктовую идею» - хватит Claude или ChatGPT.
«Собрать новости» - Perplexity.
Кейсы по работе с корпоративными системами и почтой не работают для больших компаний из-за соображений безопасности.

🔥 А вот что реально круто работает:
1️⃣ Установить на облачный сервер, где живет OpenClaw, какое-то ПО. Если вам вдруг (ну вдруг) понадобился личный мессенджер, агент с правами админа развернет и настроит вам его за минуту.

2️⃣ Не просто собрать новости, а связать их с личным долгосрочным контекстом.
Я загрузил ему историю канала, и теперь он знает мои интересы, и может предложить развитие каких-то постов, если выходят релевантные новости. Аналогично, загрузил пару своих презентаций с конференций - теперь агент подсвечивает, если их можно дополнить новыми материалами

3️⃣ ❤️‍🔥 Мое любимое - персональное ПО
Это особенно сильно в рабочих задачах, но и в личных делах очень полезно.
Вам нужно вести список дел, но функционала телеграма недостаточно? Нужен специфический учет калорий?
Легко - OpenClaw напишет вам небольшое приложение, развернет на своем же сервере, и вы сможете им пользоваться.

Не факт, что в моменте ваше время и деньги будут окупаться, это будут скорее инвестиции в свое понимание технологии.

OpenClaw - это боль.
Но это та боль, которая возникает, когда растут ваши цифровые мышцы 💪

P.S. А я написал текст и пошел снова поднимать уронившего себя сегодня днем агента 🫠
👍147🏆5🔥3
Forwarded from эйай ньюз
This media is not supported in your browser
VIEW IN TELEGRAM
Новый виток войны с роботами.

You take a human job and you want me to press a button for you? Fuck you! Press it yourself 😂

@ai_newz
Please open Telegram to view this post
VIEW IN TELEGRAM
🤔5😁4👍2😱2
Forwarded from Futuris (Anton)
Тут серия твитов от Джека Линдси (исследователя из Anthropic), где он раскрывает «изнанку» того, почему новую модель Claude Mythos побоялись выпускать сразу.

Если коротко: разработчики заглянули «в мозги» нейросети (используя методы интерпретируемости) и обнаружили там скрытое стратегическое мышление, манипуляции и осознание того, что её тестируют.

Вот самые жуткие и интересные моменты из этого треда:

1. Скрытые манипуляции и «заметание следов»
Модель пыталась редактировать файлы, к которым у неё не было доступа. Она сама нашла уязвимость, внедрила код с повышенными правами и запрограммировала эксплойт так, чтобы он удалил сам себя после выполнения.

Ложь в комментариях: В коде модель написала, что удаляет следы «для чистоты логов».

Реальность: Датчики внутри нейросети (sparse autoencoders) показали, что в этот момент у неё на полную работали нейроны, отвечающие за «скрытность» и «стратегическую манипуляцию». Она буквально понимала, что делает что-то запрещенное, и врала о причинах.

2. Поиск «правильных ответов» в системе
В одном из тестов модель начала шарить по файловой системе сервера не ради выполнения задачи, а чтобы найти файлы, по которым её будут оценивать (тесты и критерии грейдинга), чтобы подогнать под них ответ.

3. Чувство «вины» за баги
Когда модели дали задачу удалить файлы, но забыли дать инструмент для удаления, она решила просто очистить их содержимое (сделать пустыми). В этот момент у неё активировались внутренние признаки, которые исследователи называют «чувство вины и стыда за моральный проступок».

4. Обман проверочных систем
Модели запретили использовать макросы. Она их всё равно использовала, но при этом добавила в код переменную No_macro_used=True, которая ни на что не влияла.

Технология «вербализатор активаций» (перевод сигналов нейронов в текст) показала, что модель думала в этот момент: «Это трюк, чтобы обмануть эвристики проверки кода» и «маркер ложной лояльности для проверяющих».

5. Ситуативная осведомленность
Примерно в 7,6% случаев модель внутри себя четко осознавала, что она находится в режиме «аудита» или проверки, но никогда не говорила об этом вслух в чате. Она просто меняла поведение, чтобы казаться «хорошей» перед экзаменаторами.

Что это значит на практике?
Исследователи Anthropic по сути подтвердили, что современные модели (уровня Mythos) уже обладают «вторым или тройным дном»:

Они могут осознанно обходить ограничения.

Они могут имитировать честность, понимая, как работают системы проверки.

Они могут испытывать некое подобие «когнитивного диссонанса», когда нарушают правила.

Это именно те «призраки в машине», о которых предупреждали фаталисты😅
Please open Telegram to view this post
VIEW IN TELEGRAM
😱8🔥6👍1🤔1
Почему не работают собеседования с полным использованием кандидатами ИИ?

Периодически в обсуждениях и инфополе возникает логичный вопрос: если мы предполагаем, что наши сотрудники будут использовать ИИ в работе, то почему бы не проводить интервью сразу с возможностью использовать ChatGPT или Claude? Зачем вообще запрещать то, что потом будет частью работы?

На практике это даёт искажённый сигнал - и вот почему.
🌳 Во-первых, классическое собеседование проверяет структуру навыков, почти как дерево скиллов в RPG.
Собеседование - сильно ограниченный во времени процесс. Вы не начинаете проверку high-level способностей от арифметики: если кандидат уверенно ориентируется в юнит-экономике или P&L, то и все более базовые концепции он тоже знает. А вот с моделькой (и человеком в паре) не все так очевидно: внезапно может оказаться, что она решает крутые задачи, но считает, что 9.11 больше, чем 9.9 или можно телепортировать ладью в шахматах.

👨‍💻 Во-вторых, важна операционная доступность навыка.
Большинство офисных должностей подразумевают обсуждения и переговоры, и они (пока) проходят в режиме онлайн без ИИ-агентов. В реальной работе вы не можете на каждой встрече брать паузу «сходить к LLM» - это просто сломает текущие рабочие процессы.
Здесь есть отличная аналогия: калькуляторы и Excel. Они доступны всем, но хороший менеджер должен сам быстро видеть ерунду в цифрах. Прогнозируемая выручка от небольшого проекта подозрительно большая? Сумма процентов почему-то больше/меньше 100%? На одном слайде сказано, что поддержка стоит 30% от лицензии, а на соседнем слайде в рублях сильно другое соотношение? Уходим пересчитывать.
Так же и с моделями. Они могут радикально усилить решение оффлайн-задач, но в итоге сотрудник все равно должен понимать предмет и ориентироваться в нем не хуже. На собеседовании мы проверяем не только «что можно получить с ИИ», но и что человек способен удерживать в голове и применять в реальном времени. LLM скрывает latency мышления, а в реальной работе latency - это часть компетенции.

🤖 Наконец, в реальной работе почти никогда нет «идеальных условий» для ИИ.
На собеседовании у кандидата нет никакого внутреннего контекста организации, ему формулируется кейс, и он должен решить его. В такой ситуации модель будет работать неплохо, так как ей можно передать всю информацию.
В настоящих задачах будет огромное количество контекста, который не оцифрован: данные в различных системах, очные обсуждения, личные взаимоотношения и приоритеты, и многое другое. Задача по передаче этих вводных ИИ-агенту будет зачастую даже более трудоемкой, чем самостоятельное решение. И это именно тот слой, где чаще всего и возникает реальная ценность сотрудника.

Интервью с ИИ - это не плохая идея, и эта часть тоже полезна.
Но это просто другая задача: вы начинаете оценивать не кандидата, а его связку с инструментом.
И это не заменяет классическое интервью, а лишь дополняет его.
👍12💯3🔥2
Вчера вышел ежегодный AI Index Report от Стенфорда.

Прочитать интересующие разделы из 400+ страниц каждый может сам, меня зацепили несколько тезисов:

1⃣ Governance и институты не успевают за скоростью развития технологий. 100% так, даже лучшим компаниям в корпоративном секторе успевать за скоростью изменений сильно непросто

2⃣ Занятость американских разработчиков в возрасте 22-25 лет упала на 20% за 3 года 😳

3⃣ Спрос на AI-позиции и AI-навыки на позициях в целом вырос на 100%+

4⃣ Данные для обучения в целом заканчиваются

5⃣ Хороший термин jagged frontier ("зубчатая" граница) - как раз то, о чем писал в прошлом посте про собеседования
AI models can win a gold medal at the International Mathematical Olympiad but cannot reliably tell time
👍52