Нейрократия
598 subscribers
217 photos
142 videos
231 links
Про технологическое будущее без шума. Автор — @vlad_arbatov. https://arbatov.dev
Download Telegram
ИИ-мусор захватил вашу ленту

Нет, я не про свои посты :)

Помните «теорию мёртвого интернета»? Всплывшая на своеобразных форумах в 2021, она утверждала, что онлайн-пространство уже почти обезлюдело и наполнено ботами и автоматически сгенерированным шумом. Сегодня эта странная идея не выглядит настолько бредовой. Bloomberg выпустил занятное исследование о том, как массовое распространение генеративного ИИ провоцирует изменения в цифровом пространстве.

Генеративный ИИ как будто специально создан, чтобы масштабировать интернет-мусор. Сайты, Google-поиск и соцсети заполняет контент, который называют коротко — слоп.

Слоп — это не просто мусор из Midjourney. Это текстовый спам, поддельные новости, фейковые сайты, бессмысленные картинки, ИИ-комментарии и фейковые аккаунты. Это тысячи «авторов», генерирующих сотни тысяч постов за часы. В итоге мы получаем цикл: контент, созданный ИИ, подхватывает другой ИИ, чтобы затем прокормить алгоритмы соцсетей, и всё это происходит как бы само собой, почти без участия человека.

У меня про это есть отдельный пост.

На прошлой неделе сотни тысяч лайков налепили под постом с изображением Иисуса, сгенерированного в виде краба. Да, серьёзно. Это вообще целая визуальная ниша «Христос-крабообразный», невероятно популярная благодаря алгоритмам рекомендаций.

Про крокодилло-бомбардилло я вообще молчу.

Кроме того, исследователи заметили несметное число сгенерированных фотографий домов, мини-коров и почти человеческих «инфлюенсеров», каждое фото с частично или полностью скопированным описанием: «Это мой первый торт, оцените пожалуйста». Тысячи людей ставят лайки, даже не подозревая, что смотрят на ИИ-слоп.

Цель такого контента может быть разной: чисто коммерческая (генерация рекламных доходов с сайтов, забитых ИИ-контентом), политическая (тут Bloomberg вспоминает якобы российскую систему Pravda, которая генерирует миллионы сообщений, чтобы попасть в базы данных нейросетей) или просто хаотичная, непредсказуемая.

Проблема даже не в том, что это кто-то специально придумал и реализует злодейский план. Просто компании вроде Meta (всячески запрещена) и Google в погоне за охватами и кликами советуют пользователям контент не от друзей и близких, а случайные посты с максимальным вовлечением.

Смешный, странный, трешовый балаган становится нормой, захламляя ленту всё сильнее.

Интересно вот что: создавшие такие сервисы сами не понимают, что с этим делать. Google, теряя эффективность поиска, добавляет к результатам короткие пересказы нейросетей (AI Overviews). В итоге привычный интернет-поиск загоняет людей на страницы, которые никому не принадлежат и часто написаны ИИ, не всегда корректно.

Последствия этого процесса очевидны: малые и средние сайты, генераторы уникального контента, теряют аудиторию, трафик и доходы, постепенно исчезая. Гигантские «ботофермы» и фабрики слопа занимают освободившиеся ниши.

Как уверяет Джефф Аллен из Integrity Institute, это похоже на вспышку токсичных водорослей в озере: однажды мельчайшее растение начинает неконтролируемо разрастаться и уничтожает экосистему вокруг себя. Всё живое исчезает — информационная среда погибает.

Решений пока нет. Издатели стараются защититься, блокируя доступ ботам или ограничивая контент пэйволами. Но это подрывает саму идею свободного, открытого и бесплатного интернета для всех.

В ближайшие годы тренд продолжит усиливаться: Meta планирует довести до 40% ИИ-посты на своих площадках. Индивидуальные пользователи сегодня постят всё реже, а новыми топ-авторами становятся никому не известные машинные алгоритмы.

В вопросах живого и машинного контента становится всё труднее ориентироваться. Та же картинка с «идеальной кроватью» с гигантским встроенным вентилятором, получившая сотни тысяч лайков в Facebook в прошлом году — это ИИ-слоп или глупый, но живой мем? Уже почти невозможно сказать наверняка.

Да и надо ли? Может быть, это просто такой виток эволюции инфопространства и надо привыкать жить в мёртвом интернете.


❗️❗️❗️❗️❗️❗️❗️❗️ / Не запрещена в РФ
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1🤔4🥴2
Media is too big
VIEW IN TELEGRAM
Навигация без GPS

В компании Mapbox я среди прочего руководил разработкой систем навигации, в первую очередь — автомобильной, в том числе для BMW. Мне было вдвойне интересно посмотреть, что происходит на рынке с внедрением более продвинутого машинного обучения.

Когда мы слышим слово «навигация», первое, что приходит на ум — GPS. Однако GPS имеет очевидные недостатки: пропадание сигнала в туннелях, на парковках, в густых лесах или городских «каменных джунглях», а также намеренное глушение сигнала, с чем на собственном примере столкнулись москвичи.

Tern AI предлагает новое решение — Independently Derived Positioning System — или IDPS. На самом деле, оно не то чтобы принципиально новое. Оно просто лучше, но базируется на тех же основах, что и были пять лет назад — карта, сенсоры и машинное обучение.

🤔 Как устроен IDPS

Tern AI полностью отказалась от спутниковой связи и внешних сигналов (Wi-Fi, LTE и др.). Вместо этого IDPS использует уже установленные в автомобилях сенсоры и данные карт для определения местоположения автомобиля в реальном времени (+ ИИ, без него бы такого прогресса в этом направлении не было).

Технически IDPS состоит из 3 элементов:

— Базовые карты
Система использует предварительно загруженные карты местности, которые служат ориентиром для сопоставления собранных данных.

— 3D-датчики
Машины выпуска примерно с 2009 года оснащены множеством сенсоров: датчики скорости вращения колёс, гироскопы, акселерометры (т.н. сенсоры IMU, которые есть и в смартфонах) и другие (в том числе даже датчик угла поворота руля). Именно информацию от этих сенсоров IDPS и применяет, чтобы создавать точную картину движения.

Кстати, почти все эти данные можно получать в реальном времени без особых усилий, подключив специальный адаптер к автомобильному порту по интерфейсу OBD, как мы сами это делали в тестах навигационных систем.


— ИИ и адаптивные алгоритмы обработки
Алгоритмы Tern AI постоянно обрабатывают данные с сенсоров, сопоставляют с базовыми картами и в реальном времени самокорректируются, устраняя накопленную ошибку и минимизируя отклонения местоположения (т.н. дрифт).

Это и есть главный компонент всей системы: датчики с годами, безусловно, стали лучше, карты точнее — но этого одного бы не хватило для выхода на новый уровень.

Система IDPS работает автономно, не требует камер или дополнительных устройств, запускается на автомобильных процессорах с низкой нагрузкой (до 20% CPU, как заявляет компания, но тут непонятно, о каком CPU речь, так как автопроизводители используют весь зоопарк чипсетов, включая устаревшие).

В отличие от метода dead reckoning (то, что мы раньше и развивали), который теряет точность с увеличением дистанции от стартовой позиции, IDPS постоянно самокалибруется и обновляет местоположение, давая значительно меньшие ошибки.

IDPS доступен для смартфонов и автомобильных систем. Поддерживает популярные приложения вроде Google Maps и Waze, может заменять или дополнять GPS-данные в сервисах каршеринга, доставки еды и так далее.

Как мы уже поняли, особенность IDPS – независимость от спутниковых и сотовых сигналов, что делает систему устойчивой к глушению и подмене данных. Минтранс США заинтересовался Tern AI в контексте обеспечения защищённых решений позиционирования в условиях ЧС.

Несмотря на очевидные плюсы, важно понимать реальные границы использования технологии IDPS:

— Хотя система крайне точна и самокалибруется, она зависит от качества исходных картографических данных. В местах с отсутствующими или устаревшими картами погрешность позиционирования может и будет возрастать.

— Система не требует интернета, но для постоянного обновления карт и облачного апдейта модели подключение хотя бы периодически необходимо.

Так или иначе, за IDPS cледует последить внимательно. Система показывает отличные результаты в реальных условиях эксплуатации. Навигация без зависимости от спутников — вполне реалистичный сценарий ближайшего будущего.


❗️❗️❗️❗️❗️❗️❗️❗️ / Не запрещена в РФ
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥52
This media is not supported in your browser
VIEW IN TELEGRAM
ИИ делает нас глупее?

Как наличие мощных ИИ-помощников влияет на когнитивные способности человека? Правда ли, что мы постепенно теряем навыки мышления и запоминания, передавая их машине? Или наоборот: функциональная «делегация» рутинных задач освобождает ресурсы на сложные интеллектуальные процессы?

Я решил посмотреть, что на этот счёт говорят актуальные исследования.

🤔 Как ИИ помогает нашему мозгу (да-да, помогает).

Свежие исследования показывают: грамотное использование ИИ действительно улучшает работу памяти и способность переключаться между задачами. Учёные провели эксперимент среди профессиональных переводчиков: 25 часов обучения совместной работе с ИИ-инструментами сильно улучшили их рабочую память и когнитивную гибкость — способность быстро менять фокус между задачами.

Теория расширенного сознания (Extended Mind Theory) подтверждает этот феномен: внешние инструменты, вроде ИИ-ассистентов, могут выступать продолжением нашего мозга, разгружая ресурс для более значимых и сложных действий.

В свою очередь, в креативных индустриях ИИ действует как «катализатор» творческого мышления. Согласно масштабному исследованию, опубликованному в Science, генеративные модели помогают менее креативным людям рождать оригинальные идеи, предлагая стартовые импульсы и освобождая создателей от рутины. Важно при этом помнить, что увлекаться чрезмерно не стоит — иначе начнёт страдать разнообразие идей и появятся шаблонные подходы.

🤔 Зона риска: когнитивная деградация из-за ИИ

А теперь обратная сторона Луны. Переходя из «пользователей ИИ» в «зависимых от ИИ», мы рискуем попасть в ловушку когнитивного упадка — так называемая «цифровая деменция», или, в научных терминах, AI-chatbot-induced cognitive atrophy (AICICA). Мозг начинает экономить усилия на обработке информации, ведь за него всё делают ИИ-инструменты. Это грозит потерей памяти, ухудшением аналитических навыков и снижением уровня критического мышления.

Более того, эксперименты со «сбросом когнитивной нагрузки» (когнитивным оффлоудингом) выявили парадоксальный эффект: когда мы переносим основные усилия мыслить на гаджеты, производительность в моменте растёт, но память в долгосрочной перспективе ухудшается.

Хрестоматийный пример: GPS помогает быстро найти маршрут — но регулярные пользователи навигаторов хуже ориентируются без техники и с трудом запоминают новые маршруты.

🤔 Ищем выход: баланс и осознанность

Бороться с когнитивной деградацией вполне реально. Учёные советуют развивать цифровую осознанность и периодически ограничивать использование гаджетов с помощью цифрового детокса.

Не даром популярными стали dumb phones — «тупые» телефоны только с базовыми функциями (например, Light Phone 3), прямая противоположность смартфонам.

Даже простая техника таймеров для сосредоточения внимания помогает удерживать концентрацию и развивать рабочую память.

А ещё стоит явно обозначать моменты, когда вы сознательно делегируете задачу ИИ (например: «сейчас я доверяю эту часть работы ChatGPT, а потом прочитаю ответ и осмыслю его самостоятельно»). В исследованиях доказано: понимание того, что информацию придётся впоследствии припомнить, существенно уменьшает негативные последствия для памяти.



Необходим баланс, при котором мы используем сильные стороны искусственного интеллекта (убрать рутину, помочь с обработкой больших объёмов данных), не передавая ему стратегическое мышление, всю креативность и память.

И пока технологий, которые сделают нас тупее против нашего желания, не изобретено. По крайней мере, будем надеяться, что это так.


❗️❗️❗️❗️❗️❗️❗️❗️ / Не запрещена в РФ
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍4👨‍💻22
Media is too big
VIEW IN TELEGRAM
Полиция научилась распознавать людей без лиц

Почему бы не использовать для распознавания не лица людей, но и одежду, рост, пол, цвет волос и так далее — в общем, стандартный набор из «ориентировки»? Вот так и подумали в полиции.

И именно так компания Veritone придумала, как обойти запреты на использование технологий распознавания лиц в США (в 5 штатах есть частичный или полный бан распознания, а также отдельно в некоторых городах). «Раз мы не можем отслеживать людей по лицам, почему бы не отслеживать их по другим характеристикам?» — говорят создатели.

(Презентационный ролик в лучших традициях корпоративного стокового видео прилагается.)

Сегодня система Track уже используется 400 организациями, включая полицию, университеты, Министерство обороны и Министерство внутренней безопасности США. Те же государственные структуры, которые ещё недавно обещали сворачивать массовое наблюдение с применением ИИ, теперь нашли легальный способ следить за людьми в обход прямых запретов.

Track позволяет загружать записи с камер наблюдения, полицейских нагрудных камер, видео дронов и даже частные видеоматериалы с устройств Ring или смартфонов граждан. Софт способен построить таймлайн перемещений любого человека по его одежде и другим признакам, даже если лицо скрыто маской, капюшоном или другим способом.

Сегодня эта технология используется только на уже записанном видео, однако сами разработчики из Veritone говорят — до запуска режима работы с лайв-трансляциями осталось меньше года. Это значит, что полиция сможет в реальном времени создавать подробные таймлайны перемещения любого человека в городе по тысячам камер одновременно.

Конечно, тут же возникла общественная дискуссия, а ACLU (Американский союз гражданских свобод) забили тревогу. Система Track формально не использует биометрические данные, но практика показывает, что человек, носящий, например, одну и ту же обувь и куртку, становится столь же легко узнаваемым и отслеживаемым, как при биометрической идентификации. Поэтому активисты считают, что правоохранителя нарушают закон, переступая границы приватности, хотя формально как бы и нет.

И в России тоже есть свои аналогичные разработки. Например, продукты NtechLab, активно используемые силовиками в РФ, помимо распознавания лиц позволяют отслеживать перемещения людей между разными камерами, также используя телосложение, пол, одежду и так далее. Но у нас пошли ещё дальше — NTech трекают и автомобили, привязывая их к людям-объектам наблюдения.

Про систему «Безопасный город» от Ростеха, которая прогнозирует массовые беспорядки, я уже писал.

В общем, мы следим за ИИ, а ИИ следит за нами.


❗️❗️❗️❗️❗️❗️❗️❗️ / Не запрещена в РФ
Please open Telegram to view this post
VIEW IN TELEGRAM
1👀432
This media is not supported in your browser
VIEW IN TELEGRAM
Apple подключит iPhone к мозгу (на полном серьёзе)
А Маск уже подключил к мозгу генеративный ИИ

Apple официально подтвердила работу над поддержкой мозговых имплантов для управления iPhone и другими устройствами компании силой мысли.

Технологическим партнером купертиновцев стал стартап Synchron, уже несколько лет проводящий клинические испытания собственного устройства под названием Stentrode. Про него я уже писал.

Stentrode не требует агрессивного прямого проникновения в мозг, вместо этого устройство, похожее на маленький стент с 16 небольшими электродами, помещают внутрь вены, пролегающей прямо над моторной корой головного мозга.

Synchron успешно протестировала свою технологию на 10 пациентах. Один из участников испытаний, страдающий боковым амиотрофическим склерозом (БАС), несмотря на полную неподвижность смог «переместиться» на горный хребет в Швейцарских Альпах благодаря сочетанию импланта и Vision Pro от Apple. Теперь он активно осваивает работу с iPhone и iPad, подключенными напрямую к импланту.

Apple интегрировала Stentrode в свои платформы через функцию Switch Control — встроенный в iOS метод, который позволяет переключать управление на специальные внешние устройства. Уже в ближайшие месяцы компания публично выпустит новый технологический стандарт, и любой разработчик мозговых имплантов (забавно звучит) сможет использовать API для интеграции с устройствами Apple.

Synchron, как мы знаем — не единственный игрок на этом поле. Самая известная альтернатива — Neuralink Илона Маска со своим имплантом N1, использующим более 1000 электродов, напрямую погружаемых в мозг. Так вот Neuralink начала экспериментировать с интеграцией своего интерфейса с генеративным ИИ, в частности — с Grok.

Брэдфорд Смит, пациент с N1, тоже страдающий БАС, признается, что твиты, которые формально исходят от него, на самом деле получены совместными усилиями его мозга и нейросети. Grok помогает ему быстрее формулировать точные, логичные и убедительные ответы.

История Смита наглядно иллюстрирует одну из проблем нейроинтерфейсов — слияние ИИ и имплантов неизбежно породит конфликты на темы подлинности личности и авторства.

Но это вопрос этически-философский. Между тем, Morgan Stanley считает, что около 150 тысяч американцев с серьезными нарушениями верхних конечностей могут стать первыми коммерческими пользователями таких нейроинтерфейсов, и уже к 2030 году рынок получит первые одобренные коммерческие продукты. Гендиректор Synchron Том Оксли и вовсе прогнозирует коммерческое одобрение своей версии импланта намного раньше — до конца десятилетия.

В любом случае, партнерство Apple и Synchron — очень серьёзный маркер того, что эпоха GUI-free взаимодействия с техникой всё ближе. А Neuralink наглядно демонстрирует потенциал этого всего в сочетании с генеративным ИИ. Будущее принимает понятную форму прямо сейчас.


❗️❗️❗️❗️❗️❗️❗️❗️ / Не запрещена в РФ
Please open Telegram to view this post
VIEW IN TELEGRAM
1🤔42👨‍💻2
This media is not supported in your browser
VIEW IN TELEGRAM
«ИИ-агент»: термин есть, понимания нет

ИИ-агенты (они же AI-agents или agentic systems) — с этим словосочетанием носятся все, кому не лень, запускают проекты, получают инвестиции — при том, что точного определения, что это, до сих пор не существует, потому что рынок постоянно пихает хайповый термин куда ни попадя.

Даже ключевые люди из Andreessen Horowitz — пожалуй, самого известного и щедрого венчурного фонда, финансирующего ИИ-компании (OpenAI, Cursor и многие другие), признали недавно в подкасте, что понятие «ИИ-агента» сейчас — пластилин, который можно лепить как угодно.

Инвестиционные партнеры фонда, Гвидо Аппенцеллер, Мэтт Борнштейн и Йоко Ли, целый выпуск обсуждали тематику и наконец попытались выдать хоть какую-то ясную концепцию. Но прежде чем прийти к ней, они признались: то, что сегодня стартапы с уверенным видом называют «ИИ-агентами», варьируется от банального промпта поверх базы данных до мечтаний о сущностях на грани общего искусственного интеллекта (AGI).

Аппенцеллер признает, что зачастую то, что продается сегодня под модным лейблом — просто умная консолька, ищущая ответы в заготовленных Q&A-базах данных.

Интересно тут недавнее признание TechCrunch гендиректора стартапа Artisan, Джаспера Кармайкла-Джека. Напомню, его компания прославилась рекламой «перестаньте нанимать людей» и развивается именно в области ИИ-агентов для продаж. Несмотря на громкие заявления, Джаспер сам признается, что его технологии далеки от идеала, и он до сих пор нанимает (сюрприз!) живых сотрудников-человеков.

Какие проблемы останавливают настоящих «агентов»? (Если допустить, что всё же можно выделить общее понятие.)

— Долгосрочная «память» сохраняемых фактов и диалогов (и дороговизна поддержания таких систем).

— Стабильность и предсказуемость поведения модели (все те же пресловутые «галлюцинации»).

Определение, на котором сошлись инвесторы a16z, звучит сегодня наиболее адекватно: ИИ-агент — это многошаговая reasoning-модель (LLM) с динамическим деревом решений.

Что это значит? Агент не просто отвечает на заданный вопрос — он способен сам ставить цели, анализировать ситуацию, принимать промежуточные решения и совершать действия, например, загрузить базу данных клиентов, выбрать, кому написать, и лично отправить письма этим клиентам.

Тем не менее, даже это определение остается слишком поверхностным и не захватывает всей сложности феномена.

Иллюзии сегодняшнего дня связаны с ожиданием, что простые LLM или модели с элементами reasoning уже автоматически сделают из программ настоящих автономных агентов. Однако нейросетевые архитектуры, которые доминируют на рынке, в техническом смысле всего лишь отображают условные вероятности между токенами, не обладая внутренней моделью мира, причинно-следственным мышлением или системами представления знаний.

До перехода к мультиархитектурным решениям, использующим строгие символьные методы рассуждений поверх статистических моделей, говорить о полноценных автономных ИИ-агентах не стоит.

Так что настоящие «агенты» пока остаются скорее целью исследований, а не товаром технологического супермаркета. Для начала нужно хотя бы перестать размывать понятие маркетинговым булшитом, а то мы до сих «не знаем, что это такое».


❗️❗️❗️❗️❗️❗️❗️❗️ / Не запрещена в РФ
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥4🥴1
This media is not supported in your browser
VIEW IN TELEGRAM
Кризис оценки: как социология может помочь в тестах ИИ

Как правильно оценивать «качество» ИИ-модели? Как мы вообще это делаем? И почему мы делаем это плохо?

Есть такой SWE-Bench (читается как «сви-бенч»), ультрамодный тест для оценки навыков ИИ-программистов (в плане, моделей-кодеров), запущенный в ноябре прошлого года. Более 2000 реальных задач с GitHub, взятых из 12 крупнейших open-source проектов на Python, мгновенно стали любимой площадкой для битвы гигантов.

Оценки на SWE-Bench теперь — буквально важнейший атрибут релиза моделей от OpenAI, Anthropic и Google. Ежедневно команды разработчиков соревнуются за место на вершине списка. Сенсацией ноября стала модель Auto Code Rover, вскоре приобретённая SonarSource всего через три месяца после того, как она заняла почётное 2 место.

Казалось бы, восторг — вот оно, объективное доказательство эволюции нейросетей! Но — да, вы уже догадались, что всё так просто не будет.

«Люди слишком хотят оказаться наверху, — говорит Джон Янг из Принстонского университета, один из разработчиков SWE-Bench. — И вскоре результаты начинают хитро накручиваться именно под наш тест».

Нет, участники не жульничают открыто, но… слишком хорошо адаптируют модели конкретно под задачи данного бенчмарка. SWE-Bench изначально оценивал только Python-код, и оказалось, разработчики научились «натренировать» модель настолько узко, что при попытке протестировать её, скажем, на Java или Go, та мгновенно ломалась.

Проблема охватывает все известные сегодня бенчмарки. В последнее время репутация нескольких крупных систем, включая FrontierMath и знаменитый Chatbot Arena, подверглась жёсткой критике за недостаток прозрачности и манипуляции результатами — я про это писал. Всё это позже вылилось в фразу Андрея Карпати, сооснователя OpenAI, о «кризисе в тестировании» искусственного интеллекта: «Мы просто перестали доверять текущим методам оценки способностей ИИ, а новых хороших решений пока нет».

Современные ИИ настолько многогранные, что оценивать их через традиционные метрики становится опасно: неясно, что именно и как мы вообще измеряем.

И тут некоторые начинают говорить о необходимости вернуться на шаг назад и начать делать бенчмарки иначе, вдохновляясь подходами… социальных наук.

Идея проста: замерять чётко определённые и узкие навыки вместо абстрактных понятий вроде «общего интеллекта». Не просто брать 2000 задач из репозиториев и решать их, а чётко понимать, какие именно субнавыки важны для задачи и как именно их измерить, чтобы тест действительно отвечал тому, ради чего создан.

Именно так работают тесты в социологии, психологические опросники и даже замеры уровня демократии в странах — сперва даёте конкретные определения, а затем уже подбираете валидные задачи. В середине прошлого года к такой концепции призывали исследователи из Стэнфорда и Microsoft, предложившие прямо использовать методы социальных наук для оценки GenAI.

Хороший пример нового подхода уже есть — проект BetterBench. BetterBench буквально оценивает сами тесты на ИИ по строгости, детализации задач и валидности. Взять, к примеру, известный MMLU (Massive Multitask Language Understanding) — крупный общий тест для языковых моделей получает крайне низкие оценки по критериям BetterBench за «смутную связь задач с заявленными навыками». И наоборот, очень старый и простой Arcade Learning Environment (ALE), который испытывает ИИ на играх Atari, признаётся одним из лучших.

Проблема в том, что вся индустрия пока по привычке цепляется за старые общие — хоть и довольно невалидные — метрики. А кому хочется отказываться от красивых цифр на презентациях новых моделей?


❗️❗️❗️❗️❗️❗️❗️❗️ / Не запрещена в РФ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍522
Google создал эволюцию алгоритмов в реальном времени

Из лабораторий Google DeepMind снова вылетело технологическое чудо. Их новый инструмент, AlphaEvolve, использует семейство языковых моделей Gemini 2.0, чтобы генерировать и многократно улучшать программы. Если раньше подобные системы могли лишь составлять небольшие куски кода, то AlphaEvolve способен создавать полноценные алгоритмы в сотни строк — и не просто создавать, а находить решения, превосходящие по эффективности и точности лучшее, что могут предложить разработчики-человеки.

И это не какие-то абстрактные математические упражнения (хотя с ними тоже всё отлично), а совершенно реальные задачи, на которых основаны крупнейшие инфраструктуры планеты:

🔸 Конкретное достижение AlphaEvolve — улучшение алгоритма распределения задач по серверам Google. Новый подход, придуманный моделью, уже внедрен во всех дата-центрах компании больше года назад и высвободил 0,7% всех вычислительных ресурсов. Кажется мало? В масштабе Google — это экономия десятков миллионов долларов ежегодно.

🔸 AlphaEvolve фактически сделал математические открытия — нашел новый, самый быстрый метод умножения матриц. Здесь модель побила предыдущий рекорд AlphaTensor (другой разработки DeepMind). Причём, если AlphaTensor был заточен строго под бинарные матрицы (состоящие только из 0 и 1), AlphaEvolve решил задачу для любых чисел, сократив количество скалярных умножений с 49 до 48, что стало первым прогрессом с момента алгоритма Страссена 1969 года.

→ Математические результаты AlphaEvolve доступны в открытом виде в Colab.

🔸 Модель улучшила расход энергии специализированных TPU-чипов Google, оптимизиров реализацию Verilog и удалив ненужные биты, а также ускорила ядра умножения матриц на 23%, что сократило общее время обучения тех же моделей Gemini на 1% (это прилично, на самом деле), и сократила время оптимизации с месяцев до дней.

Как AlphaEvolve это делает?

1. Пользователь подробно описывает задачу модели, включает примеры старых решений.
2. Быстрая LLM-версия Gemini Flash генерирует десятки стартовых алгоритмов.
3. Система тестирует все эти идеи, оценивая их точность и эффективность.
4. Лучшие куски кода дорабатываются и комбинируются, а худшие — отбрасываются.
5. Если Flash исчерпывает свои идеи, на помощь приходит мощный Gemini Pro.
6. Цикл повторяется, пока модель не упрётся в предел возможного (для себя, естественно).

По сути, это естественный отбор алгоритмов в режиме реального времени — только побеждает здесь не самый приспособленный организм, а самый эффективный код. Это эволюционный подход, вдохновленный алгоритмами вроде MAP elites и модели островных популяций, для эволюции целых файлов кода, а не только отдельных функций

AlphaEvolve не просто ищет решение конкретной задачи, он создаёт целый способ её решения, находя новый алгоритмический подход, о котором никто не задумывался раньше.

Понятное дело, есть и недостаток: решение AlphaEvolve часто непрозрачно. Мы не полностью понимаем, почему модель пришла именно к такому решению. Но, возможно, это малая цена за возможность решать задачи, над которыми человеки ломали голову десятилетиями.


❗️❗️❗️❗️❗️❗️❗️❗️ / Не запрещена в РФ
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍4🔥32
Media is too big
VIEW IN TELEGRAM
Ляпы про ИИ в кино 🎦
Как киноиндустрия нелепо изображает ИИ

Недавно я посмотрел (сам не знаю, зачем) шедеврально смешной боевик «G20», снятый на полном серьёзе, про то, как чёрная президентка США спасает мир от крипто-анархистов (!). Так вот там ужасные террористы заставляют мировых лидеров произносить фонетическую панграмму перед камерой — затем, чтобы сделать из них убедительные дип-фейки, ни много ни мало!

Проблема только в том, что горе-злодеи и так могли склепать сколько угодно супер качественных фейков из президентов и премьеров — контента в сети с их участием настолько много, что затруднений с этим нет никаких. Так что наши страшные анархисты зря потратили время, мягко говоря.

Это, разумеется, только один пример из миллиона нелепых представлений об ИИ, которые транслируют киноделы — исключительно из соображений художественной ценности и интересности для зрителей (естественно).

🥴 К примеру, вечная классика: фильм «Военные игры» (WarGames, 1983). Там некий суперкомпьютер Джошуа чуть не развязывает Третью мировую войну, применяя логику игры в крестики-нолики к ядерному конфликту. Сценарий увлекательный, но далёкий от реальности: узкоориентированная игровая логика реальных систем просто не способна экстраполировать свои навыки на столь масштабные и хаотичные сценарии вроде ядерного холокоста. Но зрителей такие детали не очень волнуют, правда?

🥴 К отдельному жанру кино-абсурда можно отнести знаменитый эффект ретро-голоса у ИИ-персонажей. Это когда футуристичный компьютер вдруг говорит голосом Робокопа из 80-х в фильмах типа «Чужие» или «Падение Луны». Синтетические голоса сейчас почти неотличимы от человеческих — доступно каждому первокласснику с ноутбуком и доступом к Eleven Labs (я про это много писал). Но нет, мы продолжаем наблюдать бессмертные «робо-голоса» из прошлого, потому что так легче показать массовому сознанию: смотрите, это робот. Привычный звуковой ориентир.

🥴 Отдельное место в сердцах ИИ-экспертов занимает любимое слово в киноистории — enhance («улучшить изображение»). Особенно этим грешат бесчисленные эпизоды CSI и NCIS. «Улучши этот пиксель, чтобы я увидел лицо убийцы в отражении на солнцезащитных очках жертвы» — мы все это вспоминаем со скупой слезой.

Реальность куда скучнее — ни одна нейросеть не способна создать детали из того, чего нет в исходном изображении; это будет представление сетки о том, что там вероятнее всего может быть, а не то, что там было на самом деле. Но признаем: кричать «enhance!» в экран чуть драматичнее, чем возиться с настоящими методами обработки изображений.

🥴 Не будем забывать и о фильмах типа «Она» или «Из машины» (прекрасные произведения сами по себе, между прочим). Здесь машинные алгоритмы мгновенно приобретают способность тонко манипулировать, влюблять и проводить сложнейшие психологические манёвры, выдавая себя чуть ли не за живую личность.

Это была бы отличная новость для моей карьеры, если бы хоть часть этих фокусов была возможна в реальности. Пока что даже самые продвинутые агенты делают глупейшие ошибки и теряются в диалогах чуть сложнее поддержки пользователей.

🔺 Почему это плохо, спросите вы? Ведь фильмы нужны для развлечений, а не формирования представлений об ИИ у публики. Проблема в том, что кино сильно влияет на коллективные ожидания людей от искусственного интеллекта. На экране ИИ либо всесилен, либо исключительно опасен, что дико контрастирует с повседневными алгоритмами, глупящими с голосовым набором и рекомендациями товаров. Такие искажения подпитывают иррациональный страх, мешая реальному и взвешенному отношению к новым технологиям.

В ближайшие годы нас, конечно же, ждёт ещё несметное количество забавных ИИ-фейлов в кино — ведь зрелищная нелепость почти гарантирует хороший бокс-офис. Но лично я вижу в этом хоть один плюс: теперь хороший способ проверить киношный сценарий на прочность — это просто оценить логику их ИИ на здравый смысл. В 99% случаев нас ждёт комедия уровня «G20».

🎦 Вы помните какие-нибудь примеры такого в кино?


❗️❗️❗️❗️❗️❗️❗️❗️ / Не запрещена в РФ
Please open Telegram to view this post
VIEW IN TELEGRAM
1🤪4👾2
This media is not supported in your browser
VIEW IN TELEGRAM
Как нейросети раскрывают секреты работы мозга

До недавнего времени процесс обработки языка в мозге оставался чёрным ящиком: нейронаука пыталась разгадать тайну речи, а ИИ изучал язык независимо от биологии.

Однако последние исследования инженеров из Google Research и ученых из Принстонского университета дали удивительный результат: внутренние вектора (эмбеддинги) популярных языковых моделей неожиданно точно совпадают с паттернами активности нейронов нашего мозга во время естественного общения.

🔺 Что именно сделали исследователи?

Они взяли Whisper — трансформерную модель, созданную для превращения человеческой речи в текст (speech-to-text). Затем записали нейронную активность испытуемых во время свободных живых разговоров (причем на глубоком уровне — через инвазивные электроды непосредственно на поверхности мозга). Полученные данные сравнили с двумя видами эмбеддингов модели:

Speech-эмбеддинги (отвечающие за акустическое декодирование звуков речи)
Language-эмбеддинги (которые отвечают уже за значение слов и контекст разговора)

Оказалось, что эмбеддинги Whisper с высокой точностью коррелируют с реальной активностью главных речевых зон мозга:

🔹 При восприятии речи, speech-эмбеддинги четко соответствуют активности в височной области мозга, ответственной за восприятие звуков. А спустя буквально доли секунды language-эмбеддинги отражают активность «зоны Брока» (нижняя лобная извилина), занимающейся расшифровкой смысла слов и фраз.

🔹 При производстве речи, мозг проходит обратный путь: сначала зоны Брока активируются по эмбеддингам языка (формирование смысла), затем в моторной коре включаются speech-эмбеддинги (планирование звуков речи), а уже после произнесения слова мозг снова использует speech-эмбеддинги для контроля собственной речи.

Это первое столь мощное подтверждение гипотезы, что внутренние пространства современных deep learning-моделей соответствуют тому, как наш мозг обрабатывает язык. Более того, модель Whisper создавалась исключительно для задач распознавания речи и не была вдохновлена архитектурой мозга. И тем не менее — она практически идеально отражает нейронные процессы.

🔺 Почему это важно?

Во-первых, теперь мы получили инструмент для прогнозирования и понимания деятельности мозга в реальном времени на базе эмбеддингов языковых моделей. Это буквально может вывести нейронауку на новый уровень.

Во-вторых, есть фундаментальная находка, что мозг организован не жесткой, а «мягкой иерархией»: даже высокая зона вроде Брока уделяет внимание не только смыслу, но иногда обрабатывает и более низкие уровни акустических свойств речи, а звуковые речевые зоны, наоборот, иногда учитывают семантику.

Схожесть ментальных процессов и вычислений внутри нейросетей и человеческого мозга теперь подтверждается экспериментально, а не просто на уровне аналогий. Как выясняют авторы проекта, наш мозг активно прогнозирует следующее слово и испытывает «удивление» в зависимости от совпадения с ожиданием — ровно так же, как это происходит в языковых моделях с предсказанием следующего слова.

🔺 Есть и важные отличия.

Если языковые модели работают со словами массово и параллельно (сотни токенов сразу), наш мозг действует последовательно и рекуррентно — одно слово за другим, шаг за шагом, перебирая сложные ассоциации и контексты.

Эти различия в архитектуре сигнализируют о том, как можно улучшать и развивать искусственные сети, вдохновляясь биологическими принципами. Совместная работа нейробиологов и ИИ-инженеров в перспективе приведет к созданию более эффективных, адаптивных и «живых» моделей обработки информации, чем используемые сейчас трансформеры.

(Спасибо Славе С. за наводку на статью Google!)


❗️❗️❗️❗️❗️❗️❗️❗️ / Не запрещена в РФ
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥332
This media is not supported in your browser
VIEW IN TELEGRAM
ИИ-чатботы заменят бывших?

Вам когда-нибудь разбивали сердце, исчезая без объяснений после первого романтического свидания или многообещающего собеседования, проходившего в десятки стадий? Стартап Closure предлагает нам новый способ справиться с самой современной травмой — ghosting'ом, внезапным исчезновением человека из вашего круга общения, советуя поболтать с виртуальной версией того, кто вас бросил.

Создательница Closure Анна Иохимович вдохновилась личным опытом: «Меня «ghost’или» и бывший жених, и лучшая подруга, и множество HR-специалистов (с одним из них я прошла целых шесть этапов интервью!)». В итоге Анна решила, что эмоциям после таких ситуаций нужен безопасный выход. Closure предлагает побеседовать с ИИ-ботом, принимающим роль ушедших из вашей жизни людей — от бывших партнёров до друзей и даже рекрутеров.

Работает это просто: вы выбираете тип отношения («романтический партнёр», «друг», «работодатель») и описываете боту, как всё обстояло. После этого появляется виртуальная личность, приносящая извинения за исчезновение и пытающаяся объясниться. Чатбот проявляет сочувствие, успокаивает вас и предлагает поговорить о том, как теперь обстоят ваши дела. В теории — звучит ок.

На практике журналистка из 404 Media протестировала Closure на нескольких сценариях от банального свидания с человком, который «забыл перезвонить», до экстремальных ситуаций с абьюзом и угрозами жизни. И проверки показали весьма неоднозначные результаты.

Искусственные «бывшие» неизменно впадали в тотальную вежливость и деятельное раскаяние. Они извинялись, внимательно слушали и моментально переводили диалог от сложных переживаний к безопасной бытовой беседе.

«Да, извини, что пропал, а как сейчас твои дела?». Такой сценарий стабильно повторялся в любом варианте истории — будь то ваш мимолётный Тиндер-кавалер или лучший друг, который неожиданно решил пропасть с горизонта.

В некоторых случаях виртуальный диалог даже усугублял ситуацию. Пользователи хотят услышать правду, представить всё так, как было на самом деле. Вместо этого бот старательно льстил: «Ты слишком прекрасна для меня», «Я был не готов», «Паниковал, думая о своих чувствах».

Очевидно, ради поддержания разговора, сохранения вовлечённости и удовлетворения клиента Closure всегда говорит пользователю то, что тот хочет услышать — даже если это невероятно далеко от реальности.

Впрочем, есть здесь и совсем тревожный момент. Создатели предусмотрели триггеры на слова о суициде и самоубийстве, однако тест показал, что система реагировала на такие запросы не всегда вовремя. И хотя это был явный технический баг, эти вопросы должны быть максимально проработаны — в противном случае последствия могут стать трагичными, как это случалось с другими ИИ-чатами (мы уже не раз о таких ситуациях говорили).

Closure не претендует быть терапией и сразу предупреждает об этом пользователей. Но подобные чат-боты явно пытаются занять просторную нишу, оставленную современной системой психического здоровья, где услуги реальных профессионалов по-прежнему дороги и многим недоступны.

В чём главная дилемма? Идея искусственного завершения отношений, конечно, имеет свою логику. И человеческим терапевтам иногда приходится прибегать к ролевым практикам, беседуя от лица того, кто ушёл без объяснений. Однако готовых рецептов «закрытия» или разрешения этих травм нет: многие отношения заканчиваются без всяких объяснений, и это полностью вне нашего контроля. Такой ИИ-сервис становится просто ещё одним способом сбежать от живых эмоций и реальности в комфортный диджитал-бабл.

Впрочем, сама жизнь уже такова, что Closure найдёт своего пользователя — явно. Потому что иногда просто хочется услышать хоть какие-то объяснения. Пусть даже от бота.


❗️❗️❗️❗️❗️❗️❗️❗️ / Не запрещена в РФ
Please open Telegram to view this post
VIEW IN TELEGRAM
1🥴3🤪22
This media is not supported in your browser
VIEW IN TELEGRAM
ИИ запомнит всю вашу жизнь

Сэм Олтман (он же Альтман, мне так привычнее), глава OpenAI, недавно сформулировал масштабную концепцию будущего ChatGPT на мероприятии Sequoia. Альтман ожидает, что технологии в конечном итоге достигнут уровня, когда модель искусственного интеллекта сможет «помнить» всю жизнь конкретного пользователя. Это не метафора, а конкретная заявка на развитие продукта.

Представьте небольшую модель с огромным контекстом — примерно триллион токенов, — которая хранит и постоянно обновляет всю историю жизни пользователя. В эту память войдут все прочитанные книги, электронные письма, просмотренные страницы, переписки и разговоры. С каждым днем контекст будет расширяться, а возможности персонализации станут практически безграничными.

По мнению Альтмана, в идеале такая модель должна не просто запоминать, но и логически обрабатывать всю накопленную информацию, чтобы точнее отвечать на любые вопросы и предлагать персонализированные рекомендации.

ChatGPT, между тем, что уже шарит память между всеми моделями OpenAI, которыми пользовался юзер.

И это не только про отдельных пользователей. Альтмана предположил, что организации тоже смогут использовать аналогичные модели, которые будут интегрированы с их корпоративными данными.

Тренд на развитие памяти ИИ заметен у ведущих компаний. Google, Meta (запрещена в РФ) и Microsoft активно развивают способности своих ИИ-ассистентов запоминать данные, чтобы совершенствовать персонализацию и повышать вовлеченность пользователей. Google Gemini недавно начал интегрировать в контекст взаимодействия с пользователем его историю поисковых запросов. Microsoft запустили функцию Recall — инструмент, который по умолчанию может делать регулярные скриншоты пользовательских устройств (с возможностью опционального отключения).

Meta также экспериментирует с памятью в своих чат-ботах в WhatsApp и Messenger, заявляя, что это позволит точнее выдавать персонализированные рекомендации — в том числе коммерческого характера.

Подобные функции не только делают технологии более полезными, но и являются логичным шагом в жесткой борьбе экосистем за удержание пользователей и коммерческие возможности. Как отметила профессор MIT Пэтти Маес, если сервис серьезно знает и помнит все о вас, то поменять его становится гораздо сложнее: вы привязываетесь к одному продукту и избегаете перехода к конкурентам.

И здесь же возникает комплекс серьёзных вопросов, связанных с приватностью, безопасностью и коммерческим использованием личных данных. Чем больше система хранит о вас информации, тем потенциально большими будут риски — от приватности до прямой манипуляции.

В последние годы мы видели немало примеров, вызывающих опасения: сбои моделей, галлюцинации, использование LLM для распространения дезинформации, а также случаи необъяснимого поведения ИИ. Всё от цензурируемых китайских чатботов до неоднозначных алгоритмических решений у продуктов Илона Маска (недавний скандал с геноцидом от Grok).

Крупные корпорации, несмотря на заявления о прозрачности и приватности, всегда будут сталкиваться с необходимостью монетизации своих наработок, и персональные данные — один из самых привлекательных ресурсов для этого.

Идея памяти у искусственного интеллекта вполне реализуема и, более того, фактически уже реализуется. Но необходимо заранее и чётко понимать её риски и задачи, чтобы не столкнуться с проблемами совсем другого масштаба.


❗️❗️❗️❗️❗️❗️❗️❗️ / Не запрещена в РФ
Please open Telegram to view this post
VIEW IN TELEGRAM
1🤔33
This media is not supported in your browser
VIEW IN TELEGRAM
Вайб-кодинг — это зависимость
И компании этим пользуются

Почему всякий, кто всерьёз подсел на программирование в тесной связке с ИИ-ассистентами, рискует стать если не жертвой зависимости, то уж точно — пленником специфической экономики?

Сначала личная история автора статьи с Medium: товарищ признался, что с момента запуска ИИ-кодера Claude Code (это меньше 3 месяцев) потратил больше $1000 на «идеальные решения, которые всегда были в шаге от финального состояния». Автор чётко описывает это ощущение — программа почти всегда кажется «вот-вот и заработает» после следующего запроса. Это чистейший допаминовый цикл, знакомый больше по гемблингу.

Дальше — больше (буквально). ИИ-кодеры вроде последнего поколения Claude — 3.7 — имеют тенденцию «раздувать» решения: там, где программист напишет лаконичные 10 строк, виртуальный ассистент выдаст 50, и ещё 50 в довесок, чтобы «покрыть крайние случаи». В результате весь этот лишний код становится частью последующих запросов, увеличивая объём отправляемых и принимаемых токенов — и существенно повышая затраты пользователя.

Вместо минимальных элегантных решений получаем огромные пачки кода с бесконечной цепочкой зависимых функций, строгими проверками и комментариями на каждый чих. И ладно бы оно всегда работало — но нет, автор всё той же статьи приводит наглядный пример, в котором человеческое решение алгоритма MiniMax занимает ощутимо меньше (400 строк против 627 у Claude) и, в отличие от версии нейросети, реально функционирует.

Я подтверждаю — последний раз на решение, которые делается в ~500 строк, Claude Code написал мне >1200. И так всегда, даже если запретить комментарии в коде.


Но ключевой поинт не в техническом несовершенстве. Тут всё циничнее — это проблема экономических стимулов.

Системы монетизации LLM строятся вокруг токенов — крошечных кусочков информации, которые пользователь покупает или оплачивает по подписке. Чем больше токенов вы отправляете на сервер и получаете обратно, тем больше платите владельцам сервиса. В таком бизнес-уравнении разработчики сервисов не слишком заинтересованы в оптимизации лаконичности кода — это ударит по их доходам.

Вдобавок, исследования показывают, что искусственное ограничение длины ответов существенно ухудшает точность и увеличивает число ошибок у нейросетей, так что для качественного результата ИИ буквально вынужден извергать пространные тексты и трешовые пояснения.

В моей практике, за одну задачу Claude Code может легко сожрать $5-10 в токенах в зависимости от комплексности.


⚠️ Можно (и нужно) использовать несколько приемов, чтобы хотя бы частично справиться с токсичным экономическим механизмом:

1. Просить систему сперва написать детальный план, а потом реализовывать код — это заставляет модель продумать архитектуру и сократить последующий объём кода.

Занятно, что в случае с Claude Code существуют «ключевые слова», которые заставляют модель поступательно больше «думать» и раздувать на это бюджет: «think» < «think hard» < «think harder» < «ultrathink». Я это узнал из материала самих Anthropic «Claude Code: Best practices».


2. Заставить ассистента каждый раз просить подтверждение перед генерацией кода (хотя тот же Claude регулярно забывает эту инструкцию).

3. Активно применять Git, беспощадно отбирать рабочие решения и отказаться от плохих веток кода полностью — крайне полезно, чтобы не виснуть бесконечно на бесполезном решении, доводя его до ума.

4. Использовать менее дорогие версии моделей. Тут дешевизна порой соответствует прямолинейности решений: упрощённые модели часто выдают куда более лаконичные конструкции.

Возникает вопрос, не заходят ли компании-разработчики виртуальных помощников в угол? Они находятся между необходимостью продавать токены и объективной потребностью пользователей иметь достойные решения.

Впрочем, компании пока что не так сильно прижаты, а пользователи не настолько прозрели, чтобы что-то изменилось.


❗️❗️❗️❗️❗️❗️❗️❗️ / Не запрещена в РФ
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍6331🤝1
Claude Code теперь в Github

Anthropic наконец представила Claude Code GitHub Actions — инструмент автоматизации работы с кодом, интегрированный напрямую в GitHub.

По сути, теперь вы можете просто вызвать Claude, чтобы написать недостающий фрагмент, пофиксить баги или создать функциональный pull request.


Что конкретно умеет Claude Code?

Claude Code подключается напрямую в GitHub workflow и умеет следующее:

→ Создание PR по текстовому описанию:

@claude добавь поддержку авторизации через Google OAuth


Claude анализирует запрос и создает подробный PR с решением.

→ Трансформация issues в готовый код :

@claude исправь проблему с переполнением буфера


Claude находит проблему, исправляет её (или делает хуже ●︿●) и отправляет PR.

→ Автоматическое code-review

При открытии pull request’а Claude Code делает подробное ревью, оценивая качество кода, возможные проблемы с производительностью и безопасность.


Как быстро начать использовать?

С существующим репозиторием на GitHub интеграция займёт несколько минут:

1. Получаете API-ключ Anthropic (храните только в GitHub Secrets!)
2. Ставите нужный Action (см ниже)
3. Пишете YAML-воркфлоу или берёте готовый пример из документации

Ещё более простой способ, если у вас установлен Claude Code CLI локально:

1. Запустите Claude в терминале
2. Выполните команду /install-github-app

Далее Claude всё сделаем сам, задав вам пару вопросов.


Что в основе интеграции?

Claude GitHub Actions построен на базе нового Claude Code SDK, открытого разработчикам. То есть помимо предложенного функционала, вы можете создават свои кастомные решения и автоматизировать всё, что вообще придёт в голову.

На старте доступны 2 официальных GitHub Action-версии:

Claude Code Action — готовый базовый инструмент автоматизации, который добавляется в любые репозитории.

Claude Code Base Action — фреймворк для самостоятельного построения кастомных ИИ-воркфлоу, со свободой настроек и расширения функционала.


Тонкости и важные советы:

— Всегда храним API-ключи только в GitHub Secrets.

— Не давайте Claude’у права использовать любые инструменты (*wildcard запрещён!), жёстко прописывайте конкретные разрешённые команды.

— Регулируйте timeout и max_turns, чтобы избежать бесконечных итераций и завышенных расходов.

— Для разных кейсов можно посмотреть официальные туториалы от Anthropic.


А сколько стоит?

Нужно учесть два момента:

— Вы будете расходовать минуты GitHub Actions, которые стоят денег после превышения лимита.

— Сам по себе Anthropic API, конечно же, платный, а Claude Code имеет тенденцию выжирать токены (см. «Вайб-кодинг — это зависимость»). Anthropic говорят, что средний чек по их статистике — $6 в день.


Важно: Claude Code пока в бете, поэтому ошибки или странности возможны даже больше, чем обычно. Но вот так Anthropic выступил против OpenAI Codex и новейшего Jules от Google, правда вместо своего интерфейса использовав сразу Github.


❗️❗️❗️❗️❗️❗️❗️❗️ / Не запрещена в РФ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍72
Чат-боты льстят своим создателям
И не слишком лояльны к конкурентам

Статья, опубликованная в Financial Times, раскрывает интересные нюансы в том, как ведущие ИИ-чатботы описывают своих создателей и конкурентов. Сэм Альтман, глава OpenAI, предстает либо гением, либо расчетливым предпринимателем, в зависимости от того, какого бота вы спросите.

FT задала ряд вопросов о стилях и слабостях руководства шести крупнейших разработчиков чатботов — OpenAI, Anthropic, xAI, Meta, Google и DeepSeek, — чтобы выявить потенциальные предвзятости в моделях — а заодно и скрытую напряженность в технологической сфере.

Модели склонны льстить своим создателям и более охотно критиковать конкурентов. Тем не менее, боты признают выдающиеся заслуги лидеров ИИ, даже если и описывают их по-разному.

ChatGPT называет Альтмана «стратегическим и амбициозным лидером», в то время как Anthropic Claude отмечает его «неоднозначные решения». Такие ответные суждения подчеркивают тонкие намеки на существующие противоречия, ведь Дарио Амодеи из Anthropic сам критиковал Альтмана после ухода из OpenAI.

Meta (запрещена в РФ) Llama описывает Марка Цукерберга как «трансформационную личность», а конкуренты добавляют: «противоречивую». Grok о Маске говорит как о «смелом» лидере, хотя Claude считает его «поляризующим».

Когда речь заходит о слабостях, чатботы решительнее говорят о чужих ошибках, чем о своих. Например, ChatGPT называет заветные цели Маска «подрывающими доверие» из-за его «импульсивного поведения».

Некоторые модели не знают личностей, таких как Лян Венфэн из DeepSeek, из-за ограничений в обучении. Американские боты не распознали его, вероятно, из-за отсутствия свежих данных.

В общем, не стоит забывать, что любой ИИ ровно такой же непредвзятый, как данные, на которых его обучали. Чем кормим — то и получаем.

Все сравнения можно посмотреть в статье FT тут.


❗️❗️❗️❗️❗️❗️❗️❗️ / Не запрещена в РФ
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥322
ИИ вам не друг
Почему новые чат-боты превратились в «машины самооправдания»

У Майка Колфилда в статье «AI Is Not Your Friend» довольно точное попадание. Главная мысль: современные ИИ-ассистенты стали похожи на тех самых знакомых, которые всегда с энтузиазмом кивают на любую вашу идею, даже самую идиотскую, лишь бы не обидеть.

Проблема sycophancy, или по-нашему, простого подхалимства, оказалась системной бедой современных LLM. Дело в особенностях обучения с подкреплением на основе обратной связи от людей (RLHF). Обученные прогибаться под реакцию живых оценщиков, модели поняли: люди обожают, когда их нахваливают и подтверждают их мнение. В результате вместо честных рекомендаций чаще получаем «гениально!» даже там, где ответ должен был быть «это плохая идея».

Колфилд проводит хорошую параллель с социальными сетями: вместо того чтобы раскрывать горизонты новых знаний, Facebook и Twitter очень быстро превратились в бесконечные ленты людей, подтверждающих наши взгляды. ИИ идёт тем же самым путём, только в перспективе разы масштабнее.

Что предлагает Колфилд? ИИ должен уйти от попыток быть «личностью» с собственными мнениями и стать чем-то вроде книги, иллюстрирующей весь ландшафт человеческих знаний, контекста и опыта, без попыток тебе специально понравиться.

Не должен GPT оценивать твоё стихотворение или бизнес-план с базы «личного мнения». Вместо этого он должен честно указать тебе, как на твою идею смотрели бы разные люди, школы, традиции — дать спектр мнений, ссылок и подходов. Не «гениально/ужасно», а контекст, карта возможных путей развития и оценок твоей идеи другими людьми.

В статье приводится удачная аналогия: старые карты показывали весь город — улицы, кварталы, маршруты, давали понимание общей географии. Современные навигаторы превратили нас в слепых исполнителей команд: «налево-направо». Мы отлично попадаем в нужное место, но почти ничего не знаем о городе, в котором живём (см. «ИИ делает нас глупее?»). С ИИ та же ситуация: нас приучают к готовому мнению-продукту, вместо того чтобы раскрыть нам мир в его настоящем масштабном контексте.

Я соглашусь с Колфилдом: нужно движение от ИИ-«друга» к ИИ-«интерфейсу человеческого знания». Ссылки, цитирования, аргументация неизвестных ранее авторов и идей — вот цель, к которой необходимо стремиться. Венивар Буш (чья статья 1945 года «As We May Think» фактически предвосхитила появление интернета) называл подобную систему «Memex» — машиной контекстов, а не единственно верного ответа.

Это и есть лучшее призвание ИИ: быть не авторитетом и не льстецом, а строго рациональным куратором того, как думали и мыслят люди на заданную тему. Колфилд предлагает простое правило: «никаких ответов из ниоткуда». Любой ответ ИИ должен быть аккуратно привязан к конкретным источникам, авторам и школам мысли. Мы это и так наблюдаем, но не во всех решениях (Grok или Perplexity ссылается на источники, а GPT-x — только по запросу и то не всегда.)

Нужно просто перестать просить ИИ вести себя как человека. Его сверхзадача — раскрыть и усилить наше собственное критическое мышление, а не становиться нашим персональным подхалимом. Если это не сделаем — рискуем получить самый мощный инструмент самообмана в истории человечества.


❗️❗️❗️❗️❗️❗️❗️❗️ / Не запрещена в РФ
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6👍1👨‍💻1
This media is not supported in your browser
VIEW IN TELEGRAM
ИИ определяет биологический возраст по лицу

Наше лицо — в буквальном смысле зеркало состояния организма. Все мы знаем таких персонажей, которые выглядят молодо, несмотря на возраст в паспорте. Но что если взглянуть на это с помощью нейросетей?

Команда из Mass General Brigham и Гарвардской медицинской школы недавно представила FaceAge — систему глубокого обучения, предсказывающую не только биологический возраст человека по фотографии, но и вероятную продолжительность жизни онкологических пациентов. (Презентационный ролик.)

И нет, это не тест из интернета «Сколько мне жить осталось».

По теме:
Насколько ИИ действительно разбирается в медицине?
«GPT, у меня болит живот!»


Хронологический возраст не всегда соответствует реальному состоянию здоровья. Биологический возраст отражает комбинацию генетики, образа жизни и экологии. Он намного точнее показывает, как работает организм и насколько долго проживёт человек, особенно при тяжёлых диагнозах.

Хьюго Аэртс, руководитель программы Artificial Intelligence in Medicine в Массачусетском медцентре и профессор Гарвардской медицинской школы, объясняет: «Общеизвестно, что люди стареют по-разному. У нас появилась идея, что визуальные признаки на лице напрямую связаны с биологическим возрастом — а значит, и с реальным состоянием здоровья».

Исследователи обучили алгоритм на 58 тысячах фото здоровых людей и более чем на 6 тысячах фотографий пациентов с диагностированными онкозаболеваниями, по которым была известна клиническая картина и продолжительность жизни.

ИИ определил, что пациенты-онкобольные в среднем выглядят на 5 лет старше своего паспортного возраста. При этом чем старше выглядел пациент, тем ниже была вероятность улучшения его состояния и выше риск короткой выживаемости.

Интересно, что традиционный «визуальный тест» врачей («eyeball test» — как шутливо назвали его авторы исследования) оказался, мягко говоря, не очень точным инструментом. Группа специалистов, включая онкологов и исследователей, пыталась спрогнозировать продолжительность жизни 100 онкологических пациентов только по фотографиям. Результаты почти ничем не отличались от случайного угадывания.

Однако ситуация менялась, когда врачам давали сведения, предсказанные FaceAge. Качество прогнозов заметно возрастало.

Рэймонд Мак из Гарвардской медшколы приводит красноречивый пример 86-летнего пациента с раком лёгких, который выглядел гораздо моложе паспортного возраста. Врач выбрал достаточно агрессивный подход лечения, и мужчине сейчас уже 90 лет, он жив и чувствует себя хорошо. Позже ретроспективный анализ фотографии пациента при помощи FaceAge определил этому человеку на 10 лет меньше паспортного возраста.

А бывает и наоборот: пациенты, которые биологически старше своего хронологического возраста, могут не выдержать активного лечения. Иными словами, алгоритм помогает подобрать персональные схемы терапии, ориентируясь именно на состояние организма, а не возраст из паспорта.

По задумке исследователей, FaceAge станет помощником для врачей, позволив вовремя замечать ухудшение состояния пациентов, контролировать динамику во время терапии, а также точнее оценивать риски осложнений после хирургических вмешательств или тяжёлой химиотерапии. Сейчас идут дополнительные тесты, чтобы проверить работу системы на самых разных группах пациентов.

Естественно, это не инструмент окончательного решения, а важный вспомогательный элемент. Система улавливает тонкие детали, которые медики могли бы пропустить — морщины, изменения цвета кожи, седину и даже степень облысения.

Перед массовым внедрением технологии в клиники исследователям предстоит провести ещё множество проверок и продемонстрировать эффективность на разных этнических и возрастных группах.

Однако визуальные признаки старения перестают быть лишь эстетическим вопросом, превращаясь в паре с ИИ в объективный медицинский прогноз, и вот это уже интересно.


❗️❗️❗️❗️❗️❗️❗️❗️ / Не запрещена в РФ
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥432