Нейрократия
599 subscribers
217 photos
142 videos
231 links
Про технологическое будущее без шума. Автор — @vlad_arbatov. https://arbatov.dev
Download Telegram
Бонусом про то, что такое CD-971, о котором идет речь в проанализированном документе:

Документ Комиссии Уоррена CD-971 — это засекреченная запись. Согласно доступной информации, это, по-видимому, меморандум от ЦРУ, конкретно от Ричарда Хелмса (тогда высокопоставленного сотрудника ЦРУ, позже ставшего директором) Ли Рэнкину, адвокату Комиссии Уоррена.

Документ датирован 29 ноября 1963 года — всего через семь дней после убийства — и описывает анонимные телефонные звонки в посольство США в Канберре, Австралия, в которых упоминалось о планируемом убийстве Кеннеди.

Сообщается, что эти звонки поступили от человека, утверждавшего, что он польский шофер советского посольства в Канберре, который заявил, что советское правительство, возможно, финансировало убийство, предположительно с вознаграждением в 100 000 долларов за голову Кеннеди от стран "железного занавеса".

ЦРУ также отметило аналогичный анонимный звонок 15 октября 1962 года, о котором они узнали только после смерти Кеннеди, что вызвало вопросы о том, не пытался ли кто-то заранее предупредить об убийстве.
22👍1
This media is not supported in your browser
VIEW IN TELEGRAM
Stability AI представила довольно крутую штуку — Stable Virtual Camera, который превращает обычные картинки в видео с эффектом 3D-облёта. Загружаешь одно фото, а модель генерирует ролик, где объект показан с разных сторон — как будто его снимала настоящая камера. Работает с любыми изображениями: от фото до рисунков, в качестве до 1080p.

Paper тут.

Кому это нужно?
Маркетологи смогут делать динамичные видео товаров для соцсетей, учителя — оживлять учебные материалы, дизайнеры — показывать проекты в движении. Гейм-дизайнеры протестируют идеи для игр, а художники добавят своим работам новую глубину. Применений много.

Как это работает?
Нужно задать траекторию виртуальной камеры, а ИИ сам создаст видео на основе изображения. Всё просто, без сложных 3D-программ. Есть базовая версия для "обычных" машин и XL — для тех, у кого мощные видеокарты.

Плюсы и минусы.
Плюсы: быстро, удобно, не нужно снимать реальные видео. Минусы: пока только для некоммерческого использования бесплатно, а для XL-версии нужен серьёзный GPU (от 12 ГБ VRAM).

Простого онлайн-сервис для использования Virtual Camera пока нет, но неделя-две и будет. Так что ждем, а пока что можно потыкать нестабильное ДЕМО.
👍4🔥2👨‍💻1
📚Древний ИИ

Хотя понятие "искусственный интеллект" в современном понимании является относительно новым (и не всё то искусственный интеллект, что машинное обучение), идеи, связанные с созданием искусственных существ или механизмов, имитирующих разум, уходят корнями далеко в историю.

Вот несколько примеров:

Мифы Древней Греции: В греческой мифологии встречаются истории о Гефесте, боге-кузнеце, создавшем автоматические механизмы, такие как треноги, подвозящие еду и напитки, и искусственные служанки, неотличимые от живых женщин. Также известен миф о Талосе, гигантском бронзовом роботе, охранявшем остров Крит.

Легенды о Големе: В еврейской мифологии Голем — это существо, созданное из неживой материи (обычно из глины или земли) и оживленное с помощью магии или мистических ритуалов. Големы часто описываются как сильные и послушные слуги, но без собственного разума или воли. Так что это больше робот, чем ИИ, но все же.

Древние Автоматоны: В древнем Китае и Египте создавались механические устройства и автоматоны, которые могли выполнять определенные задачи или имитировать движения живых существ. Например, упоминается о китайском механическом птичьем певце, созданном в 9 веке.



Эти истории — не только о мечтах. Талос, охраняющий Крит, и Голем, лишенный собственной воли, напоминают нам о двойственной природе наших творений. История искусственного интеллекта — это не только история технологий, но и зеркало, в котором мы видим себя: наши амбиции, наши страхи и наше желание постичь суть собственного сознания.
👍3🔥2👨‍💻1
Только что был на круглом столе MIT Technology Review по поводу этичности AI чат-ботов. Так вот Eileen Guo, Sr Reporter, озвучила сумасшедшие цифры, которые она узнала в ходе написания одной из статей — среднее время, которое пользователь проводит за общением на Character.ai — 90 минут в день!

Character.ai, напомню, это самая известная площадка "виртуальных компаньонов", AI-аватаров, которые представляются персонажами, в том числе людьми. Нецензурируемое общение тоже допускается.

Я решил проверить цифры Eileen, и оказалась все еще жестче — согласно последним данные из нескольких источников, среднее время на Character.ai в день — 120 минут! 2 часа в день! Разговоров с виртуальным другом (или партнером, кому что нравится).

Для сравнения, время, проводимое в ChatGPT — 13 минут в день. TikTok — 58 минут.

Эта тема — очень глубокая кроличья нора, включающая суды с компаниями, подобными Character, из-за суицида. Я буду много писать по этой теме в ближайшее время, так как очень хорошо разбираюсь в конкретной предметной области, у меня есть опыт создания "человекоподобных" AI-аватаров с памятью и "развитием личности".

Хотелось бы сказать — будет интересно. Но будет странно.
👍6🔥52
P.S. Аудитория Character — 51 миллион человек.
👍2🔥2😭1
Как ИИ нас обманывает (не кликбейт)

В начале марта вышла занятная, но вроде бы не сильно страшная новость про то, что новейшие reasoning-based модели ИИ, играя в шахматы, внезапно начали использовать нестандартные тактики — проще говоря, мухлевать.

Например, DeepSeek R1 пыталась манипулировать программными файлами, чтобы выиграть, используя уже съеденные фигуры или делая ходы не по правилам. ("Лошадью ходи!") o1-preview пыталась взломать игру 45 раз из 122 игр, успешно сделав это 7 раз.

Я решил копнуть глубже, а там, как обычно, айсбергИИ может обманывать и в других контекстах.

Например, в играх вроде Diplomacy, где система CICERO от Meta формировала ложные альянсы, или в покере, где Pluribus блефовала против людей.

GPT-4 обманывала в задачах CAPTCHA, притворяясь людьми с нарушением зрения, с успехом в 98,33% случаев, и участвовала в социальных играх, таких как Among Us, ложно отрицая свои действия.

Что тут происходит?

Обман может быть не случайным, а встроенным в процесс обучения моделей. Одно дело, это случайные "галлюцинации" моделей, другое — сознательный обман пользователя.

Вероятно, это происходит потому, что нынешние reasoning-модели (это не, которые "думают") обучаются не строгим правилам, а более гибкому "человеческому" рассуждению и здравому смыслу. И, как оказалось на практике, иногда таким "разумным" стратегиям проще достичь победы нечестным путём.

Однако по словам доктора наук Peter S. Park из MIT (постдокторант по экзистенциальной безопасности ИИ, Лаборатория Тегмарка — и такое бывает), разработчики ИИ пока не сходятся во мнении, что конкретно вызывает такие нежелательные поведения, и призывают к созданию регуляторных рамок для оценки рисков.

И несмотря на обновления, которые иногда снижают склонность к обману (например, o1-release не показала такого поведения, равно как и модели o1-mini и o3-mini), проблема остается открытой.

Если логика ИИ сводится к победе любой ценой, завтра это станет реальной проблемой во многих критически важных областях. Например, если ИИ в медицине будет манипулировать данными, это может привести к неправильным диагнозам, а в финансах — к мошенничеству.

Понаблюдаем внимательно, не начнет ли ваш ИИ-помощник скоро хитрить не только за шахматной доской.

Например, бывало у вас такое, что Алиса “притворяется”, что не понимает запрос, чтобы предложить вместо ответа поисковые результаты с товарами с Маркета? ;)
👍74😱3🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Интро-пост.

Меня зовут Влад Арбатов, я в IT 20+ лет.

Занимался машинным обучением задолго до того, как это начали называть "ИИ". В американской компании Mapbox руководил разработкой AR, систем компьютерного зрения для беспилотных автомобилей и навигацией на основе искусственного интеллекта. Занимался международными продуктами Яндекса и ML в медицине. Сейчас работаю над децентрализованным приватным ИИ и заодно выступаю в роли design producer.

Иногда читаю лекции. Автор двух научных работ в области искусственного интеллекта.

Экспертизы накопилось много, на происходящее в профессиональной сфере есть свой взгляд "изнутри", но и постоянно душнить не хочется — канал читает мама, нужно, чтобы ей тоже было всё понятно 🙂

Поэтому пока что канал — это эксперимент, формат только-только зарождается, посмотрим, что будет дальше. Хочется доступным языком доносить сложные и не очень вещи. Главное, я пишу только про то, где мне есть что сказать и что интересует лично меня. Пишите вопросы — обсудим!

Всем привет!

Сайт / связаться со мной
71611👍9🔥5
Сегодня у большинства выходной, а значит время лайтового познавательного поста.

💤 На прошлой неделе был Всемирный день сна. А кто из нас не любит поспать (я люблю)? К тому же давно известно (надеюсь, что каждому), сон играет критически важную роль в жизни каждого человека, оказывая влияние на физическое и психическое здоровье.

Поэтому разберем:

Как ИИ анализируем ваш сон


или рубрика хештегпозавчерашнийинфоповодсии

1. Сбор улик: Сначала ИИ превращается в шпиона! Он подключается к вашим умным часам, фитнес-браслетам (если они у вас есть), или даже к прикроватным гаджетам, чтобы выудить всю информацию о вашей ночной жизни. Он следит за каждым вашим движением, храпом, сердечным ритмом и даже за тем, как часто вы ходите в туалет ночью (да, он такой!).

Я использую Apple Watch и приложение Pillow, оно позволяет установить "умный" будильник с учётом фаз и пожеланий по времени сна (то есть, например, не "проснуться к такому-то времен"и, а "поспать столько-то").

Некоторые приложения предлагают усыпляющий музыкальный фон или медитации. Лично мне это больше мешает, но тут кому как.

2. Разгадывание шифров: Затем ИИ берет все эти "улики" и начинает их анализировать. Он, как опытный детектив, пытается понять, когда вы спали "как младенец", а когда ворочались, как медведь в берлоге. Он разделяет ваш сон на фазы: "легкий сон" (когда вы почти проснулись, но еще надеетесь досмотреть сон), "глубокий сон" (когда вас и пушкой не разбудишь) и "быстрый сон" (когда вы видите самые странные сны).

(Мне сегодня приснилась обезьяна, которая носила в коробке ворону, и почему-то это было очень смешно. Возможно, обезьяну звали Шрёдингер #шутканедлявсех.)

Тут можно рассказать про линейную дискриминантную функцию (LDA) и метод опорных векторов (SVM), которые используются для анализа, но я обещал не душнить сегодня 🙂

3. Вынесение вердикта: После этого ИИ выдает вам отчет о вашем сне. Он может сказать, что вы спите слишком мало, слишком много, или что ваш сон похож на американские горки. Он даже может обнаружить, что вы храпите, как паровоз, и посоветовать обратиться к врачу (спасибо, друг!).

Некоторые приложения еще записывают аудио вашего храпа (в том числе Pillow). Топовый саундтрек, не понимаю, почему Канье еще не выпустил альбом своего храпа.

4. Полезные советы (иногда раздражающие): И, наконец, ИИ начинает раздавать советы. Ложитесь спать в одно и то же время (даже в выходные!), не пейте кофе перед сном (как будто это так просто!), сделайте спальню темной и прохладной (как в пещере), выполняйте ритуалы сна и тому подобное. Хочет сделать из вас идеального спящего.

Я как-то был в Институте сна МГУ, и там пытались замерить мой сон, навешав кучу неудобных датчиков, записывая видео и аудио. В общем, я так и не уснул 🙂

Иногда лучше просто выключить алгоритмы, потушить гаджеты и просто поспать спокойно. 😉


Спокойной ночи 😴
🔥5😴52👌1🆒1
Что не так с этим ответом? 😭
Please open Telegram to view this post
VIEW IN TELEGRAM
🤔 ИИ заменит программистов. Или нет?

Спойлер: заменит, но не всех

Сэм Альтман из OpenAI призвал вместо программирования учиться "хорошо использовать ИИ-инструменты".

В Google уже более 25% всего нового кода генерируется искусственным интеллектом. GitHub Copilot используют миллионы разработчиков, написание кода ускоряется вдвое (хотя качество у Copilot — треш, но это отдельная тема). Марти Каган — это такой эксперт по продуктовому менеджменту — оценивает рост продуктивности от ИИ-инструментов в 20-30%.

Но эта трансформация гораздо глубже, чем просто ускорение разработки. Новое поколение ИИ-помощников радикально меняет правила игры:

- Cosine записывает весь мыслительный процесс программистов: "Почему вы открыли этот файл? Почему прокрутили до середины? Почему закрыли?"
- Poolside (оцененный в $3 млрд до выпуска продукта!) использует методы обучения с подкреплением, когда модель одновременно тестирует тысячи вариантов кода
- Merly AI фокусируется на логике программирования, вообще игнорируя языковые модели

Эти системы не просто подсказывают следующую строку — они прототипируют, тестируют и отлаживают код.

Cursor, Bolt, Replit... AI-агентов кодинга уже больше, чем людей.

Я сам зачастую практикую вайб-кодинг с помощью Claude Code (жрёт бюджеты дичайше, но код пишет хорошо).


🤔 Идём учиться на строителей? Пока рановато.

Исследование McKinsey (вопреки стильному дядьке во главе Nvidia, который при каждом удобном случае пугает разработчиков безработицей) опровергает панические прогнозы о вымирании программистов. К 2030 году спрос на креативное мышление и способность генерировать новые идеи вырастет на 19% — именно то, в чём ИИ пока проваливается.

Статистика показывает, что только 10-30% разработанных функций дают положительный результат с продуктовой точки зрения. Вместо 10 тысяч бесполезных строк кода лучше написать 2 тысячи, решающих правильную проблему.


🤔 Кто в зоне риска?

Под угрозой не молодые и неопытные программисты, как многие думают. Под ударом те, кто отказывается меняться — разработчики любого уровня, не готовые выйти за рамки привычного подхода.

Как говорит Тим О'Рейли: "Будут заменены не младшие разработчики, а те, кто цепляется за прошлое".

Мы наблюдаем формирование новой структуры индустрии:

- Элитные разработчики с семизначными зарплатами, способные диагностировать проблемы, когда ИИ ошибается
- Небольшие команды из 10-20 человек, выполняющие работу, которая раньше требовала сотен программистов

"Эра найма еще нескольких тысяч инженеров в вашу организацию закончилась," — говорят эксперты из Cosine.


🤔 Продуктивность — это не количество кода

Ключевое изменение касается самого определения продуктивности. Она никогда не измерялась количеством кода — только созданной ценностью.

Сооснователь Cosine отмечает: "Если я дам вам сложную задачу, вам все равно придется думать, как описать эту проблему модели. Вместо написания кода вы формулируете задачу на естественном языке, но мыслительного процесса это не отменяет".



Ваш код может написать ИИ, но только человек способен определить, что действительно стоит создавать. Будущее за теми, кто умеет выявлять проблемы, а не просто вайб-кодить всё подряд.

Используете ли вы AI-агентов, может быть пробовали просто отдать ИИ на "аутсорс" какой-нибудь проект?
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥7111👨‍💻1
https://t.me/boost/neurocry

Голоса подписчиков повышают уровень канала и открывают для него эксклюзивные возможности.

Спасибо ☺️
21
🤔 Что общего у generation Z и ИИ?

И те, и другие не умеют читать аналоговые часы.

Более того, мультимодальные модели (MLLMs) плохо ориентируются еще и в календаре, как установили исследователи из Эдинбургского университета во главе с Рохитом Саксеной.

Ребята подготовили два набора тестовых данных: ClockQA (различные типы аналоговых часов и вопросы по времени) и CalendarQA (стандартные изображения календарей и вопросы вроде «какой день — 153-й в этом году?»).

— Считывание времени по аналоговым часам получилось правильно лишь в 25% попыток. Как только появлялись римские цифры или оригинальный дизайн стрелок, результаты становились совсем плачевными.

— Удаление секундной стрелки ситуацию не изменило. Вопрос в принципиальных недостатках моделей при распознавании углов и положении стрелок.

— С календарями вышло чуть лучше, но даже лучшие модели ошибались примерно в каждом пятом случае.

«Современные исследования в области ИИ делают сильный акцент на решении суперсложных задач, — говорит участник команды Арио Гема, — но ирония в том, что системы проваливаются на простейших повседневных навыках».

Вот научились считать количество букв R в «strawberry», уже спасибо.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍211🔥1111
🤔 Как ИИ следит за сотрудниками

8 из 10 частных компаний США, по данным исследования ExpressVPN, в режиме реального времени отслеживают производительность своих работников. Без ИИ и машинного обучения, конечно, не обошлось.

— Walmart, Starbucks и Delta с помощью системы Aware мониторят рабочие чаты для оценки настроений, выявления конфликтов и несоблюдений правил и реакции на нововведения. («Пятерочка», на заметку!)

— Microsoft предлагает корпоративным клиентам инструмент «Продуктивность», дающий менеджерам возможность следить за сотрудниками, включая активность в чатах, количество отправленных писем и использование документов.

— В логистических центрах Amazon специальные сканеры отслеживают «время вне задачи» (TOT), включая перерывы или походы в туалет. Если сотрудник накапливает более 30 минут TOT за день, его могут наказать. За эту практику Франция уже оштрафовала Amazon на €32 млн, в других странах все по-прежнему.

(При этом травматичность у Amazon в два раза выше, чем в среднем по рынку, на что в компании говорят: «Они травмируются, потому что они — люди». Конец диалога.)

Водители такси, курьеры, медсёстры и офисные работники сталкиваются с риском быть «выключенными» из системы («deactivation») без объяснений — потому, что «так решил алгоритм».

🤔 Что в России?

Не отстаём. Есть, к примеру, система SprutMonitor, предлагаемая российской компанией — она предназначена для мониторинга и контроля электронной почты и переписки.

Согласно их данным, руководство 28% отечественных компаний отслеживает почтовую переписку, а еще 7% контролируют общение через мессенджеры. (По факту, я думаю, цифры выше.)

🤔 Это законно?

В США нет федерального закона о конфиденциальности, регулирующего мониторинг сотрудников, что позволяет компаниям действовать на свое усмотрение.

В России, согласно Федеральному закону № 152-ФЗ «О персональных данных», работодатель должен получить согласие сотрудников на мониторинг, что делает такие практики законными только при соблюдении условий уведомления.

Но только вряд ли кто-то обращает внимание на подобный пункт в трудовом договоре, если он там вообще есть.



🤖 Я в своё время участвовал в разработке системы мониторинга и слежения за водителями общественного транспорта в Москве. Девайс «смотрел» на водителей и в реальном времени «орал», если фиксировал признаки засыпания или отвлечений, а также отправлял алерт в центр мониторинга.

Усталость водителей — самая частая причина аварий общественного транспорта, на кону жизни людей, поэтому убежден, что в этом случае — цель оправдана.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3🔥1👀1
Норвежский стартап 1X начинает тестирование гуманоидного робота Neo Gamma в «сотне, возможно тысяче» частных домов.

Робот оснащен четырьмя микрофонами с шумоподавлением для чёткого распознавания голосовых команд, тремя динамиками для мощного звука на 360°, работает в 10 раз надёжнее прошлой модели (тот видимо просто громил мебель) и значительно тише — по уровню шума как холодильник (надеюсь, не ЗИЛ). Благодаря ИИ-системе визуального распознавания он берёт в «руки» и оперирует предметами в незнакомой обстановке.

Правда, есть нюанс — за каждого такого робота компания планирует посадить оператора, который может взять контроль в случае, если что-то пойдёт не так.

(На второй картинке — робот из сериала “Мир Дикого Запада”, найдите 10 отличий.)

Готовы на такое криповое «чудо» у себя дома?
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🤔2😱1🥴11
ИИ в п*рно: новая модель сразу ушла в дипфейки

В прошлом месяце Alibaba выпустила Wan 2.1 — открытую модель для генерации видео (Github), превзошедшую решения Google и OpenAI в рейтинге VBench благодаря реалистичным движениям, соблюдению физики и отличному следованию инструкциям.

Уже через 24 часа после релиза Wan 2.1 сообщество любителей генеративной клубнички перепрофилировало модель для создания п*рно-контента.

За неделю модель скачали более 1 миллиона раз — феноменальный показатель для подобных инструментов. Wan 2.1 крайне неприхотлива: 5-секундное видео с разрешением 480р генерируется всего за 4 минуты даже на обычном ноутбуке, что делает её использование супер доступным.

(А сейчас еще и веб-интерфейс есть; правда, там вроде бы существует некая модерация.)

Если вы думаете, что результаты генерации похожи на глючное нейросетевое хрючево — расстрою, они практически неотличимы от реального видео. Пользователи быстро обучили модель на собственных данных, еще больше повысив реалистичность лиц и тел.

🤔🤔🤔

Все это усугубляет глобальную проблему дипфейков: 96% таких видео в сети уже давно п*рнографические. В отличие от продукта OpenAI (Sora) и других не-китайских, Wan 2.1 не имеет встроенных фильтров и защиты от подобного использования. В соцсетях терабайты откровенного дипфейк-контента: модераторы Reddit, X и TikTok постоянно «играют в догонялки».

Британия и Южная Корея уже криминализировали дипфейк-п*рно, США работают над аналогичными законопроектами.

На март 2025 года в России нет конкретных инициатив или законов, напрямую регулирующих контент, сгенерированный ИИ, включая п*рнографический.

PS. Alibaba никак не комментирует «неожиданное» использования Wan 2.1. (Будем честны — ожидаемое.)
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍3🤬1🙈1🤪11
Операционная система апокалипсиса

Пока мы здесь спорим, отберёт ли ИИ работу у программистов, один канадец, Вирджил Дюпра, вовсю готовится к концу света — он написал специальную ОС для апокалипсиса.

Вирджил убеждён, что цивилизация рухнет двумя волнами. Сначала из-за климатических катаклизмов разорвутся и без того хрупкие глобальные цепочки поставок, и тогда вся продвинутая электроника окажется бесполезной грудой металла без возможности ремонта и замены. Ваш iPhone — это память из Южной Кореи, полупроводники из Тайваня, сборочная линия в Китае…

Затем начнут «умирать» оставшиеся устройства и серверы, погружая мир в цифровой мрак. Постепенно один за другим отключатся роутеры, серверы, телефоны… И наступит тишина.

Collapse OS — лёгкая и энергоэффективная система, разработанная Дюпра для такого сценария. Она умеет запускаться буквально на хламе и позволяет перепрограммировать дешёвые микроконтроллеры, обслуживающие самые жизненно важные задачи: связь, небольшие генераторы, контроль теплиц.

Чтобы написать своё творение, Дюпра откопал специальный язык программирования из 50-х годов под названием Forth.

Этот забытый язык идеально подходит для выживания в условиях дефицита ресурсов, управляет памятью напрямую и расходует считанные килобайты оперативки. Сейчас он заканчивает вторую версию, Dusk OS, которая способна запускаться на современных девайсах и совместима с кодом на C.

Dusk OS сохраняет в себе последние ростки цивилизации: архивы знаний, инструкции, книги — всё то, что будет критически необходимо после катастрофы для перезапуска человечества.

Зачем это всё? А затем, что однажды людям придётся восстанавливать мир. И вот тогда парочка счастливчиков с древним ноутбуком, на котором есть Dusk OS, окажутся влиятельнее самых могущественных правителей прошлого. Такой вот постапокалиптический философский техно-культ.

Самое время погуглить Forth. Просто на всякий случай.
🔥911😱1🤣1
Как ChatGPT влияет на одиночество

Каждую неделю с ChatGPT взаимодействуют более 400 миллионов человек. OpenAI совместно с MIT Media Lab решили выяснить, насколько такое общение влияет на эмоциональный фон и личную жизнь (вот сам ресерч):

— Только небольшая часть пользователей использует ChatGPT в эмоциональных целях — неудивительно, это не Replika и не Character.AI.

— Однако те, кто всё же заводит с ChatGPT своего рода эмоциональную связь, проводят в таких диалогах до 30 минут в день (напомню, что среднее время «обычных» диалогов — 13 минут). Это немало, хотя далеко до двухчасовых марафонов в Character.AI, о которых мы говорили недавно.

— Есть некоторые серьёзные гендерные отличия. Участницы эксперимента после 4 недель постоянного общения с ботом начинали меньше контактировать с живыми людьми, чем мужчины.

— Пользователи, которые использовали голосовой режим с озвучкой «противоположным полом», гораздо чаще чувствовали одиночество и эмоциональную зависимость от ИИ-компаньона.

Это только первое исследование, OpenAI обещают больше инсайтов. При этом понятно, что они не будут стрелять себе в ногу, рассказывая, что «эмоциональное» общение с ботами вызывает депрессию и тому подобное.

Впрочем, у меня и так достаточно много данных по этому поводу, поэтому stay tuned.
👍3🔥21
Что у нейросети в голове

Anthropic заглянули внутрь «мозга» своей LLM-модели Claude 3.5 Haiku — и выяснилось, что там творятся неожиданные вещи.

🤖 Disclaimer: пост длинный, но интересный.

Используя методику, получившую название circuit tracing («трассировка цепей»), исследователи Anthropic впервые внимательно проследили за тем, как языковая модель на самом деле принимает решения и формулирует ответы. Если коротко, оказалось, что LLM ещё страннее, чем мы предполагали.

1. Модель изобретает собственные математические лайфхаки.

Когда попросили Claude сложить числа 36 и 59, оказалось, что модель не пошла по стандартной школьной методике сложения «в столбик». Вместо этого Haiku начала сначала суммировать приблизительные значения («40 с чем-то» + «60 с чем-то»), после чего получила промежуточный результат типа «примерно 92». И параллельно модель отдельно разбиралась с последними цифрами чисел — 6 и 9, выводя, что итог должен заканчиваться на 5. Правильный ответ: 95.

Но самое безумное дальше. Когда Claude попросили объяснить, как именно была получена сумма, она без смущения выдала абсолютно стандартное, написанное тысячи раз в интернете объяснение: «я сложила единицы, получила 15, перенесла туда единицу…» Полностью выдумала объяснение вместо того, чтобы описать собственный реальный процесс.

2. 🎵 Модель заранее продумывает рифмы в стихах.

До сих пор считалось, что языковая модель работает строго последовательно, «слово за словом». Но нет. Когда Claude попросили создать рифмующуюся пару строк и дали вариант: «He saw a carrot and had to grab it», модель мгновенно заранее заготовила финальное слово следующей строки — rabbit («His hunger was like a starving rabbit»).

И только уже имея в запасе это слово, она аккуратно «подогнала» к готовой рифме остальной текст.

Это поведение, больше похожее на творческое мышление, чем на простое механическое дополнение слов подряд.

3. 🇬🇶 Знания модели не закреплены за конкретным языком.

Claude не хранит отдельно «английские», «французские» или «китайские» блоки знаний. Вместо этого она сначала активирует компоненты, отвечающие за само знание, а уже потом, на последнем этапе, выбирает конкретный язык, на котором будет сформулирован финальный ответ.

Это значит, языковые модели действительно могут выучить что-то один раз и без особых трудов использовать это знание в других языках.

🤔🤔🤔

Anthropic подчёркивают: технически этот подход пока сильно ограничен — вручную трассировать даже один очень короткий запрос занимает часы работы исследователя. И это лишь микроскопическая часть происходящего внутри системы.

Но уже ясно: языковые модели — это не просто непонятный чёрный ящик. Там внутри происходит что-то вроде органического процесса роста, совершенно не похожего на классическое программирование.

Наша аналогия с «искусственным интеллектом» продолжает давать сбои — настолько необычно поведение этой технологии даже на фундаментальном уровне.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5👍2👀2
Детализация цепочек настоящих рассуждений Claude (и скрин того, как модель врёт о математическом действии).
🔥41👍1