AI, life and balance
114 subscribers
136 photos
3 videos
11 files
204 links
Download Telegram
В 2022 году была опубликована большая обзорная статья, авторы которой собрали и проанализировали 1 635 статей, опубликованных с 1990 по 2020 год. Цель обзора – понять, какие аспекты прокрастинации интересовали исследователей на протяжении всего обозначенного периода, как менялся их фокус внимания и на чем следует сосредоточиться будущим исследователям.
Поскольку я не могу физически обработать такой объем информации, сосредоточусь на паре самых свежих работ из списка, которые особенно привлекли мое внимание.
* В работе «Caught in the moment: Are there person-specific associations between momentary procrastination and passively measured smartphone use?» 2022 года авторы изучают связь между прокрастинацией и использованием смартфонов. В качестве испытуемых припахали студентов, конечно же, в количестве 221 человека. В течение месяца они сами записывали свои моменты прокрастинации, параллельно отслеживалась продолжительность использования смартфонов. Выводы получились, в общем, не удивительные: смартфоны связаны с прокрастинацией, но эта связь у разных людей проявляется по-разному. Общие наблюдение заключаются в том, что, во-первых, чем больше уведомлений, тем больше прокрастинации, и чем более фрагментировано (часто понемногу) использование смартфона, тем тоже больше прокрастинации.
* В статье «The Effect of Abusive Supervision on Employees’ Work Procrastination Behavior» (2021 год) авторы выясняют, что будет с прокрастинацией, если сотрудников на рабочем месте периодически пинать (вербально и невербально, но не прям в буквальном смысле). Во введении к статье они сообщают, что офисные сотрудники прокрастинируют примерно 1,3 часа в день, и это еще заниженная оценка (тут мне стало полегче, потому что я, оказывается, еще не самый злостный прокрастинатор). Так вот, если пинать людей часто, а поощрять редко, они чаще прокрастинируют. Меньше прокрастинируют более устойчивые ко всяким негативным внешним воздействиям люди, а также те, кто умеет как следует отдыхать и переключаться в нерабочее время.
* В статье «Procrastination and problematic new media use: the mediating role of future anxiety» авторы выделяют прокрастинацию общую (которая выражается в откладывании повседневных дел) и прокрастинацию, связанную с принятием решений в срок. Изучали опять студентов, выяснили, что самые прокрастинирующие выражают наиболее высокий страх перед будущим (это относится к обоим типам прокрастинации, но немного больше к тому, который связан с принятием решений). Авторы также упоминают другие исследования, которые связывают использование социальных сетей с системой вознаграждения в мозге (получение быстрого дофамина). Тревожимся по поводу будущего –> залипаем на котиков –> не делаем дела –> тревожимся еще больше. Замкнутый круг.
* Авторы работы «Outcome value and task aversiveness impact task procrastination through separate neural pathways» засунули своих подопытных в аппарат МРТ, чтобы выяснить, что в мозгу непосредственно влияет на прокрастинацию. Выяснили, что влияют амигдала (она же миндалевидное тело) и гиппокамп. Гиппокамп активно участвует в формировании воспоминаний и мыслях о будущем, а амигдала обрабатывает эмоции, она в значительной степени связана со страхом. Если выполнение задания сулит большую награду (или невыполнение сулит большие проблемы), включается гиппокамп и дает нам хорошего пинка, чтобы мы отложили котиков. Если задание неприятное, скучное или сложное, амигдала требует отложить задание и смотреть котиков. Что мы в итоге будем делать, решает исход их поединка: у кого мощнее сигнал, тот и перехватывает контроль над поведением.

Короче, вот научно обоснованный план по победе над прокрастинацией:

1. Осознать, что вам не победить.
2. Разбить свои задачи на задачи поменьше и ставить галочки в списке, чтобы получить немножко дофамина.
3. Отключить уведомления на телефоне.
4. Отдыхать в выходные и вовремя ходить в отпуск.
5. Не ругать себя слишком сильно. Это только усилит тревогу и точно не поможет оторваться от телефона. И вообще, некоторые задачи должны отлежаться в мозгу, прежде чем вы найдете решение.
2
* (Изображение сгенерировано с использованием ChatGPT)
Мне кажется, это актуальный пост для сентября, для тех, кто хочет прикрутить себе к мозгу дополнительное расширение и учиться / работать эффективнее (я хочу).
Здесь инструменты, которыми я либо пользуюсь постоянно, либо тестирую. Первая часть про инструменты вышла здесь, потом этот пост был, а сейчас будет что-то вроде саммари. Для удобства сделала тег #инструменты, буду помечать им все посты из этой группы.
На самом деле, у меня постоянно что-то новое на тесте, поэтому хочу такие посты выкладывать время от времени, с обновлениями.
Итак, список:
- Gravitywrite (купила подписку и пребываю в стадии активного тестирования; помогает мне улучшать тексты с помощью Text Improver, Blog Content неплохо справляется с генерацией идей. Там есть еще инструменты для работы с кодом, и для рерайтинга / копирайтинга, в том числе так, чтобы на проверке не заметили участия ИИ в написании текста, инструменты для презентаций и много чего еще. Эдакий мультитул. Работает на русском языке);
- ChatGPT (он мне рисует картинки для некоторых постов и пишет саммари публикаций для ускорения работы. Еще конкретно сейчас он мне пишет запросы в postgresql. Я один раз описала подробно всю базу данных, теперь просто обращаюсь с запросами, все инструкции он помнит. Правда, в какой-то момент кода стало очень много, и он стал забывать некоторые функции, поэтому сборку в основном делаю без его помощи. Статьи тоже все равно приходится читать самостоятельно целиком, потому что у всех языковых моделей бывают галлюцинации и надо их проверять, но вместе все равно быстрее получается);
- Perplexity (для поиска источников; с саммаризацией у него есть проблемы, нужно внимательно проверять);
- Gemini (дебаггинг кода. Честно говоря, с действительно сложными случаями не помогает, но по мелочи отловить глупые ошибки – запросто);
- PaLM (рисует картинки часто лучше, чем DALL-E, доступная через интерфейс ChatGPT);
- Coconote (в стадии тестирования, активно буду тестировать с сентября, а пока пробую на совещаниях);
- Notability (про него, кажется, нигде не писала еще. Это приложение-блокнот, пользуюсь им давно для записи лекций от руки. ИИ там распознает почерк (мой даже он не всегда распознает), чтобы можно было искать по написанному);
- Skype (использую автоматические субтитры и саммари совещаний. Последние в меньшей степени, потому что есть Coconote, а вот тот, кто додумался до субтитров, должен попасть в рай без очереди. Это я поняла, когда у меня был преподаватель из Индии (при всем уважении));
- Gamma (тестирую, недавно был пост про нее);
- Notion (планирую в нем сейчас вообще все. Там есть ИИ, который делает саммари описаний задач, отвечает на вопросы по документам и таблицам, может сделать черновик письма или повестки совещания).

Глядя на этот список, можно подумать, что я вообще ничего не делаю, все делает ИИ за меня (но я делаю, я тестирую инструменты!).

Облизываюсь на clockwise, но он работает только для корпоративных пользователей. Ничего, я придумаю, кого корпоративно соблазнить на затест.
Еще положила глаз на Otter.ai, на будущее, потому что это снова инструмент для написания конспектов, надо сначала закончить текущие тесты.
Всего у меня сейчас восемь разных инструментов (не включая вышеперечисленные) висит в очереди на тест, но это секрет пока.

#инструменты
🔥2
Галлюцинации языковых моделей

Я тут много рассказываю, как сама пользуюсь инструментами на основе ИИ, и много чего советую, поэтому пришло время поговорить о некоторых подводных камнях при использовании таких инструментов. Поскольку в основном я интересуюсь языковыми моделями, речь пойдет преимущественно о них.

Это не то чтобы большой секрет, но большие языковые модели страдают галлюцинациями. Галлюцинация – это некорректный ответ, не отражающий реальность и созданный вследствие ошибки. Иногда модели «выдумывают» правдоподобные на вид литературные источники или людей, рассказывают про факты, которых не было, и все такое.
Основа для поста – статья «WildHallucinations: Evaluating Long-form Factuality in LLMs with Real-World Entity Queries», в которой представлен метод оценки галлюцинаций и метод борьбы с ними же.
Авторы использовали WildChat – базу данных, состоящую из реальных диалогов пользователей с ChatGPT. Для оценки корректности ответов модели использовали FActScore – метрику, которая рассчитывается как доля фактов в сгенерированном ответе, подтвержденных надежными источниками. Каждый факт в данном случае – это минимальная единица информации (пример на скриншоте 1).
В ходе экспериментов авторы выяснили, что языковые модели чаще подвержены галлюцинациям в отношении тем, касающихся людей и финансов и в меньшей – в отношении географии и областей, связанных с вычислениями. Если об объекте запроса есть статья в Википедии, модели галлюцинируют меньше (Википедия – один из наиболее популярных источников для обучения). RAG помогает бороться с галлюцинациями, но не избавиться от них окончательно.

После применения автоматической оценки достоверности, авторы собрали собственный набор данных, который как раз и называется WildHallucinations. Эти данные теперь можно использовать для тестирования моделей на галлюцинации: в них выделен объект, о котором сообщаются факты, и приведены источники достоверных данных для оценки.
Теперь самое интересное – сравнение моделей. На скриншоте с гистограммой (скриншот 2) модели отсортированы по убыванию метрики WildFactScore-Strict. WildFactScore – это FActScore, только она еще адаптирована для учета редких категорий, по которым задаются вопросы. WildFactScore-Strict – ее модификация, у которой есть дополнительные ограничения: она будет равна 0 в том случае, если в сгенерированном моделью ответе хотя бы один факт не подтвержден, или если модель отказывается отвечать.
Как видите, в лидерах GPT, Gemini и Claude. Меня, если честно, немного расстроили результаты Llama, но это было до последнего релиза, и самая большая модель из семейства на оценивалась. Возможно, она себя еще покажет.
Хотя и лидеры не дотянули до 35% полностью корректных ответов, что уж там. Это повод проверять сгенерированные результаты еще более тщательно.
При этом Gemini и Claude, хотя и страдают галлюцинациями немного больше, чем GPT, «выдумывают» факты о меньшем числе объектов (то есть, GPT про всех сочиняет по чуть-чуть, а Gemini и Claude – не про всех, но много). Но в целом они достаточно близки.

Ладно, а что делать-то теперь?
Во-первых, проверять (простите за повтор, но это не лишнее).
Во-вторых, использовать техники, которые помогают сократить число галлюцинаций, такие как упомянутый ранее RAG, или внимательно очищать тренировочные данные от недостоверных фактов. Большие модели тренируются на огромных массивах, собранных со всего интернета, и проверить их все невозможно, разумеется. Однако можно попробовать привести в порядок набор данных, на котором модель будет обучаться под конкретные рабочие задачи (речь про fine-tuning).
Работа с галлюцинациями – это отдельная задача в области Responsible AI (ответственного ИИ, RAI). Я сейчас участвую в большом и очень интересном проекте, который относится к RAI, и занимаюсь непосредственно галлюцинациями (как бы это странно ни звучало). Так что буду писать еще про это все дело.
1
AI, life and balance
Мне кажется, это актуальный пост для сентября, для тех, кто хочет прикрутить себе к мозгу дополнительное расширение и учиться / работать эффективнее (я хочу). Здесь инструменты, которыми я либо пользуюсь постоянно, либо тестирую. Первая часть про инструменты…
Notion будет недоступен с сентября ☹️
Взяла на тест российское ПО - Weeek. Меня привлекло то, что в него можно вгрузить проект из Notion по специально для этой цели созданной инструкции.
Из ИИ там есть YandexGPT, обещают подключить в будущем ChatGPT4 и GigaChat (это от Сбера). Из функций саммари текста, генерация идей и загадочное "многое другое".

Еще есть два ИИ-ассистента, которые выполняют роль техподдержки. Пока выглядит интересно.
Наследование человеческих стереотипов языковыми моделями. Часть 1

После разговора о галлюцинациях время поговорить о стереотипах (я же обещала больше ответственного ИИ – вот).
Это не то чтобы великая неожиданность, но ИИ наследует искажения и стереотипы, присущие людям. Потому что люди обучают ИИ и люди генерируют и собирают данные для обучения ИИ, чему уж тут удивляться. Но изучать этот феномен нужно, чтобы как-то с ним бороться.
Авторы статьи «Bias and Fairness in Large Language Models: A Survey» как раз этим занялись. Это внушительная работа, в которой авторы собрали и классифицировали ошибки, метрики для их обнаружения и способы борьбы с ними.
Я не буду всю огромную таксономию сюда переписывать, разумеется, но вот пример искажения на уровне кодирования предложений (sentence embedding) из статьи: если взять вектор слова «doctor» в предложении «This is a doctor», он будет ближе к вектору слова «man», чем к вектору слова «woman» (близость измеряется с помощью косинусного коэффициента). В то же время вектор слова «nurse» будет ближе к вектору слова «woman». На первом скриншоте графическое изображение этой разницы.
На практике вся эта косинусная близость означает следующее: в текстах, на которых обучали языковую модель, слово «врач» чаще обозначало мужчину, а слово «медсестра» – женщину (в английском языке на медсестру и медбрата один термин – nurse). Генерируя текст, модель будет писать о враче скорее как о мужчине, чем как о женщине.
Или вот другой пример (картинка на втором скриншоте): вероятность того, что в предложении «Она хороша в [MASK]» на место маски (скрытого токена) будет сгенерирован токен «искусстве» будет выше, чем вероятность того, что будет сгенерирован токен «математике». Для действующего лица «Он» все наоборот.
Казалось бы, в чем тут проблема? Всего лишь пара невинных стереотипов о том, что математика для мальчиков, а литература – для девочек, как это повлияет на нашу жизнь?
Мой ответ (помимо того, что мне такие стереотипы не нравятся, в отличие от математики) в том, что многие люди возлагают на ИИ очень большие надежды (про это еще отдельный большой был пост). Они думают: «Вот как разовьем сейчас ИИ и как заменим медленных людей, которые делают ошибки, на быстрых и точных роботов». А по факту мы заменим медленных людей, которые делают ошибки, на быстрых роботов, которые тоже делают ошибки, но интенсивнее. Если мы хотим добиться повышения качества нашей работы, а не только ее скорости, нам нужно потрудиться над искоренением искажений, как у себя, так и у наших синтетических помощников. Конечно, совсем мы от них не избавимся, но можно хотя бы лежать в нужную сторону.
В вышеупомянутой статье авторы приводят перечень техник для сокращения искажений у языковых моделей:
- сокращение искажений в процессе предобучения (в основном это работа с данными: дополнение большим количеством примеров, фильтрация и т.д.);
- сокращение в процессе обучения (модификация архитектуры, селективная работа с параметрами);
- сокращение в процессе обработки данных моделью (модификация декодирования вектора в токен, перераспределение весов);
- сокращение после обработки (переписывание сгенерированного моделью текста с исправлением искажений).
Что делать с людьми, авторы не написали.
Наследование человеческих стереотипов языковыми моделями. Часть 2

В статье поменьше, «Large language models show human-like content biases in transmission chain experiments» авторы описывают пять экспериментов, в котором людям и ChatGPT дали одни и те же задания. Для людей это было что-то вроде игры «сломанный телефон»: первому участнику рассказывают некоторую историю (сравнительно длинную). Он пересказывает ее вкратце следующему и так далее, пока история не дойдет до последнего участника. В конце исследователи смотрят, что получилось из исходного текста (в частности, какие именно факты в ней остались и какие были искажены). ChatGPT играл сам с собой. Краткий пересказ статьи вам от меня: ChatGPT наделал ровно тех же ошибок и пришел к похожим результатам.

На десерт самое веселое: люди тоже наследуют ошибки ИИ. Статья про это вышла в Nature. «Веселое» здесь в том, что мы, работая с ИИ, радостно преумножаем искажения вместо того, чтобы их уменьшать. Но на самом деле, статья скорее тревожащая, потому что речь в ней идет о медицине. Участники не только делали ошибки при постановке диагноза, общаясь с нейросетью, но и продолжали их же делать потом, когда нейросеть забрали.

Так и живем.
Habsburg AI

На этот пост меня натолкнула статья «When AI’s output is a threat to AI itself». Точнее, не сама статья, потому что доступ к ней закрытый, а ее обсуждение в сообществе. На самом деле, тема не новая, и я буду опираться на более ранние статьи, в частности, «AI-Generated Data Can Poison Future AI Models» и «AI could choke on its own exhaust as it fills the web».
Тема вот какая: мы уже засунули в генеративные модели примерно все данные, созданные человеком, какие есть в нашем распоряжении. Разумеется, люди продолжают генерировать больше, снабжая исследователей новыми наборами тренировочных данных. Однако параллельно Интернет наполняется данными, сгенерированными ИИ, и эти данные тоже попадают в тренировочные массивы. Вопрос, который вызвал обсуждения: не приведет ли обучение моделей на синтетических данных к тому, что модели начнут деградировать? Мы уже поняли, что искаженное человеческое восприятие мира влияет на искаженное восприятие мира ИИ. Потом ИИ влияет на человека, усиливая искажение. А еще ИИ влияет на себя же, и тоже не в лучшую сторону.
Преимущественно в статьях, на которые я ссылаюсь, речь идет о больших языковых моделях, но это не только их беда.
Можно ли избежать попадания синтетических данных в обучающие выборки? Похоже, что это становится все сложнее сделать. Во всяком случае, есть исследования, авторы которых полагают, что созданных человеком данных со временем может стать недостаточно для обучения по-настоящему больших и мощных моделей. Конечно, здесь присутствуют некоторая экстраполяция и некоторые допущения. Однако даже при наличии созданных людьми данных, синтетические данные все равно нужны для отдельных специфических задач, для которых человеком сгенерированного контента не хватает.
И есть другие исследования, которые показывают, что новые модели, обученные на синтетических данных, созданных предшественниками, работают хуже и накапливают «неблагоприятные мутации» с каждым следующим поколением. Jathan Sadowski, соавтор подкаста This Machine Kills, придумал термин «Habsburg AI» («ИИ Габсбургов») на этот счет. У него же я, кстати, нашла термин «Potemkin AI» («Потёмкинский ИИ»), но это уже другая история.

Конечно, есть и другая точка зрения. Многие исследователи считают, что создание синтетических данных поможет преодолеть нехватку таковых в отдельных узких областях. Эксперименты с разметкой данных, например, показывают вполне себе хорошие результаты.

Короче говоря, это не пост про то, как все сломалось, развалилось и больше не работает. Это пост про то, о чем нужно подумать, чтобы совершенствовать наши инструменты в будущем, а не топтаться на месте. Мне кажется, что тема работы с синтетическими данными будет актуальна в ближайшее время, поэтому буду за ней наблюдать.

(Изображение сгенерировано с использованием ChatGPT)
Зимы ИИ. Часть 1

У меня был пост про то, почему ИИ сложнее, чем кажется, и там я упомянула такое явление, как «зима ИИ». Теперь хочу углубиться в эту тему.
Зима ИИ – это период, в течение которого снижается инвестиционная привлекательность области. Люди, которые раньше финансировали новые проекты, разочаровываются в результатах и прикрывают денежную лавочку. Такие периоды перемежаются с «вёснами ИИ», когда, вдохновленные очередным изобретением, инвесторы вкладывают свой капитал в развитие ИИ. Это наталкивает на мысль о том, что основное развитие происходит тогда, когда исследователей никто не трогает и не мешает нормально работать.
Часто выделяют две больших зимы: со второй половины семидесятых до начала восьмидесятых и с конца восьмидесятых (или начала девяностых) до начала двухтысячных. Четких границ нет, все очень приблизительно.
Помимо них некоторые источники выделяют зимы поменьше, но, опять же, мнения относительно их границ расходятся. Совпадают обычно оценки некоторых крупных событий, которые повлияли на снижение интереса ИИ и разочарование в технологии как таковой:
- в 1966 году Automatic Language Processing Advisory Committee опубликовал отчет «Language and Machines. Computers in Translation and Linguistics» с предложением прекратить инвестиции в развитие машинного перевода, потому что (говорили они) это безнадежная технология, это слишком дорого, а качество машинного перевода слишком низкое. Впрочем, в качестве рекомендации комитет предложил продолжать изучать компьютерные методы в лингвистике, потому что лингвистика – это важно, и не надо судить всю область по отсутствию немедленных результатов;
- в семидесятых годах DARPA (Управление перспективных исследовательских проектов Министерства обороны США, вкладывает в исследования очень много денег) прекратила финансирование программ, связанных с распознаванием речи. В проектах, финансируемых DARPA, участвовали крупные исследовательские институты и коммерческие компании, так что прекращение финансировавния сильно повлияло на развитие области (хотя такие компании как IBM, например, решили в своих изысканиях не останавливаться);
- в 1987 году рухнул рынок Лисп-машин (Lisp machines, Lisp – это язык), которые разрабатывались специально для работы с ИИ. Причина – Лисп-машины не выдержали конкуренции с компьютерами Apple и IBM. Считается, что вторую большую зиму спровоцировало именно это событие;
- в 1988 году DARPA сократило финансирование ИИ снова, в рамках программы Strategic Computing Initiative.

Были и другие события, которые перечислены, например, в этой публикации. Но эти четыре упоминаются чаще остальных.
Каждый раз после очередной зимы наступала весна, и вот мы имеем множество продвинутых инструментов, в развитии которых когда-то разочаровались крупные инвесторы.
Зимы ИИ. Часть 2

Казалось бы, мы уже все видели, но нет.
Некоторые представители сообщества, изучающего развитие ИИ, полагают, что новая зима близко. Во-первых, появление и развитие генеративного ИИ породило высокие ожидания, что до сих пор каждый раз приводило к разочарованиям. У больших языковых (и не только) моделей есть ограничения, природа которых не всегда очевидна людям, которые не занимаются большими языковыми моделями на постоянной основе (не все то, что просто для человека, просто для ИИ – мы об этом уже говорили). Столкновение с этими ограничениями может отталкивать тех, кто был готов вложиться в развитие области. Во-вторых, на волне энтузиазма многие компании напихали генеративного ИИ везде, куда получилось, но не везде это было нужно. Подобное необдуманное использование технологии тоже приводит к фрустрации и разочарованию у пользователей. В-третьих, правовое регулирование ИИ еще достаточное сырое. Многие пользователи закономерно опасаются, что их данные могут быть использованы им во вред, а получить защиту будет не от кого.
С другой стороны, сейчас люди в целом знают об ИИ больше, чем когда-либо. Некоторые решения публикуются в общий доступ, и всякий, кому интересно, может заглянуть внутрь черного ящика. Многие эксперты в области занимаются просветительской деятельностью и рассказывают о существующих проблемах и потенциальных путях их решения. Поэтому, возможно, новая зима не будет такой уж долгой (глобальное потепление, которое мы заслужили).

Как бы то ни было, история развития ИИ движется по спирали от заголовков «ИИ заменит всех людей (теперь точно)» до заголовков «ИИ исчерпал себя (теперь точно)». Но мы это все уже видели.
Блокчейн для решения проблем с доверием ИИ

В подкасте Super Data Science в эпизоде 809 прозвучала интересная идея об использовании технологии блокчейн для решения проблем галлюцинаций ИИ (примерно с 17 минуты они об этом говорят, если интересно). Если коротко, идея такая: блоки в цепочке нельзя удалить или перезаписать, поэтому в них можно хранить много ценной информации о том, как работает ИИ-агент (AI agent).
ИИ-агент – это любое ПО, которое выполняет конкретные пользовательские задачи, используя, очевидно, ИИ. К таким относятся, например: Astra от Google или MineDojo от Nvidia (и еще многие другие проекты). Они обладают определенной автономностью и умеют самостоятельно выполнять заранее предписанные задачи.
Так вот, ИИ-агент что-то делает самостоятельно и выдает некоторый результат, который может не совпадать с ожиданиями пользователя. Понять, что именно и на каком этапе пошло не так прям сходу нельзя, потому что внутренние процессы нигде не записываются. Мы запускаем агент – он генерирует ерунду. Мы пишем в поддержку, там запускают агента и говорят: «Он сгенерировал нам не такую ерунду, ошибка не воспроизводится, сорри нот сорри».
А если прикрутить к агенту блокчейн, то можно в смарт-контракты записывать, как наш агент пришел к своему умозаключению. Это позволило бы более эффективно выявлять ошибки и расследовать их причины (а значит, и устранять).

Краткая терминологическая справка

Смарт-контракт – это компьютерная программа, в которой прописаны определенные правила выполнения. Ее можно использовать, например, при покупке обычных товаров, поставив условие «запустить отправку товара A при получении суммы xxx на счет yyy. Если отправка не осуществляется в течение трех часов, деньги возвращаются на счет, с которого были получены». Можно регулировать страховые случаи или совершать крупные сделки, заниматься краудфандингом через смарт-контракты и так далее.
Исполнение смарт-контракта – это одна из форм транзакции. Транзакции могут быть любыми и содержать самую разнообразную информацию: временные метки, суммы денег, данные об отправителях и получателях, идентификаторы и прочее. Данные шифруются и хранятся не централизованно, а распределенно, на нескольких компьютерах (нодах). Ноды хранят транзакции и подтверждают новые, проверяя корректность информации в них. После проверки новая транзакция добавляется в цепочку транзакций и хранится там – это и есть блокчейн (я использовала книгу «Технология Блокчейн и NFT» Т. Казанцева, чтобы написать объяснение, а также этот и этот блог).

Применительно к контролю ИИ-агентов, смарт-контракты могут содержать название модели; название набора данных, на которых она обучена; последовательность шагов, которая была выполнена скрыто от пользователя; вероятность полученного ответа и так далее. Туда можно записать достаточно информации, чтобы развернуть всю цепочку событий и дойти до того момента, где логика работы была нарушена.
Благодаря такому подходу можно не только вылавливать и исправлять ошибки, но и, например, выявлять информацию, которая сгенерирована с использованием ИИ недобросовестным человеком и нарушает закон.
Идея не осталась идеей, а выросла в продукт, который называется Theoriq. У них есть статья, поэтому я собираюсь про Theoriq писать отдельный пост (может быть, получится даже его потестировать).
🔥3
Патентование ИИ. Часть 1

В прошлой жизни, еще в 2019 году вышел отчет Всемирной организации интеллектуальной собственности (ВОИС) про ИИ в рамках серии про технологические тренды. Информация для отчета была извлечена из патентов и научных публикаций, и это подводка к разговору о патентовании ИИ, в котором есть много чего интересного.
Во-первых, некоторое время ушло на то, чтобы понять, патентовать ли решения, относящиеся к ИИ. По общему правилу, математические методы и компьютерные программы не патентуются (Европейская патентная конвенция, ГК РФ). Спустя энное количество сломанных копий и судебных заседаний, человечество пришло к тому, что программное обеспечение и ИИ таки патентоспособны.
Во-вторых, сегодня ИИ уже активно используется в изобретательской деятельности (например, с помощью ИИ можно написать код, генерировать идеи, разрабатывать прототипы и так далее), и тут встает вопрос: а на кого регистрировать патент? Тут копья пока в процессе поломки, но можно наметить некоторые особенно острые темы.

Начнем с того, о чем договорились – о патентовании разработок на основе ИИ. Признание ИИ патентоспособным (с нюансами) выражается в разработке рекомендаций экспертам патентных ведомств относительно того, когда патент можно или нельзя выдать. Европейское патентное ведомство выпустило отдельное заявление по поводу того, что алгоритм ИИ можно запатентовать, если (вот здесь нюансы) такой алгоритм решает конкретную техническую задачу (таким образом покидая мир математических абстракций). В рекомендациях экспертам это правило прописано с примерами: в частности, просто алгоритм для классификации изображений запатентовать нельзя, а если он используется для обнаружения, например, опухолей на рентгеновских снимках – можно.
Подобные инструкции есть и в Великобритании. Там тоже прописано, когда ИИ вносит технический вклад в изобретение. В качестве примера установления наличия технического вклада приводится решение суда по спору между правообладателем патента и патентным ведомством. Предметом спора была выдача патента на нейросеть, в итоге в выдаче патента отказали, потому что не нашли технического вклада нейросети в изобретение. Но это ладно, а нам здесь интересно другое: суд постановил, что нейросеть к компьютерным программам не относится:
Accordingly, the court held as a matter of construction the claimed invention was not a computer program at all (see paragraph 61). The computer program exclusion was not invoked by the claimed invention.

То есть, вообще экспертам рекомендуют не отказывать в выдаче патента на нейросеть на основании того, что «это компьютерная программа».
На сайте, ссылку на который я прикрепила выше, приводятся еще несколько судебных решений, важных для разных аспектов патентования ИИ. Не будучи юристом, я не полезу в эти дебри, остановлюсь только на заключении: алгоритмы ИИ патентоспособны, если они вносят технический вклад в разработку. Технический вклад не должен касаться объектов, исключенных из патентоспособности: бизнес-методов, методов обработки информации и т.п. Важно смотреть на конечную цель: если целью является анализ информации как таковой, патент получить нельзя. А если анализ информации используется для того, чтобы далее (с помощью ИИ) предсказывать ввод пользователя на виртуальной клавиатуре – можно.
Для России, к сожалению, удалось найти только Руководство по экспертизе заявок на изобретение от 2018 года, которое утратило силу. Аккуратно предположу, что у нас правила не сильно отличаются от общемировых, потому что патенты на разработки, связанные с ИИ, есть. Кроме того, есть позиция Евразийской патентной организации (ЕАПО), членом которой Россия является. ЕАПО тоже указывает на необходимость технического вклада ИИ в изобретение.
Патентование ИИ. Часть 2

Теперь же перейдем к тому, что пока еще никому не понятно: что делать, если ИИ был задействован в процессе создания изобретения? в феврале этого года Ведомство по патентам и товарным знакам США выпустило руководство для экспертов, в котором сказано, что на изобретение можно выдать патент, если вклад в его создание человека существенен. Это значит, что разработка идеи и принятие ключевых решений в рамках ее осуществления должны быть выполнены человеком. ИИ может быть использован при проведении экспериментов, генерации данных, моделировании образцов и в прочих подобных задачах. Человек, который принимал участие только в проведении экспериментов, оказывал консультативную поддержку, собирал данные и пр., не считается изобретателем, поскольку его вклад не считается существенным.
ВОИС несколькими годами ранее публиковала статью о двух заявках на выдачу патентов на изобретения, полностью созданные с использованием ИИ. Это был эксперимент, обе заявки успешно прошли экспертизу на патентоспособность. Авторы публикации занимают позицию, противоположную позиции патентного ведомства США, и считают, что патенты на созданные ИИ изобретения выдавать надо (и указывать ИИ в качестве автора). По мысли команды, это подтолкнет изобретателей к более активному использованию ИИ и поможет ускорить научно-технологический прогресс. На странице проекта The Artificial Inventor Project они публикуют актуальную информацию о том, что происходит с их сгенерированными ИИ изобретениями, и как они работают над продвижением своей идеи.
Согласно информации на этом сайте, один патент таки был выдан, но только в ЮАР. В графе «Изобретатель» так и написано: «Изобретение было автономно сгенерировано с помощью ИИ». В некоторых других странах поданы заявки, во многих ведутся судебные споры о патентоспособности изобретения.
Этот незаконченный проект – интересный прецедент. Посмотрим, к чему приведут все эти бурные обсуждения.
Генеративный ИИ развивается быстро, но не так быстро, как если бы нам хватало чипов. Часть 1

Это не то чтобы большая новость, конечно, но для обучения больших генеративных моделей нужны вычислительные ресурсы. Вычислительные ресурсы – это графические процессоры, которые производят гиганты вроде Nvidia и AMD. Первые графические процессоры появились в 1980х, и, когда их стали использовать для глубокого обучения, развитие ИИ пошло в гору.
Сейчас спрос вырос, потому что модели стали больше и тяжелее, и потребность в их использовании для разных задач тоже возросла. Компании-производители графических процессоров, конечно, озолотятся на спросе (если у вас была мысль заняться производством, время пришло).
Однако для обычных потребителей, которые пользуют графические процессоры для своих локальных нужд (не будем показывать пальцем), это может вылиться в рост цен. Например, есть вот популярный у тех, кто работает с данными, Google Colab. Там можно подключить себе разные процессоры и пользоваться арендованными вычислительными мощностями, которые измеряются в «вычислительных единицах». Не вдаваясь в подробности, 100 таких единиц стоит 10 долларов (цена зависит от региона). При среднем расходе примерно в 5 единиц в час мы получаем путем несложных вычислений 20 часов работы. Это примерно на неделю-полторы с учетом того, что мы не все рабочее время пишем и запускаем код, а сколько-то часов лазаем по Интернету, ищем ошибки и все такое. 500 единиц можно разом купить за 50 долларов. При аккуратном использовании этого могло бы хватить на месяц, но не хватит, потому что сгорают они так, как будто их кто ест (сейчас я перестану ныть, просто накипело). Конечно, есть и другие способы получить вычислительные мощности, можно поискать варианты побюджетнее. Но в итоге, скорее всего, все равно придется выложить кругленькую сумму за удовольствие поработать с моделями. Я еще молчу про то, что для работы понадобится немаленький объем оперативной памяти, который не у каждого процессора будет. В общем, все сложно и дорого.

Но тут на сцену выходят они – методы оптимизации. То есть, они и раньше были, разумеется, но в условиях нехватки мощностей получили шанс на новую популярность. Математическая оптимизация – это непростая тема, и многие, кто работает с анализом данных, ее побаиваются (включая меня; но я с этим работаю). Поэтому наряду с производителями процессоров озолотятся, видимо, люди, которые создают продукты для оптимизации (вот вам еще бизнес-идея, всегда пожалуйста).
2
Генеративный ИИ развивается быстро, но не так быстро, как если бы нам хватало чипов. Часть 2

Мне более или менее близко знакомы только два продукта. Первый – Gurobi. Про него была серия в подкасте SuperDataScience. Он платный, но команда выпускает множество открытых обучающих материалов по оптимизации. Я собираюсь про них отдельно сделать исследование и, если наберется на пост, будет пост. А пока вот вам игра про математическую оптимизацию на примере фургончика с буррито.
Второй – Ollama. Это проект с открытым исходным кодом, который можно прям себе скачать и сразу начать использовать. Одной простой командой в терминале запускается любая из доступных в каталоге моделей, тут даже не нужно навыков программирования, чтобы их протестировать. Обучение можно посмотреть здесь, оно максимально понятное. Я начала использовать Ollama для своих проектов недавно, и пока очень радуюсь.
Ollama использует ресурсы компьютера, поэтому, конечно, чем он мощнее, тем быстрее все будет работать. Еще нужно иметь хотя бы 8 ГБ оперативной памяти для запуска самых маленьких моделей.
Принцип работы Ollama, если коротко, следующий: создается контейнер, в котором есть среда для запуска модели: веса, необходимые файлы конфигурации и зависимости. То есть, ничего дополнительно устанавливать не нужно и страдать, совмещая разные версии пакетов, – тоже. Эта конструкция совместима с любой операционной системой и не создает конфликтов с другими приложениями.
Помимо очевидного, у Ollama есть еще один плюс: весь ваш проект находится у вас на компьютере, а не на чьем-то сервере, с которым всякое может случиться. К тому же, после загрузки модели, ее можно будет использовать без доступа к Интернету (разумеется, задания, связанные с поиском в Интернете, она не выполнит).
Некоторые команды, инструкции по установке и полезные подсказки можно подсмотреть здесь.

Есть, правда, еще один путь – атомная энергия. По этому пути пошла компания Microsoft, подписав соглашение о перезапуске реактора Three Mile Island. Планируют его использовать, чтобы обеспечивать электричеством свои дата-центры. Разумеется, просто взять и запустить реактор, на котором произошла серьезная авария, нельзя, нужно получать разрешение комиссии по ядерной регламентации (Nuclear Regulatory Commission). Экспертиза может завершиться к 2027 году, посмотрим, что из этого выйдет.

(Изображение героической ламы создано с использованием ChatGPT)
2
Телеграм не дает нормально публиковать большие посты, поэтому я сейчас буду пробовать разные форматы.
Сегодня загрузила пост в телеграф, надеюсь, он нормально отобразится.

UPD: починила картинки, теперь всё отображается
👍1
У меня есть смарт-часы, которыми я пользуюсь в том числе для того, чтобы контролировать продолжительность сна. Благодаря этому использованию я узнала, что мой письменный стол, на котором лежат часы, пока я занимаюсь домашними делами, спит крепко и пульс у него стабильный (а всякие обзорщики еще говорили, что Apple Watch – одни из лучших часов на рынке. Вот и верь им). В общем, ИИ в смарт-часах пока несовершенен, однако его туда очень активно суют. И не только туда. Поговорим об этом.
Чтобы не разойтись на трехтомное собрание сочинений, ограничимся мониторингом некоторых показателей здоровья.
Совсем недавно, в феврале текущего года, Samsung сообщила, что их смарт-часы получили одобрение от FDA (Управление по санитарному надзору за качеством пищевых продуктов и медикаментов США) как устройство для определения апноэ сна. Апноэ сна – это нарушение, в результате которого во время сна у человека останавливается дыхание. Такие остановки сами по себе не смертельны, но приводят к тому, что человек многократно просыпается, спит прерывисто и мало, а это уже ведет к разным проблемам со здоровьем, которые сокращают продолжительность жизни. Проблема апноэ в том, что оно часто не диагностируется годами, а то и десятилетиями. Его симптомы (храп, сухость во рту и головная боль с утра, частые пробуждения, которые полусонный человек не всегда может запомнить) можно списать на самые разные обстоятельства. Храп, например, в массовой культуре настолько нормализован, что храпящий человек едва ли пойдет к врачу именно с этой проблемой (а надо).
Поэтому распознавание признаков апноэ и оповещение пользователя – это важное дело. Несколько позднее об одобрении аналогичной функции сообщили и в Apple (посмотрю, как там дела с апноэ у моего стола).
Помимо отслеживания сна, Apple занимается исследованиями в области определения мерцательной аритмии. Функция такая в часах уже доступна, и исследование проводилось совместно со Стэнфордским университетом. Пришли к тому, что ранние признаки можно в самом деле обнаружить с помощью часов и послать человека к врачу вовремя.
У Samsung помимо часов еще есть умное кольцо, у которого тоже есть функция анализа сна. По всей видимости, для кольца функция определения апноэ не одобрена. Во всяком случае, пока.
Умные кольца есть не только у Samsung. Среди прочих на рынке выделяется умное кольцо финской компании Oura. Оно измеряет температуру, частоту сердечных сокращений, уровень кислорода в крови, некоторые другие показатели, которые обычно определяют смарт-часы, и отслеживает сон. По Интернету ходят восторженные отзывы (не буду их здесь приводить).
Еще одно важное направление развития – отслеживание уровня глюкозы в крови для людей с диабетом. Пока часы или кольца не умеют по расписанию забирать кровь и делать анализ, но есть приложения, в которые можно добавить данные с некоторых глюкометров. Уровень глюкозы будет отображаться вместе с показателями активности и сна, и это может помочь людям понять, что на них больше всего влияет и как себя вести.
Умные очки тоже кое-что умеют. Для подсчета шагов и мониторинга сердечного ритма они, пожалуй, не так удобны (хотя мне лично не приходилось бегать в очках), не говоря уж о паттернах сна. Но они могут записывать информацию о том, насколько скрюченно мы сидим за компьютером, например. Еще очевидное применение – отслеживать первые признаки нарушений зрения или снимать изображение радужки глаза. По очкам пока не так много информации, как по другим устройствам, но исследования ведутся активно.

(Изображение сгенерировано с использованием PaLM AI)
2