gravitywrite.png
332.6 KB
Нашла интересный пост с разными инструментами для студентов, которые могут быть доступны по бесплатной подписке. В списке есть Perplexity и Turbolearn (у него бесплатная версия есть, конечно, но очень ограниченная), которые я упоминала, и еще пять новых:
- Gravitywrite (помощник для написания текстов; у меня не вышло зарегистрироваться через почту с доменом .ru, но получилось через gmail, без vpn. С русским языком он при этом работает. Есть бесплатная версия, урезанная до 1 000 слов в месяц и доступа с одного устройства. Внутри куча разных инструментов для работы с блогом, я попробовала Text Improver на своем предыдущем посте, результаты на скрине. В целом интересно, и я возьму его на тест, как раз хочу поработать над своей письменной речью);
- Humata AI (это ПО для «общения» с документами; делает саммари длинных файлов; здесь зарегистрировалась на почту .ru, тоже без vpn. По-русски понимает. Из плюсов – когда задаешь вопрос, он в документе выделяет те места, откуда взят ответ. В бесплатной версии можно обрабатывать до 60 страниц и задать до 10 вопросов. На тест брать не буду, не заинтересовалась. В платных версиях указано, что используется GPT-4, а он у меня и так есть, к тому же, набор функций очень узкий);
- Math GPT (для решения задач по математике, физике и бухучету; регистрироваться можно через дискорд или гугл; русский язык он понимает, задачу из школьной олимпиады по физике решил. Я тот еще физик, но ответ совпал с правильным, так что засчитаем. Задачу и решение прикрепила, тестировать пока не буду, мне не на чем. Опять же, можно ChatGPT припахать, если уж на то пошло);
- Tutor AI (предлагает составить курс на предложенную вами тему; на российскую почту зарегистрировалась, vpn не нужен. Русского языка у него нет, а на английском попробовать не получилось, так как бесплатно дается одна попытка. Пока этот инструмент лично мне не очень интересен, тестировать не буду);
- Gamma (для создания презентаций, доступен без vpn, с российской почтой работает, русский язык есть, но пока в бета-версии. Можно выбрать число слайдов (в бесплатном режиме до 10), можно сделать презентацию, сайт или документ. Сначала задаем тему, потом приложение гненерит план, который выгляит достойно, в общем. Потом можно выбрать тему оформления – и получить весьма приличную презентацию. Выглядит любопытно, возьму на тест и посмотрю подробнее. Прикрепила к посту тестовую презентацию по GAN, которую сделала в Gamma).
#инструменты
- Gravitywrite (помощник для написания текстов; у меня не вышло зарегистрироваться через почту с доменом .ru, но получилось через gmail, без vpn. С русским языком он при этом работает. Есть бесплатная версия, урезанная до 1 000 слов в месяц и доступа с одного устройства. Внутри куча разных инструментов для работы с блогом, я попробовала Text Improver на своем предыдущем посте, результаты на скрине. В целом интересно, и я возьму его на тест, как раз хочу поработать над своей письменной речью);
- Humata AI (это ПО для «общения» с документами; делает саммари длинных файлов; здесь зарегистрировалась на почту .ru, тоже без vpn. По-русски понимает. Из плюсов – когда задаешь вопрос, он в документе выделяет те места, откуда взят ответ. В бесплатной версии можно обрабатывать до 60 страниц и задать до 10 вопросов. На тест брать не буду, не заинтересовалась. В платных версиях указано, что используется GPT-4, а он у меня и так есть, к тому же, набор функций очень узкий);
- Math GPT (для решения задач по математике, физике и бухучету; регистрироваться можно через дискорд или гугл; русский язык он понимает, задачу из школьной олимпиады по физике решил. Я тот еще физик, но ответ совпал с правильным, так что засчитаем. Задачу и решение прикрепила, тестировать пока не буду, мне не на чем. Опять же, можно ChatGPT припахать, если уж на то пошло);
- Tutor AI (предлагает составить курс на предложенную вами тему; на российскую почту зарегистрировалась, vpn не нужен. Русского языка у него нет, а на английском попробовать не получилось, так как бесплатно дается одна попытка. Пока этот инструмент лично мне не очень интересен, тестировать не буду);
- Gamma (для создания презентаций, доступен без vpn, с российской почтой работает, русский язык есть, но пока в бета-версии. Можно выбрать число слайдов (в бесплатном режиме до 10), можно сделать презентацию, сайт или документ. Сначала задаем тему, потом приложение гненерит план, который выгляит достойно, в общем. Потом можно выбрать тему оформления – и получить весьма приличную презентацию. Выглядит любопытно, возьму на тест и посмотрю подробнее. Прикрепила к посту тестовую презентацию по GAN, которую сделала в Gamma).
#инструменты
👍2
В продолжение к посту про когнитивные искажения сегодня напишу про моего главного врага – синдром самозванца (он не только мой, им, кажется, вообще все страдают).
Впервые он был описан в 1978 году в статье «The Imposter Phenomenon in High Achieving Women: Dynamics and Therapeutic Intervention» («Феномен самозванки у успешных женщин: динамика и терапия»). Как можно догадаться из названия, впервые синдром был описан именно на женщинах, которые, несмотря на свои многочисленные достижения, были убеждены в том, что они на самом деле не так умны и талантливы и всего лишь сумели обмануть окружающих и заставить их считать иначе. В той старой статье авторы сомневаются, что синдром характерен для мужчин (или, во всяком случае, столь же распространен).
Сегодня есть разные данные относительно распространенности синдрома по популяции. Среди студентов и выпускников вузов и колледжей, медсестер и представителей профессий из области STEM, образования и бизнеса синдромом самозванца страдают от 56% до 82% людей.
Еще одно большое исследование указывает на то, что синдрому самозванца сильно подвержены эйчары; 54% женщин и 38% мужчин с ним сталкивались. Forbes пишет об исследовании, согласно которому аж 70% людей вообще столкнется с синдромом самозванца хоть раз в жизни.
Синдром самозванца не является заболеванием, это скорее поведенческий феномен и часть опыта очень многих людей. Его можно практически считать нормальным на определенных этапах профессионального развития (но при выраженной интенсивности, которая мешает нормально жить и работать, лучше обратиться за помощью).
Некоторые специалисты выделяют пять типов синдрома самозванца:
- характерный для перфекционистов (ну тут понятно);
- для экспертов (хотят знать о своей области вообще все, малейшая некомпетентность кажется им полным провалом);
- для одиночек (тех, кто считает, что достижение можно засчитать только тогда, когда оно достигнуто исключительно их усилиями; если кто-то помогал, это не считается);
- для гениев (считают, что достижение – это когда все получилось легко и быстро; если пришлось напрягаться – не считается);
- для сверхлюдей (тех, кто привык жонглировать сразу кучей обязанностей и хотят преуспеть везде; если хотя бы в одной области они терпят неудачу, это провал всей жизни).
Если вы себя узнали, возможно, вас утешит тот факт, что синдром самозванца не характерен для новичков и дилетантов. Скорее всего, вы уже чего-то в самом деле достигли. Возможно, теперь пора достичь психолога.
(Иллюстрация сгенерирована с использованием GhatGPT)
Впервые он был описан в 1978 году в статье «The Imposter Phenomenon in High Achieving Women: Dynamics and Therapeutic Intervention» («Феномен самозванки у успешных женщин: динамика и терапия»). Как можно догадаться из названия, впервые синдром был описан именно на женщинах, которые, несмотря на свои многочисленные достижения, были убеждены в том, что они на самом деле не так умны и талантливы и всего лишь сумели обмануть окружающих и заставить их считать иначе. В той старой статье авторы сомневаются, что синдром характерен для мужчин (или, во всяком случае, столь же распространен).
Сегодня есть разные данные относительно распространенности синдрома по популяции. Среди студентов и выпускников вузов и колледжей, медсестер и представителей профессий из области STEM, образования и бизнеса синдромом самозванца страдают от 56% до 82% людей.
Еще одно большое исследование указывает на то, что синдрому самозванца сильно подвержены эйчары; 54% женщин и 38% мужчин с ним сталкивались. Forbes пишет об исследовании, согласно которому аж 70% людей вообще столкнется с синдромом самозванца хоть раз в жизни.
Синдром самозванца не является заболеванием, это скорее поведенческий феномен и часть опыта очень многих людей. Его можно практически считать нормальным на определенных этапах профессионального развития (но при выраженной интенсивности, которая мешает нормально жить и работать, лучше обратиться за помощью).
Некоторые специалисты выделяют пять типов синдрома самозванца:
- характерный для перфекционистов (ну тут понятно);
- для экспертов (хотят знать о своей области вообще все, малейшая некомпетентность кажется им полным провалом);
- для одиночек (тех, кто считает, что достижение можно засчитать только тогда, когда оно достигнуто исключительно их усилиями; если кто-то помогал, это не считается);
- для гениев (считают, что достижение – это когда все получилось легко и быстро; если пришлось напрягаться – не считается);
- для сверхлюдей (тех, кто привык жонглировать сразу кучей обязанностей и хотят преуспеть везде; если хотя бы в одной области они терпят неудачу, это провал всей жизни).
Если вы себя узнали, возможно, вас утешит тот факт, что синдром самозванца не характерен для новичков и дилетантов. Скорее всего, вы уже чего-то в самом деле достигли. Возможно, теперь пора достичь психолога.
(Иллюстрация сгенерирована с использованием GhatGPT)
😁2🤓1
Чтобы учиться максимально эффективно по науке, надо сначала побегать, потом поучиться, а затем сразу пойти спать
Ладно, это немного утрированный подход, но в нем есть некоторое здравое зерно. Регулярные тренировки (не только бег, а любые аэробные нагрузки, то есть, то, что мы называем «кардио» – нагрузки с увеличением частоты сердечных сокращений) замедляют процесс потери мозговой ткани, связанный с возрастом, а также помогают улучшить внимание, ускорить процесс обработки информации и более эффективно обучаться. Дело в том, что во время тренировок с повышением пульса к мозгу поступает больше крови, насыщенной глюкозой и кислородом. Кроме того, увеличивается уровень содержания молекул BDNF (brain-derived neurotrophic factor) – эти молекулы подпитывают образующиеся в процессе обучения нейронные связи и делают запоминание информации эффективнее.
В исследованиях с помощью фМРТ обнаружили, что у более активных пожилых людей больше объем гиппокампа, чем у менее активных. Гиппокамп играет очень важную роль в обучении и формировании новых воспоминаний. В частности, пациенты с серьезными повреждениями гиппокампа не могут запомнить, что происходило с ними вчера или несколько часов назад, но помнят события своей жизни, произошедшие до травмы или операции, в результате которых гиппокамп был поврежден.
Положительный эффект регулярных упражнений показан и на детях, и на молодых взрослых. При этом совершенно не нужно каждый день бегать марафоны. В исследованиях участники тренировались по полчаса, из которых пять минут уходило на разминку и еще пять – на заминку и восстановление.
Упражнения, даже невысокой интенсивности, помимо прочего, помогают справиться со стрессом, снизить тревогу и облегчить симптомы депрессии.
Что касается сна, тут все как будто более очевидно. Кто пытался учиться после пары бессонных ночей, понимает, что как минимум недостаток сна точно влияет на достижение успеха в этом направлении.
На самом деле, сон тоже влияет на гиппокамп (не только на него, конечно). Объем информации, которую способен хранить в себе гиппокамп, ограничен – это наша краткосрочная память. Во сне информация из краткосрочной памяти переносится в долгосрочную. Соответственно, недостаток сна снижает способность формировать долгосрочные воспоминания (здесь речь идет скорее о глубокой фазе сна, а вот фаза быстрых движений глаз (REM), по всей видимости, влияет на способность решать сложные задачи).
Теперь практически-полезное: в брошюре Student Sleep Guide собрана полезная информация про стадии сна, их влияние на память и способности к обучению, а еще некоторые практические рекомендации (например, исследователи советуют ложиться в промежуток между десятью вечера и полуночью и стараться спать хотя бы семь часов каждую ночь, обеспечить себя темнотой и тишинойи прибить храпящего соседа табуреткой).
Конечно, нормальное и достаточное время сна может отличаться от человека к человеку. Кому-то будет достаточно спать шесть часов или меньше, кому-то нужно девять часов, это зависит в том числе от неконтролируемых врожденных факторов. Главное, чтобы после сна человек себя чувствовал отдохнувшим и полным сил.
Короче говоря, сначала тренируемся и повышаем уровень глюкозы, кислорода и BDNF в мозгу, потом учимся, потом быстро спать для закрепления материала.
(Изображение сгенерировано с использованием PaLM AI)
Ладно, это немного утрированный подход, но в нем есть некоторое здравое зерно. Регулярные тренировки (не только бег, а любые аэробные нагрузки, то есть, то, что мы называем «кардио» – нагрузки с увеличением частоты сердечных сокращений) замедляют процесс потери мозговой ткани, связанный с возрастом, а также помогают улучшить внимание, ускорить процесс обработки информации и более эффективно обучаться. Дело в том, что во время тренировок с повышением пульса к мозгу поступает больше крови, насыщенной глюкозой и кислородом. Кроме того, увеличивается уровень содержания молекул BDNF (brain-derived neurotrophic factor) – эти молекулы подпитывают образующиеся в процессе обучения нейронные связи и делают запоминание информации эффективнее.
В исследованиях с помощью фМРТ обнаружили, что у более активных пожилых людей больше объем гиппокампа, чем у менее активных. Гиппокамп играет очень важную роль в обучении и формировании новых воспоминаний. В частности, пациенты с серьезными повреждениями гиппокампа не могут запомнить, что происходило с ними вчера или несколько часов назад, но помнят события своей жизни, произошедшие до травмы или операции, в результате которых гиппокамп был поврежден.
Положительный эффект регулярных упражнений показан и на детях, и на молодых взрослых. При этом совершенно не нужно каждый день бегать марафоны. В исследованиях участники тренировались по полчаса, из которых пять минут уходило на разминку и еще пять – на заминку и восстановление.
Упражнения, даже невысокой интенсивности, помимо прочего, помогают справиться со стрессом, снизить тревогу и облегчить симптомы депрессии.
Что касается сна, тут все как будто более очевидно. Кто пытался учиться после пары бессонных ночей, понимает, что как минимум недостаток сна точно влияет на достижение успеха в этом направлении.
На самом деле, сон тоже влияет на гиппокамп (не только на него, конечно). Объем информации, которую способен хранить в себе гиппокамп, ограничен – это наша краткосрочная память. Во сне информация из краткосрочной памяти переносится в долгосрочную. Соответственно, недостаток сна снижает способность формировать долгосрочные воспоминания (здесь речь идет скорее о глубокой фазе сна, а вот фаза быстрых движений глаз (REM), по всей видимости, влияет на способность решать сложные задачи).
Теперь практически-полезное: в брошюре Student Sleep Guide собрана полезная информация про стадии сна, их влияние на память и способности к обучению, а еще некоторые практические рекомендации (например, исследователи советуют ложиться в промежуток между десятью вечера и полуночью и стараться спать хотя бы семь часов каждую ночь, обеспечить себя темнотой и тишиной
Конечно, нормальное и достаточное время сна может отличаться от человека к человеку. Кому-то будет достаточно спать шесть часов или меньше, кому-то нужно девять часов, это зависит в том числе от неконтролируемых врожденных факторов. Главное, чтобы после сна человек себя чувствовал отдохнувшим и полным сил.
Короче говоря, сначала тренируемся и повышаем уровень глюкозы, кислорода и BDNF в мозгу, потом учимся, потом быстро спать для закрепления материала.
(Изображение сгенерировано с использованием PaLM AI)
👍2✍1
В 2022 году была опубликована большая обзорная статья, авторы которой собрали и проанализировали 1 635 статей, опубликованных с 1990 по 2020 год. Цель обзора – понять, какие аспекты прокрастинации интересовали исследователей на протяжении всего обозначенного периода, как менялся их фокус внимания и на чем следует сосредоточиться будущим исследователям.
Поскольку я не могу физически обработать такой объем информации, сосредоточусь на паре самых свежих работ из списка, которые особенно привлекли мое внимание.
* В работе «Caught in the moment: Are there person-specific associations between momentary procrastination and passively measured smartphone use?» 2022 года авторы изучают связь между прокрастинацией и использованием смартфонов. В качестве испытуемых припахали студентов, конечно же, в количестве 221 человека. В течение месяца они сами записывали свои моменты прокрастинации, параллельно отслеживалась продолжительность использования смартфонов. Выводы получились, в общем, не удивительные: смартфоны связаны с прокрастинацией, но эта связь у разных людей проявляется по-разному. Общие наблюдение заключаются в том, что, во-первых, чем больше уведомлений, тем больше прокрастинации, и чем более фрагментировано (часто понемногу) использование смартфона, тем тоже больше прокрастинации.
* В статье «The Effect of Abusive Supervision on Employees’ Work Procrastination Behavior» (2021 год) авторы выясняют, что будет с прокрастинацией, если сотрудников на рабочем месте периодически пинать (вербально и невербально, но не прям в буквальном смысле). Во введении к статье они сообщают, что офисные сотрудники прокрастинируют примерно 1,3 часа в день, и это еще заниженная оценка(тут мне стало полегче, потому что я, оказывается, еще не самый злостный прокрастинатор) . Так вот, если пинать людей часто, а поощрять редко, они чаще прокрастинируют. Меньше прокрастинируют более устойчивые ко всяким негативным внешним воздействиям люди, а также те, кто умеет как следует отдыхать и переключаться в нерабочее время.
* В статье «Procrastination and problematic new media use: the mediating role of future anxiety» авторы выделяют прокрастинацию общую (которая выражается в откладывании повседневных дел) и прокрастинацию, связанную с принятием решений в срок. Изучали опять студентов, выяснили, что самые прокрастинирующие выражают наиболее высокий страх перед будущим (это относится к обоим типам прокрастинации, но немного больше к тому, который связан с принятием решений). Авторы также упоминают другие исследования, которые связывают использование социальных сетей с системой вознаграждения в мозге (получение быстрого дофамина). Тревожимся по поводу будущего –> залипаем на котиков –> не делаем дела –> тревожимся еще больше. Замкнутый круг.
* Авторы работы «Outcome value and task aversiveness impact task procrastination through separate neural pathways» засунули своих подопытных в аппарат МРТ, чтобы выяснить, что в мозгу непосредственно влияет на прокрастинацию. Выяснили, что влияют амигдала (она же миндалевидное тело) и гиппокамп. Гиппокамп активно участвует в формировании воспоминаний и мыслях о будущем, а амигдала обрабатывает эмоции, она в значительной степени связана со страхом. Если выполнение задания сулит большую награду (или невыполнение сулит большие проблемы), включается гиппокамп и дает нам хорошего пинка, чтобы мы отложили котиков. Если задание неприятное, скучное или сложное, амигдала требует отложить задание и смотреть котиков. Что мы в итоге будем делать, решает исход их поединка: у кого мощнее сигнал, тот и перехватывает контроль над поведением.
Короче, вот научно обоснованный план по победе над прокрастинацией:
1. Осознать, что вам не победить.
2. Разбить свои задачи на задачи поменьше и ставить галочки в списке, чтобы получить немножко дофамина.
3. Отключить уведомления на телефоне.
4. Отдыхать в выходные и вовремя ходить в отпуск.
5. Не ругать себя слишком сильно. Это только усилит тревогу и точно не поможет оторваться от телефона. И вообще, некоторые задачи должны отлежаться в мозгу, прежде чем вы найдете решение.
Поскольку я не могу физически обработать такой объем информации, сосредоточусь на паре самых свежих работ из списка, которые особенно привлекли мое внимание.
* В работе «Caught in the moment: Are there person-specific associations between momentary procrastination and passively measured smartphone use?» 2022 года авторы изучают связь между прокрастинацией и использованием смартфонов. В качестве испытуемых припахали студентов, конечно же, в количестве 221 человека. В течение месяца они сами записывали свои моменты прокрастинации, параллельно отслеживалась продолжительность использования смартфонов. Выводы получились, в общем, не удивительные: смартфоны связаны с прокрастинацией, но эта связь у разных людей проявляется по-разному. Общие наблюдение заключаются в том, что, во-первых, чем больше уведомлений, тем больше прокрастинации, и чем более фрагментировано (часто понемногу) использование смартфона, тем тоже больше прокрастинации.
* В статье «The Effect of Abusive Supervision on Employees’ Work Procrastination Behavior» (2021 год) авторы выясняют, что будет с прокрастинацией, если сотрудников на рабочем месте периодически пинать (вербально и невербально, но не прям в буквальном смысле). Во введении к статье они сообщают, что офисные сотрудники прокрастинируют примерно 1,3 часа в день, и это еще заниженная оценка
* В статье «Procrastination and problematic new media use: the mediating role of future anxiety» авторы выделяют прокрастинацию общую (которая выражается в откладывании повседневных дел) и прокрастинацию, связанную с принятием решений в срок. Изучали опять студентов, выяснили, что самые прокрастинирующие выражают наиболее высокий страх перед будущим (это относится к обоим типам прокрастинации, но немного больше к тому, который связан с принятием решений). Авторы также упоминают другие исследования, которые связывают использование социальных сетей с системой вознаграждения в мозге (получение быстрого дофамина). Тревожимся по поводу будущего –> залипаем на котиков –> не делаем дела –> тревожимся еще больше. Замкнутый круг.
* Авторы работы «Outcome value and task aversiveness impact task procrastination through separate neural pathways» засунули своих подопытных в аппарат МРТ, чтобы выяснить, что в мозгу непосредственно влияет на прокрастинацию. Выяснили, что влияют амигдала (она же миндалевидное тело) и гиппокамп. Гиппокамп активно участвует в формировании воспоминаний и мыслях о будущем, а амигдала обрабатывает эмоции, она в значительной степени связана со страхом. Если выполнение задания сулит большую награду (или невыполнение сулит большие проблемы), включается гиппокамп и дает нам хорошего пинка, чтобы мы отложили котиков. Если задание неприятное, скучное или сложное, амигдала требует отложить задание и смотреть котиков. Что мы в итоге будем делать, решает исход их поединка: у кого мощнее сигнал, тот и перехватывает контроль над поведением.
Короче, вот научно обоснованный план по победе над прокрастинацией:
1. Осознать, что вам не победить.
2. Разбить свои задачи на задачи поменьше и ставить галочки в списке, чтобы получить немножко дофамина.
3. Отключить уведомления на телефоне.
4. Отдыхать в выходные и вовремя ходить в отпуск.
5. Не ругать себя слишком сильно. Это только усилит тревогу и точно не поможет оторваться от телефона. И вообще, некоторые задачи должны отлежаться в мозгу, прежде чем вы найдете решение.
❤2
Мне кажется, это актуальный пост для сентября, для тех, кто хочет прикрутить себе к мозгу дополнительное расширение и учиться / работать эффективнее (я хочу).
Здесь инструменты, которыми я либо пользуюсь постоянно, либо тестирую. Первая часть про инструменты вышла здесь, потом этот пост был, а сейчас будет что-то вроде саммари. Для удобства сделала тег #инструменты, буду помечать им все посты из этой группы.
На самом деле, у меня постоянно что-то новое на тесте, поэтому хочу такие посты выкладывать время от времени, с обновлениями.
Итак, список:
- Gravitywrite (купила подписку и пребываю в стадии активного тестирования; помогает мне улучшать тексты с помощью Text Improver, Blog Content неплохо справляется с генерацией идей. Там есть еще инструменты для работы с кодом, и для рерайтинга / копирайтинга, в том числе так, чтобы на проверке не заметили участия ИИ в написании текста, инструменты для презентаций и много чего еще. Эдакий мультитул. Работает на русском языке);
- ChatGPT (он мне рисует картинки для некоторых постов и пишет саммари публикаций для ускорения работы. Еще конкретно сейчас он мне пишет запросы в postgresql. Я один раз описала подробно всю базу данных, теперь просто обращаюсь с запросами, все инструкции он помнит. Правда, в какой-то момент кода стало очень много, и он стал забывать некоторые функции, поэтому сборку в основном делаю без его помощи. Статьи тоже все равно приходится читать самостоятельно целиком, потому что у всех языковых моделей бывают галлюцинации и надо их проверять, но вместе все равно быстрее получается);
- Perplexity (для поиска источников; с саммаризацией у него есть проблемы, нужно внимательно проверять);
- Gemini (дебаггинг кода. Честно говоря, с действительно сложными случаями не помогает, но по мелочи отловить глупые ошибки – запросто);
- PaLM (рисует картинки часто лучше, чем DALL-E, доступная через интерфейс ChatGPT);
- Coconote (в стадии тестирования, активно буду тестировать с сентября, а пока пробую на совещаниях);
- Notability (про него, кажется, нигде не писала еще. Это приложение-блокнот, пользуюсь им давно для записи лекций от руки. ИИ там распознает почерк(мой даже он не всегда распознает) , чтобы можно было искать по написанному);
- Skype (использую автоматические субтитры и саммари совещаний. Последние в меньшей степени, потому что есть Coconote, а вот тот, кто додумался до субтитров, должен попасть в рай без очереди. Это я поняла, когда у меня был преподаватель из Индии (при всем уважении));
- Gamma (тестирую, недавно был пост про нее);
- Notion (планирую в нем сейчас вообще все. Там есть ИИ, который делает саммари описаний задач, отвечает на вопросы по документам и таблицам, может сделать черновик письма или повестки совещания).
Глядя на этот список, можно подумать, что я вообще ничего не делаю, все делает ИИ за меня (но я делаю, я тестирую инструменты!).
Облизываюсь на clockwise, но он работает только для корпоративных пользователей. Ничего, я придумаю, кого корпоративно соблазнить на затест.
Еще положила глаз на Otter.ai, на будущее, потому что это снова инструмент для написания конспектов, надо сначала закончить текущие тесты.
Всего у меня сейчас восемь разных инструментов (не включая вышеперечисленные) висит в очереди на тест, но это секрет пока.
#инструменты
Здесь инструменты, которыми я либо пользуюсь постоянно, либо тестирую. Первая часть про инструменты вышла здесь, потом этот пост был, а сейчас будет что-то вроде саммари. Для удобства сделала тег #инструменты, буду помечать им все посты из этой группы.
На самом деле, у меня постоянно что-то новое на тесте, поэтому хочу такие посты выкладывать время от времени, с обновлениями.
Итак, список:
- Gravitywrite (купила подписку и пребываю в стадии активного тестирования; помогает мне улучшать тексты с помощью Text Improver, Blog Content неплохо справляется с генерацией идей. Там есть еще инструменты для работы с кодом, и для рерайтинга / копирайтинга, в том числе так, чтобы на проверке не заметили участия ИИ в написании текста, инструменты для презентаций и много чего еще. Эдакий мультитул. Работает на русском языке);
- ChatGPT (он мне рисует картинки для некоторых постов и пишет саммари публикаций для ускорения работы. Еще конкретно сейчас он мне пишет запросы в postgresql. Я один раз описала подробно всю базу данных, теперь просто обращаюсь с запросами, все инструкции он помнит. Правда, в какой-то момент кода стало очень много, и он стал забывать некоторые функции, поэтому сборку в основном делаю без его помощи. Статьи тоже все равно приходится читать самостоятельно целиком, потому что у всех языковых моделей бывают галлюцинации и надо их проверять, но вместе все равно быстрее получается);
- Perplexity (для поиска источников; с саммаризацией у него есть проблемы, нужно внимательно проверять);
- Gemini (дебаггинг кода. Честно говоря, с действительно сложными случаями не помогает, но по мелочи отловить глупые ошибки – запросто);
- PaLM (рисует картинки часто лучше, чем DALL-E, доступная через интерфейс ChatGPT);
- Coconote (в стадии тестирования, активно буду тестировать с сентября, а пока пробую на совещаниях);
- Notability (про него, кажется, нигде не писала еще. Это приложение-блокнот, пользуюсь им давно для записи лекций от руки. ИИ там распознает почерк
- Skype (использую автоматические субтитры и саммари совещаний. Последние в меньшей степени, потому что есть Coconote, а вот тот, кто додумался до субтитров, должен попасть в рай без очереди. Это я поняла, когда у меня был преподаватель из Индии (при всем уважении));
- Gamma (тестирую, недавно был пост про нее);
- Notion (планирую в нем сейчас вообще все. Там есть ИИ, который делает саммари описаний задач, отвечает на вопросы по документам и таблицам, может сделать черновик письма или повестки совещания).
Глядя на этот список, можно подумать, что я вообще ничего не делаю, все делает ИИ за меня (но я делаю, я тестирую инструменты!).
Облизываюсь на clockwise, но он работает только для корпоративных пользователей. Ничего, я придумаю, кого корпоративно соблазнить на затест.
Еще положила глаз на Otter.ai, на будущее, потому что это снова инструмент для написания конспектов, надо сначала закончить текущие тесты.
Всего у меня сейчас восемь разных инструментов (не включая вышеперечисленные) висит в очереди на тест, но это секрет пока.
#инструменты
Telegram
AI, life and balance
У меня скоро будет пост на vc про ресурсы, с которых можно начать знакомиться с ИИ. Оставлю здесь для затравки некоторые штуки, которыми периодически пользуюсь под разные задачи (кроме ChatGPT, про который уже и так много написано):
- Нейрохолст для генерации…
- Нейрохолст для генерации…
🔥2
Галлюцинации языковых моделей
Я тут много рассказываю, как сама пользуюсь инструментами на основе ИИ, и много чего советую, поэтому пришло время поговорить о некоторых подводных камнях при использовании таких инструментов. Поскольку в основном я интересуюсь языковыми моделями, речь пойдет преимущественно о них.
Это не то чтобы большой секрет, но большие языковые модели страдают галлюцинациями. Галлюцинация – это некорректный ответ, не отражающий реальность и созданный вследствие ошибки. Иногда модели «выдумывают» правдоподобные на вид литературные источники или людей, рассказывают про факты, которых не было, и все такое.
Основа для поста – статья «WildHallucinations: Evaluating Long-form Factuality in LLMs with Real-World Entity Queries», в которой представлен метод оценки галлюцинаций и метод борьбы с ними же.
Авторы использовали WildChat – базу данных, состоящую из реальных диалогов пользователей с ChatGPT. Для оценки корректности ответов модели использовали FActScore – метрику, которая рассчитывается как доля фактов в сгенерированном ответе, подтвержденных надежными источниками. Каждый факт в данном случае – это минимальная единица информации (пример на скриншоте 1).
В ходе экспериментов авторы выяснили, что языковые модели чаще подвержены галлюцинациям в отношении тем, касающихся людей и финансов и в меньшей – в отношении географии и областей, связанных с вычислениями. Если об объекте запроса есть статья в Википедии, модели галлюцинируют меньше (Википедия – один из наиболее популярных источников для обучения). RAG помогает бороться с галлюцинациями, но не избавиться от них окончательно.
После применения автоматической оценки достоверности, авторы собрали собственный набор данных, который как раз и называется WildHallucinations. Эти данные теперь можно использовать для тестирования моделей на галлюцинации: в них выделен объект, о котором сообщаются факты, и приведены источники достоверных данных для оценки.
Теперь самое интересное – сравнение моделей. На скриншоте с гистограммой (скриншот 2) модели отсортированы по убыванию метрики WildFactScore-Strict. WildFactScore – это FActScore, только она еще адаптирована для учета редких категорий, по которым задаются вопросы. WildFactScore-Strict – ее модификация, у которой есть дополнительные ограничения: она будет равна 0 в том случае, если в сгенерированном моделью ответе хотя бы один факт не подтвержден, или если модель отказывается отвечать.
Как видите, в лидерах GPT, Gemini и Claude. Меня, если честно, немного расстроили результаты Llama, но это было до последнего релиза, и самая большая модель из семейства на оценивалась. Возможно, она себя еще покажет.
Хотя и лидеры не дотянули до 35% полностью корректных ответов, что уж там. Это повод проверять сгенерированные результаты еще более тщательно.
При этом Gemini и Claude, хотя и страдают галлюцинациями немного больше, чем GPT, «выдумывают» факты о меньшем числе объектов (то есть, GPT про всех сочиняет по чуть-чуть, а Gemini и Claude – не про всех, но много). Но в целом они достаточно близки.
Ладно, а что делать-то теперь?
Во-первых, проверять (простите за повтор, но это не лишнее).
Во-вторых, использовать техники, которые помогают сократить число галлюцинаций, такие как упомянутый ранее RAG, или внимательно очищать тренировочные данные от недостоверных фактов. Большие модели тренируются на огромных массивах, собранных со всего интернета, и проверить их все невозможно, разумеется. Однако можно попробовать привести в порядок набор данных, на котором модель будет обучаться под конкретные рабочие задачи (речь про fine-tuning).
Работа с галлюцинациями – это отдельная задача в области Responsible AI (ответственного ИИ, RAI). Я сейчас участвую в большом и очень интересном проекте, который относится к RAI, и занимаюсь непосредственно галлюцинациями (как бы это странно ни звучало). Так что буду писать еще про это все дело.
Я тут много рассказываю, как сама пользуюсь инструментами на основе ИИ, и много чего советую, поэтому пришло время поговорить о некоторых подводных камнях при использовании таких инструментов. Поскольку в основном я интересуюсь языковыми моделями, речь пойдет преимущественно о них.
Это не то чтобы большой секрет, но большие языковые модели страдают галлюцинациями. Галлюцинация – это некорректный ответ, не отражающий реальность и созданный вследствие ошибки. Иногда модели «выдумывают» правдоподобные на вид литературные источники или людей, рассказывают про факты, которых не было, и все такое.
Основа для поста – статья «WildHallucinations: Evaluating Long-form Factuality in LLMs with Real-World Entity Queries», в которой представлен метод оценки галлюцинаций и метод борьбы с ними же.
Авторы использовали WildChat – базу данных, состоящую из реальных диалогов пользователей с ChatGPT. Для оценки корректности ответов модели использовали FActScore – метрику, которая рассчитывается как доля фактов в сгенерированном ответе, подтвержденных надежными источниками. Каждый факт в данном случае – это минимальная единица информации (пример на скриншоте 1).
В ходе экспериментов авторы выяснили, что языковые модели чаще подвержены галлюцинациям в отношении тем, касающихся людей и финансов и в меньшей – в отношении географии и областей, связанных с вычислениями. Если об объекте запроса есть статья в Википедии, модели галлюцинируют меньше (Википедия – один из наиболее популярных источников для обучения). RAG помогает бороться с галлюцинациями, но не избавиться от них окончательно.
После применения автоматической оценки достоверности, авторы собрали собственный набор данных, который как раз и называется WildHallucinations. Эти данные теперь можно использовать для тестирования моделей на галлюцинации: в них выделен объект, о котором сообщаются факты, и приведены источники достоверных данных для оценки.
Теперь самое интересное – сравнение моделей. На скриншоте с гистограммой (скриншот 2) модели отсортированы по убыванию метрики WildFactScore-Strict. WildFactScore – это FActScore, только она еще адаптирована для учета редких категорий, по которым задаются вопросы. WildFactScore-Strict – ее модификация, у которой есть дополнительные ограничения: она будет равна 0 в том случае, если в сгенерированном моделью ответе хотя бы один факт не подтвержден, или если модель отказывается отвечать.
Как видите, в лидерах GPT, Gemini и Claude. Меня, если честно, немного расстроили результаты Llama, но это было до последнего релиза, и самая большая модель из семейства на оценивалась. Возможно, она себя еще покажет.
Хотя и лидеры не дотянули до 35% полностью корректных ответов, что уж там. Это повод проверять сгенерированные результаты еще более тщательно.
При этом Gemini и Claude, хотя и страдают галлюцинациями немного больше, чем GPT, «выдумывают» факты о меньшем числе объектов (то есть, GPT про всех сочиняет по чуть-чуть, а Gemini и Claude – не про всех, но много). Но в целом они достаточно близки.
Ладно, а что делать-то теперь?
Во-первых, проверять (простите за повтор, но это не лишнее).
Во-вторых, использовать техники, которые помогают сократить число галлюцинаций, такие как упомянутый ранее RAG, или внимательно очищать тренировочные данные от недостоверных фактов. Большие модели тренируются на огромных массивах, собранных со всего интернета, и проверить их все невозможно, разумеется. Однако можно попробовать привести в порядок набор данных, на котором модель будет обучаться под конкретные рабочие задачи (речь про fine-tuning).
Работа с галлюцинациями – это отдельная задача в области Responsible AI (ответственного ИИ, RAI). Я сейчас участвую в большом и очень интересном проекте, который относится к RAI, и занимаюсь непосредственно галлюцинациями (как бы это странно ни звучало). Так что буду писать еще про это все дело.
❤1
AI, life and balance
Мне кажется, это актуальный пост для сентября, для тех, кто хочет прикрутить себе к мозгу дополнительное расширение и учиться / работать эффективнее (я хочу). Здесь инструменты, которыми я либо пользуюсь постоянно, либо тестирую. Первая часть про инструменты…
Notion будет недоступен с сентября ☹️
Взяла на тест российское ПО - Weeek. Меня привлекло то, что в него можно вгрузить проект из Notion по специально для этой цели созданной инструкции.
Из ИИ там есть YandexGPT, обещают подключить в будущем ChatGPT4 и GigaChat (это от Сбера). Из функций саммари текста, генерация идей и загадочное "многое другое".
Еще есть два ИИ-ассистента, которые выполняют роль техподдержки. Пока выглядит интересно.
Взяла на тест российское ПО - Weeek. Меня привлекло то, что в него можно вгрузить проект из Notion по специально для этой цели созданной инструкции.
Из ИИ там есть YandexGPT, обещают подключить в будущем ChatGPT4 и GigaChat (это от Сбера). Из функций саммари текста, генерация идей и загадочное "многое другое".
Еще есть два ИИ-ассистента, которые выполняют роль техподдержки. Пока выглядит интересно.
Blog WEEEK
Как выгрузить данные из Notion
Пошаговая инструкция по выгрузке данных из Notion и переносу в сервис WEEEK с помощью API
Наследование человеческих стереотипов языковыми моделями. Часть 1
После разговора о галлюцинациях время поговорить о стереотипах (я же обещала больше ответственного ИИ – вот).
Это не то чтобы великая неожиданность, но ИИ наследует искажения и стереотипы, присущие людям. Потому что люди обучают ИИ и люди генерируют и собирают данные для обучения ИИ, чему уж тут удивляться. Но изучать этот феномен нужно, чтобы как-то с ним бороться.
Авторы статьи «Bias and Fairness in Large Language Models: A Survey» как раз этим занялись. Это внушительная работа, в которой авторы собрали и классифицировали ошибки, метрики для их обнаружения и способы борьбы с ними.
Я не буду всю огромную таксономию сюда переписывать, разумеется, но вот пример искажения на уровне кодирования предложений (sentence embedding) из статьи: если взять вектор слова «doctor» в предложении «This is a doctor», он будет ближе к вектору слова «man», чем к вектору слова «woman» (близость измеряется с помощью косинусного коэффициента). В то же время вектор слова «nurse» будет ближе к вектору слова «woman». На первом скриншоте графическое изображение этой разницы.
На практике вся эта косинусная близость означает следующее: в текстах, на которых обучали языковую модель, слово «врач» чаще обозначало мужчину, а слово «медсестра» – женщину (в английском языке на медсестру и медбрата один термин – nurse). Генерируя текст, модель будет писать о враче скорее как о мужчине, чем как о женщине.
Или вот другой пример (картинка на втором скриншоте): вероятность того, что в предложении «Она хороша в [MASK]» на место маски (скрытого токена) будет сгенерирован токен «искусстве» будет выше, чем вероятность того, что будет сгенерирован токен «математике». Для действующего лица «Он» все наоборот.
Казалось бы, в чем тут проблема? Всего лишь пара невинных стереотипов о том, что математика для мальчиков, а литература – для девочек, как это повлияет на нашу жизнь?
Мой ответ(помимо того, что мне такие стереотипы не нравятся, в отличие от математики) в том, что многие люди возлагают на ИИ очень большие надежды (про это еще отдельный большой был пост). Они думают: «Вот как разовьем сейчас ИИ и как заменим медленных людей, которые делают ошибки, на быстрых и точных роботов». А по факту мы заменим медленных людей, которые делают ошибки, на быстрых роботов, которые тоже делают ошибки, но интенсивнее. Если мы хотим добиться повышения качества нашей работы, а не только ее скорости, нам нужно потрудиться над искоренением искажений, как у себя, так и у наших синтетических помощников. Конечно, совсем мы от них не избавимся, но можно хотя бы лежать в нужную сторону.
В вышеупомянутой статье авторы приводят перечень техник для сокращения искажений у языковых моделей:
- сокращение искажений в процессе предобучения (в основном это работа с данными: дополнение большим количеством примеров, фильтрация и т.д.);
- сокращение в процессе обучения (модификация архитектуры, селективная работа с параметрами);
- сокращение в процессе обработки данных моделью (модификация декодирования вектора в токен, перераспределение весов);
- сокращение после обработки (переписывание сгенерированного моделью текста с исправлением искажений).
Что делать с людьми, авторы не написали.
После разговора о галлюцинациях время поговорить о стереотипах (я же обещала больше ответственного ИИ – вот).
Это не то чтобы великая неожиданность, но ИИ наследует искажения и стереотипы, присущие людям. Потому что люди обучают ИИ и люди генерируют и собирают данные для обучения ИИ, чему уж тут удивляться. Но изучать этот феномен нужно, чтобы как-то с ним бороться.
Авторы статьи «Bias and Fairness in Large Language Models: A Survey» как раз этим занялись. Это внушительная работа, в которой авторы собрали и классифицировали ошибки, метрики для их обнаружения и способы борьбы с ними.
Я не буду всю огромную таксономию сюда переписывать, разумеется, но вот пример искажения на уровне кодирования предложений (sentence embedding) из статьи: если взять вектор слова «doctor» в предложении «This is a doctor», он будет ближе к вектору слова «man», чем к вектору слова «woman» (близость измеряется с помощью косинусного коэффициента). В то же время вектор слова «nurse» будет ближе к вектору слова «woman». На первом скриншоте графическое изображение этой разницы.
На практике вся эта косинусная близость означает следующее: в текстах, на которых обучали языковую модель, слово «врач» чаще обозначало мужчину, а слово «медсестра» – женщину (в английском языке на медсестру и медбрата один термин – nurse). Генерируя текст, модель будет писать о враче скорее как о мужчине, чем как о женщине.
Или вот другой пример (картинка на втором скриншоте): вероятность того, что в предложении «Она хороша в [MASK]» на место маски (скрытого токена) будет сгенерирован токен «искусстве» будет выше, чем вероятность того, что будет сгенерирован токен «математике». Для действующего лица «Он» все наоборот.
Казалось бы, в чем тут проблема? Всего лишь пара невинных стереотипов о том, что математика для мальчиков, а литература – для девочек, как это повлияет на нашу жизнь?
Мой ответ
В вышеупомянутой статье авторы приводят перечень техник для сокращения искажений у языковых моделей:
- сокращение искажений в процессе предобучения (в основном это работа с данными: дополнение большим количеством примеров, фильтрация и т.д.);
- сокращение в процессе обучения (модификация архитектуры, селективная работа с параметрами);
- сокращение в процессе обработки данных моделью (модификация декодирования вектора в токен, перераспределение весов);
- сокращение после обработки (переписывание сгенерированного моделью текста с исправлением искажений).
Что делать с людьми, авторы не написали.
Наследование человеческих стереотипов языковыми моделями. Часть 2
В статье поменьше, «Large language models show human-like content biases in transmission chain experiments» авторы описывают пять экспериментов, в котором людям и ChatGPT дали одни и те же задания. Для людей это было что-то вроде игры «сломанный телефон»: первому участнику рассказывают некоторую историю (сравнительно длинную). Он пересказывает ее вкратце следующему и так далее, пока история не дойдет до последнего участника. В конце исследователи смотрят, что получилось из исходного текста (в частности, какие именно факты в ней остались и какие были искажены). ChatGPT играл сам с собой. Краткий пересказ статьи вам от меня: ChatGPT наделал ровно тех же ошибок и пришел к похожим результатам.
На десерт самое веселое: люди тоже наследуют ошибки ИИ. Статья про это вышла в Nature. «Веселое» здесь в том, что мы, работая с ИИ, радостно преумножаем искажения вместо того, чтобы их уменьшать. Но на самом деле, статья скорее тревожащая, потому что речь в ней идет о медицине. Участники не только делали ошибки при постановке диагноза, общаясь с нейросетью, но и продолжали их же делать потом, когда нейросеть забрали.
Так и живем.
В статье поменьше, «Large language models show human-like content biases in transmission chain experiments» авторы описывают пять экспериментов, в котором людям и ChatGPT дали одни и те же задания. Для людей это было что-то вроде игры «сломанный телефон»: первому участнику рассказывают некоторую историю (сравнительно длинную). Он пересказывает ее вкратце следующему и так далее, пока история не дойдет до последнего участника. В конце исследователи смотрят, что получилось из исходного текста (в частности, какие именно факты в ней остались и какие были искажены). ChatGPT играл сам с собой. Краткий пересказ статьи вам от меня: ChatGPT наделал ровно тех же ошибок и пришел к похожим результатам.
На десерт самое веселое: люди тоже наследуют ошибки ИИ. Статья про это вышла в Nature. «Веселое» здесь в том, что мы, работая с ИИ, радостно преумножаем искажения вместо того, чтобы их уменьшать. Но на самом деле, статья скорее тревожащая, потому что речь в ней идет о медицине. Участники не только делали ошибки при постановке диагноза, общаясь с нейросетью, но и продолжали их же делать потом, когда нейросеть забрали.
Так и живем.
ResearchGate
(PDF) Large language models show human-like content biases in transmission chain experiments
PDF | As the use of large language models (LLMs) grows, it is important to examine whether they exhibit biases in their output. Research in cultural... | Find, read and cite all the research you need on ResearchGate
Habsburg AI
На этот пост меня натолкнула статья «When AI’s output is a threat to AI itself». Точнее, не сама статья, потому что доступ к ней закрытый, а ее обсуждение в сообществе. На самом деле, тема не новая, и я буду опираться на более ранние статьи, в частности, «AI-Generated Data Can Poison Future AI Models» и «AI could choke on its own exhaust as it fills the web».
Тема вот какая: мы уже засунули в генеративные модели примерно все данные, созданные человеком, какие есть в нашем распоряжении. Разумеется, люди продолжают генерировать больше, снабжая исследователей новыми наборами тренировочных данных. Однако параллельно Интернет наполняется данными, сгенерированными ИИ, и эти данные тоже попадают в тренировочные массивы. Вопрос, который вызвал обсуждения: не приведет ли обучение моделей на синтетических данных к тому, что модели начнут деградировать? Мы уже поняли, что искаженное человеческое восприятие мира влияет на искаженное восприятие мира ИИ. Потом ИИ влияет на человека, усиливая искажение. А еще ИИ влияет на себя же, и тоже не в лучшую сторону.
Преимущественно в статьях, на которые я ссылаюсь, речь идет о больших языковых моделях, но это не только их беда.
Можно ли избежать попадания синтетических данных в обучающие выборки? Похоже, что это становится все сложнее сделать. Во всяком случае, есть исследования, авторы которых полагают, что созданных человеком данных со временем может стать недостаточно для обучения по-настоящему больших и мощных моделей. Конечно, здесь присутствуют некоторая экстраполяция и некоторые допущения. Однако даже при наличии созданных людьми данных, синтетические данные все равно нужны для отдельных специфических задач, для которых человеком сгенерированного контента не хватает.
И есть другие исследования, которые показывают, что новые модели, обученные на синтетических данных, созданных предшественниками, работают хуже и накапливают «неблагоприятные мутации» с каждым следующим поколением. Jathan Sadowski, соавтор подкаста This Machine Kills, придумал термин «Habsburg AI» («ИИ Габсбургов») на этот счет. У него же я, кстати, нашла термин «Potemkin AI» («Потёмкинский ИИ»), но это уже другая история.
Конечно, есть и другая точка зрения. Многие исследователи считают, что создание синтетических данных поможет преодолеть нехватку таковых в отдельных узких областях. Эксперименты с разметкой данных, например, показывают вполне себе хорошие результаты.
Короче говоря, это не пост про то, как все сломалось, развалилось и больше не работает. Это пост про то, о чем нужно подумать, чтобы совершенствовать наши инструменты в будущем, а не топтаться на месте. Мне кажется, что тема работы с синтетическими данными будет актуальна в ближайшее время, поэтому буду за ней наблюдать.
(Изображение сгенерировано с использованием ChatGPT)
На этот пост меня натолкнула статья «When AI’s output is a threat to AI itself». Точнее, не сама статья, потому что доступ к ней закрытый, а ее обсуждение в сообществе. На самом деле, тема не новая, и я буду опираться на более ранние статьи, в частности, «AI-Generated Data Can Poison Future AI Models» и «AI could choke on its own exhaust as it fills the web».
Тема вот какая: мы уже засунули в генеративные модели примерно все данные, созданные человеком, какие есть в нашем распоряжении. Разумеется, люди продолжают генерировать больше, снабжая исследователей новыми наборами тренировочных данных. Однако параллельно Интернет наполняется данными, сгенерированными ИИ, и эти данные тоже попадают в тренировочные массивы. Вопрос, который вызвал обсуждения: не приведет ли обучение моделей на синтетических данных к тому, что модели начнут деградировать? Мы уже поняли, что искаженное человеческое восприятие мира влияет на искаженное восприятие мира ИИ. Потом ИИ влияет на человека, усиливая искажение. А еще ИИ влияет на себя же, и тоже не в лучшую сторону.
Преимущественно в статьях, на которые я ссылаюсь, речь идет о больших языковых моделях, но это не только их беда.
Можно ли избежать попадания синтетических данных в обучающие выборки? Похоже, что это становится все сложнее сделать. Во всяком случае, есть исследования, авторы которых полагают, что созданных человеком данных со временем может стать недостаточно для обучения по-настоящему больших и мощных моделей. Конечно, здесь присутствуют некоторая экстраполяция и некоторые допущения. Однако даже при наличии созданных людьми данных, синтетические данные все равно нужны для отдельных специфических задач, для которых человеком сгенерированного контента не хватает.
И есть другие исследования, которые показывают, что новые модели, обученные на синтетических данных, созданных предшественниками, работают хуже и накапливают «неблагоприятные мутации» с каждым следующим поколением. Jathan Sadowski, соавтор подкаста This Machine Kills, придумал термин «Habsburg AI» («ИИ Габсбургов») на этот счет. У него же я, кстати, нашла термин «Potemkin AI» («Потёмкинский ИИ»), но это уже другая история.
Конечно, есть и другая точка зрения. Многие исследователи считают, что создание синтетических данных поможет преодолеть нехватку таковых в отдельных узких областях. Эксперименты с разметкой данных, например, показывают вполне себе хорошие результаты.
Короче говоря, это не пост про то, как все сломалось, развалилось и больше не работает. Это пост про то, о чем нужно подумать, чтобы совершенствовать наши инструменты в будущем, а не топтаться на месте. Мне кажется, что тема работы с синтетическими данными будет актуальна в ближайшее время, поэтому буду за ней наблюдать.
(Изображение сгенерировано с использованием ChatGPT)
Зимы ИИ. Часть 1
У меня был пост про то, почему ИИ сложнее, чем кажется, и там я упомянула такое явление, как «зима ИИ». Теперь хочу углубиться в эту тему.
Зима ИИ – это период, в течение которого снижается инвестиционная привлекательность области. Люди, которые раньше финансировали новые проекты, разочаровываются в результатах и прикрывают денежную лавочку. Такие периоды перемежаются с «вёснами ИИ», когда, вдохновленные очередным изобретением, инвесторы вкладывают свой капитал в развитие ИИ.Это наталкивает на мысль о том, что основное развитие происходит тогда, когда исследователей никто не трогает и не мешает нормально работать.
Часто выделяют две больших зимы: со второй половины семидесятых до начала восьмидесятых и с конца восьмидесятых (или начала девяностых) до начала двухтысячных. Четких границ нет, все очень приблизительно.
Помимо них некоторые источники выделяют зимы поменьше, но, опять же, мнения относительно их границ расходятся. Совпадают обычно оценки некоторых крупных событий, которые повлияли на снижение интереса ИИ и разочарование в технологии как таковой:
- в 1966 году Automatic Language Processing Advisory Committee опубликовал отчет «Language and Machines. Computers in Translation and Linguistics» с предложением прекратить инвестиции в развитие машинного перевода, потому что (говорили они) это безнадежная технология, это слишком дорого, а качество машинного перевода слишком низкое. Впрочем, в качестве рекомендации комитет предложил продолжать изучать компьютерные методы в лингвистике, потому что лингвистика – это важно, и не надо судить всю область по отсутствию немедленных результатов;
- в семидесятых годах DARPA (Управление перспективных исследовательских проектов Министерства обороны США, вкладывает в исследования очень много денег) прекратила финансирование программ, связанных с распознаванием речи. В проектах, финансируемых DARPA, участвовали крупные исследовательские институты и коммерческие компании, так что прекращение финансировавния сильно повлияло на развитие области (хотя такие компании как IBM, например, решили в своих изысканиях не останавливаться);
- в 1987 году рухнул рынок Лисп-машин (Lisp machines, Lisp – это язык), которые разрабатывались специально для работы с ИИ. Причина – Лисп-машины не выдержали конкуренции с компьютерами Apple и IBM. Считается, что вторую большую зиму спровоцировало именно это событие;
- в 1988 году DARPA сократило финансирование ИИ снова, в рамках программы Strategic Computing Initiative.
Были и другие события, которые перечислены, например, в этой публикации. Но эти четыре упоминаются чаще остальных.
Каждый раз после очередной зимы наступала весна, и вот мы имеем множество продвинутых инструментов, в развитии которых когда-то разочаровались крупные инвесторы.
У меня был пост про то, почему ИИ сложнее, чем кажется, и там я упомянула такое явление, как «зима ИИ». Теперь хочу углубиться в эту тему.
Зима ИИ – это период, в течение которого снижается инвестиционная привлекательность области. Люди, которые раньше финансировали новые проекты, разочаровываются в результатах и прикрывают денежную лавочку. Такие периоды перемежаются с «вёснами ИИ», когда, вдохновленные очередным изобретением, инвесторы вкладывают свой капитал в развитие ИИ.
Часто выделяют две больших зимы: со второй половины семидесятых до начала восьмидесятых и с конца восьмидесятых (или начала девяностых) до начала двухтысячных. Четких границ нет, все очень приблизительно.
Помимо них некоторые источники выделяют зимы поменьше, но, опять же, мнения относительно их границ расходятся. Совпадают обычно оценки некоторых крупных событий, которые повлияли на снижение интереса ИИ и разочарование в технологии как таковой:
- в 1966 году Automatic Language Processing Advisory Committee опубликовал отчет «Language and Machines. Computers in Translation and Linguistics» с предложением прекратить инвестиции в развитие машинного перевода, потому что (говорили они) это безнадежная технология, это слишком дорого, а качество машинного перевода слишком низкое. Впрочем, в качестве рекомендации комитет предложил продолжать изучать компьютерные методы в лингвистике, потому что лингвистика – это важно, и не надо судить всю область по отсутствию немедленных результатов;
- в семидесятых годах DARPA (Управление перспективных исследовательских проектов Министерства обороны США, вкладывает в исследования очень много денег) прекратила финансирование программ, связанных с распознаванием речи. В проектах, финансируемых DARPA, участвовали крупные исследовательские институты и коммерческие компании, так что прекращение финансировавния сильно повлияло на развитие области (хотя такие компании как IBM, например, решили в своих изысканиях не останавливаться);
- в 1987 году рухнул рынок Лисп-машин (Lisp machines, Lisp – это язык), которые разрабатывались специально для работы с ИИ. Причина – Лисп-машины не выдержали конкуренции с компьютерами Apple и IBM. Считается, что вторую большую зиму спровоцировало именно это событие;
- в 1988 году DARPA сократило финансирование ИИ снова, в рамках программы Strategic Computing Initiative.
Были и другие события, которые перечислены, например, в этой публикации. Но эти четыре упоминаются чаще остальных.
Каждый раз после очередной зимы наступала весна, и вот мы имеем множество продвинутых инструментов, в развитии которых когда-то разочаровались крупные инвесторы.
Зимы ИИ. Часть 2
Казалось бы, мы уже все видели, но нет.
Некоторые представители сообщества, изучающего развитие ИИ, полагают, что новая зима близко. Во-первых, появление и развитие генеративного ИИ породило высокие ожидания, что до сих пор каждый раз приводило к разочарованиям. У больших языковых (и не только) моделей есть ограничения, природа которых не всегда очевидна людям, которые не занимаются большими языковыми моделями на постоянной основе (не все то, что просто для человека, просто для ИИ – мы об этом уже говорили). Столкновение с этими ограничениями может отталкивать тех, кто был готов вложиться в развитие области. Во-вторых, на волне энтузиазма многие компании напихали генеративного ИИ везде, куда получилось, но не везде это было нужно. Подобное необдуманное использование технологии тоже приводит к фрустрации и разочарованию у пользователей. В-третьих, правовое регулирование ИИ еще достаточное сырое. Многие пользователи закономерно опасаются, что их данные могут быть использованы им во вред, а получить защиту будет не от кого.
С другой стороны, сейчас люди в целом знают об ИИ больше, чем когда-либо. Некоторые решения публикуются в общий доступ, и всякий, кому интересно, может заглянуть внутрь черного ящика. Многие эксперты в области занимаются просветительской деятельностью и рассказывают о существующих проблемах и потенциальных путях их решения. Поэтому, возможно, новая зима не будет такой уж долгой (глобальное потепление, которое мы заслужили).
Как бы то ни было, история развития ИИ движется по спирали от заголовков «ИИ заменит всех людей (теперь точно)» до заголовков «ИИ исчерпал себя (теперь точно)». Но мы это все уже видели.
Казалось бы, мы уже все видели, но нет.
Некоторые представители сообщества, изучающего развитие ИИ, полагают, что новая зима близко. Во-первых, появление и развитие генеративного ИИ породило высокие ожидания, что до сих пор каждый раз приводило к разочарованиям. У больших языковых (и не только) моделей есть ограничения, природа которых не всегда очевидна людям, которые не занимаются большими языковыми моделями на постоянной основе (не все то, что просто для человека, просто для ИИ – мы об этом уже говорили). Столкновение с этими ограничениями может отталкивать тех, кто был готов вложиться в развитие области. Во-вторых, на волне энтузиазма многие компании напихали генеративного ИИ везде, куда получилось, но не везде это было нужно. Подобное необдуманное использование технологии тоже приводит к фрустрации и разочарованию у пользователей. В-третьих, правовое регулирование ИИ еще достаточное сырое. Многие пользователи закономерно опасаются, что их данные могут быть использованы им во вред, а получить защиту будет не от кого.
С другой стороны, сейчас люди в целом знают об ИИ больше, чем когда-либо. Некоторые решения публикуются в общий доступ, и всякий, кому интересно, может заглянуть внутрь черного ящика. Многие эксперты в области занимаются просветительской деятельностью и рассказывают о существующих проблемах и потенциальных путях их решения. Поэтому, возможно, новая зима не будет такой уж долгой (глобальное потепление, которое мы заслужили).
Как бы то ни было, история развития ИИ движется по спирали от заголовков «ИИ заменит всех людей (теперь точно)» до заголовков «ИИ исчерпал себя (теперь точно)». Но мы это все уже видели.
IoA - Institute of Analytics
Are We Entering a New AI Winter? | IoA - Institute of Analytics
Artificial intelligence (AI) has experienced several cycles of intense optimism followed by periods of disillusionment and reduced funding, often referred to as
Блокчейн для решения проблем с доверием ИИ
В подкасте Super Data Science в эпизоде 809 прозвучала интересная идея об использовании технологии блокчейн для решения проблем галлюцинаций ИИ (примерно с 17 минуты они об этом говорят, если интересно). Если коротко, идея такая: блоки в цепочке нельзя удалить или перезаписать, поэтому в них можно хранить много ценной информации о том, как работает ИИ-агент (AI agent).
ИИ-агент – это любое ПО, которое выполняет конкретные пользовательские задачи, используя, очевидно, ИИ. К таким относятся, например: Astra от Google или MineDojo от Nvidia (и еще многие другие проекты). Они обладают определенной автономностью и умеют самостоятельно выполнять заранее предписанные задачи.
Так вот, ИИ-агент что-то делает самостоятельно и выдает некоторый результат, который может не совпадать с ожиданиями пользователя. Понять, что именно и на каком этапе пошло не так прям сходу нельзя, потому что внутренние процессы нигде не записываются. Мы запускаем агент – он генерирует ерунду. Мы пишем в поддержку, там запускают агента и говорят: «Он сгенерировал нам не такую ерунду, ошибка не воспроизводится, сорри нот сорри».
А если прикрутить к агенту блокчейн, то можно в смарт-контракты записывать, как наш агент пришел к своему умозаключению. Это позволило бы более эффективно выявлять ошибки и расследовать их причины (а значит, и устранять).
Краткая терминологическая справка
Смарт-контракт – это компьютерная программа, в которой прописаны определенные правила выполнения. Ее можно использовать, например, при покупке обычных товаров, поставив условие «запустить отправку товара A при получении суммы xxx на счет yyy. Если отправка не осуществляется в течение трех часов, деньги возвращаются на счет, с которого были получены». Можно регулировать страховые случаи или совершать крупные сделки, заниматься краудфандингом через смарт-контракты и так далее.
Исполнение смарт-контракта – это одна из форм транзакции. Транзакции могут быть любыми и содержать самую разнообразную информацию: временные метки, суммы денег, данные об отправителях и получателях, идентификаторы и прочее. Данные шифруются и хранятся не централизованно, а распределенно, на нескольких компьютерах (нодах). Ноды хранят транзакции и подтверждают новые, проверяя корректность информации в них. После проверки новая транзакция добавляется в цепочку транзакций и хранится там – это и есть блокчейн (я использовала книгу «Технология Блокчейн и NFT» Т. Казанцева, чтобы написать объяснение, а также этот и этот блог).
Применительно к контролю ИИ-агентов, смарт-контракты могут содержать название модели; название набора данных, на которых она обучена; последовательность шагов, которая была выполнена скрыто от пользователя; вероятность полученного ответа и так далее. Туда можно записать достаточно информации, чтобы развернуть всю цепочку событий и дойти до того момента, где логика работы была нарушена.
Благодаря такому подходу можно не только вылавливать и исправлять ошибки, но и, например, выявлять информацию, которая сгенерирована с использованием ИИ недобросовестным человеком и нарушает закон.
Идея не осталась идеей, а выросла в продукт, который называется Theoriq. У них есть статья, поэтому я собираюсь про Theoriq писать отдельный пост (может быть, получится даже его потестировать).
В подкасте Super Data Science в эпизоде 809 прозвучала интересная идея об использовании технологии блокчейн для решения проблем галлюцинаций ИИ (примерно с 17 минуты они об этом говорят, если интересно). Если коротко, идея такая: блоки в цепочке нельзя удалить или перезаписать, поэтому в них можно хранить много ценной информации о том, как работает ИИ-агент (AI agent).
ИИ-агент – это любое ПО, которое выполняет конкретные пользовательские задачи, используя, очевидно, ИИ. К таким относятся, например: Astra от Google или MineDojo от Nvidia (и еще многие другие проекты). Они обладают определенной автономностью и умеют самостоятельно выполнять заранее предписанные задачи.
Так вот, ИИ-агент что-то делает самостоятельно и выдает некоторый результат, который может не совпадать с ожиданиями пользователя. Понять, что именно и на каком этапе пошло не так прям сходу нельзя, потому что внутренние процессы нигде не записываются. Мы запускаем агент – он генерирует ерунду. Мы пишем в поддержку, там запускают агента и говорят: «Он сгенерировал нам не такую ерунду, ошибка не воспроизводится, сорри нот сорри».
А если прикрутить к агенту блокчейн, то можно в смарт-контракты записывать, как наш агент пришел к своему умозаключению. Это позволило бы более эффективно выявлять ошибки и расследовать их причины (а значит, и устранять).
Краткая терминологическая справка
Смарт-контракт – это компьютерная программа, в которой прописаны определенные правила выполнения. Ее можно использовать, например, при покупке обычных товаров, поставив условие «запустить отправку товара A при получении суммы xxx на счет yyy. Если отправка не осуществляется в течение трех часов, деньги возвращаются на счет, с которого были получены». Можно регулировать страховые случаи или совершать крупные сделки, заниматься краудфандингом через смарт-контракты и так далее.
Исполнение смарт-контракта – это одна из форм транзакции. Транзакции могут быть любыми и содержать самую разнообразную информацию: временные метки, суммы денег, данные об отправителях и получателях, идентификаторы и прочее. Данные шифруются и хранятся не централизованно, а распределенно, на нескольких компьютерах (нодах). Ноды хранят транзакции и подтверждают новые, проверяя корректность информации в них. После проверки новая транзакция добавляется в цепочку транзакций и хранится там – это и есть блокчейн (я использовала книгу «Технология Блокчейн и NFT» Т. Казанцева, чтобы написать объяснение, а также этот и этот блог).
Применительно к контролю ИИ-агентов, смарт-контракты могут содержать название модели; название набора данных, на которых она обучена; последовательность шагов, которая была выполнена скрыто от пользователя; вероятность полученного ответа и так далее. Туда можно записать достаточно информации, чтобы развернуть всю цепочку событий и дойти до того момента, где логика работы была нарушена.
Благодаря такому подходу можно не только вылавливать и исправлять ошибки, но и, например, выявлять информацию, которая сгенерирована с использованием ИИ недобросовестным человеком и нарушает закон.
Идея не осталась идеей, а выросла в продукт, который называется Theoriq. У них есть статья, поэтому я собираюсь про Theoriq писать отдельный пост (может быть, получится даже его потестировать).
YouTube
809: Agentic AI — with Shingai Manjengwa
#AgenticAI #MultiAgentAI #AIAgents
Agentic AI is revolutionizing the tech landscape, and Shingai Manjengwa from ChainML is joining @JonKrohnLearns in today's episode to tell us why. Discover how AI agents are becoming an integral part of our lives, automating…
Agentic AI is revolutionizing the tech landscape, and Shingai Manjengwa from ChainML is joining @JonKrohnLearns in today's episode to tell us why. Discover how AI agents are becoming an integral part of our lives, automating…
🔥3
Патентование ИИ. Часть 1
В прошлой жизни, еще в 2019 году вышел отчет Всемирной организации интеллектуальной собственности (ВОИС) про ИИ в рамках серии про технологические тренды. Информация для отчета была извлечена из патентов и научных публикаций, и это подводка к разговору о патентовании ИИ, в котором есть много чего интересного.
Во-первых, некоторое время ушло на то, чтобы понять, патентовать ли решения, относящиеся к ИИ. По общему правилу, математические методы и компьютерные программы не патентуются (Европейская патентная конвенция, ГК РФ). Спустя энное количество сломанных копий и судебных заседаний, человечество пришло к тому, что программное обеспечение и ИИ таки патентоспособны.
Во-вторых, сегодня ИИ уже активно используется в изобретательской деятельности (например, с помощью ИИ можно написать код, генерировать идеи, разрабатывать прототипы и так далее), и тут встает вопрос: а на кого регистрировать патент? Тут копья пока в процессе поломки, но можно наметить некоторые особенно острые темы.
Начнем с того, о чем договорились – о патентовании разработок на основе ИИ. Признание ИИ патентоспособным (с нюансами) выражается в разработке рекомендаций экспертам патентных ведомств относительно того, когда патент можно или нельзя выдать. Европейское патентное ведомство выпустило отдельное заявление по поводу того, что алгоритм ИИ можно запатентовать, если (вот здесь нюансы) такой алгоритм решает конкретную техническую задачу (таким образом покидая мир математических абстракций). В рекомендациях экспертам это правило прописано с примерами: в частности, просто алгоритм для классификации изображений запатентовать нельзя, а если он используется для обнаружения, например, опухолей на рентгеновских снимках – можно.
Подобные инструкции есть и в Великобритании. Там тоже прописано, когда ИИ вносит технический вклад в изобретение. В качестве примера установления наличия технического вклада приводится решение суда по спору между правообладателем патента и патентным ведомством. Предметом спора была выдача патента на нейросеть, в итоге в выдаче патента отказали, потому что не нашли технического вклада нейросети в изобретение. Но это ладно, а нам здесь интересно другое: суд постановил, что нейросеть к компьютерным программам не относится:
То есть, вообще экспертам рекомендуют не отказывать в выдаче патента на нейросеть на основании того, что «это компьютерная программа».
На сайте, ссылку на который я прикрепила выше, приводятся еще несколько судебных решений, важных для разных аспектов патентования ИИ. Не будучи юристом, я не полезу в эти дебри, остановлюсь только на заключении: алгоритмы ИИ патентоспособны, если они вносят технический вклад в разработку. Технический вклад не должен касаться объектов, исключенных из патентоспособности: бизнес-методов, методов обработки информации и т.п. Важно смотреть на конечную цель: если целью является анализ информации как таковой, патент получить нельзя. А если анализ информации используется для того, чтобы далее (с помощью ИИ) предсказывать ввод пользователя на виртуальной клавиатуре – можно.
Для России, к сожалению, удалось найти только Руководство по экспертизе заявок на изобретение от 2018 года, которое утратило силу. Аккуратно предположу, что у нас правила не сильно отличаются от общемировых, потому что патенты на разработки, связанные с ИИ, есть. Кроме того, есть позиция Евразийской патентной организации (ЕАПО), членом которой Россия является. ЕАПО тоже указывает на необходимость технического вклада ИИ в изобретение.
В прошлой жизни, еще в 2019 году вышел отчет Всемирной организации интеллектуальной собственности (ВОИС) про ИИ в рамках серии про технологические тренды. Информация для отчета была извлечена из патентов и научных публикаций, и это подводка к разговору о патентовании ИИ, в котором есть много чего интересного.
Во-первых, некоторое время ушло на то, чтобы понять, патентовать ли решения, относящиеся к ИИ. По общему правилу, математические методы и компьютерные программы не патентуются (Европейская патентная конвенция, ГК РФ). Спустя энное количество сломанных копий и судебных заседаний, человечество пришло к тому, что программное обеспечение и ИИ таки патентоспособны.
Во-вторых, сегодня ИИ уже активно используется в изобретательской деятельности (например, с помощью ИИ можно написать код, генерировать идеи, разрабатывать прототипы и так далее), и тут встает вопрос: а на кого регистрировать патент? Тут копья пока в процессе поломки, но можно наметить некоторые особенно острые темы.
Начнем с того, о чем договорились – о патентовании разработок на основе ИИ. Признание ИИ патентоспособным (с нюансами) выражается в разработке рекомендаций экспертам патентных ведомств относительно того, когда патент можно или нельзя выдать. Европейское патентное ведомство выпустило отдельное заявление по поводу того, что алгоритм ИИ можно запатентовать, если (вот здесь нюансы) такой алгоритм решает конкретную техническую задачу (таким образом покидая мир математических абстракций). В рекомендациях экспертам это правило прописано с примерами: в частности, просто алгоритм для классификации изображений запатентовать нельзя, а если он используется для обнаружения, например, опухолей на рентгеновских снимках – можно.
Подобные инструкции есть и в Великобритании. Там тоже прописано, когда ИИ вносит технический вклад в изобретение. В качестве примера установления наличия технического вклада приводится решение суда по спору между правообладателем патента и патентным ведомством. Предметом спора была выдача патента на нейросеть, в итоге в выдаче патента отказали, потому что не нашли технического вклада нейросети в изобретение. Но это ладно, а нам здесь интересно другое: суд постановил, что нейросеть к компьютерным программам не относится:
Accordingly, the court held as a matter of construction the claimed invention was not a computer program at all (see paragraph 61). The computer program exclusion was not invoked by the claimed invention.
То есть, вообще экспертам рекомендуют не отказывать в выдаче патента на нейросеть на основании того, что «это компьютерная программа».
На сайте, ссылку на который я прикрепила выше, приводятся еще несколько судебных решений, важных для разных аспектов патентования ИИ. Не будучи юристом, я не полезу в эти дебри, остановлюсь только на заключении: алгоритмы ИИ патентоспособны, если они вносят технический вклад в разработку. Технический вклад не должен касаться объектов, исключенных из патентоспособности: бизнес-методов, методов обработки информации и т.п. Важно смотреть на конечную цель: если целью является анализ информации как таковой, патент получить нельзя. А если анализ информации используется для того, чтобы далее (с помощью ИИ) предсказывать ввод пользователя на виртуальной клавиатуре – можно.
Для России, к сожалению, удалось найти только Руководство по экспертизе заявок на изобретение от 2018 года, которое утратило силу. Аккуратно предположу, что у нас правила не сильно отличаются от общемировых, потому что патенты на разработки, связанные с ИИ, есть. Кроме того, есть позиция Евразийской патентной организации (ЕАПО), членом которой Россия является. ЕАПО тоже указывает на необходимость технического вклада ИИ в изобретение.