Как цитировать ChatGPT в научных статьях?
Цитирование или воспроизведение текста, созданного ChatGPT, в вашей статье
Если вы использовали ChatGPT или другие инструменты искусственного интеллекта в своем исследовании, опишите, как вы использовали этот инструмент, в разделе «Метод» или в аналогичном разделе вашей статьи. Для обзоров литературы или других видов эссе, ответов или рефератов вы можете описать, как вы использовали этот инструмент, во введении. В своем тексте предоставьте prompt - командный вопрос, который вы использовали, а затем любую часть соответствующего текста, который был создан в ответ.
Таким образом, цитирование текста ChatGPT из сеанса чата больше похоже на совместное использование результатов алгоритма; таким образом, сделайте ссылку на автора алгоритма записи в списке литературы и приведите соответствующую цитату в тексте.
Пример:
На вопрос «Является ли деление правого полушария левого полушария реальным или метафорой?» текст, сгенерированный ChatGPT, показал, что, хотя два полушария мозга в некоторой степени специализированы, «обозначение, что люди могут быть охарактеризованы как «левополушарные» или «правополушарные», считается чрезмерным упрощением и популярным мифом» (OpenAI, 2023).
Ссылка в списке литературы:
OpenAI. (2023). ChatGPT (версия от 14 марта) [большая языковая модель]. https://chat.openai.com/chat
Статья на русском и еще больше примеров - тут
#chatgpt #AI
___
@rujournals - Научные журналы и базы данных. Подписаться
Цитирование или воспроизведение текста, созданного ChatGPT, в вашей статье
Если вы использовали ChatGPT или другие инструменты искусственного интеллекта в своем исследовании, опишите, как вы использовали этот инструмент, в разделе «Метод» или в аналогичном разделе вашей статьи. Для обзоров литературы или других видов эссе, ответов или рефератов вы можете описать, как вы использовали этот инструмент, во введении. В своем тексте предоставьте prompt - командный вопрос, который вы использовали, а затем любую часть соответствующего текста, который был создан в ответ.
Таким образом, цитирование текста ChatGPT из сеанса чата больше похоже на совместное использование результатов алгоритма; таким образом, сделайте ссылку на автора алгоритма записи в списке литературы и приведите соответствующую цитату в тексте.
Пример:
На вопрос «Является ли деление правого полушария левого полушария реальным или метафорой?» текст, сгенерированный ChatGPT, показал, что, хотя два полушария мозга в некоторой степени специализированы, «обозначение, что люди могут быть охарактеризованы как «левополушарные» или «правополушарные», считается чрезмерным упрощением и популярным мифом» (OpenAI, 2023).
Ссылка в списке литературы:
OpenAI. (2023). ChatGPT (версия от 14 марта) [большая языковая модель]. https://chat.openai.com/chat
Статья на русском и еще больше примеров - тут
#chatgpt #AI
___
@rujournals - Научные журналы и базы данных. Подписаться
0. Ровно 0 статей российских ученых найдено в Scopus по теме ChatGPT. Впереди с большим отрывом США, затем Великобритания и Китай
#chatgpt #scopus
____
@rujournals - Научные журналы и базы данных. Подписаться
#chatgpt #scopus
____
@rujournals - Научные журналы и базы данных. Подписаться
2 июня в 11-00 (МСК) состоится вебинар
ИИ или не ИИ? Круглый стол онлайн
Эксперты:
Константин КОКАРЕВ, заведующий лабораторией академических компетенций и управления знаниями, директор библиотеки, Тюменский государственный университет
Денис КОСЯКОВ, заместитель заведующего научной лабораторией наукометрии и научных коммуникаций, Российский научно-исследовательский институт экономики, политики и права в научно-технической сфере (РИЭПП)
Юрий ЧЕХОВИЧ, канд. физ.-мат. наук, руководитель компании Антиплагиат
На круглом столе обсудят:
- какие угрозы и риски для научных и образовательных организаций несут технологии создания искусственных текстов;
- какие новые возможности для исследователей и студентов открывает ChatGPT;
- как относиться к искусственно сгенерированным текстам и надо ли выявлять участие ИИ в создании текста;
- можно ли подготовиться к жизни в новой реальности и подружиться с ИИ.
Бесплатная регистрация
#chatgpt
____
@rujournals - Научные журналы и базы данных. Подписаться
ИИ или не ИИ? Круглый стол онлайн
Эксперты:
Константин КОКАРЕВ, заведующий лабораторией академических компетенций и управления знаниями, директор библиотеки, Тюменский государственный университет
Денис КОСЯКОВ, заместитель заведующего научной лабораторией наукометрии и научных коммуникаций, Российский научно-исследовательский институт экономики, политики и права в научно-технической сфере (РИЭПП)
Юрий ЧЕХОВИЧ, канд. физ.-мат. наук, руководитель компании Антиплагиат
На круглом столе обсудят:
- какие угрозы и риски для научных и образовательных организаций несут технологии создания искусственных текстов;
- какие новые возможности для исследователей и студентов открывает ChatGPT;
- как относиться к искусственно сгенерированным текстам и надо ли выявлять участие ИИ в создании текста;
- можно ли подготовиться к жизни в новой реальности и подружиться с ИИ.
Бесплатная регистрация
#chatgpt
____
@rujournals - Научные журналы и базы данных. Подписаться
Один из сооснователей компании OpenAI, создателей ChatGPT, Илья Суцкевер родился в Нижнем Новгороде (Горьком) в 1986 году.
Его профиль в Scopus на скрине впечатляет.
51 публикация, 164 517 цитирований, Индекс Хирша - 35.
А вот и профиль в Scopus самого ChatGPT в Scopus. Пока что три публикации и 60 цитирований.
#scopus #chatgpt
____
@rujournals - Научные журналы и базы данных. Подписаться
Его профиль в Scopus на скрине впечатляет.
51 публикация, 164 517 цитирований, Индекс Хирша - 35.
А вот и профиль в Scopus самого ChatGPT в Scopus. Пока что три публикации и 60 цитирований.
#scopus #chatgpt
____
@rujournals - Научные журналы и базы данных. Подписаться
Nature официально запретил использовать сгенерированные изображения и видео в публикуемых авторских статьях
Редакция журнала объявила, что не будет публиковать изображения или видео, созданные с помощью генеративного ИИ.
Nature, основанный в 1869 году, публикует рецензируемые исследования по различным академическим дисциплинам, в частности, связанным с наукой и техникой. Издание является одним из самых цитируемых и влиятельных научных журналов в мире.
Недавнее ограничение в использовании искусственного интеллекта принято после месяцев интенсивных дискуссий и консультаций, вызванных ростом популярности таких инструментов как ChatGPT и Midjourney.
«Кроме статей, относящихся к искусственному интеллекту, Nature не будет публиковать контент, в котором фотографии, видео или другие иллюстрации были полностью или частично созданы с помощью генеративного искусственного интеллекта, по крайней мере в ближайшем будущем», — написало издание.
Использование генеративного ИИ несколько не сходится с этическими принципами журнала, отмечают редакторы. В частности, тех, что касаются «доброчестности и прозрачности», а также возможности цитировать источники данных на изображениях:
«Как исследователи, редакторы и издатели мы должны знать источники данных и изображений, чтобы была возможность проверить их точность и правдивость. Нынешние генеративные инструменты ИИ не предоставляют доступ к своим источникам, что делает невозможным такую проверку».
Все художники, редакторы, иллюстраторы и фотографы, которые публикуются на Nature, должны предоставить подтверждение, что их работы не были созданы или дополнены искусственным интеллектом.
Nature также отмечает, что практика определения авторского права является еще одним из препятствий для этического использования искусственного интеллекта в научных работах. Оригинального создателя ИИ-изображения трудно обнаружить, поскольку оно синтезируется из миллионов изображений из базы данных инструмента.
В то же время, журнал все еще позволяет публиковать текст, созданный инструментами типа ChatGPT, с соответствующими оговорками. Использование больших языковых моделей должно быть четко задокументировано в разделе методов или благодарностей статьи, однако в качестве автора такой инструмент никогда не будет указан.
#chatgpt
____
@rujournals - Научные журналы и базы данных. Подписаться
Редакция журнала объявила, что не будет публиковать изображения или видео, созданные с помощью генеративного ИИ.
Nature, основанный в 1869 году, публикует рецензируемые исследования по различным академическим дисциплинам, в частности, связанным с наукой и техникой. Издание является одним из самых цитируемых и влиятельных научных журналов в мире.
Недавнее ограничение в использовании искусственного интеллекта принято после месяцев интенсивных дискуссий и консультаций, вызванных ростом популярности таких инструментов как ChatGPT и Midjourney.
«Кроме статей, относящихся к искусственному интеллекту, Nature не будет публиковать контент, в котором фотографии, видео или другие иллюстрации были полностью или частично созданы с помощью генеративного искусственного интеллекта, по крайней мере в ближайшем будущем», — написало издание.
Использование генеративного ИИ несколько не сходится с этическими принципами журнала, отмечают редакторы. В частности, тех, что касаются «доброчестности и прозрачности», а также возможности цитировать источники данных на изображениях:
«Как исследователи, редакторы и издатели мы должны знать источники данных и изображений, чтобы была возможность проверить их точность и правдивость. Нынешние генеративные инструменты ИИ не предоставляют доступ к своим источникам, что делает невозможным такую проверку».
Все художники, редакторы, иллюстраторы и фотографы, которые публикуются на Nature, должны предоставить подтверждение, что их работы не были созданы или дополнены искусственным интеллектом.
Nature также отмечает, что практика определения авторского права является еще одним из препятствий для этического использования искусственного интеллекта в научных работах. Оригинального создателя ИИ-изображения трудно обнаружить, поскольку оно синтезируется из миллионов изображений из базы данных инструмента.
В то же время, журнал все еще позволяет публиковать текст, созданный инструментами типа ChatGPT, с соответствующими оговорками. Использование больших языковых моделей должно быть четко задокументировано в разделе методов или благодарностей статьи, однако в качестве автора такой инструмент никогда не будет указан.
#chatgpt
____
@rujournals - Научные журналы и базы данных. Подписаться
Зашихина И.М. Подготовка научной статьи: справится ли ChatGPT? // Высшее образование в России. 2023. Т. 32. № 8-9. С. 24–47 https://doi.org/10.31992/0869-3617-2023-32-8-9-24-47
Появление языковых сервисов искусственного интеллекта пробудило надежды, связанные с облегчением задач публикационной активности. Представители академического сообщества задались вопросом, смогут ли чат-боты оптимизировать процесс написания научных статей. Особое внимание вызвала языковая модель ChatGPT, способная, помимо прочего, генерировать тексты научной направленности. Случаи написания академических работ с помощью ChatGPT стали причиной появления целого ряда публикаций, анализирующих плюсы и минусы использования данной нейросети. В настоящей работе исследуется возможность использования ChatGPT для написания введения к научной статье по актуальной тематике управления Арктикой. Был создан ряд запросов к сети ChatGPT, основывающихся на логике общепринятого публикационного формата IMRAD. Для данного формата характерны структурно-функциональные элементы, которые послужили логическим основанием для запросов. Полученные от ChatGPT ответы были проанализированы на предмет их соответствия требованиям к научной статье, согласно публикационному формату IMRAD. Результат анализа показал, что ChatGPT не способен справиться c требованиями к публикациям научной статьи в современном научно-публикационном дискурсе.
#научныестатьи #chatgpt #ИИ
____
@rujournals - Научные журналы и базы данных
Появление языковых сервисов искусственного интеллекта пробудило надежды, связанные с облегчением задач публикационной активности. Представители академического сообщества задались вопросом, смогут ли чат-боты оптимизировать процесс написания научных статей. Особое внимание вызвала языковая модель ChatGPT, способная, помимо прочего, генерировать тексты научной направленности. Случаи написания академических работ с помощью ChatGPT стали причиной появления целого ряда публикаций, анализирующих плюсы и минусы использования данной нейросети. В настоящей работе исследуется возможность использования ChatGPT для написания введения к научной статье по актуальной тематике управления Арктикой. Был создан ряд запросов к сети ChatGPT, основывающихся на логике общепринятого публикационного формата IMRAD. Для данного формата характерны структурно-функциональные элементы, которые послужили логическим основанием для запросов. Полученные от ChatGPT ответы были проанализированы на предмет их соответствия требованиям к научной статье, согласно публикационному формату IMRAD. Результат анализа показал, что ChatGPT не способен справиться c требованиями к публикациям научной статьи в современном научно-публикационном дискурсе.
#научныестатьи #chatgpt #ИИ
____
@rujournals - Научные журналы и базы данных
ChatGPT: ящик Пандоры или путь в светлое будущее?
Сильные и слабые стороны внедрения инструментов генеративных технологий, степень их влияния на деятельность в сфере науки, образования, культуры и креативных индустрий обсудили эксперты в ходе специального баттла
В роли оппонентов выступили исполнительный директор компании «Антиплагиат» Юрий ЧЕХОВИЧ и заведующий научно-исследовательской лабораторией нейросетевых технологий и искусственного интеллекта Санкт-Петербургского политехнического университета Петра Великого Лев УТКИН.
Дискуссия состоялась в рамках XXI Всероссийской научно-практической конференции «Корпоративные библиотечные системы: технологии и инновации» («КорФор»).
Читать на сайте Университетской книги
#ИИ #chatgpt
____
@rujournals - Научные журналы и базы данных
Сильные и слабые стороны внедрения инструментов генеративных технологий, степень их влияния на деятельность в сфере науки, образования, культуры и креативных индустрий обсудили эксперты в ходе специального баттла
В роли оппонентов выступили исполнительный директор компании «Антиплагиат» Юрий ЧЕХОВИЧ и заведующий научно-исследовательской лабораторией нейросетевых технологий и искусственного интеллекта Санкт-Петербургского политехнического университета Петра Великого Лев УТКИН.
Дискуссия состоялась в рамках XXI Всероссийской научно-практической конференции «Корпоративные библиотечные системы: технологии и инновации» («КорФор»).
Читать на сайте Университетской книги
#ИИ #chatgpt
____
@rujournals - Научные журналы и базы данных
Константинова Л.В., Ворожихин В.В., Петров А.М., Титова Е.С., Штыхно Д.А. Генеративный искусственный интеллект в образовании: дискуссии и прогнозы. Открытое образование. 2023;27(2):36-48. https://doi.org/10.21686/1818-4243-2023-2-36-48
Целью работы является прогнозирование возможных трендов влияния генеративного искусственного интеллекта, в частности технологий ChatGPT, на образование. Прогнозные оценки формируются на основе анализа экспертных дискуссий об использовании данных цифровых технологий в образовании, ведущихся в настоящее время в публичном пространстве и в научном сообществе. Выделяются и сопоставляются основные группы экспертных мнений и научных подходов, что позволяет представить перспективное видение процессов интеграции генеративного искусственного интеллекта в образование. Анализ и прогноз в большей степени осуществляется на примере практик использования генеративного искусственного интеллекта в высшем образовании, однако основные положения и выводы могут быть экстраполированы и на другие уровни образования.
#научныестатьи #chatgpt
____
@rujournals - Научные журналы и базы данных
Целью работы является прогнозирование возможных трендов влияния генеративного искусственного интеллекта, в частности технологий ChatGPT, на образование. Прогнозные оценки формируются на основе анализа экспертных дискуссий об использовании данных цифровых технологий в образовании, ведущихся в настоящее время в публичном пространстве и в научном сообществе. Выделяются и сопоставляются основные группы экспертных мнений и научных подходов, что позволяет представить перспективное видение процессов интеграции генеративного искусственного интеллекта в образование. Анализ и прогноз в большей степени осуществляется на примере практик использования генеративного искусственного интеллекта в высшем образовании, однако основные положения и выводы могут быть экстраполированы и на другие уровни образования.
#научныестатьи #chatgpt
____
@rujournals - Научные журналы и базы данных
Профиль автора ChatGPT (аннулированный) в Scopus. 3 статьи в 2 журналах за все время, где одним из авторов был указан ChatGPT. Одна редакционная статья в журнале Elsevier и две в иракском журнале были опубликованы в начале 2023 года, причем для статьи в журнале Elsevier затем опубликовали коригендум, где указано, что ChatGPT исключен из соавторов. Таким образом, мы видим, что публикаций с указанным соавторством ChatGPT фактически нет.
#chatgpt #scopus
____
@rujournals - Научные журналы и базы данных
#chatgpt #scopus
____
@rujournals - Научные журналы и базы данных
Искусственный_интеллект_в_издательском+деле.pdf
1.2 MB
Материалы вебинара Elpub "Искусственный интеллект в издательском деле"
Было анонсировано в рамках вебинара:
- познакомимся с существующими известными инструментами ИИ в издательском деле;
- обсудим возможности их использования;
- перечислим плюсы и минусы использования инструментов с ИИ;
- рассмотрим меры, которое издательское и научное сообщество принимает для минимизации последствий некорректного использования инструментов с ИИ, а также риска возникновения и распространения ложных данных.
Спикер: Зельдина Марина Михайловна, руководитель группы экспертов Elpub
#ИИ #chatgpt
____
@rujournals - Научные журналы и базы данных
Было анонсировано в рамках вебинара:
- познакомимся с существующими известными инструментами ИИ в издательском деле;
- обсудим возможности их использования;
- перечислим плюсы и минусы использования инструментов с ИИ;
- рассмотрим меры, которое издательское и научное сообщество принимает для минимизации последствий некорректного использования инструментов с ИИ, а также риска возникновения и распространения ложных данных.
Спикер: Зельдина Марина Михайловна, руководитель группы экспертов Elpub
#ИИ #chatgpt
____
@rujournals - Научные журналы и базы данных
Раицкая Л. К., Ламбовска М. Р. Перспективы применения ChatGPT для высшего образования: обзор международных исследований // Интеграция образования. 2024. Т. 28, № 1. С. 10–21. https://doi.org/10.15507/1991-9468.114.028.202401.010-021
Введение. Появление в 2022 г. высокоэффективного генеративного предобученного трансформера ChatGPT привело к распространению этой технологии, способной генерировать тексты любых жанров, сложности и стиля. Письменная коммуникация охватывает все сферы человеческой учебной и профессиональной деятельности, что и стало главной причиной практически мгновенного внедрения технологии в образование, науку, журналистику, массовую коммуникацию, медицину и другие области. Академическое сообщество активно обсуждает вероятные последствия и потенциал ChatGPT прежде всего для образования, медицины и науки в целом.
Цель исследования – анализ международных публикаций о влиянии и потенциале ChatGPT в высшем образовании, выявление основных направлений исследований.
Материалы и методы. На основе методики PRISMA в базе Scopus с использованием критериев включения (период, языки, области знания, тематика) отобраны 190 публикаций (статей и обзоров). Публикации были проанализированы и распределены по семи тематическим кластерам.
Результаты исследования. В результате анализа отобранных публикаций выделены и проанализированы тематические кластеры в контексте применения технологий ChatGPT: высшее образование (71 публикация), образование по различным группам специальностей (37 публикаций), письменные задания и обучение языку (24 документа), оценивание в образовательных системах (22 публикации), медицинское образование (18 публикаций), этика и академическая честность (15 публикаций) и восприятие технологии (12 документов).
Обсуждение и заключение. Анализ потенциала и негативных аспектов ChatGPT в высшем образовании позволяет выделить области, где будут происходить самые серьезные трансформации: оценивание знаний и навыков, достоверность информации, компетенции и навыки, формируемые в высшей школе, этические аспекты научно-исследовательской деятельности, отдельные аспекты профессиональной подготовки. Выводы авторов коррелируют с опубликованными ранее обзорами по этой теме. Преодоление новых вызовов требует перестройки системы образования, введение новых форм обучения и оценивания. Результаты обзора могут быть использованы в дальнейших исследованиях по применению ChatGPT в образовании. Принимая во внимание большое количество публикаций по теме, следует регулярно анализировать развитие исследований в быстро развивающемся предметном поле.
#chatgpt #научныестатьи
____
@rujournals - Научные журналы и базы данных
Введение. Появление в 2022 г. высокоэффективного генеративного предобученного трансформера ChatGPT привело к распространению этой технологии, способной генерировать тексты любых жанров, сложности и стиля. Письменная коммуникация охватывает все сферы человеческой учебной и профессиональной деятельности, что и стало главной причиной практически мгновенного внедрения технологии в образование, науку, журналистику, массовую коммуникацию, медицину и другие области. Академическое сообщество активно обсуждает вероятные последствия и потенциал ChatGPT прежде всего для образования, медицины и науки в целом.
Цель исследования – анализ международных публикаций о влиянии и потенциале ChatGPT в высшем образовании, выявление основных направлений исследований.
Материалы и методы. На основе методики PRISMA в базе Scopus с использованием критериев включения (период, языки, области знания, тематика) отобраны 190 публикаций (статей и обзоров). Публикации были проанализированы и распределены по семи тематическим кластерам.
Результаты исследования. В результате анализа отобранных публикаций выделены и проанализированы тематические кластеры в контексте применения технологий ChatGPT: высшее образование (71 публикация), образование по различным группам специальностей (37 публикаций), письменные задания и обучение языку (24 документа), оценивание в образовательных системах (22 публикации), медицинское образование (18 публикаций), этика и академическая честность (15 публикаций) и восприятие технологии (12 документов).
Обсуждение и заключение. Анализ потенциала и негативных аспектов ChatGPT в высшем образовании позволяет выделить области, где будут происходить самые серьезные трансформации: оценивание знаний и навыков, достоверность информации, компетенции и навыки, формируемые в высшей школе, этические аспекты научно-исследовательской деятельности, отдельные аспекты профессиональной подготовки. Выводы авторов коррелируют с опубликованными ранее обзорами по этой теме. Преодоление новых вызовов требует перестройки системы образования, введение новых форм обучения и оценивания. Результаты обзора могут быть использованы в дальнейших исследованиях по применению ChatGPT в образовании. Принимая во внимание большое количество публикаций по теме, следует регулярно анализировать развитие исследований в быстро развивающемся предметном поле.
#chatgpt #научныестатьи
____
@rujournals - Научные журналы и базы данных
Gruda, Dritjon. "Three ways ChatGPT helps me in my academic writing." Nature (2024). https://doi.org/10.1038/d41586-024-01042-3
Статья об использовании искусственного интеллекта (ИИ) в частности чат-ботов, в академическом письме, редактировании и рецензировании. Автор, Дритйон Груда, признается, что почти ежедневно использует эти инструменты для улучшения формулировок в своих статьях, а также для получения альтернативной оценки работ, которые ему предлагают рецензировать или редактировать. Он подчеркивает, что ценность ИИ не заключается в том, чтобы просто слепо использовать его для создания текста, а в том, чтобы взаимодействовать с инструментом, используя собственные знания и экспертизу для улучшения результатов.
Статья описывает три основных способа, как чат-боты могут помочь в академическом письме:
1. Улучшение академического текста. Автор объясняет, что важно предоставить чат-боту точные инструкции и контекст работы для получения наилучших результатов. Использование чат-ботов помогает автору преодолеть трудности и дополнить свои идеи новыми перспективами, делая процесс разработки и уточнения идей более продуктивным.
2. Повышение качества рецензий. Автор рассказывает, как ИИ может быть полезным в процессе рецензирования статей. Он предлагает использовать чат-ботов для организации и формулировки обратной связи без напрямую вводить текст статьи, что позволяет обогатить обзор новыми перспективами и улучшить его качество.
3. Оптимизация редакторской обратной связи. Автор описывает, как ИИ помогает ему в роли редактора журнала, помогая создавать точные, эмпатичные и действенные отзывы без замены человеческих решений.
(пересказ - ChatGPT)
#научныестатьи #chatgpt #ИИ
___
@rujournals - Научные журналы и базы данных
Статья об использовании искусственного интеллекта (ИИ) в частности чат-ботов, в академическом письме, редактировании и рецензировании. Автор, Дритйон Груда, признается, что почти ежедневно использует эти инструменты для улучшения формулировок в своих статьях, а также для получения альтернативной оценки работ, которые ему предлагают рецензировать или редактировать. Он подчеркивает, что ценность ИИ не заключается в том, чтобы просто слепо использовать его для создания текста, а в том, чтобы взаимодействовать с инструментом, используя собственные знания и экспертизу для улучшения результатов.
Статья описывает три основных способа, как чат-боты могут помочь в академическом письме:
1. Улучшение академического текста. Автор объясняет, что важно предоставить чат-боту точные инструкции и контекст работы для получения наилучших результатов. Использование чат-ботов помогает автору преодолеть трудности и дополнить свои идеи новыми перспективами, делая процесс разработки и уточнения идей более продуктивным.
2. Повышение качества рецензий. Автор рассказывает, как ИИ может быть полезным в процессе рецензирования статей. Он предлагает использовать чат-ботов для организации и формулировки обратной связи без напрямую вводить текст статьи, что позволяет обогатить обзор новыми перспективами и улучшить его качество.
3. Оптимизация редакторской обратной связи. Автор описывает, как ИИ помогает ему в роли редактора журнала, помогая создавать точные, эмпатичные и действенные отзывы без замены человеческих решений.
(пересказ - ChatGPT)
#научныестатьи #chatgpt #ИИ
___
@rujournals - Научные журналы и базы данных
Nature
Three ways ChatGPT helps me in my academic writing
Nature - Generative AI can be a valuable aid in writing, editing and peer review – if you use it responsibly, says Dritjon Gruda.
Степанов В.К., Маджумдер М.Ш., Бегунова Д.Д. Методика применения большой языковой модели ChatGPT в библиотечно-библиографической деятельности. Научные и технические библиотеки. 2024;(4):86-108. https://doi.org/10.33186/1027-3689-2024-4-86-108
На основании проведённого исследования рассматриваются возможности применения системы искусственного интеллекта ChatGPT для улучшения и автоматизации традиционных библиотечно-библиографических процессов, таких как комплектование, библиографирование, индексирование и предоставление справок. Методика основывается на оценке способностей языковой модели при выполнении этих задач и предлагает подробные рекомендации по эффективному использованию ChatGPT в библиотечной практике. Описан процесс установки ChatGPT, рассмотрены ограничения данной модели, включая вариативность в генерации текста, «галлюцинации» (нерелевантные или несуществующие данные), разность в достоверности ответов ИИ-системы на различных языках и отсутствие актуализации информации. Предлагаются методы решения потенциальных проблем, связанных с указанными ограничениями. Предоставляются общие рекомендации по составлению запросов для максимально эффективного использования ChatGPT в библиотечной практике. Особое внимание уделено важности фактчекинга для проверки достоверности информации, полученной от языковой модели. Разработаны рекомендации, оптимизирующие и автоматизирующие процессы комплектования, библиографирования, индексирования и предоставления справок. В исследовании подчёркивается, что ChatGPT может стать мощным инструментом в библиотечном деле. Он обладает значительным потенциалом для упрощения и улучшения традиционных процессов.
#научныестатьи #ИИ #chatgpt
____
@rujournals - Научные журналы и базы данных
На основании проведённого исследования рассматриваются возможности применения системы искусственного интеллекта ChatGPT для улучшения и автоматизации традиционных библиотечно-библиографических процессов, таких как комплектование, библиографирование, индексирование и предоставление справок. Методика основывается на оценке способностей языковой модели при выполнении этих задач и предлагает подробные рекомендации по эффективному использованию ChatGPT в библиотечной практике. Описан процесс установки ChatGPT, рассмотрены ограничения данной модели, включая вариативность в генерации текста, «галлюцинации» (нерелевантные или несуществующие данные), разность в достоверности ответов ИИ-системы на различных языках и отсутствие актуализации информации. Предлагаются методы решения потенциальных проблем, связанных с указанными ограничениями. Предоставляются общие рекомендации по составлению запросов для максимально эффективного использования ChatGPT в библиотечной практике. Особое внимание уделено важности фактчекинга для проверки достоверности информации, полученной от языковой модели. Разработаны рекомендации, оптимизирующие и автоматизирующие процессы комплектования, библиографирования, индексирования и предоставления справок. В исследовании подчёркивается, что ChatGPT может стать мощным инструментом в библиотечном деле. Он обладает значительным потенциалом для упрощения и улучшения традиционных процессов.
#научныестатьи #ИИ #chatgpt
____
@rujournals - Научные журналы и базы данных
ntb.gpntb.ru
Методика применения большой языковой модели ChatGPT в библиотечно-библиографической деятельности | Степанов | Научные и технические…
OpenAI представила новую революционную нейросеть GPT-4o
Сегодня компания OpenAI в прямом эфире представила миру свое новейшее творение – нейронную сеть GPT-4o, которая обещает стать настоящей революцией в области искусственного интеллекта. Самое удивительное, что этот мощнейший ИИ будет доступен всем пользователям совершенно бесплатно.
GPT-4o поражает своей универсальностью и возможностями. В отличие от предыдущих моделей, новая нейросеть способна работать со всеми типами контента: текстом, звуком и изображениями. Это открывает безграничные перспективы для ее применения в различных сферах, от создания мультимедийного контента до анализа данных и решения сложных задач.
Еще одной впечатляющей особенностью GPT-4o является ее многоязычность. Нейросеть свободно владеет 50 языками, что делает ее поистине глобальным инструментом, способным преодолеть языковые барьеры и объединить людей по всему миру.
OpenAI не только представила новую нейросеть, но и анонсировала ряд значительных обновлений своих продуктов. Дизайн мобильного приложения и сайта компании будет полностью переработан, чтобы обеспечить пользователям еще более удобный и интуитивно понятный интерфейс. Кроме того, популярный чат-бот ChatGPT теперь будет доступен в виде приложения для компьютеров Mac, что несомненно порадует поклонников этой платформы.
Видео с примерами тут
#chatgpt
____
@rujournals - Научные журналы и базы данных
Сегодня компания OpenAI в прямом эфире представила миру свое новейшее творение – нейронную сеть GPT-4o, которая обещает стать настоящей революцией в области искусственного интеллекта. Самое удивительное, что этот мощнейший ИИ будет доступен всем пользователям совершенно бесплатно.
GPT-4o поражает своей универсальностью и возможностями. В отличие от предыдущих моделей, новая нейросеть способна работать со всеми типами контента: текстом, звуком и изображениями. Это открывает безграничные перспективы для ее применения в различных сферах, от создания мультимедийного контента до анализа данных и решения сложных задач.
Еще одной впечатляющей особенностью GPT-4o является ее многоязычность. Нейросеть свободно владеет 50 языками, что делает ее поистине глобальным инструментом, способным преодолеть языковые барьеры и объединить людей по всему миру.
OpenAI не только представила новую нейросеть, но и анонсировала ряд значительных обновлений своих продуктов. Дизайн мобильного приложения и сайта компании будет полностью переработан, чтобы обеспечить пользователям еще более удобный и интуитивно понятный интерфейс. Кроме того, популярный чат-бот ChatGPT теперь будет доступен в виде приложения для компьютеров Mac, что несомненно порадует поклонников этой платформы.
Видео с примерами тут
#chatgpt
____
@rujournals - Научные журналы и базы данных
Bornmann, L., Lepori, B. The use of ChatGPT to find similar institutions for institutional benchmarking. Scientometrics (2024). https://doi.org/10.1007/s11192-024-05039-7
В статье обсуждается возможность использования ChatGPT для поиска аналогичных организаций для целей бенчмаркинга в области науки и образования.
Авторы предлагают простой подход, который заключается в запросе ChatGPT на рекомендации организаций, которые похожи на фокусную организацию по двум критериям: активность в схожих научных областях и схожие ресурсы. Они проиллюстрируют использование ChatGPT на примерах Центра науки и технологии при Лейденском университете. Полученные результаты кажутся разумными. Однако, авторы подчеркивают, что результаты ChatGPT могут быть не всегда надежными и требуют оценки экспертом. Они также обсуждают преимущества и ограничения использования ChatGPT в научных исследованиях и высшем образовании, а также подчеркивают важность разработки стратегий запросов и улучшения качества результатов с помощью обратной связи.
Пересказ - perplexity.ai
#научныестатьи #chatgpt #ии
____
@rujournals - Научные журналы и базы данных
В статье обсуждается возможность использования ChatGPT для поиска аналогичных организаций для целей бенчмаркинга в области науки и образования.
Авторы предлагают простой подход, который заключается в запросе ChatGPT на рекомендации организаций, которые похожи на фокусную организацию по двум критериям: активность в схожих научных областях и схожие ресурсы. Они проиллюстрируют использование ChatGPT на примерах Центра науки и технологии при Лейденском университете. Полученные результаты кажутся разумными. Однако, авторы подчеркивают, что результаты ChatGPT могут быть не всегда надежными и требуют оценки экспертом. Они также обсуждают преимущества и ограничения использования ChatGPT в научных исследованиях и высшем образовании, а также подчеркивают важность разработки стратегий запросов и улучшения качества результатов с помощью обратной связи.
Пересказ - perplexity.ai
#научныестатьи #chatgpt #ии
____
@rujournals - Научные журналы и базы данных
SpringerLink
The use of ChatGPT to find similar institutions for institutional benchmarking
Scientometrics - In evaluative bibliometrics and higher education studies, one is frequently confronted with the task of comparing institutions with similar institutions. In this Letter to the...
Forwarded from Выше квартилей
Чат-боты: цитировать или не цитировать?
Растущий интерес к использованию искусственного интеллекта (ИИ) в написании научных работ и ряд скандалов, связанных с его недобросовестным применением в академической сфере, провоцируют острую дискуссию. Летисия Антунес Ногейра (Leticia Antunes Nogueira), руководитель проекта по искусственному интеллекту, и Ян Уве Рейн (Jan Ove Rein), библиотекарь-исследователь, оба — сотрудники NTNU опубликовали заметку (ч. 1, ч. 2), в которой сосредоточились на критике концепции цитирования языковых моделей в научных публикациях.
В заметке авторы сузили фокус до двух моделей (ChatGPT от OpenAI или Claude от Anthropic), так как предполагают, что пользователи, которые работают с инструментами, применяющими возможности GenAI в сочетании с другими системами (например, Perplexity и Scopus AI), будут ссылаться на оригинальные источники.
В политике ведущих мировых издательств и академических организаций существует общее мнение насчет того, что чат-боты не отвечают минимальным требованиям к авторству, однако вопрос о том, можно ли (и следует ли) цитировать чат-боты в качестве источников, остается открытым.
Сторонники цитирования сообщений чат-ботов отмечают, что цитирование необходимо как минимум по двум причинам:
· признание чужого вклада и влияния идей;
· раскрытие источников информации.
Эти два, казалось бы, простых аспекта связаны с некоторыми противоречиями.
Противники цитирования (и иногда использования) чат-ботов подчеркивают, что результаты, полученные с использованием ИИ, преимущественно невозможно отследить, воспроизвести или проверить. В дополнение к этим ощутимым аргументам, исследователи акцентируют внимание на нескольких этических аспектах:
🔹Ответственность авторов
Языковая модель не может нести ответственность за утверждения, включенные в публикацию от её «лица». Одно дело цитировать организацию (например, доклад ООН), и совсем другое — чат-бота. Организации состоят из людей и поэтому несут ответственность за предоставляемую информацию, чат-бот или его разработчики нести такую ответственность не могут.
🔹Загрязнение информационной среды
Упоминание чат-ботов в источниках ведет к загрязнению информационных экосистем. Если для обучения больших языковых моделей использовать данные, сгенерированные ИИ (т. е. тексты из Интернета, академические тексты и т. д.), это приведет к ухудшению качества моделей.
🔹ИИ — не истина в последней инстанции
Чат-боты не создавались как инструменты для информационных целей. Неопределенность в отношении качества их ответов обусловлена назначением и структурой чат-ботов, а не степенью технологической зрелости. Большие языковые модели (LLM) основаны на моделях использования языка, а не на информации, и вероятностны по своему принципу работы, а это означает, что некорректный результат в таком случае — особенность, а не ошибка.
APA рекомендует цитировать текст, полученный от чат-бота, как результат работы алгоритма: а именно, ссылаться на автора алгоритма в списке источников. Дело в том, что результаты «переписки» с ChatGPT невозможно воспроизвести. Сейчас в APA такие данные часто цитируются как личная переписка, но это не совсем корректно, потому что сгенерированный текст не исходит от чьей-либо личности. В то же время ICMJE и Elsevier занимают однозначную позицию и рекомендуют авторам не ссылаться на чат-боты.
Появление чат-ботов бросает вызов устоявшимся представлениям об источниках, информации и знании, которые совсем недавно считались само собой разумеющимися. Тем не менее, в эпоху искусственного интеллекта обеспечение целостности информационной экосистемы требует все больших усилий. По мнению авторов, поскольку связность и смыслы в любом случае находятся «в глазах смотрящего», наборы слов, полученные в результате вероятностных вычислений, нельзя назвать ни источниками, ни информацией, ни знаниями. Текст, генерируемый чат-ботами — скорее, воплощение отсутствия информации.
#ChatGPT #ИИ #искуственныйинтеллект #цитирование
Растущий интерес к использованию искусственного интеллекта (ИИ) в написании научных работ и ряд скандалов, связанных с его недобросовестным применением в академической сфере, провоцируют острую дискуссию. Летисия Антунес Ногейра (Leticia Antunes Nogueira), руководитель проекта по искусственному интеллекту, и Ян Уве Рейн (Jan Ove Rein), библиотекарь-исследователь, оба — сотрудники NTNU опубликовали заметку (ч. 1, ч. 2), в которой сосредоточились на критике концепции цитирования языковых моделей в научных публикациях.
В заметке авторы сузили фокус до двух моделей (ChatGPT от OpenAI или Claude от Anthropic), так как предполагают, что пользователи, которые работают с инструментами, применяющими возможности GenAI в сочетании с другими системами (например, Perplexity и Scopus AI), будут ссылаться на оригинальные источники.
В политике ведущих мировых издательств и академических организаций существует общее мнение насчет того, что чат-боты не отвечают минимальным требованиям к авторству, однако вопрос о том, можно ли (и следует ли) цитировать чат-боты в качестве источников, остается открытым.
Сторонники цитирования сообщений чат-ботов отмечают, что цитирование необходимо как минимум по двум причинам:
· признание чужого вклада и влияния идей;
· раскрытие источников информации.
Эти два, казалось бы, простых аспекта связаны с некоторыми противоречиями.
Противники цитирования (и иногда использования) чат-ботов подчеркивают, что результаты, полученные с использованием ИИ, преимущественно невозможно отследить, воспроизвести или проверить. В дополнение к этим ощутимым аргументам, исследователи акцентируют внимание на нескольких этических аспектах:
🔹Ответственность авторов
Языковая модель не может нести ответственность за утверждения, включенные в публикацию от её «лица». Одно дело цитировать организацию (например, доклад ООН), и совсем другое — чат-бота. Организации состоят из людей и поэтому несут ответственность за предоставляемую информацию, чат-бот или его разработчики нести такую ответственность не могут.
🔹Загрязнение информационной среды
Упоминание чат-ботов в источниках ведет к загрязнению информационных экосистем. Если для обучения больших языковых моделей использовать данные, сгенерированные ИИ (т. е. тексты из Интернета, академические тексты и т. д.), это приведет к ухудшению качества моделей.
🔹ИИ — не истина в последней инстанции
Чат-боты не создавались как инструменты для информационных целей. Неопределенность в отношении качества их ответов обусловлена назначением и структурой чат-ботов, а не степенью технологической зрелости. Большие языковые модели (LLM) основаны на моделях использования языка, а не на информации, и вероятностны по своему принципу работы, а это означает, что некорректный результат в таком случае — особенность, а не ошибка.
APA рекомендует цитировать текст, полученный от чат-бота, как результат работы алгоритма: а именно, ссылаться на автора алгоритма в списке источников. Дело в том, что результаты «переписки» с ChatGPT невозможно воспроизвести. Сейчас в APA такие данные часто цитируются как личная переписка, но это не совсем корректно, потому что сгенерированный текст не исходит от чьей-либо личности. В то же время ICMJE и Elsevier занимают однозначную позицию и рекомендуют авторам не ссылаться на чат-боты.
Появление чат-ботов бросает вызов устоявшимся представлениям об источниках, информации и знании, которые совсем недавно считались само собой разумеющимися. Тем не менее, в эпоху искусственного интеллекта обеспечение целостности информационной экосистемы требует все больших усилий. По мнению авторов, поскольку связность и смыслы в любом случае находятся «в глазах смотрящего», наборы слов, полученные в результате вероятностных вычислений, нельзя назвать ни источниками, ни информацией, ни знаниями. Текст, генерируемый чат-ботами — скорее, воплощение отсутствия информации.
#ChatGPT #ИИ #искуственныйинтеллект #цитирование
Bornmann, L., Wu, L. & Ettl, C. The use of ChatGPT for identifying disruptive papers in science: a first exploration. Scientometrics (2024). https://doi.org/10.1007/s11192-024-05176-z
Статья исследует использование ChatGPT для идентификации прорывных научных работ, что стало актуальной темой в области библиометрии. Авторы отмечают, что традиционные методы определения таких работ, основанные на подсчете публикаций и цитирований, могут быть сложными в вычислениях. ChatGPT, как генеративная текстовая система, предлагает более простую альтернативу.
Ключевые моменты статьи:
• Идентификация прорывных работ: В статье обсуждается индекс D, введённый Wu и другими в 2019 году, который помогает измерять прорывность научных публикаций. Индекс варьируется от 1 (прорывные исследования) до -1 (развивающиеся исследования).
• Эксперимент с ChatGPT: Авторы задали ChatGPT вопрос о пяти самых прорывных работах в астрофизике между 1995 и 2000 годами. ChatGPT предоставил список из семи работ, некоторые из которых получили Нобелевские премии.
• Анализ результатов: Хотя ChatGPT допустил некоторые ошибки в указании источников и годах публикации, результаты подтвердили значимость упомянутых работ. Четыре из пяти упомянутых статей имеют положительные значения индекса D и высокие показатели цитируемости.
• Потенциал ChatGPT: Авторы пришли к выводу, что ChatGPT может быть полезным инструментом для выявления прорывных исследований, хотя его использование требует критической оценки полученных ответов.
Статья поднимает вопросы о том, как ChatGPT выбирает и интегрирует информацию из различных источников и как это может повлиять на будущие исследования в области библиометрии.
Скачать
#chatgpt
____
@rujournals - Научные журналы и базы данных (НЖБД)
Статья исследует использование ChatGPT для идентификации прорывных научных работ, что стало актуальной темой в области библиометрии. Авторы отмечают, что традиционные методы определения таких работ, основанные на подсчете публикаций и цитирований, могут быть сложными в вычислениях. ChatGPT, как генеративная текстовая система, предлагает более простую альтернативу.
Ключевые моменты статьи:
• Идентификация прорывных работ: В статье обсуждается индекс D, введённый Wu и другими в 2019 году, который помогает измерять прорывность научных публикаций. Индекс варьируется от 1 (прорывные исследования) до -1 (развивающиеся исследования).
• Эксперимент с ChatGPT: Авторы задали ChatGPT вопрос о пяти самых прорывных работах в астрофизике между 1995 и 2000 годами. ChatGPT предоставил список из семи работ, некоторые из которых получили Нобелевские премии.
• Анализ результатов: Хотя ChatGPT допустил некоторые ошибки в указании источников и годах публикации, результаты подтвердили значимость упомянутых работ. Четыре из пяти упомянутых статей имеют положительные значения индекса D и высокие показатели цитируемости.
• Потенциал ChatGPT: Авторы пришли к выводу, что ChatGPT может быть полезным инструментом для выявления прорывных исследований, хотя его использование требует критической оценки полученных ответов.
Статья поднимает вопросы о том, как ChatGPT выбирает и интегрирует информацию из различных источников и как это может повлиять на будущие исследования в области библиометрии.
Скачать
#chatgpt
____
@rujournals - Научные журналы и базы данных (НЖБД)