Выше квартилей
2.74K subscribers
110 photos
1 video
1 file
303 links
HSE: Home of Scientometrics and Expertise

Обучение и консультирование по практическим вопросам research evaluation и управлении наукой.

Все вопросы и предложения направляйте @vyshekbot или на почту Наукометрического центра ВШЭ: scientometrics@hse.ru
Download Telegram
Метрики изданий в Google Scholar

В июле Google Scholar опубликовал обновленные данные по метрикам научных журналов, включая сборники материалов некоторых инженерных и IT-конференций. Из списка были исключены издания, в которых было размещено менее 100 публикаций за период с 2018 по 2022 г., а также те, у которых не было ни одной цитируемой статьи, вышедшей в данный пятилетний период. Дополнительно были опубликованы списки из 100 наиболее высоко оцененных журналов на 11 языках, включая русский.

Мы сравнили список российских журналов в Google Scholar, «белый» национальный список, размещенный на сайте РЦНИ, и метрики изданий в недавно опубликованном Scimago Journal Report. Из 100 журналов в русскоязычном списке Google Scholar в список РЦНИ входят 29, а в SJR — 19. Поскольку Google Scholar работает по поисковым алгоритмам, его охват намного выше, чем у многих других наукометрических баз, но он не предусматривает оценки качества источников, которые являются наиболее значимыми для отдельных наук. Поэтому в топ-100 входит достаточно много журналов, которые редко попадают в экспертные списки в связи с особенностями редакционной политики.

Google Scholar включает в себя большое количество перекрестных ссылок на цитируемые источники. Он достаточно удобен, если нужно быстро найти ссылку на оригинальную публикацию в конкретном журнале или проанализировать источники определенной статьи. Тем не менее широкий охват служит и определенным препятствием для адекватной оценки уровня и значимости отдельных изданий, так как селективность исходной выборки играет немаловажную роль в построении надежных показателей. Поэтому мы советуем с крайней осторожностью подходить к выбору места публикации лишь на основании представленных данных и обращаться к другим источникам, включая экспертные списки.

#GoogleScholar #рейтинги #hиндекс
​​Об индексе Хирша на среднем цитировании: новая метрика – старые проблемы?

В последние годы h-индекс остается одним из наиболее широко используемых и одновременно обсуждаемых наукометрических показателей (в том числе и в нашем руководстве). Так, совсем недавно мы рассказывали о рейтинговании изданий в Google Scholar на основе журнального индекса Хирша, отметив при этом определенные недостатки используемого подхода. Критики зачастую подчеркивают, что h-индекс недооценивает молодых ученых, к тому же с его помощью оказывается довольно сложно сравнивать различные дисциплинарные области, обладающие своими особенностями цитирования. Попытки скорректировать методологию подсчета предпринимались неоднократно, в том числе и самим Х. Хиршем.

Новое прочтение показателя предложено в недавней работе бельгийского ученого И. Фассина. В ней автор развивает представленную ранее идею о ha-индексе – наибольшем числе публикаций, которые получили не менее ha цитат в среднем по годам. Такая нормализация, по мнению автора, позволяет уравнивать ученых, начавших свою карьеру относительно недавно и добившихся определенных успехов в науке, и признанных исследователей, у которых со временем ha-индекс остается относительно стабильным (пример сравнения динамики показателей приведен на картинке по данным статьи). Еще более значимое различие выявляется на журнальных подборках статей: хотя для рассмотренных в статье изданий показатель ha-индекса не уменьшается с течением времени, он значительно быстрее фиксирует достижение плато уровня цитируемости, чем индекс Хирша, отражающий накопительный эффект.

Между тем набор ограничений по использованию полученного индекса, упоминаемых И. Фассином в заключении, сводится к стандартным для h-индекса проблемам: невозможности выявления особенностей цитирования в отдельных науках и отсутствию учета эффекта мегаколлабораций при оценке публикационной активности авторов. Эти и другие недостатки h-подобных индексов служат хорошим напоминанием о том, что к любым подобным количественным показателям следует относиться с особой осторожностью и тем более слепо не полагаться на них при оценке публикационной активности.

#hиндекс #руководство #исследования
Дайджест: февраль 2024

Представляем второй дайджест новостей в сфере научной политики и наукометрии от команды нашего канала:

1. Пожалуй, главной новостью для отечественной науки за прошедший месяц стали события, связанные с празднованием юбилея РАН, о котором мы упоминали в одном из наших прошлых постов. В рамках торжественных мероприятий было объявлено, что ВАК, РЦНИ и издательство “Наука” перейдут в подчинение Российской академии наук. На время переходного периода не беремся давать оценок проводимой реформе, но в том, что она затронет действующие принципы реализации научной политики можно практически не сомневаться. С интересом будем наблюдать за этими изменениями!

2. В Science вышла статья о новых способах накрутки цитирований. Авторы, упомянутые в статье, проанализировали методы, которые используют недобросовестные исследователи для повышения h-индекса. В этих целях от имени вымышленного ученого ими были опубликованы написанные ChatGPT 20 статей, с которыми они проделали ряд агрессивных манипуляций (покупка цитирований, чрезмерное самоцитирование и т.д.), что позволило вымышленному ученому подняться на 36 место в рейтинге самых цитируемых исследователей в своей области. Заметку прокомментировал академик А. Хохлов в своём телеграм-канале.

3. В Scholary Kitchen вышла статья независимого исследователя, призывающая критически относиться к мировому рейтингу 2% самых влиятельных ученых мира. Акира Абу проанализировал наиболее распространённые ошибки рейтинга Стэнфордского университета на основе данных Scopus. Согласно его наблюдениям в список ошибочно входит целый ряд авторов: ученые якобы ведущие публикационную активность с XIX века по сегодняшний день; авторы с сомнительной публикационной активностью (более 200 публикаций в год, включая материалы, которые не имеют отношения к науке (новости, редакторские заметки)) и т. д. Исследователь утверждает, что факт составления таких рейтингов является контрпродуктивным и потенциально может стимулировать ученых прибегать к манипуляциям ради получения более высокого места в рейтинге и соответствующего статуса.

4. Nature Human Behavior в сотрудничестве с Институтом репликации будет поощрять воспроизведение результатов статей, опубликованных в журнале с 2023 года. Повторные исследования будут проводиться как на оригинальных, так и на новых наборах данных. Целью инициативы является повышение доверия к опубликованным статьям, а также улучшение качества и точности результатов исследований.

5. В Journal of Infometrics вышла статья об эффективности открытых данных в контексте эпидемий. Ученые проанализировали скорость распространения научной информации с момента вспышки Эболы в 1976 году до пандемии COVID-19. Так, например, средний временной разрыв между сбором данных и их публичным распространением за обозначенный период сократился на 99,56 %: с 626,94 дней для Эболы до 2,76 дней для COVID-19. Ученые подчеркивают, что эпидемии служат лакмусовой бумажкой эффективности открытых данных в реагировании на серьезные кризисы в области здравоохранения.

6. В Quantitative Science Studies вышла статья об OpenCitations Meta — новой базе метаданных научных публикаций, включающий данные из Crossref, DataCite (представившей недавно собственный корпус цитирования, на что обращают внимание коллеги) и PubMed. Он использует технологии Semantic Web и присваивает новые глобальные постоянные идентификаторы (PID), а автоматизированная обработка в соответствии с моделью данных OpenCitations обеспечивает прозрачность и целостность данных, что не имеет, по заявлению авторов, аналогов в других библиографических базах данных. Доступен через различные интерфейсы, включая SPARQL и API REST. Появление очередной инициативы вновь демонстрирует интересует к реализации принципов открытой науки.

#дайджест #открытыеданные #воспроизводимость #hиндекс