Реальная наукометрия
21 мар 2019 в 15:40
DeC
|
---|
Ветка: Большой передел мира
Вчера вице-президент РАН Алексей Хохлов встретился с Виджи Кришнан, управляющим директором компании Clarivate Analytics, которая выпускает Web of Science. Для своего визита в Россию она подготовила интересную статистику.
Благодаря этим данным можно более четко рассмотреть успехи России и развеять несколько мифов. Успехи 1. Количество российских публикаций с 2012 по 2017 гг. выросло на 57%, а по исследовательским статьям – на 68%. За 2017 г. в Web of Science Core Collection проиндексировано 78 516 российских статей. 2. Количество журналов в Web of Science Core Collection с 2015 по 2018 гг. увеличилось в 1,8 раза – с 196 до 356. 3. В Российском индексе научного цитирования (RSCI) на платформе Web of Science сейчас присутствует 775 журналов и проиндексировано более 542 000 публикаций. Географическое распределение использования этих материалов весьма примечательно – Европа – 31%, Россия – 16%, Китай – 13%, Северная Америка – 12%, СНГ – 4%, остальные страны – 24%. 4. Россия находится на первом месте в мире по количеству профилей в ResearcherID – 130 582. Мы обгоняем США (120 522), Бразилию (113 254) и Китай (106 628). Мифы и реальность Миф 1. Российских статей становится больше, но их никто не цитирует. Реальность: Нормализованный по категориям индекс цитирования (CNCI) России за период с 2012 по 2017 гг. продемонстрировал рост с 0,66 до 0.83 (где 1 – среднемировой уровень). Проще говоря, если в 2012-м году нас цитировали на треть хуже среднемирового уровня, то теперь лишь на 17%. Для сравнения – значения этого показателя у Китая чуть менее 1, а у США, Великобритании, Германии и Франции – между 1,2 и 1,45. Вывод – нас стали цитировать в 1,25 раза лучше. Миф 2. Российских статей становится больше, но их качество падает. Реальность: За 2015-2018 гг. процент публикаций в журналах первого и второго квартиля (Q1 и Q2) неуклонно рос, а в Q3 и Q4 снижался. По данным за последний год практически сравнялось количество публикаций в верхних и нижних двух квартилях. Выводы: 1. Наукометрические показатели России неуклонно повышаются. 2. Они являются отражением повышения качества публикаций, а не только увеличения их количества. 3. Российские авторы публикуются всё больше, во всё более качественных журналах и со всё большим эффектом (цитированием). 4. Целевой показатель нацпроекта «Наука» по количеству журналов в Web of Science и Scopus (400 к концу 2021 года) является реальным и достижимым. https://www.facebook…2201617152 ![]()
|
|
![]() |
grizzly ( Профессионал ) |
21 мар 2019 в 17:01 |
Цитата: DeC от 21.03.2019 15:40:47
![]() |
Кali ( Специалист ) |
21 мар 2019 в 18:39 |
Цитата: grizzly от 21.03.2019 17:01:34
ЦитатаОсновные недостатки использования индекса цитирования:
- Индекс цитируемости не учитывает личный вклад автора (при подсчете ИЦ все равно писались ли статья десятью авторами или автор был один).
- В стандартной схеме ИЦ, используемой Web of Science, не учитываются ссылки на книги и другие публикации, отличные от журнальных статей см. Примеры 1–3). Не учитываются также ссылки в неанглоязычных источниках.
- В индексе цитируемости учитываются даже те ссылки, где статьи автора подвергаются серьезной критике (см. Пример 4) и результаты считаются ошибочными или просто недостоверными (например, с подтасованными экспериментальными данными).
- Некоторые пионерские работы незаслуженно забываются, а цитируются вторичные работы, опубликованные позже (см. Пример 5). В ряде случаев это связано с появлением различных приложений. См. также п. 11.
- Цитирование сильно зависит от журнала, где публикуется статья. Нередко наибольшее цитирование приносят не научные, а научно-популярные статьи (см. Пример 6).
- Если работа важная, но достаточно сложная для понимания, то её цитирование может откладываться на многие годы.
- Совершенно не учитываются ссылки на статьи, приведенные даже в известных и хорошо цитируемых книгах (подобные ссылки в книгах учеными обычно ценятся значительно выше, чем ссылки в обычных статьях).
- Мало цитируются статьи, опубликованные в переводных журналах (поэтому необходимо делать поправку при сравнении ИЦ российских и зарубежных ученых).
- Цитирование часто зависит от личных отношений и других случайных факторов.
- Существуют различные способы искусственного наращивания ИЦ (например, друзья и коллеги договариваются о взаимных цитированиях результатов друг друга и др.).
- Встречаются случаи, когда специально игнорируются и мало цитируются (вообще не цитируются) работы ученых, не принадлежащих доминирующей научной школе.
Указанные и некоторые другие недостатки сильно снижают объективность и значимость индекса цитируемости для оценки эффективности деятельности научных работников и преподавателей вузов. Рассмотрим
несколько ярких примеров, подчеркивающих недостатки ИЦ.
Пример 1. Григорий Перельман был выдвинут на две самые престижные международные премии в области математики (но отказался их получать) за результаты, опубликованные в трех препринтах в arXiv.org. На эти работы имеется множество ссылок в журналах, индексируемых Web of Science, однако поскольку препринты не индексируются этой системой, то все ссылки на них не учитываются при подсчете ИЦ (сказанное в полной мере относится также к индексу Хирша, о котором пойдет речь ниже).
Пример 2. Статью Б.П. Белоусова в 1951 г. дважды отклоняли в редакциях советских журналов, поэтому опубликовать результаты исследований колебательной реакции (реакция Белоусова–Жаботинского) он смог только в сокращенном виде спустя 8 лет в ведомственном сборнике, выходившем небольшим тиражом. Впоследствии эта статья стала одной из самых цитируемых в данной области. Web of Science игнорирует подобные публикации и ссылки на них.
Пример 3. Книги обычно являются итогом многолетней работы, куда помимо обзора существующих публикаций авторы часто включают ряд новых результатов, не опубликованных в других источниках (включение в книгу новых результатов приносит несомненную пользу поскольку увеличивает число потенциальных читателей и тираж книги). Исключение книг при стандартной схеме подсчета ИЦ – очевидная нелепость, поскольку в ИЦ в полной мере учитываются обзорные статьи (по статистике именно эти статьи цитируются больше всего), вообще не содержащие новых результатов.
Если, например, не учитывать оригинальные и часто цитируемые книги акад. Л.В. Овсянникова, то его ИЦ по данным Web of Science составляет всего I=33 (начиная с 1980 года); если книги учитывать, то ИЦ см. в табл. 2. (Здесь и далее данные по индексам цитируемости и Хирша соответствуют середине декабря 2013 г.)
Пример 4. Один американский ученый китайского происхождения с высоким индексом цитируемости (назовем его W) недавно написал много статей, которые примерно назывались так: "Новые точные решения уравнения (далее шло название уравнения)". Мой коллега профессор (назовем его K) обнаружил, что во всех этих статьях нет новых решений. В результате он опубликовал ряд статей, в которых было доказано, что в статьях W нет новых результатов. Через некоторое время K получил от W письмо примерно следующего содержания: "Ну что ты ко мне привязался? Знай, что все твои публикации, направленные против меня, повышают мой индекс цитируемости!"
Пример 5. К сожалению, известны случаи, когда история выдающихся научных достижений забывается или ее полностью или частично пытаются переписать. Приведем пару ярких примеров.
Публикации А. Пуанкаре (1897–1905 гг.), связанные с созданием основ специальной теории относительности (включая известную формулу E = mc2, условность понятия одновременности, принцип относительности, постоянство скорости света, преобразования Лоренца, инвариантность уравнений Максвелла и др.), предшествовали статье А. Эйнштейна & М. Марич (1905 г.), которую потом необоснованно стали считать основополагающей и многократно цитировали. Об объяснении этого парадокса и истории вопроса см., например, [7].
Китайские математики Цао Хуайдун и Чжу Сипин в 2006 г. предприняли неудачную попытку отнять приоритет доказательства гипотезы Пуанкаре у Г. Перельмана (2002–2003 гг.). Интересно отметить, что не содержащая новых результатов статья китайских математиков [9] цитируется более 100 раз по данным Web of Science (а оригинальные публикации Г. Перельмана вообще не учитываются)!
Пример 6. Наиболее престижные журналы Nature и Science часто помещают научно-популярные статьи, которые широко цитируются и индексируются Web of Science, но не содержат обоснованных научных результатов. По мнению Рэнди Шекмана (лауреат Нобелевской премии по медицине 2013 года) редакторов этих журналов, которые являются не учёными, а издателями, интересует прежде всего шумиха, сенсация и фурор.
ЦитатаУчёный, опубликовавший N статей, имеет индекс h, если h его статей цитируются не менее, чем h раз каждая, а любая из оставшихся (N–h) статей цитируются не более, чем h раз.
Для определения ИХ статьи автора нумеруют в убывающем порядке по суммарному числу ссылок на каждую из них (статьи с одинаковым цитированием произвольно располагаются одна за другой и последовательно нумеруются). Имеем C1 ≥ C2 ≥ C3 ≥ ... (Ck – число ссылок на k-ю работу). Если есть статья, номер которой k совпадает с числом её цитирований Ck, то это и есть индекс Хирша: h = k = Ck. Если такой статьи нет, то индекс Хирша h равен номеру статьи k, для которой одновременно выполняются два неравенства: Ck > k, Ck+1 < k+1. Эти неравенства можно заменить одним условием: (Ck – k)(Ck+1 – k – 1) < 0.
Индекс Хирша имеет достаточно сложную и весьма неубедительную интерпретацию, которая непонятна подавляющему большинству специалистов далеких от физики (включая, в первую очередь, людей, работающих в гуманитарных науках).
Индекс Хирша существенно зависит от области исследований. Например, в математике он существенно ниже, чем в физике, а в физике существенно ниже, чем в биохимии и медицине.
ИХ многократно критиковался в различных работах (см. например [10–12]).
Основные недостатки использования индекса Хирша:
- Индекс Хирша не учитывает информацию о наиболее важных высокоцитируемых работах.
Скрытый текст- Индекс Хирша не учитывает личный вклад автора (при подсчете ИХ все равно писались ли статья десятью авторами или автор был один).
- В стандартной схеме ИХ, используемой Web of Science, не учитываются ссылки на книги авторов. Не учитываются также ссылки в неанглоязычных источниках.
- В индексе Хирша учитываются даже те ссылки, где статьи автора подвергаются серьезной критике и результаты считаются ошибочными или просто недостоверными.
- Cтандартная система подсчета ИХ не различает цитирования данного ученого другими учеными от его самоцитирования. Это открывает возможности для искусственного увеличения ИХ.
- Два человека с одинаковыми ИХ могут иметь полную цитируемость (ИЦ), отличающуюся в десятки раз (см. Пример 7 ниже).
- Сопоставление ученых по ИХ может приводить к совершенно абсурдным результатам (см. Пример 8 ниже).
- Цитирование статей из переводных российских журналов происходит двумя различными способами: либо указывается англоязычное название журнала, либо латинскими буквами дается его русскоязычное название. Web of Science воспринимает цитирование такой статьи как цитирование двух различных статей (при этом ИХ может уменьшиться).
- Другие недостатки ИХ аналогичны недостаткам ИЦ, описанным в пп. 4–11 в разд. 2.
Рассмотрим пару конкретных примеров, подчеркивающих существенные недостатки сопоставления деятельности ученых по ИХ.
Пример 7. Первый ученый написал в соавторстве 10 статей, каждая из которых цитируется 10 раз. Второй ученый один написал 10 статей, каждая из которых цитируется 100 раз, и 100 статей, каждая из которых цитируется 10 раз. Индексы Хирша первого и второго ученого одинаковы и равны 10. При этом суммарная цитируемость этих ученых отличается в 20 раз в пользу второго ученого (даже без учета соавторства первого).
Пример 8. Первый ученый написал 5 книг, каждая из которых цитируется более 200 раз, а второй – одну статью, которая цитируется один раз. У первого ученого ИХ равен нулю (поскольку книги не учитываются), а у второго – ИХ больше и равен единице. При этом суммарная цитируемость этих ученых отличается более чем в 1000 раз в пользу первого ученого.
ЦитатаВ России создан прецедент: впервые уволен из института сотрудник, который искусственно «накручивал» себе индекс
цитируемости для поднятия научного статуса. Мошенническую схему раскрыли в Институте теоретической и экспериментальной биофизики РАН (ИТЭБ). За компанию с уволенным доктором наук Сергеем Гудковым, возглавлявшим совет молодых ученых, также отстранен от должности ученый секретарь института.
Оба «отличились» тем, что вставляли в работы аспирантов ссылки на свои статьи. Причем к месту и не к месту. К примеру, в публикации о переработке навоза могла спокойно появиться ссылка на статью о... гнойном перитоните.
ЦитатаПо данным Министерства науки и техники Китая рейтинг цитируемости китайских научных работ в мире вырос в два раза, что позволило стране поднятсья на второе место в мире по этому показателю. С 2007 по 2017 годы работы китайских ученых цитировались в различных международных документах 19 млн раз. В 2017 году по сравнению с 2016 года количество цитирований увеличилось на 29,9%. В конце 2016 года по данным Всемирной организации интеллектуальной собственности (ВОИС) в Китае впервые в мире получен миллион патентов на изобретения. Около 40% всех заявок на патенты, поданных в мире за год, пришлось на Китай. В течение двадцати лет в Китае подано 209 344 патентных заявок, что в два раза больше, чем США, которые занимают второе место в мире по этому показателю. При этом китайские учёные опубликовали около 33% мировых научных статей по нанотехнологиям, что является рекордным показателем в истории.
![]() |
Technocratus ( Слушатель ) |
21 мар 2019 в 22:08 |
Цитата: Kali от 21.03.2019 18:39:37
ЦитатаМошенническую схему раскрыли в Институте теоретической и экспериментальной биофизики РАН (ИТЭБ)... Оба «отличились» тем, что вставляли в работы аспирантов ссылки на свои статьи. Причем к месту и не к месту.
![]() |
Вика ( Практикант ) |
22 мар 2019 в 00:03 |
Цитата: Kali от 21.03.2019 18:39:37
![]() |
Кali ( Специалист ) |
22 мар 2019 в 13:00 |
Цитата: Вика от 22.03.2019 00:03:59