Поиск - новости науки и техники

По местам! Как поднять российские университеты в мировых рейтингах.

В дискуссии, поднятой “Поиском” (№52, 2012) по проблеме ранжирования российских университетов на мировом уровне, отмечалось, что в глобальных мировых рейтингах превалирует исследовательская составляющая и тем самым они применимы исключительно для исследовательских университетов. Говорилось, что нужны рейтинги с более широким спектром индикаторов, включая показатели качества образования. Подчеркивалось, что работа в этом направлении идет в рамках деятельности IREG (Международная экспертная группа по ранжированию. – Ред.) и Берлинских принципов ранжирования вузов и что России нужно принять в ней более активное участие. Так как дискуссия шла вокруг трех глобальных рейтингов – THE, QS, ARWU (хотя на самом деле их гораздо больше), я хотел бы уточнить общую ситуацию в отношении мировых университетских рейтингов.
Когда впервые возник британский Times Higher Education World University Rankings (THE), который первоначально охватывал всего 200 университетов, амбициозные китайцы захотели видеть в такого рода рейтингах побольше своих университетов. Тогда ими были созданы шанхайский (ARWU) и тайваньский (HEEACT) рейтинги, охватывающие 500 университетов мира. Они взяли на себя титаническую работу по сбору исходных данных из базы данных Web of Science, отказавшись от субъективных образовательных индикаторов, получаемых в результате опросов и имевших место в британском рейтинге. Шанхайский рейтинг по сравнению с тайваньским выглядит существенно хуже, так как два его индикатора из пяти слишком специфические – количество лауреатов Нобелевской и других престижных премий и количество публикаций в журналах Nature и Science. Возможно, поэтому, как сказал один из участников дискуссии, в Германии и пошла кампания по выходу из этого рейтинга. Британский рейтинг, основываясь на той же базе данных по цитируемости, помимо образовательных компетенций вуза учитывает также показатели их инновационной деятельности и международного сотрудничества. Я уже писал ранее, что опросные показатели этого рейтинга всегда вызывали критику в западном научном сообществе. Команда отпочковавшегося от рейтинга THE нового рейтинга – QS, увеличив количество ранжируемых вузов до 750, упростила свою задачу, перейдя на базу данных SCOPUS, тем самым понизив статус своего рейтинга. При этом она значительно увеличила образовательную опросную составляющую (по сравнению с рейтингом THE), наняв огромное количество волонтеров со всего мира.
Взяв пример с китайцев, турки и испанцы увеличили количество ранжированных университетов до 2000-2500 и создали свои глобальные рейтинги. Один из них – URAP (University Ranking Academic Perfomance, TOP-2000), основываясь исключительно на базе данных Web of Science, имеет, на мой взгляд, преимущество по сравнению с шанхайским и тайваньским рейтингами (хотя все они – одного класса, то есть имеют весомую исследовательскую составляющую). Еще один рейтинг – SIR (SCImago Institutions Rankings, TOP-3290) – помимо университетов сопоставляет научно-исследовательские институты и центры и опирается исключительно на показатели публикационной активности и цитирования из базы данных SCOPUS. Он не слишком удобен в работе, так как публикуется в виде ежегодных отчетов в pdf-формате и из них нужно вручную выделять университеты.
Наиболее изощренные статистико-библиометрические методы расчета используются в построении лейденского рейтинга (Leiden Ranking), в нем ранжируются 500 лучших исследовательских университетов мира при различном сочетании индикаторов воздействия (impact) и соавторства (collaboration) без ввода интегрального показателя. И последним на сегодняшний день глобальным университетским рейтингом является испанский вебометрический рейтинг, охватывающий все университеты, имеющие автономные домены. Он полезен при разработке стратегий улучшения web-представления университетов.
Во всех названных мною рейтингах (за исключением HEEACT, который отсутствует сейчас в Интернете) два ведущих российских университета – МГУ им. М.В.Ломоносова и СПбГУ – представлены в TOP-500. Дополнительно в рейтинги QS, URAP и SIR входят (по итогам 2011-2012 годов), соответственно, 12, 12 и 22 российских университета. Именно в этих рейтингах реально участвовать всем федеральным и исследовательским университетам России. Но не пассивно, а активно. Например, сравнивая позиции российских университетов в различных рейтингах, можно увидеть, что Казанский и Дальневосточный федеральные университеты входят в QS, но отсутствуют в более обширном рейтинге URAP. Это означает, что они просто не были включены в расчеты последнего. Значит, надо самим заявлять эти университеты в него. То же самое касается и Нижегородского госуниверситета. Но самый сложный вопрос связан с идентификацией англоязычных названий университетов при подсчете их публикаций и цитирования в базах данных Web of Science и SCOPUS. Он вызывает большие затруднения у ведущих специалистов ВИНИТИ, работающих исключительно с этими базами данных, а что говорить о рейтинговых командах, которым надо обработать огромное количество университетов мира, не зная специфику национальных университетских систем? Названия российских университетов нередко меняются, в переводных журналах могут по-разному перевести название одного и того же вуза, разные авторы из одного университета могут давать разные интерпретации его названий. Для идентификации университетов рейтинговые команды работают с поисковыми инструментами Web of Science и SCOPUS, в последней системе, например, можно вести простой и расширенный поиск по названиям университетов, эти названия можно писать в кавычках или без них (это четыре варианта поиска). И во всех вариантах мы будем получать разные результаты…
А можно ли вообще обеспечить одномоментный сбор данных по публикациям и их цитированию по всей выборке университетов? Наверное, нет. По словам специалистов ВИНИТИ В.Маркусовой и О.Ки-рилловой, база данных Web of Science пополняется каждые две недели. Загрузка данных в SCOPUS происходит постоянно, причем пополнение массива идет не только по текущим выпускам, но и ретроспективой: принимаются новые журналы, архив старых за несколько лет, пополняются лакуны и т.п. Таким образом, из-за растянутого во времени сбора исходных данных по всей выборке университетов последние будут находиться в разных условиях. Те университеты, по которым сбор данных произошел в самом конце, получат, естественно, преимущество. Если повлиять на это мы не можем, то участвовать в процессе контроля и корректировки расчетов по всему перечню идентифицированных названий университетов необходимо. Для этого нужно тесно взаимодействовать с рейтинговыми командами.
Итак, когда у руководителей наших ведущих университетов возникают претензии и обиды на отсутствие их вузов в том или ином глобальном рейтинге, они должны сделать запрос в рейтинговую команду по поводу учета их университетов в соответствующих расчетах, выслать все возможные англоязычные названия своего вуза и попросить, чтобы им предоставили возможность корректировки подсчета публикаций и цитирований. Для этого во всех федеральных и исследовательских университетах должны быть свои команды по наукометрическим расчетам и поддержке университетской конкурентоспособности.
На вопрос, который ставили участники дискуссии по поводу необходимости создания российского глобального университетского рейтинга, можно ответить так. Если будет образцовая методология с четким пониманием того, откуда брать исходные данные, то, наверное, стоит попробовать, делая упор на охват постсоветских университетов и университетов развивающихся стран, которые были в сфере влияния СССР. Но как убедить все ведущие европейские и североамериканские университеты участвовать в опросах? Это большой вопрос. Эти университеты хорошо себя чувствуют в уже устоявшихся рейтингах, возникающие новые их сильно не беспокоят, так как основаны на статистико-наукометрических данных (hard data), в которых вузы традиционно сильны, причем от них не требуется каких-либо усилий в подготовке этих данных.
Наша основная проблема состоит не в разработке своего глобального университетского рейтинга, а только в одном – как кардинально улучшить “видимость” результатов продвинутых российских научных исследований. Для этого не нужно много средств, не нужны мегагранты и другие проекты типа “Сколково”, а нужны, на мой взгляд, всего четыре малозатратные поддерживающие меры, о чем я уже ранее писал:
1. Публикационные гранты, например, по типу иранских (правительственные гранты до 20 тысяч евро за десяток “конвертируемых” публикаций и микрогранты в 300-500 евро из фондов государственных университетов за одну такую публикацию). На мой взгляд, именно эта мера позволила Ирану в прошлом году обойти Россию по общей публикационной активности (платформа SCIMAGO, SCOPUS-публикации).
2. Стратегии и политики по продвижению отечественных журналов в базы данных Web of Science и SCOPUS и улучшению позиционирования в них на основе методологии журнального бенчмаркинга. Плюс правительственные гранты по поддержке отечественных журналов, как это делается в Китае и ряде стран Латинской Америки.
3. Запуск Российской университетской декларации об открытом доступе к научному знанию с созданием мощной сети электронных архивов открытого доступа в российских университетах. По этому показателю в 2012 году Россию обошла Украина, благодаря принятой в 2008 году в рамках деятельности Приграничного белорусско-российско-украинского университетского консорциума Белгородской декларации об открытом доступе к научному и культурному наследию.
4. Масштабный запуск обучающих семинаров по использованию поисковой машины Google Scholar для целей поддержки научных исследований во всех федеральных и исследовательских университетах России, которые апробированы, например, в Харьковском, Таврическом и Белгородском исследовательских университетах. По большому счету, сейчас для ученых не нужен дорогостоящий для их университетов доступ к бумажным и электронным подпискам научной периодики, так как Google Scholar эффективно ищет статьи по всем известным научным платформам. Сюда же можно добавить обучающие семинары по рекламе уже опубликованных работ авторов и управлению публикациями (создание авторских профилей на платформах Web of Science, SCOPUS, Google Scholar и Research Gate.
На все эти меры, по моим оценкам, необходимо ежегодно затрачивать не более десятых долей российского научного бюджета. Но если Россия хочет втянуться в глобальную гонку за университетскими рейтингами и показателями публикационной активности по принципу “Publish or Perisch”, то следует учитывать и обратную сторону медали. К примеру, такая гонка в Китае, подогреваемая денежными вознаграждениями, грантами, бонусами и привилегиями, привела к поддельному рынку научных публикаций объемом в 150 млн долларов США в 2009 году (в 5 раз больше, чем в 2007 году), когда каждый третий китайский исследователь грешит плагиатом, фальсификацией и фабрикацией результатов исследований. Возможно, России, претендующей на роль глобального игрока на поприще науки, удастся достойно пройти этот путь, не повторяя негативного китайского опыта.

Владимир Московкин,
Белгородский государственный
национальный исследовательский
университет
Фото с сайта www.library.bsu.edu.ru

Нет комментариев