СРАВНЕНИЕ ПЯТИ МЕТОДОВ ИЗВЛЕЧЕНИЯ ТЕРМИНОВ ПРОИЗВОЛЬНОЙ ДЛИНЫ

COMPARISON OF FIVE METHODS FOR VARIABLE LENGTH TERM EXTRACTION

Браславский П.И. (pb@imach.uran.ru), Соколов Е.А. (esokolov@list.ru)

Институт машиноведения УрО РАН, Екатеринбург


В статье рассматриваются пять методов автоматического выделения и «сборки» терминоподобных конструкций произвольной длины. Проведены эксперименты на корпусе статей «Информационного вестника ВОГиС». Предложена комбинированная методика оценки (экспертная и формальная), приведены результаты сравнительной оценки методов.


1. Введение

Задача выделения ключевых слов и терминов из текста возникает в библиотечном деле, лексикографии и терминоведении, а также в информационном поиске. Объемы и динамика информации, которая подлежит обработке в этих областях в настоящее время, делают особенно актуальной задачу автоматического выделения терминов и ключевых слов. Выделенные таким образом слова и словосочетания могут использоваться для создания и развития терминологических ресурсов, а также для эффективной обработки документов: индексирования, реферирования, классификации.

В наших предыдущих работах [2, 1] мы исследовали методы автоматического выделения двухсловных терминов-кандидатов из текста. В работе [2] мы сравнивали методы выделения устойчивых словосочетаний, которые используют: 1) статистику встречаемости пар и отдельных слов в тексте и 2) морфологические шаблоны-фильтры. Мы сравнили четыре метода: 1) прямой подсчет количества пар (freq); 2) t-тест; 3) χ2-тест; 4) отношение функций правдоподобия (LR). Как показала оценка, методы freq и t-тест сравнимы по эффективности и могут быть использованы для составления списка терминов-кандидатов в задачах полуавтоматического формирования терминологических ресурсов. Основной тип ошибок обоих методов – выделение устойчивых общеупотребительных словосочетаний, удовлетворяющих шаблонам. В работе [1] для повышения точности выделения терминов мы предложили использовать Веб в качестве контрастного корпуса, доступ к которому осуществляется с помощью поисковых машин интернета. Для отделения терминоподобных словосочетаний от общеупотребительных выражений мы использовали два параметра: 1) частотность словосочетания и 2) совместная встречаемость словосочетаний. Использование статистики по Вебу позволило улучшить качество выделения двухсловных терминов из корпуса статей «Информационного вестника ВОГиС».

В данной работе мы исследуем различные методы, которые могут быть использованы для выделения терминоподобных словосочетаний произвольной длины и структуры. Сложность этой проблемы в том, что для ее решения статистические подходы не так эффективны: при увеличении длины термина падает частота его встречаемости, в специализированном корпусе ограниченного объема термин может встречаться один-два раза. Наша первоначальная идея состояла в том, чтобы оценить возможность (и сложность) выделения длинных терминов, которые могут встречаться редко (даже один раз) в исследуемом тексте/корпусе. Поэтому методы характеризуются высокой полнотой и – как следствие – низкой точностью выделения терминов. Коль скоро ставится задача выделения терминов произвольной длины, делается минимум предположений о структуре термина (при реализации методов мы ввели ограничение: термины могут состоять только из существительных, полных прилагательных, причастий и порядковых числительных). Наш подход можно назвать подходом «чистой доски» (knowledge-poor approach): на этапе выделения терминов-кандидатов мы используем минимум информации о структуре и составе терминов, не используем словари, тезаурусы и другие семантические ресурсы, не делаем привязки к определенной предметной области. В процессе проведения эксперимента мы скорректировали наш план и провели автоматическую оценку методов с учетом частоты встречаемости кандидатов в термины (к сожалению, у нас не было возможности повторно провести экспертную оценку с учетом частоты встречаемости).

2. Исследуемые методы

Для сравнительного анализа мы выбрали и реализовали пять методов выделения терминов произвольной структуры.

2.1 MaxLen

Статья [8] описывает одну из первых систем для автоматизированного извлечения терминологии. Система LEХTER выделяет термины из корпуса технических текстов на французском для последующей обработки экспертом. Первый этап работы системы – выделение максимальных цепочек, содержащих термины. Эти цепочки определяются негативно: составляется список слов и знаков, которые не могут входить в термин. В нашей реализации в качестве таких разделителей мы рассматриваем знаки препинания, стоп-слова, глаголы, деепричастия; строки между этими разделителя рассматриваются как кандидаты в термины. Это наиболее простой из рассматриваемых методов.

2.2 C-value

Метод выделения многословных терминов, предложенный Frantzi et al. [9], поощряет словосочетания, не входящие в состав других, более длинных. Встречаемость длинных терминов в тексте ниже, чем коротких, и метод C-value был предложен для компенсации этого эффекта. Значение терминологичности рассчитывается так:

,

где

a – кандидат в термины,

|a| - длина словосочетания, измеряемая в количестве слов,

freq(a) – частотность a,

Ta – множество словосочетаний, которые содержат a,

P(Ta) – количество словосочетаний, содержащих a.

Легко видеть, что чем больше частота термина-кандидата и его длина, тем больше его вес. Но если этот кандидат входит в большое количество других словосочетаний, то его вес уменьшается.

2.3 k-factor

Метод, который мы обозначили k-factor, предложен в работе [7] и реализован в системе BootCaT. BootCaT служит для автоматического формирования тематического корпуса из Веба. Построение корпуса начинается с набора исходных терминов (seed terms). С помощью автоматических запросов к поисковой машине извлекаются документы, содержащие исходные термины; в свою очередь из этих документов извлекаются новые однословные термины (на основе сравнения частот в сформированном корпусе со «стандартным корпусом»), которые вновь можно использовать в качестве запросов, и т.д. Финальный корпус и список однословных терминов используется для итеративного извлечения многословных терминов. Метод можно рассматривать как упрощенный вариант метода C-value: если более короткий термин-кандидат встречается лишь немногим чаще, чем более длинный термин-кандидат, в который он полностью входит, то «основным» считается более длинный вариант. Отбором управляет пороговое значение отношения частот терминов k (в нашей реализации, как и в [7], k=0,7).

2.4 Window

Метод, описанный в [3], мы условно обозначили Window (в оригинальной статье он обозначен TERMS--). Идея метода близка двум предыдущим (C-value, k-factor) – наращивать словосочетания, если более короткие часто встречаются в составе более длинных. Однако в отличие от других методов, учитывается не только частота контактных случаев (слова непосредственно следуют друг за другом), но и совместная встречаемость в окне. На каждой итерации для каждого элемента списка запоминается его непосредственные соседи и соседи в текстовом окне. Создаются соответствующие таблицы, вычисляется частотность встречаемости пар. Далее, предполагается, что если пара элементов (на первом этапе – отдельных слов) встречается как непосредственные соседи более чем в половине случаев их появления в одном и том же текстовом окне, то эта пара представляет собой термин или фрагмент термина. Происходит склейка пары в единый элемент, таблицы пересчитываются так, как если бы этот элемент был известен с самого начала, до начала обработки текста, что дает возможность и дальше наращивать термин. Авторы приводят примеры длинных терминов, полученных этим методом: закон об обязательном страховании гражданской ответственности владельцев транспортных средств[1], исполнительный орган местного самоуправления. В нашей реализации размер окна – 9 слов. Если не накладывать ограничений на частоту встречаемости склеиваемых элементов, то метод объединит уникальные (с частотой 1) цепочки допустимых слов (т.е. повторит результат MaxLen).

2.5 Синтаксический анализ (АОТ)

Известно, что большинство терминов – это именные группы (хотя в [6], например, показано, что номинативность не является исключительной характеристикой терминов во многих предметных областях). В рамках этого метода в качестве терминов-кандидатов мы рассматриваем именные группы, выделенные с помощью синтаксического анализатора. Метод получил название по используемому анализатору – АОТ [5]. В нашей реализации мы брали синтаксические группы ПРИЛ_СУЩ и ГЕНЕТ_ИГ. После первичного анализа мы проредили список, исключив группы с однородными рядами (с запятыми, союзами и/или), а также группы, не содержащие ни одного русского слова (обычно библиографические ссылки). Полученные строки мы преобразовывали так, чтобы главное слово именной группы было словарной форме; другой обработки не проводилось (мы никак не обрабатывали стоп-слова, поэтому, например, самое частотное из выделенных методом словосочетаний – то же время). Метод на основе АОТ – единственный из рассматриваемых, который допускает наличие предлогов в составе кандидатов в термины.

3. Данные и инструменты

Мы проводили эксперименты на корпусе статей «Информационный вестник Вавиловского общества генетиков и селекционеров (ВОГиС)» [4], который использовался в наших предыдущих экспериментах [1]. Корпус содержит 100 статей разных авторов по генетике, селекции, а также смежным наукам, опубликованных в «Информационном вестнике ВОГиС» с 1997 по 2006 год. Были взяты все статьи журнала за этот период, за исключением редакционных статей, посвященных юбилеям ученых и памятным датам. Характеристики корпуса: всего слов – 256 255, без стоп-слов – 179 635. Система АОТ выделила в корпусе 35 737 предложений (судя по результатам, правила для конца предложения довольно простые: так, комбинация «точка+пробел» всегда интерпретируется как конец предложения), mystem выделил 27 880 предложений.

Для формальной оценки результатов мы используем русскую часть словаря терминов по молекулярной и клеточной биологии (http://www.mblogic.net/glossary/), предоставленную нам Анастасией Барышниковой. Словарь содержит примерно 6 300 входов (строк). Каждая строка может содержать несколько близких терминов, например: гипотеза гибридной ДНК; модель гибридной ДНК; гетеродуплексная модель ДНК; полярон-гибридная модель ДНК. Мы рассматриваем все термины словаря как равноправные (всего – 7 199), распределение длин терминов словаря выглядит следующим образом: 1 слово – 2 941; 2 слова – 3 110; 3 слова – 798; 4 слова – 214; 5 и больше слов – 136.

Интересно отметить, что словарь содержит достаточно много «терминов-метафор» (обычно употребляются в кавычках) – как однословных ("аркан", "булава", "восьмерка", "газон" и др.), так и многословных ("шитье назад", "горячая точка", "узлы-на-веревке", "счастливые уроды" и др.). Кроме того, словарь содержит много терминов специфической структуры, например, с цифрами (1-метил-4-амино-6-оксипиримидин, 4-тиоуридин и др.), греческими и латинскими буквами (α-гетерохроматин, β-талассемия, D-петли, F-эписома, HKG-бэндинг и др.), а также сложные термины (например, хронический остеомиелит длинных костей после огнестрельных повреждений).

Тексты анализировались в формате plain text. Корпус обрабатывался как монолитный документ, без учета разбиения на отдельные статьи. Морфологическая обработка (кроме метода АОТ) осуществлялась с помощью программы mystem (http://company.yandex.ru/technology/products/mystem/mystem.xml).

4. Методика оценки

Как и в предыдущих работах, мы комбинируем ручную (экспертную) оценку и формальную оценку по «эталонному списку» (словарю). В данном эксперименте мы несколько модифицировали методику, описанную в [2, 1].

В соответствии с нашим первоначальным планом, для экспертной оценки мы брали по 100 кандидатов из полных результатов работы каждого метода («длинного списка»). Для C-value мы брали верхушку (top100) отсортированного списка, для остальных методов – 100 случайных строк из списка с учетом длин: 33 – трехсловных, 33 – четырехсловных, 34 – длины пять и более слов. Объединенный «короткий» список содержит 492 строки.

Экспертная оценка организована следующим образом. Сначала эксперту предъявляется краткое описание предметной области, а также несколько положительных и отрицательных примеров терминов для данной области. После этого эксперт, используя простой интерфейс, последовательно для каждого элемента списка отвечает на вопрос: «Является ли данное словосочетание термином предметной области?» Варианты ответа эксперта: «да», «нет», «затрудняюсь ответить», а также «частично» (предъявленное словосочетание содержит термин или является частью более длинного термина). Список предъявляется эксперту «порциями» по 10 словосочетаний, порядок предъявления словосочетаний – случайный. Каждый термин-кандидат оценивается независимо двумя экспертами в данной предметной области. В случае сильной оценки термином считается словосочетание, которое оба эксперта признали термином; в случае слабой оценки только один из экспертов оценил словосочетание как термин.

Формальную оценку мы провели для «короткого», «длинного» и «среднего» списков. В последний попали только строки из «длинного списка» с частотой встречаемости больше единицы. Мы проводим два типа формальной оценки на основе 1) четкого и 2) нечеткого сравнения. В первом случае мы подсчитываем три параметра: 1) точные совпадения выделенных терминов с терминами словаря, 2) включение терминов словаря в выделенные словосочетания и 3) вхождение выделенного словосочетания в более сложные (четыре и более слова) термины словаря. При нечеткой оценке мы рассматриваем словосочетания как множества слов, приведенные к нормальной форме, а близость двух строк определяем как отношение количества совпавших слов к общему количеству уникальных слов в двух словосочетаниях: sim (S1, S2) = |S1 Ç S2| / |S1 È  S2|. При оценке мы считаем количество терминов-кандидатов, для которых в словаре есть хотя бы один термин с близостью ³0.5. Примеры близких терминов по этой метрике приведены в табл. 1.

5. Результаты

Примеры строк, которые были переданы экспертам для оценки, представлены в табл. 2. Результаты оценки списка из 492 кандидатов в термины («короткий список») приведены в табл. 3. Оценки экспертов совпали в 54% случаев. В рамках нашего предыдущего эксперимента мнения тех же экспертов при оценке двухсловных кандидатов из того же корпуса совпади почти в 80% случаев [1]. Очевидно, что причина двоякая: длинные цепочки слов менее однозначны и устойчивы, к тому же в данном эксперименте у экспертов было больше вариантов оценки (четыре против трех в предыдущем эксперименте). На 27 оценках (5%) мнения экспертов противоположны: «термин» vs. «не термин».

В табл. 4 приведены результаты формальной оценки полных результатов («длинный список») обработки корпуса ВОГиС различными методами. В табл. 5 сведены результаты формальной оценки «среднего списка» (состоит из строк, которые встречаются в корпусе минимум два раза), в табл. 6 приведены результаты нечеткой оценки кандидатов с учетом их длины в словах. 

Графики на рис. 1, 2 построены на основе обработки списков строк, полученных в результате работы разных методов и упорядоченных по частоте встречаемости в корпусе. Рис. 1 соответствует top500 всех пяти методов, рис. 2 – «среднему списку», полученному с помощью метода C-value (2 466 строк).

 

 Таблица 1. Примеры вычисления нечеткой близости строк

Строка-кандидат

Термин из словаря

sim

подавление экспрессии гена

экспрессия гена

0.67

стволовая нервная клетка

стволовая клетка

0.67

центральная нервная система

вегетативная нервная система

0.5

центральная нервная система

центральная нервная система

1.0

подавление экспрессии гена мишени

экспрессия гена

0.5

институт химической биологии

институт химической биологии и фундаментальной медицины

0.5

действие естественного отбора

естественный отбор

0.67

полимеразная цепная реакция

полимеразная цепная реакция

1.0

полимеразная цепная реакция

обратная полимеразная цепная реакция

0.75

российская академия наук

российская академия медицинских наук

0.75

генетическая дифференциация популяции

генетическая структура популяции

0.5

фенотип множественной лекарственной устойчивости

множественная устойчивость к лекарственным препаратам

0.5

 

Таблица 2. Примеры выделенных строк

MaxLen

уникальный цветовой баркод

боковые передающие цепочки

показатели ассортативности браков

фуражная ценность зеленой массы

здоровье населения алтайского края

уникальный генофонд пушных зверей

средним величинам антропометрических признаков метисы

сущность процессов редукционной эволюции субгеномов органелл

разнообразного типа специализированные дифференцированные клетки

геологами докембрийская летопись развития органического мира Земли

C-value

подавление экспрессии генов

теория естественного отбора

отрицательная обратная связь

центральная нервная система

расщепление фосфодиэфирной связи

экспрессия гена мишени

вторичная структура рнк

регуляция экспрессии гена

боковая петля рнк

множественная лекарственная устойчивость

подавление экспрессии гена мишени

k-factor

нехватка ионов марганца

Ненецкий автономный округ

резкое усиление действия

ядра клеток вентральной нейроэктодермы

часть указанных сложных вопросов

главный позитивный эффект миграции

частота наследственных болезней человека

период высокие индексы брачной ассортативности

кинетические характеристики расщепления синтетических фрагментов

нарушения общей устойчивости обмена веществ

Window

мощный способ идентификации

результат филогенетического анализа

уровень генетического разнообразия

наибольшее разнообразие микросателлитных гаплотипов

общие проблемы физико-биологии

упорный поиск общих законов наследования

отсутствие содержательной интерпретации анализируемых признаков

заманчивая легенда получения зерновой культуры

экспериментальная проверка эффективности селекционного индекса

генетическая характеристика удэгейцев Приморского края

АОТ

значимые коридоры миграции

различные гибридные комбинации

обоснованное хирургическое вмешательство

более древняя история происхождения

судьба больших групп животных

двигательная активность неонатальных крысят

благо совместных творческих междисциплинарных исследований

генетическая история алеутов Командорских островов

резкое снижение численности коренного населения

2000 полных митохондриальных геномов индивидуумов различного этнорасового происхождения

 

Таблица 3. Результаты оценки «короткого списка»

Оценка

MaxLen

C-value

k-factor

Window

АОТ

Экспертная,
«термин»

слабая

30

62

30

25

20

строгая

8

24

6

2

5

Экспертная,
«частично»

слабая

44

38

59

53

47

строгая

14

7

21

13

12

Формальная

точно

0

5

0

0

0

включение

66

70

70

71

63

вхождение

0

6

0

0

0

нечеткая

6

35

8

8

8

 

Таблица 4. Результаты формальной оценки «длинного списка»

Оценка

MaxLen

C-value

k-factor

Window

АОТ

размер списка

14 970

34 370

16 986

13 845

18 772

точно

23

34

27

14

33

включение

10 309

23 322

11 663

9 300

10 579

вхождение

11

29

8

6

17

нечеткая

1 613

3 640

1 836

1 382

1 712

 

Таблица 5. Результаты формальной оценки «среднего списка»

Оценка

MaxLen

C-value

k-factor

Window

АОТ

размер списка

743

2 466

1 949

1 352

1 190

точно

10

20

21

13

18

включение

492

1 643

1309

883

726

вхождение

4

15

5

3

6

нечеткая

150

501

420

267

196

 

Таблица 6. Результаты нечеткой формальной оценки «среднего списка»
с учетом длины кандидатов в термины

Длина

MaxLen

C-value

k-factor

Window

АОТ

всего

близко

всего

близко

всего

близко

всего

близко

всего

близко

3 слова

597

118

1 963

409

1 609

342

1 075

208

987

160

4 слова

114

27

375

82

273

69

230

54

171

34

5 и больше

32

5

128

10

67

9

47

5

32

2

Всего

743

150

2 466

501

1 949

420

1 352

267

1 190

196

 

Рис. 1. Доля строк, близких словарным, в зависимости от  длины списка.
Top500 «среднего списка», упорядоченного по убыванию  частот

 

Рис. 2. Доля строк, близких словарным, в зависимости от  длины списка.
«Средний список» метода C-value, упорядоченный по убыванию частот (2 466 строк)

6. Выводы

На основе анализа результатов можно сделать вывод, что сравниваемые методы дают в целом похожие результаты. Несколько лучше ведут себя методы, учитывающие вложенность терминов (C-value, k-factor). Выделение именных групп на основе синтаксического анализа без дополнительных ограничений дает худший результат (АОТ).  Сопоставление результатов экспертной и формальной оценок (см. табл. 3) позволяет сделать вывод, что формальные методы годятся для сравнения больших списков кандидатов в термины.

Учет частоты встречаемости строк существенно не повышает качество выделения терминов, если нас интересует хоть сколько-нибудь значительная полнота: на основании формальной оценки (см. рис. 1) можно предположить, что точность деградирует очень быстро (во всяком случае, для небольшого корпуса текстов). При этом в области редких строк «всегда есть что-то интересное»: примерно для каждой пятой строки на большом диапазоне списка есть близкий словарный термин почти постоянна  (см. рис. 2).

Распределение длин терминов из словаря по молекулярной и клеточной биологии, а также сильное ухудшение качества выделения длинных терминов (5 и более слов) подсказывает, что повысить качество и обеспечить хорошую полноту можно с помощью шаблонов для трех- и четырехсловных терминов. Как предлагается в других работах (например, [3]), использование семантических словарей сочетаемости, продуктивных и непродуктивных слов может существенно повысить качество выделения и сборки терминов.

Благодарности

Мы благодарим Анастасию Барышникову и Татьяну Струкову, которые приняли участие в оценке. Кроме того, мы благодарим Анастасию за предоставленный словарь, а также анонимного рецензента за ценные замечания по содержанию работы.

Литература

1.        Браславский П., Соколов Е. Автоматическое извлечение терминологии с использованием поисковых машин интернета // Компьютерная лингвистика и интеллектуальные технологии: Труды Междунар. конф. Диалог'2007. М.: Изд-во РГГУ, 2007. С. 89-94.

2.        Браславский П., Соколов Е. Сравнение четырех методов автоматического извлечения двухсловных терминов из текста // Компьютерная лингвистика и интеллектуальные технологии: Труды Междунар. конф. Диалог'2006. М.: Изд-во РГГУ, 2006. С. 88–94.

3.        Добров Б.В., Лукашевич Н.В., Сыромятников С.В. Формирование базы терминологических сочетаний по текстам предметной области // Электронные библиотеки: перспективные методы и технологии, электронные коллекции: Труды пятой Всероссийской научной конференции (С.-Петербург, 29-31 октября 2003 г.), 2003. С. 201–210.

4.        Информационный вестник ВОГиС, http://www.bionet.nsc.ru/vogis/

5.        Синтаксический анализ. Проект АОТ, http://www.aot.ru/docs/synan.html

6.        Шелов С.Д. Терминоведение: семь вопросов и семь ответов по семантике термина // НТИ. Сер. 2. Информационные процессы и системы, 2001. №2. С. 1-11.

7.        Baroni M., Bernardini S. BootCaT: Bootstrapping Corpora and Terms from the Web // Proceedings of LREC 2004. Lisbon: ELDA,  2004. P. 1313–1316.

8.        Bourigault D. Surface Grammatical Analysis for the Extraction of Terminological Noun Phrases // Proc. of COLING-92, Nantes, France, August 23-28, 1992. P. 977–981.

9.        Frantzi K., Ananiadou S., Mima H. Automatic recognition of multi-word terms: the C-value/NC-value method // Int J Digit Libr (2000) 3: 115–130.

 



[1] В нашей реализации этого метода предлоги не могут входить в состав строки-кандидата.