В статье Шарлин Чоу (Charlene Chou) и Тони Чу (Tony Chu) «Анализ использования BERT (модели обработки естественного языка) для компьютеризированного предметного индексирования в проекте «Гутенберг»» (An Analysis of BERT (NLP) for Assisted Subject Indexing for Project Gutenberg) рассматривается целесообразность использования моделей ИИ/ОЕЯ (Искусственный интеллект – Обработка естественного языка) для совершенствования процесса предметной индексации цифровых ресурсов. Модели BERT (Bidirectional Encoder Representations from Transformers— двунаправленный кодировщик-трансформер) широко используются в машинном индексировании коллекции проекта «Гутенберг», когда для индексации предлагаются предметные рубрики Классификации Библиотеки Конгресса США (LCC), отобранные по кодовым обозначениям подклассов LCC. Результаты данного исследования могут стать фундаментом для последующих разработок по автоматической предметной индексации цифровых библиотечных фондов.

BERT — нейросетевая модель-трансформер, предназначенная для предварительного обучения языковых представлений с целью их последующего применения в широком спектре задач обработки естественного языка. BERT является автокодировщиком.

  

УДК: 004.934:025.32

ГРНТИ: 20.19.17, 20.23.15; 28.23.11; 16.31.25, 16.31.31; 13.31.19

DOI: 10.1080/01639374.2022.2138666

 

Источник:

https://www.tandfonline.com/doi/full/10.1080/01639374.2022.2138666?scroll=top&needAccess=true&role=tab