You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
На сайте CoNLL-U сказано, что "The HEAD and DEPREL values define the basic dependencies which must be strictly a tree." Дерево, как мы знаем, это связный граф без циклов. Словнет, при всей своей маленькости, позволяет себе и не-связность, и циклы.
Например, для предложения "Не знаю, что и сказать, мистер Холмс" получается что-то вроде такого:
┌► 1 Не PART advmod
┌─────└─ 2 знаю VERB
│ ┌────► 3 , PUNCT punct
│ │ ┌──► 4 что SCONJ obj
│ │ │ ┌► 5 и PART advmod
│ └─└─└─ 6 сказать VERB
│ └──► 7 , PUNCT punct
└────►┌─ 8 мистер NOUN nsubj
└► 9 Холмс PROPN appos
Или так.
Токен "сказать", страшно сказать, имеет самого себя в head. Наверное, это считается за рекурсию, но другой пример с рекурсией, честное слово, найти несложно.
Я полагаю, всё это следствие того, что нейронка творит что хочет. Юдипайп такого ожидаемо не творит. Диппавлов делает так же?
Есть идеи, как это можно обойти после инфера? Вероятности брать не максимальные, а комплексно, пробегая вероятностной моделью, например.
Идеи, как это обойти, иначе обучая?
Планы сделать первое или второе в обозримом будущем?
The text was updated successfully, but these errors were encountered:
saarus72
changed the title
Синтаксический парсинг: рекурсия,
Синтаксический парсинг: рекурсия, связность и другие вольности
Jun 22, 2021
На сайте CoNLL-U сказано, что "The HEAD and DEPREL values define the basic dependencies which must be strictly a tree." Дерево, как мы знаем, это связный граф без циклов. Словнет, при всей своей маленькости, позволяет себе и не-связность, и циклы.
Например, для предложения "Не знаю, что и сказать, мистер Холмс" получается что-то вроде такого:
Или так.
Токен "сказать", страшно сказать, имеет самого себя в head. Наверное, это считается за рекурсию, но другой пример с рекурсией, честное слово, найти несложно.
Я полагаю, всё это следствие того, что нейронка творит что хочет. Юдипайп такого ожидаемо не творит. Диппавлов делает так же?
Есть идеи, как это можно обойти после инфера? Вероятности брать не максимальные, а комплексно, пробегая вероятностной моделью, например.
Идеи, как это обойти, иначе обучая?
Планы сделать первое или второе в обозримом будущем?
The text was updated successfully, but these errors were encountered: