Почему-то мне кажется, что стихосложение - это скорее развлечение, вид игры в головоломки, чем серьёзное дело. Впрочем, как и любое искусство. Однако искусство стихосложения по сути - это искусство написания рассказа, а ритм, использование словоформ и т.д. - не более чем изощрённый алгоритм оптимизации. Я даже думаю, что скоро какой-нибудь скучающий айтишник напишет сервис по переработке (рендерингу) прозы в стихотворные тексты. И вот как он это сделает.
На входе у нас есть текст, который переформатируется в последовательную цепочку (или несколько цепочек) понятий, каждое из которых записано на определённом сленге. Этот текст просто прогоняется через алгоритм оптимизации:
Из всего корпуса слов выбираются области, соответствующие заявленным на входе сленгам.
Выбираются слова, соответствующие нужным понятиям. Выстраиваются в последовательности.
Чем короче повторяющаяся ритмическая фраза (чередование ударных и безударных слогов), тем выше балл.
Чем ближе последовательность слов к последовательности понятий, тем выше балл.
Чем точнее последовательность слов, их падежи, пунктуация к естественному языку, тем выше балл.
Чем корректнее звучание слов соотносится с короткими последоваельностями понятий, тем выше балл.
Чем меньше слов - заполнителей (ну, это, как бы сказать, так называемых лишних слов), а также повторов, тавтологий, уточнений (или наоборот размытостей понятий (когда вместо конкретного слова используется более общее понятие в надежде что читатель сам, по контексту, уточнит его) - тем выше балл.
И наконец (если хочется), чем больше фонетических совпадений через равные промежутки (рифма, или, математически, к примеру слог n*(k) совпадает со слогом n(k+2) для всех k при минимальном количестве значений n), тем выше балл.
Самое сложное при создании такой системы - это собрать корпус слов. Остальное решается через нейросеть. А такие задачи, как определение грамотности и лаконичности уже давно решены.
И почему ещё никто не сделал сервис по стихосложению? Или уже сделал?
На входе у нас есть текст, который переформатируется в последовательную цепочку (или несколько цепочек) понятий, каждое из которых записано на определённом сленге. Этот текст просто прогоняется через алгоритм оптимизации:
Из всего корпуса слов выбираются области, соответствующие заявленным на входе сленгам.
Выбираются слова, соответствующие нужным понятиям. Выстраиваются в последовательности.
Чем короче повторяющаяся ритмическая фраза (чередование ударных и безударных слогов), тем выше балл.
Чем ближе последовательность слов к последовательности понятий, тем выше балл.
Чем точнее последовательность слов, их падежи, пунктуация к естественному языку, тем выше балл.
Чем корректнее звучание слов соотносится с короткими последоваельностями понятий, тем выше балл.
Чем меньше слов - заполнителей (ну, это, как бы сказать, так называемых лишних слов), а также повторов, тавтологий, уточнений (или наоборот размытостей понятий (когда вместо конкретного слова используется более общее понятие в надежде что читатель сам, по контексту, уточнит его) - тем выше балл.
И наконец (если хочется), чем больше фонетических совпадений через равные промежутки (рифма, или, математически, к примеру слог n*(k) совпадает со слогом n(k+2) для всех k при минимальном количестве значений n), тем выше балл.
Самое сложное при создании такой системы - это собрать корпус слов. Остальное решается через нейросеть. А такие задачи, как определение грамотности и лаконичности уже давно решены.
И почему ещё никто не сделал сервис по стихосложению? Или уже сделал?
For some reason, it seems to me that versification is more of an entertainment, a kind of puzzle game, than a serious matter. However, like any art. However, the art of versification is essentially the art of writing a story, and rhythm, the use of word forms, etc. - nothing more than a sophisticated optimization algorithm. I even think that soon some bored IT specialist will write a service for processing (rendering) prose into poetic texts. And this is how he will do it.
At the input, we have a text that is reformatted into a sequential chain (or several chains) of concepts, each of which is written on a specific slang. This text is simply run through an optimization algorithm:
From the entire corpus of words, the regions corresponding to the slang declared at the input are selected.
Words matching the desired concepts are selected. Line up in sequence.
The shorter the repeated rhythmic phrase (alternating stressed and unstressed syllables), the higher the score.
The closer the sequence of words to the sequence of concepts, the higher the score.
The more accurate the sequence of words, their cases, punctuation to the natural language, the higher the score.
The more correct the sound of words corresponds with short sequences of concepts, the higher the score.
The fewer words are placeholders (well, this is, so to speak, the so-called extra words), as well as repetitions, tautologies, refinements (or vice versa, fuzzy concepts (when instead of a specific word a more general concept is used in the hope that the reader himself, in context will clarify it) - the higher the score.
And finally (if you want), the more phonetic matches at regular intervals (rhyme, or, mathematically, for example, the syllable n * (k) coincides with the syllable n (k + 2) for all k with a minimum number of values n), the higher point
The most difficult part in creating such a system is to put together a corpus of words. The rest is decided through the neural network. And tasks such as determining literacy and conciseness have long been resolved.
And why hasn't anyone done a versification service yet? Or already done?
At the input, we have a text that is reformatted into a sequential chain (or several chains) of concepts, each of which is written on a specific slang. This text is simply run through an optimization algorithm:
From the entire corpus of words, the regions corresponding to the slang declared at the input are selected.
Words matching the desired concepts are selected. Line up in sequence.
The shorter the repeated rhythmic phrase (alternating stressed and unstressed syllables), the higher the score.
The closer the sequence of words to the sequence of concepts, the higher the score.
The more accurate the sequence of words, their cases, punctuation to the natural language, the higher the score.
The more correct the sound of words corresponds with short sequences of concepts, the higher the score.
The fewer words are placeholders (well, this is, so to speak, the so-called extra words), as well as repetitions, tautologies, refinements (or vice versa, fuzzy concepts (when instead of a specific word a more general concept is used in the hope that the reader himself, in context will clarify it) - the higher the score.
And finally (if you want), the more phonetic matches at regular intervals (rhyme, or, mathematically, for example, the syllable n * (k) coincides with the syllable n (k + 2) for all k with a minimum number of values n), the higher point
The most difficult part in creating such a system is to put together a corpus of words. The rest is decided through the neural network. And tasks such as determining literacy and conciseness have long been resolved.
And why hasn't anyone done a versification service yet? Or already done?
У записи 5 лайков,
1 репостов.
1 репостов.
Эту запись оставил(а) на своей стене Вера Ерасова