Comments 3
Спасибо за серию статей. Интересно было читать, до появления штатного модуля от проекта unimrcp портировал модуль из freeswitch на астериск.
С VXI* сложно, удавалось его запускать с минимальными функциями, но не используюя VoiceNavigator. Плюс общаться с работающей системой, авторы — испанцы. Охоно отвечают на возникающие вопросы
Вопросы с bargein можно решиь, модифицировав приложения в Asterisk Speech API, чтобы вместо указания статического звукового файла можно было указывать синтезируемый текст или переменную. Насчет длинны переменной — конкретно не помню где лежит ограничение на 256 символов, давно не сталкивался и честно думал что строки уже используются неограниченной длинны. Видимо ошибался.
Опыт работы с VoiceNavigator во FreeSwitch есть? Недостатки схожие?
С VXI* сложно, удавалось его запускать с минимальными функциями, но не используюя VoiceNavigator. Плюс общаться с работающей системой, авторы — испанцы. Охоно отвечают на возникающие вопросы
Вопросы с bargein можно решиь, модифицировав приложения в Asterisk Speech API, чтобы вместо указания статического звукового файла можно было указывать синтезируемый текст или переменную. Насчет длинны переменной — конкретно не помню где лежит ограничение на 256 символов, давно не сталкивался и честно думал что строки уже используются неограниченной длинны. Видимо ошибался.
Опыт работы с VoiceNavigator во FreeSwitch есть? Недостатки схожие?
0
Игорь, спасибо за хороший отзыв.
С авторами VXI я тоже общался, но все закончилось на том, что для синтеза нужно писать отдельный http-коннектор.
Про Asterisk Speech API думал, но синтез ведь все равно голосом не прервать. Т.е. сессию синтеза внутри распознавания запустить можно, но прервать синтез с началом голоса не выйдет. Или я чего-то не понимаю. У вас имеется опыт с Speech API?
С FreeSWITCH работал, но не много. Как минимум, с barge-in там проблем нет. Там же почти VoiceXML для построения диалплана используется. В ближайшее время планировал сделать статью по работе с FreeSWITCH.
С авторами VXI я тоже общался, но все закончилось на том, что для синтеза нужно писать отдельный http-коннектор.
Про Asterisk Speech API думал, но синтез ведь все равно голосом не прервать. Т.е. сессию синтеза внутри распознавания запустить можно, но прервать синтез с началом голоса не выйдет. Или я чего-то не понимаю. У вас имеется опыт с Speech API?
С FreeSWITCH работал, но не много. Как минимум, с barge-in там проблем нет. Там же почти VoiceXML для построения диалплана используется. В ближайшее время планировал сделать статью по работе с FreeSWITCH.
0
Опыт со Speech API есть, я когда-то писал модуль для поддержки системы распознавания голоса, которая не поддерживала MRCP протокол. Сейчас это API не поддерживает barge-in, можно только дописать астериск. Вообще мой опыт в этой сфере определяется количеством проектов, а такие попадаются не часто
Статью о FreeSWITCH очень интересно будет прочитать.
Статью о FreeSWITCH очень интересно будет прочитать.
0
Sign up to leave a comment.
Asterisk + UniMRCP + VoiceNavigator. Синтез и распознавание речи в Asterisk. Часть 4