Задача такая: есть множство больших xml-файлов, который генерируется с затратой большого количества процессорного времени специальным софтом.
Когда какие-то данные в бд меняются, софт перерисовывает весь файл с обновленными данными целиком.
Есть желание облегчить его работу и разбить большой файл на множество мелких согласно структуре xml, и обновлять уже эти маленькие части.
Вопрос: как склеивать эту кучу файлов в nginx, чтобы в итоге получить один response в виде валидного xml?