Тоже столкнулся с долгой перелинковкой.
admin, подскажите, при обычной перелинковке, во время работы инструмента, учитываются ограничения на число вхождений и ссылок со страницы?
По идее, если со страницы поставлено предельное число ссылок, — она должна исключаться из поиска подходящей страницы для ссылки, если достигнуто ограничение на число вхождений — поиск по вхождению также прекращается. Это должно приводить к ускорению перелинковки со временем. Однако судя по прогрессбару ускорения не видно. Проект большой (8к статей, по 20к, 8 ядер, первый процент прошел за 25 минут, через 2,5 часа — 4%), может можно чуть ускорить?
Насколько я понимаю из работы плагинов, программа много времени тратит на открытие статьи (получение её текста), может стоит открывать статью и искать в ней по порядку все вхождения и ставить ссылки в одну и ту же статью, пока число ссылок не дойдет до предела, потом переключаться на следующую статью.
Из этой логики можно как-то дополнительно оптимизировать работу, чтобы программа старалась как можно быстрей сократить число обрабатываемых страниц или правил (например искать все вхождения на одной странице, потом на другой)…
Чтобы перелинковать 700 статей используя 700 правил — нужно выполнить поиск вхождения ключевого слова в статью примерно 500 тыс. раз.
При перелинковке 700 статей и 700 правил при последовательной обработке страниц/правил должно уменьшаться число проверяемых страниц/правил, т.е. в конце должны остаться единицы правил не достигших предела по вхождениям и единицы не обработанных статей не достигших предела по числу исходящих ссылок. И число поисков должно быть в пределах 350*350 122,5 тыс., а не 500 тыс. Возможно, программа использует более сложную логику, для более равномерного распределения ссылок, но на большом проекте это часто не нужно.
Комментарий отредактирован 1 раз(а).
Последний раз редактировал
Kostushko
10 июня 2015, 08:44.