ZebroidФорумПубличный разделПредложенияАрхивЭкспорт в статический сайт

Экспорт в статический сайт

14 июля 2009, 08:17
Зарегистрирован: 10 апреля 2012, 00:00
Идея такова:

Вы задаете программе шаблон, в котором находятся теги типа {content} и {menu}, а програма генериует на этом шаблоне сайт по структуре подобный Zebrum Lite, но на чистом HTML (или HTML+include).

Нужно?

Ваши идеи и предложения?



14 июля 2009, 11:49
Зарегистрирован: 10 апреля 2012, 00:00
Для тех кто непонял, обьясняю в чем фишка:

Создаем с помощью такой функции ХТМЛ сайт, делаем внешнюю перелинковку (пока такой функции нету) на ссылки купленые в сапе и закидываем на народ.

Результат - ускореная индексация купленных ссылок.

Контент можно брать тот же машинный рерайт который очень дешевый. Таким макаром можно мутить сайты за часик, а через несколько дней (после индексации сайта Яшкой) - снимать сайты (дабы не мусорить рунет :))



14 июля 2009, 12:06
Зарегистрирован: 06 июля 2009, 13:49
Функция архинужная.

Плюс - добавить забор контента c http://referat.yandex.ru/ и тогда генерироваться сайт будет на полном автомате:

1. Считаем количество ссылок, заданных пользователем.

2. В соответствии с переменной (количество ссылок на странице) определяем количество страниц.

3. Формируем статическое дерево страниц.

4. Для каждой страницы генерим новый текст на Рефератах.

5. Случайные слова в каждом посте авто-внешне-перелинкиваем с заданными ссылками.

6. Для большей естественности часть ссылок (по рандому или заданно пользователем) можно проставлять на доп страницах.

7. И будет нам счастье!!!



14 июля 2009, 12:14
Зарегистрирован: 10 апреля 2012, 00:00
Функция архинужная.

Плюс - добавить забор контента c http://referat.yandex.ru/ и тогда генерироваться сайт будет на полном автомате:

1. Считаем количество ссылок, заданных пользователем.

2. В соответствии с переменной (количество ссылок на странице) определяем количество страниц.

3. Формируем статическое дерево страниц.

4. Для каждой страницы генерим новый текст на Рефератах.

5. Случайные слова в каждом посте авто-внешне-перелинкиваем с заданными ссылками.

6. Для большей естественности часть ссылок (по рандому или заданно пользователем) можно проставлять на доп страницах.

7. И будет нам счастье!!!


Ого, то это уже получится уж очень ГС генератор, притом если в одно время за рефератами поломятся разные люди, то есть мегабольшой шанс, что они получат одни и те же рефераты. ИМХО, подбор контента пусть остается на юзвере, дешевых гамноконтентов под такие задачи валом, тот же ксап взять, а импортировать его в программу "как 2 байта переслать". Сделаю внешнею перелинковку и импорт ссылок для перелинковки и дело в шляпе.



14 июля 2009, 12:15
Зарегистрирован: 06 июля 2009, 17:29
Идея великолепна и - что важно - действенна.

Уже есть программа для такого - УГС Генератор (смотрите на сёрче). Там нужно кинуть список урлов, файл текстовки и всё само раскидывается. Только програмка стоит 20 вечнозелёных (явный перебор), а демка загаживает весь шаблон палевными метками.

Что важно - уник не требуется! Яша сайт не вносит в индекс (что и не нужно), но по ссылкам гуляет и интексирует что нужно. Это намного эффективнее для улучшения индексации крупных сайтов, чем для сапы, ибо всё-таки несколько палевно для ссылок.

Ну а если сделать всё с уником, то можно и беков чуть нарастить.



14 июля 2009, 14:00
Зарегистрирован: 11 июля 2009, 11:46
Функция архинужная.

Плюс - добавить забор контента c http://referat.yandex.ru/ и тогда генерироваться сайт будет на полном автомате:

1. Считаем количество ссылок, заданных пользователем.

2. В соответствии с переменной (количество ссылок на странице) определяем количество страниц.

3. Формируем статическое дерево страниц.

4. Для каждой страницы генерим новый текст на Рефератах.

5. Случайные слова в каждом посте авто-внешне-перелинкиваем с заданными ссылками.

6. Для большей естественности часть ссылок (по рандому или заданно пользователем) можно проставлять на доп страницах.

7. И будет нам счастье!!!


Это получается уже дорген, а это не нужно! их навалом.

А вот сделать чтоб задавать свой шаблон и получать на выходе сайт на html это можно сделать будет очень удобно генерить сайтики.

Только прикрутить к таким сайтам sitemap.xml и в html.

Хотя это получается почти тот же зебрум только совсем простой.



14 июля 2009, 15:03
Зарегистрирован: 10 апреля 2012, 00:00
[quote="alekzey":53gbs3vu]Функция архинужная.

Плюс - добавить забор контента c http://referat.yandex.ru/ и тогда генерироваться сайт будет на полном автомате:

1. Считаем количество ссылок, заданных пользователем.

2. В соответствии с переменной (количество ссылок на странице) определяем количество страниц.

3. Формируем статическое дерево страниц.

4. Для каждой страницы генерим новый текст на Рефератах.

5. Случайные слова в каждом посте авто-внешне-перелинкиваем с заданными ссылками.

6. Для большей естественности часть ссылок (по рандому или заданно пользователем) можно проставлять на доп страницах.

7. И будет нам счастье!!!


Это получается уже дорген, а это не нужно! их навалом.

А вот сделать чтоб задавать свой шаблон и получать на выходе сайт на html это можно сделать будет очень удобно генерить сайтики.

Только прикрутить к таким сайтам sitemap.xml и в html.

Хотя это получается почти тот же зебрум только совсем простой.[/quote:53gbs3vu]

Оно то так, но согласитесь что плюс очень большой, чистый ХТМЛ не создает нагрузки на сервер, а такие сайты не делают только по причине трудоемкости процесса, а если это организвать через программу, то остаются одни плюсы (за исключением минуса добавления инфы, но инфу можна добавлять в проект программы и экспортировать повторно)



14 июля 2009, 15:13
Зарегистрирован: 11 июля 2009, 11:46
Оно то так, но согласитесь что плюс очень большой, чистый ХТМЛ не создает нагрузки на сервер, а такие сайты не делают только по причине трудоемкости процесса, а если это организвать через программу, то остаются одни плюсы (за исключением минуса добавления инфы, но инфу можна добавлять в проект программы и экспортировать повторно)


Я делаю сайты для бирж ссылок и чисты хтмл создаст проблемы с внедрением когда некоторых бирж.

А на счет нагрузки согласен.

Хотя если взять мощный vds то проблем не будет :D



14 июля 2009, 17:55
Зарегистрирован: 06 июля 2009, 17:29
Это получается уже дорген, а это не нужно! их навалом.
Не согласен. Функционал доргена - уникализация с насыщением частотников. То есть нечитабельный и страшный текст. Распределение ссылок по тексту - это ГС-саттеллит, сайт, читабельный, пусть и малонужный. Ну а все, что делает нормальные сателлиты (то есть все мы) логически заинтересованы в ускорителе индексации. особенно, когда не требуется отдельный продукт.



15 июля 2009, 04:00
Зарегистрирован: 06 июля 2009, 13:49


Ого, то это уже получится уж очень ГС генератор, притом если в одно время за рефератами поломятся разные люди, то есть мегабольшой шанс, что они получат одни и те же рефераты.



Неа :) Яндекс пишет, что

"Теперь никто не сможет обвинить вас в плагиате, ибо каждый текст Яндекс.Рефератов неповторим."

Так что текст 100% уникальный. И, думаю, Яндексом не палимый, как как полная генерация.



ИМХО, подбор контента пусть остается на юзвере, дешевых гамноконтентов под такие задачи валом, тот же ксап взять, а импортировать его в программу "как 2 байта переслать". Сделаю внешнею перелинковку и импорт ссылок для перелинковки и дело в шляпе.


Ну как знаете :)

Опять же это можно сделать как опцию, то есть хочет человек - получает себе автосоздание ускорителей индексации. Не хочет - пусть скармливает программе свой контент.



Тема закрыта