Обучение/Помощь новичкам | Оптимизация сайта для поисковиков
В общем такой вопрос
Вот у меня сайт, он закрыт для гостей т.е что бы попасть на главную или любую другую страницу нужно авторизоваться(идёт редирект со всех страниц на страницу входа). Возникает вопрос что делать с поисковиками ведь роботы сканируют только страницы авторизации и регистрации)))) Есть ли решение?
Вот у меня сайт, он закрыт для гостей т.е что бы попасть на главную или любую другую страницу нужно авторизоваться(идёт редирект со всех страниц на страницу входа). Возникает вопрос что делать с поисковиками ведь роботы сканируют только страницы авторизации и регистрации)))) Есть ли решение?
DELETED
20 января 2018, в 23:45
Delete
Создай sitemap.xml. Не понял, если честно, что надо.
#кто-то явно быстрее меня
________
посл. ред. 20.01.2018 в 23:46; всего 1 раз(а); by punkromain
#кто-то явно быстрее меня
________
посл. ред. 20.01.2018 в 23:46; всего 1 раз(а); by punkromain
punkromain (20.01.2018 в 23:45)
Создай sitemap.xml. Не понял, если честно, что надо.
#кто-то явно быстрее меня
Создай sitemap.xml. Не понял, если честно, что надо.
#кто-то явно быстрее меня
А толку, страницы хоть и появятся в поиске но их содержимое будет недоступно так как переадресация идёт на страницу с входом. или я то то не понимаю
DELETED
20 января 2018, в 23:52
Delete
Master zpank (20.01.2018 в 23:51)
punkromain (20.01.2018 в 23:45)
Создай sitemap.xml. Не понял, если честно, что надо.
#кто-то явно быстрее меня
А толку, страницы хоть и появятся в поиске но их содержимое будет недоступно так как переадресация идёт на страницу с входом. или я то то не понимаю
punkromain (20.01.2018 в 23:45)
Создай sitemap.xml. Не понял, если честно, что надо.
#кто-то явно быстрее меня
А толку, страницы хоть и появятся в поиске но их содержимое будет недоступно так как переадресация идёт на страницу с входом. или я то то не понимаю
вручную тогда их скорми поисковику
правда если их у тебя не миллион
Master zpank , disallow в robots.txt тогда, чтобы не сканировал.
Иначе никак, он всё-равно однажды просканирует снова и старые страницы затрёт.
Иначе никак, он всё-равно однажды просканирует снова и старые страницы затрёт.
PhpStorm (20.01.2018 в 23:52)
Master zpank (20.01.2018 в 23:51)
punkromain (20.01.2018 в 23:45)
Создай sitemap.xml. Не понял, если честно, что надо.
#кто-то явно быстрее меня
А толку, страницы хоть и появятся в поиске но их содержимое будет недоступно так как переадресация идёт на страницу с входом. или я то то не понимаю
вручную тогда их скорми поисковику
правда если их у тебя не миллион
Master zpank (20.01.2018 в 23:51)
punkromain (20.01.2018 в 23:45)
Создай sitemap.xml. Не понял, если честно, что надо.
#кто-то явно быстрее меня
А толку, страницы хоть и появятся в поиске но их содержимое будет недоступно так как переадресация идёт на страницу с входом. или я то то не понимаю
вручную тогда их скорми поисковику
правда если их у тебя не миллион
Я тут подумал и пришел к выводу, что идея делать такую фигню с переадресацией была плохая))))
DELETED
20 января 2018, в 23:58
Delete
Master zpank (20.01.2018 в 23:56)
PhpStorm (20.01.2018 в 23:52)
Master zpank (20.01.2018 в 23:51)
punkromain (20.01.2018 в 23:45)
Создай sitemap.xml. Не понял, если честно, что надо.
#кто-то явно быстрее меня
А толку, страницы хоть и появятся в поиске но их содержимое будет недоступно так как переадресация идёт на страницу с входом. или я то то не понимаю
вручную тогда их скорми поисковику
правда если их у тебя не миллион
Я тут подумал и пришел к выводу, что идея делать такую фигню с переадресацией была плохая))))
PhpStorm (20.01.2018 в 23:52)
Master zpank (20.01.2018 в 23:51)
punkromain (20.01.2018 в 23:45)
Создай sitemap.xml. Не понял, если честно, что надо.
#кто-то явно быстрее меня
А толку, страницы хоть и появятся в поиске но их содержимое будет недоступно так как переадресация идёт на страницу с входом. или я то то не понимаю
вручную тогда их скорми поисковику
правда если их у тебя не миллион
Я тут подумал и пришел к выводу, что идея делать такую фигню с переадресацией была плохая))))
возьми основные ходовые страницы (10-30 штук) и вручную скорми поисковику 5 минут и завтра они уже в поиске будут ну не на передовых позициях но будут видны
punkromain (20.01.2018 в 23:55)
Master zpank , disallow в robots.txt тогда, чтобы не сканировал.
Иначе никак, он всё-равно однажды просканирует снова и старые страницы затрёт.
Master zpank , disallow в robots.txt тогда, чтобы не сканировал.
Иначе никак, он всё-равно однажды просканирует снова и старые страницы затрёт. ну тогда хотябы в sitemap основные разделы добавлю
Master zpank , зачем вообще контент скрывать за регистрацией?