Serberg, а не просто настроить файл robots и запретить поисковым ботам индексировать те ссылки которые можно запретить, тем самым избавиться от двойного контента. Как тебе такое?
Например такой список:
User-agent: *
Disallow: /tags/
Disallow: /2007/
Disallow: /2008/
Disallow: /2009/
Disallow: /2010/
Disallow: /2011/
Disallow: /go/
Disallow: /links.php
Disallow: /user/
Disallow: /map/
Disallow: /*print
Disallow: /backup/
Disallow: /language/
Disallow: /templates/
Disallow: /upgrade/
Disallow: /autobackup.php
Disallow: /?do=lastcomments
Disallow: /statistics.html
|