Нужен специалист по Drupal
заморочки с друпалом - мелочь как по объемам работ, так и по количеству знаний, по сравнению с тем, что надо делать по раскрутке сайта...
так что под реализацию хотелок ищите программиста под друпал на разовые работы (вы же не собираетесь в режиме неостановимого пи#деца перманентно перехерачивать все на сайте?)...
и интернет-маркетолога с сопутствующим набором скиллов под вашу сферу деятельности
В этой CMS все быстрее и дешевле рещается, чем, к примеру, в битрикс.
Но я ни разу не встречал, чтобы грамотный сеошник был еще и крутым программером под какую-то CMS - это все же разные вещи.
По мне полгода назад обращались с этого форума - переделать нужно было сайт на друпале, там кто-то сделал его и потом исчез, а доделывать и допиливать было не кому (на сайте стояло 3 языковых версии - все были на русском и открытые для поиска).
Сейчас косяки исправили, продвигаются по seo.
Я на ваш сайт глянул - вам надо там поработать, да.
На сайте видится 3100 страниц. В рельности же их намного меньше.
Роботы поисковых систем заходят на дубли и уходят с сайта разочарованные. Это снижает вам краулинговый бюджет - в след. раз на ваш сайт робот зайдет позже, чем мог бы.
Сделайте это (пока даже без Drupal, чисто технические штуки)
1. Сделайте редирект на главное зеркало (с сайта www.san-reno.ru --301--> san-reno.ru )
это позволит убрать такие дубли (штук 1000, наверное, это важно):
san-reno.ru/webform/otzyvy
www.san-reno.ru/webform/otzyvy
2.
Hастройте редирект с /node/xx на ЧПУ URL (или просто запретите в robots.txt индексировать все с /node/*)
это позволит убрать такие дубли:
san-reno.ru/node/17
www.san-reno.ru/node/17
3. Удалите все ссылки на внутренние страницы, которые отдают код 404
www.san-reno.ru/page/infiniti-nnov.ru
san-reno.ru/webform/reno-nn.ru
и т.п.
Таких страниц у вас больше 100 штук!
4. У вас дефолтный robots.txt стоит на сайте
Добавьте туда строку внизу:
Host: san-remo.ru
Затем туда прописывайте все URL, что вы хотите запретить к индексации
Disallow: /URL-для-запрета
5. Так, я дошел до дублей мета-тега заголовка Title.
С ужасом вижу, что увас их 2900 штук (из 3100 страниц на сайте). Это серьезно :)
В основном это дубли идут от страниц типа:
/node/49/sites/all/themes/autolife/ ******** тут около 500 символов в URL ****** js/jquery.countdown.js
у вас ошибка довольно странная. Возможно, поможет просто обновить кэш или модуль, который за это отвечает.
Надо эти косяки вычищать. Оони у вас и ресурсы движка жрут и скорость режут и, самое главное - не дают ваш сайт поисаку нормально воспринять, только как спамное что-то пока.
некоторые такие URL еще и 403 код отдают, остальные 200.
Самое простое - без программера можно прямо сейчас сделать:
В robots.txt добавляете строку:
Disallow: /node/49
Далее можно пройтись по скорости, керированю, оптмизации CSS, микроразметку добавить на товары-отзывы-статьи и т.п. - там куча всего что можно улучшить.
Но главное, сделайте что я выше написал. Это прямо 90% от всей вашей текущей технической оптимизации.