25 сентября 2020, 08:06:33

Новости:

Узнай первым о новых темах и ответах в Telegram канале:  @gratis_forum


avatar_gent

SEO-оптимизация

Автор gent, 04 августа 2010, 17:15:28

0 Пользователей и 1 гость просматривают эту тему.

gent

04 августа 2010, 17:15:28 Последнее редактирование: 24 октября 2011, 11:36:19 от holyday
Привет !!!
Поделитесь пожалуйста знаниями как оптимизировать веб сайт, чтобы при наборе конкретных слов, он выдавался на первой странице поисковика (лучше всего гугла). Я в курсе того, чтобы записывать мета таги. Что еще?



Тема зафиксирована.
Здесь можно постить по теме СЕО.

Снова вперед!

holyday

04 августа 2010, 23:26:22 #1 Последнее редактирование: 04 августа 2010, 23:32:42 от holyday
gent
Ну я использовал "похожую" схему для раскрутки 2-х сайтов нашей компании.

Как попасть в Google за 24 часа
 [Раздел: Активная оптимизация]
Начнем с того, что делать не нужно. Не рекомендуется использовать форму Google http://www.google.com/addurl.html для добавления сайта. Верите вы этому или нет, но использование данной формы отрицательно скажется на ваших позициях в Google. Никогда не используйте подобные формы на других поисковиках. Также никогда не пользуйтесь сервисами автодобавления в поисковые системы!
Теперь подумайте, какое ключевое слово чаще всего можно встретить на страницах вашего ресурса, что наиболее полно охарактеризует ваш сайт? К примеру, если это форум о поисковой оптимизации сайтов, то ключевым словом можно взять жаргонное SEO (Search Engine Optimization). Заходим в Google и в строке запроса вводим наше ключевое слово.

Поисковик послушно выдаёт не одну сотню тысяч страниц результатов поиска. Все нам не нужны, мы будем отбирать страницы только с PageRank 6 или даже выше. Page Rank (PR) - это один из критериев, определяющий важность сайта или отдельной его страницы, более подробную информацию можно найти на страницах нашего форума. Для проверки PR нескольких страниц можно использовать http://tools.legco.net/google-page-rank/test.php
Итак, мы нашли интересующие нас сайты, теперь проверим качество PR этих сайтов. Для этого необходимо узнать кто ссылается на нужный нам "пиаристый" ресурс, сделать это можно здесь http://tools.legco.net/iwebtool/blcheck.html
Чем больше обратных ссылок (бэклинков), тем лучше. Если же на сайт ссылаются 1-2 странички с большим значением PR, то мы его отсеиваем, так как его PR ненадежен.
Следующим шагом будет поиск контактной информации владельца нужного нам ресурса. Чаще всего контакты размещаются в "подвале" (низ страниц). Нашли контакты и отправляем администратору электронное письмо с предложением обменяться ссылками на ваши сайты.
Если вам повезет и вы обменяетесь ссылками с сайтом PR6, Google проиндексирует и примет в базу ваш ресурс в течение 2-х дней. Если обменяетесь с сайтом PR7, то окажетесь в базе в течение 24-х часов (в большинстве случаев хватает 6 часов)!
Теперь плохие новости. В девяноста процентах случаев вам откажут в обмене, потому что кроме того, что у вашего новоиспеченного сайта PR0, так его даже не будет в базе Google! Что делать в таком случае? Просто купить нужные нам места под ссылки, для этого можно напрямую договориться с владельцем сайта или использовать услуги рекламных брокеров. Во втором случае будьте готовы поделиться финансами с брокером.
Не стоит забывать, что помимо того, что ваш сайт окажется в базе Google в течение 24-х часов, вы получите солидный стартовый PR, что положительно скажется на позициях вашего сайта в поисковой выдаче.

Источник: www.eRUN.ru


От себя отмечу: оставляй ссылки на свой сайт на специализированных форумах, которые находятся на первых страничках в Гугле. Типа: посмотрите люди скриншот я его закачал на этот сайт "http:\\[Для просмотра ссылки зарегистрируйтесь]\gent_desktop.jpg". А Гугл проиндексирует форум (на котором ссылка на твою пагу) ну и заодно проиндексирует и твой сайт, если даст Бог :)

П.С. Настойчиво рекомендую НЕ использовать форму [Для просмотра ссылки зарегистрируйтесь]  :)

Бл* буду, но я ЭТО сделаю:
NBPEL: 12 -> 13.5 -> 14.5
BPEL: 14.5 -> 16.5 -> 17.5
EG: 11 -> 12.5 -> 13 -> 13.5

holyday

Чуть лоханулся, звиняйте.
Оставлять ссылки на сайт в гостевых, блогах, форумах, ... надо так:
http:\\[Для просмотра ссылки зарегистрируйтесь]\gent_desktop.htm(l, php, aspx, ...), а на страничке уже указать гиперрсылку, например на Главную страницу (index.html, Default.aspx, ...)
А не в коем случает так как написал:
http:\\[Для просмотра ссылки зарегистрируйтесь]\gent_desktop.jpg.
:)  

Бл* буду, но я ЭТО сделаю:
NBPEL: 12 -> 13.5 -> 14.5
BPEL: 14.5 -> 16.5 -> 17.5
EG: 11 -> 12.5 -> 13 -> 13.5

holyday

24 октября 2011, 11:42:17 #3 Последнее редактирование: 24 октября 2011, 11:43:44 от holyday
Урок №1

Как правильно заполнить файл Robots.txt - 1

№1. Простой вариант заполнения  Robots.tx

Сегодня я Вам расскажу как правильно заполнить текстовый файл Robots.txt.  Это обычный текстовый файл, который можно создать и отредактировать (изменить содержимое) в блокноте Windows. Он Располагается в корневой теке сайта - [Для просмотра ссылки зарегистрируйтесь]. Главное его предназначение - это задавать определённые директивы поисковым системам - что и когда делать на сайте.

Самый простой robots.txt, который всем поисковым системам, разрешает всё индексировать, выглядит вот так:

 User-agent: *
 Disallow:

Если у директивы Disallow не стоит наклонный слеш в конце, то разрешены все страницы для индексации.
Такая директива полностью запрещает сайт к индексации:

 User-agent: *
 Disallow: /

User-agent - обозначает для кого предназначены директивы, звёздочка обозначает что для всех ПС, для Яндекса указывают User-agent: Yandex.
В справке Яндекса написано, что его поисковые роботы обрабатывают User-agent: *, но если присутствует User-agent: Yandex, User-agent: * игнорируется.

№2.  Директивы Disallow и Allow
Существуют две основные директивы:
Disallow - запретить
Allow - разрешить
Пример: На блоге мы запретили индексировать папку /wp-content/ где находятся файлы плагинов, шаблон и.т.п. Но так же там находятся изображения, которые должны быть проиндексированы ПС, для участия в поиске по картинкам. Для этого надо использовать такую схему:

 User-agent: *
 Allow: /wp-content/uploads/ # Разрешаем индексацию картинок в папке uploads
 Disallow: /wp-content/

Порядок использования директив имеет значение для Яндекса, если они распространяются на одни страницы или папки. Если вы укажите вот так:

 User-agent: *
 Disallow: /wp-content/
 Allow: /wp-content/uploads/

Изображения не будут скачиваться роботом Яндекса с каталога /uploads/, потому что исполняется первая директива, которая запрещает весь доступ к папке wp-content.

Google относится проще и выполняет все директивы файла robots.txt, вне зависимости от их расположения.

Так же, не стоит забывать, что директивы со слешем и без, выполняют разную роль:

Disallow: /about Запретит доступ ко всему каталогу [Для просмотра ссылки зарегистрируйтесь], так же не будут индексироваться страницы которые содержат about - [Для просмотра ссылки зарегистрируйтесь], [Для просмотра ссылки зарегистрируйтесь] и.т.п.

Disallow: /about/ Запретит индексацию роботам страниц в каталоге [Для просмотра ссылки зарегистрируйтесь], а страницы по типу [Для просмотра ссылки зарегистрируйтесь] и.т.п. будут доступны к индексации.

№3. Регулярные выражения в файле robots.txt
 Поддерживается два символа, это:
* - подразумевает любой порядок символов.

Пример:

Disallow: /about*  запретит доступ ко всем страницам, которые содержат about, в принципе и без звёздочки такая директива будет так же работать. Но в некоторых случаях это выражение не заменимо. Например, в одной категории имеются страницы с .html на конце и без, чтобы закрыть от индексации все страницы которые содержат html, прописываем вот такую директиву:  

 Disallow: /about/*.html

Теперь страницы [Для просмотра ссылки зарегистрируйтесь] закрыта от индексации, а страница [Для просмотра ссылки зарегистрируйтесь] открыта.Ещё пример по аналогии:

 User-agent: Yandex
 Allow: /about/*.html #разрешаем индексировать
 Disallow: /about/

Все страницы будут закрыты, кроме страниц которые заканчиваются на .html

$ - обрезает оставшуюся часть и обозначает конец строки.

Пример:

Disallow: /about - Эта директива robots.txt запрещает индексировать все страницы, которые начинаются с about, так же идёт запрет на страницы в каталоге /about/.

Добавив в конце символ доллара - Disallow: /about$ мы сообщим роботам, что нельзя индексировать только страницу /about, а каталог /about/, страницы /aboutlive и.т.п. можно индексировать.

[Для просмотра ссылки зарегистрируйтесь]

Бл* буду, но я ЭТО сделаю:
NBPEL: 12 -> 13.5 -> 14.5
BPEL: 14.5 -> 16.5 -> 17.5
EG: 11 -> 12.5 -> 13 -> 13.5

holyday

24 октября 2011, 11:55:18 #4 Последнее редактирование: 24 октября 2011, 11:55:34 от holyday
Урок №2

За что можно угодить в бан лист:

1. За содержание гиперссылок-помоек.  
Образно говоря: страницы сайта содержащие от ста и более внешних ссылок, для накрутки "ИЦ".

2. За бессмысленное текстовое содержание.
Образно говоря: Специально оптимизированная страница или блок с текстовым содержанием без всякого смысла.

3. Отдельный ресурс, специально оптимизированный под ключевые, конкурентные слова для автоматического перевода на другой ресурс.
(В народе - людей занимающимися обманом поисковых систем таким образом, называют - "Дорвейщики".

4. За подкаталоги: [Для просмотра ссылки зарегистрируйтесь] либо [Для просмотра ссылки зарегистрируйтесь] созданный специально для обмена ссылками. Поисковые системы четко чуют такие каталоги.

5. За неправильное представление о сайте
Если сайт представляется как ресурс о рыбалке, а при попадании на него оказывается что это "Интернет магазин видео техники". (Это просто пример.)

Делайте правельные сайты.
Желаю удачи!
Так как ресурс о рыбалке, а при попадании на него оказывается что это "Интернет магазин видео техники". (Это просто пример.)

Делайте правельные сайты. Желаю удачи! правельные сайты. Желаю удачи!

[Для просмотра ссылки зарегистрируйтесь]

Бл* буду, но я ЭТО сделаю:
NBPEL: 12 -> 13.5 -> 14.5
BPEL: 14.5 -> 16.5 -> 17.5
EG: 11 -> 12.5 -> 13 -> 13.5

jk3

Кто-нибудь в теме в теории или, ещё лучше, на практике?
Победи себя - и ты будешь непобедим! ©

XeuTePoK

Читал много об этом, но на практике мало что получается))
:D  
ИМХО


jk3

XeuTePoK
Про внутреннюю перелинковку можешь на пальцах объяснить как её делать?
Победи себя - и ты будешь непобедим! ©

XeuTePoK

Сам не понял как её делать) Ща в личку ссылку скину на статью, может тебе поможет ))  
ИМХО




По всем вопросам пишите по адресу gratispp@mail.ru