28 марта 2024, 23:15:21

Новости:

Узнай первым о новых темах и ответах в Telegram канале:  @gratis_forum


avatar_gent

SEO-оптимизация

Автор gent, 04 августа 2010, 17:15:28

0 Пользователей и 1 гость просматривают эту тему.

gent

04 августа 2010, 17:15:28 Последнее редактирование: 24 октября 2011, 11:36:19 от holyday
Привет !!!
Поделитесь пожалуйста знаниями как оптимизировать веб сайт, чтобы при наборе конкретных слов, он выдавался на первой странице поисковика (лучше всего гугла). Я в курсе того, чтобы записывать мета таги. Что еще?



Тема зафиксирована.
Здесь можно постить по теме СЕО.

Снова вперед!

holyday

04 августа 2010, 23:26:22 #1 Последнее редактирование: 04 августа 2010, 23:32:42 от holyday
gent
Ну я использовал "похожую" схему для раскрутки 2-х сайтов нашей компании.

Как попасть в Google за 24 часа
 [Раздел: Активная оптимизация]
Начнем с того, что делать не нужно. Не рекомендуется использовать форму Google http://www.google.com/addurl.html для добавления сайта. Верите вы этому или нет, но использование данной формы отрицательно скажется на ваших позициях в Google. Никогда не используйте подобные формы на других поисковиках. Также никогда не пользуйтесь сервисами автодобавления в поисковые системы!
Теперь подумайте, какое ключевое слово чаще всего можно встретить на страницах вашего ресурса, что наиболее полно охарактеризует ваш сайт? К примеру, если это форум о поисковой оптимизации сайтов, то ключевым словом можно взять жаргонное SEO (Search Engine Optimization). Заходим в Google и в строке запроса вводим наше ключевое слово.

Поисковик послушно выдаёт не одну сотню тысяч страниц результатов поиска. Все нам не нужны, мы будем отбирать страницы только с PageRank 6 или даже выше. Page Rank (PR) - это один из критериев, определяющий важность сайта или отдельной его страницы, более подробную информацию можно найти на страницах нашего форума. Для проверки PR нескольких страниц можно использовать http://tools.legco.net/google-page-rank/test.php
Итак, мы нашли интересующие нас сайты, теперь проверим качество PR этих сайтов. Для этого необходимо узнать кто ссылается на нужный нам "пиаристый" ресурс, сделать это можно здесь http://tools.legco.net/iwebtool/blcheck.html
Чем больше обратных ссылок (бэклинков), тем лучше. Если же на сайт ссылаются 1-2 странички с большим значением PR, то мы его отсеиваем, так как его PR ненадежен.
Следующим шагом будет поиск контактной информации владельца нужного нам ресурса. Чаще всего контакты размещаются в "подвале" (низ страниц). Нашли контакты и отправляем администратору электронное письмо с предложением обменяться ссылками на ваши сайты.
Если вам повезет и вы обменяетесь ссылками с сайтом PR6, Google проиндексирует и примет в базу ваш ресурс в течение 2-х дней. Если обменяетесь с сайтом PR7, то окажетесь в базе в течение 24-х часов (в большинстве случаев хватает 6 часов)!
Теперь плохие новости. В девяноста процентах случаев вам откажут в обмене, потому что кроме того, что у вашего новоиспеченного сайта PR0, так его даже не будет в базе Google! Что делать в таком случае? Просто купить нужные нам места под ссылки, для этого можно напрямую договориться с владельцем сайта или использовать услуги рекламных брокеров. Во втором случае будьте готовы поделиться финансами с брокером.
Не стоит забывать, что помимо того, что ваш сайт окажется в базе Google в течение 24-х часов, вы получите солидный стартовый PR, что положительно скажется на позициях вашего сайта в поисковой выдаче.

Источник: www.eRUN.ru


От себя отмечу: оставляй ссылки на свой сайт на специализированных форумах, которые находятся на первых страничках в Гугле. Типа: посмотрите люди скриншот я его закачал на этот сайт "http:\\[Для просмотра ссылки зарегистрируйтесь]\gent_desktop.jpg". А Гугл проиндексирует форум (на котором ссылка на твою пагу) ну и заодно проиндексирует и твой сайт, если даст Бог :)

П.С. Настойчиво рекомендую НЕ использовать форму [Для просмотра ссылки зарегистрируйтесь]  :)

Бл* буду, но я ЭТО сделаю:
NBPEL: 12 -> 13.5 -> 14.5
BPEL: 14.5 -> 16.5 -> 17.5
EG: 11 -> 12.5 -> 13 -> 13.5

holyday

Чуть лоханулся, звиняйте.
Оставлять ссылки на сайт в гостевых, блогах, форумах, ... надо так:
http:\\[Для просмотра ссылки зарегистрируйтесь]\gent_desktop.htm(l, php, aspx, ...), а на страничке уже указать гиперрсылку, например на Главную страницу (index.html, Default.aspx, ...)
А не в коем случает так как написал:
http:\\[Для просмотра ссылки зарегистрируйтесь]\gent_desktop.jpg.
:)  

Бл* буду, но я ЭТО сделаю:
NBPEL: 12 -> 13.5 -> 14.5
BPEL: 14.5 -> 16.5 -> 17.5
EG: 11 -> 12.5 -> 13 -> 13.5

holyday

24 октября 2011, 11:42:17 #3 Последнее редактирование: 24 октября 2011, 11:43:44 от holyday
Урок №1

Как правильно заполнить файл Robots.txt - 1

№1. Простой вариант заполнения  Robots.tx

Сегодня я Вам расскажу как правильно заполнить текстовый файл Robots.txt.  Это обычный текстовый файл, который можно создать и отредактировать (изменить содержимое) в блокноте Windows. Он Располагается в корневой теке сайта - [Для просмотра ссылки зарегистрируйтесь]. Главное его предназначение - это задавать определённые директивы поисковым системам - что и когда делать на сайте.

Самый простой robots.txt, который всем поисковым системам, разрешает всё индексировать, выглядит вот так:

 User-agent: *
 Disallow:

Если у директивы Disallow не стоит наклонный слеш в конце, то разрешены все страницы для индексации.
Такая директива полностью запрещает сайт к индексации:

 User-agent: *
 Disallow: /

User-agent - обозначает для кого предназначены директивы, звёздочка обозначает что для всех ПС, для Яндекса указывают User-agent: Yandex.
В справке Яндекса написано, что его поисковые роботы обрабатывают User-agent: *, но если присутствует User-agent: Yandex, User-agent: * игнорируется.

№2.  Директивы Disallow и Allow
Существуют две основные директивы:
Disallow - запретить
Allow - разрешить
Пример: На блоге мы запретили индексировать папку /wp-content/ где находятся файлы плагинов, шаблон и.т.п. Но так же там находятся изображения, которые должны быть проиндексированы ПС, для участия в поиске по картинкам. Для этого надо использовать такую схему:

 User-agent: *
 Allow: /wp-content/uploads/ # Разрешаем индексацию картинок в папке uploads
 Disallow: /wp-content/

Порядок использования директив имеет значение для Яндекса, если они распространяются на одни страницы или папки. Если вы укажите вот так:

 User-agent: *
 Disallow: /wp-content/
 Allow: /wp-content/uploads/

Изображения не будут скачиваться роботом Яндекса с каталога /uploads/, потому что исполняется первая директива, которая запрещает весь доступ к папке wp-content.

Google относится проще и выполняет все директивы файла robots.txt, вне зависимости от их расположения.

Так же, не стоит забывать, что директивы со слешем и без, выполняют разную роль:

Disallow: /about Запретит доступ ко всему каталогу [Для просмотра ссылки зарегистрируйтесь], так же не будут индексироваться страницы которые содержат about - [Для просмотра ссылки зарегистрируйтесь], [Для просмотра ссылки зарегистрируйтесь] и.т.п.

Disallow: /about/ Запретит индексацию роботам страниц в каталоге [Для просмотра ссылки зарегистрируйтесь], а страницы по типу [Для просмотра ссылки зарегистрируйтесь] и.т.п. будут доступны к индексации.

№3. Регулярные выражения в файле robots.txt
 Поддерживается два символа, это:
* - подразумевает любой порядок символов.

Пример:

Disallow: /about*  запретит доступ ко всем страницам, которые содержат about, в принципе и без звёздочки такая директива будет так же работать. Но в некоторых случаях это выражение не заменимо. Например, в одной категории имеются страницы с .html на конце и без, чтобы закрыть от индексации все страницы которые содержат html, прописываем вот такую директиву:  

 Disallow: /about/*.html

Теперь страницы [Для просмотра ссылки зарегистрируйтесь] закрыта от индексации, а страница [Для просмотра ссылки зарегистрируйтесь] открыта.Ещё пример по аналогии:

 User-agent: Yandex
 Allow: /about/*.html #разрешаем индексировать
 Disallow: /about/

Все страницы будут закрыты, кроме страниц которые заканчиваются на .html

$ - обрезает оставшуюся часть и обозначает конец строки.

Пример:

Disallow: /about - Эта директива robots.txt запрещает индексировать все страницы, которые начинаются с about, так же идёт запрет на страницы в каталоге /about/.

Добавив в конце символ доллара - Disallow: /about$ мы сообщим роботам, что нельзя индексировать только страницу /about, а каталог /about/, страницы /aboutlive и.т.п. можно индексировать.

[Для просмотра ссылки зарегистрируйтесь]

Бл* буду, но я ЭТО сделаю:
NBPEL: 12 -> 13.5 -> 14.5
BPEL: 14.5 -> 16.5 -> 17.5
EG: 11 -> 12.5 -> 13 -> 13.5

holyday

24 октября 2011, 11:55:18 #4 Последнее редактирование: 24 октября 2011, 11:55:34 от holyday
Урок №2

За что можно угодить в бан лист:

1. За содержание гиперссылок-помоек.  
Образно говоря: страницы сайта содержащие от ста и более внешних ссылок, для накрутки "ИЦ".

2. За бессмысленное текстовое содержание.
Образно говоря: Специально оптимизированная страница или блок с текстовым содержанием без всякого смысла.

3. Отдельный ресурс, специально оптимизированный под ключевые, конкурентные слова для автоматического перевода на другой ресурс.
(В народе - людей занимающимися обманом поисковых систем таким образом, называют - "Дорвейщики".

4. За подкаталоги: [Для просмотра ссылки зарегистрируйтесь] либо [Для просмотра ссылки зарегистрируйтесь] созданный специально для обмена ссылками. Поисковые системы четко чуют такие каталоги.

5. За неправильное представление о сайте
Если сайт представляется как ресурс о рыбалке, а при попадании на него оказывается что это "Интернет магазин видео техники". (Это просто пример.)

Делайте правельные сайты.
Желаю удачи!
Так как ресурс о рыбалке, а при попадании на него оказывается что это "Интернет магазин видео техники". (Это просто пример.)

Делайте правельные сайты. Желаю удачи! правельные сайты. Желаю удачи!

[Для просмотра ссылки зарегистрируйтесь]

Бл* буду, но я ЭТО сделаю:
NBPEL: 12 -> 13.5 -> 14.5
BPEL: 14.5 -> 16.5 -> 17.5
EG: 11 -> 12.5 -> 13 -> 13.5

jk3

Кто-нибудь в теме в теории или, ещё лучше, на практике?
Победи себя - и ты будешь непобедим! ©

XeuTePoK

Читал много об этом, но на практике мало что получается))
:D  
ИМХО


jk3

XeuTePoK
Про внутреннюю перелинковку можешь на пальцах объяснить как её делать?
Победи себя - и ты будешь непобедим! ©

XeuTePoK

Сам не понял как её делать) Ща в личку ссылку скину на статью, может тебе поможет ))  
ИМХО


Эмма Смит

удобство сайта, уникальный контент, скорость загрузки страниц
не спрашивай что смотреть, смотри   дорамы



По всем вопросам пишите по адресу gratispp@mail.ru