Търсачки, Индексиране, СЕО Оптимизация


Как да накарате търсачките да индексират вашия сайт

YahooBingтърсачкиGoogle, търсачкихостингоптимизация, търсещи машини,сео оптимизация, важни съвети, индексиране,  

Как да разберете кои страници от вашия сайт са индексирани?
Един начин да разберете това е да изпишете в полето на браузъра site:domain. Този начин работи с Google, Yahoo и Bing. Търсачката ще ви изведе списък със страниците от вашия сайт, които са индексирани. Ако откриете, че страница от вашия сайт не е индексирана и вие не сте ограничили достъпна на робота до нея нарочно чрез robots.txt или meta таг, вероятно търсачката не знае, че тази страница съществува или няма достъп до нея.

Какво трябва да направите, за да индексират търсачките целия ви сайт?
Ако откриете, че страници от вашия сайт не са индексирани от търсачките, направете следното:

1. Проверете дали търсачките имат достъп до тази страница 
Проверете вашия файл robots.txt и се уверете, че отговаря на правилата. Много уеб мастъри неволно блокират части от сайта си от търсачките поради грешка в текста на robots.txt.
Трябва да се уверите също, че мета таговете на страницата ви не блокират достъпа на роботите до нея. Това може да се случи, ако сте имали meta "noindex" таг на страницата и сте забравили да го махнете.

2. Създайте карта на сайта
Големите търсачки - Google, Yahoo, Bing, поддържат карта на сайта. Това не е картата на сайта, която сте виждали в различни сайтове. Тези карти на сайта са създадени, за да улесняват ориентирането на посетителите на сайта ви в неговите ресурси. Сайтмап протоколът е създаден за търсачките, а не за хора.
Картата на сайта трябва да има определен формат. Повече подробности за това можете да откриете на sitemaps.org. 

3. Направете промени в robots.txt за индексиране на картата на сайта
След като създадете карта на сайта и я качите на сървъра, включете в robots.txt следния ред: 
Sitemap: http://www.example.com/name.xml
където www.example.com е името на сайта ви; адресът трябва да отговаря на реалното местоположение на картата на сайта ви. 
Търсачките, които посещават вашия сайт, автоматично проверяват файла robots.txt преди да обходят сайта ви. Когато прочетат файла, те ще видят картата на сайта и ще я заредят за повече информация. Така ще открият всички страници, които са пропуснали първия път, и ще ги индексират.

Как да създадете карта на сайта
Картата на сайта представлява текстов ASCII файл. Можете да го създадете с помощта на обикновен текстов редактор, като Notepad за Windows. Не използвайте текстообработващи програми като Microsoft Word. 
Кодът на картата на сайта започва с текста 

<?xml version="1.0" encoding="UTF-8"?>
<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">
и завършва с текста
</urlset>
Този код е задължителен. Всички карти на сайтове започват и завършват така и вие можете просто да копирате този текст. 
Всяка страница на сайта ви, която искате да бъде индексирана от търсачката, е посочена в картата на сайта по следния начин:
<url><loc>http://www.example.com/page.html</loc></url>
където www.example.com/page.html е реалният адрес на страницата. Тоест, адресът на всяка страница се поставя между таговете <url><loc> и </loc></url>.
Запазете файла под името sitemap.xml. Не забравяйте да включите информацията за картата на сайта във вашия файл robots.txt.

Как да създадем уеб сайт, оптимизиран за търсачките


1. Добавяйте текст към снимките, видео и флаш файловете
Първото нещо, което трябва да знаете за търсачките, е че техните програми четат само текст – чист, нормален текст, а не текст в картинки, флаш или видео. 
Някои търсачки имат известни възможности да сканират флаш файлове, но не разчитайте на това да им даде достатъчно информация за вашия сайт. За момента само Google прави това и то само за да извлече линкове, вградени във флаш файла. 
Това не значи, че не можете да създадете фото албум, игра на флаш или видео сайт, който да се появи в резултатите на търсачките. Можете да включите всякакво съдържание във вашия сайт. Но трябва да имате текстово съдържание към всеки от тези елементи на сайта си.
Така например трябва да опишете съдържанието на всяка графика в нейния alt таг с обикновен текст. 
Търсачките не могат да видят вашата снимка, но могат да прочетат описанието й, за да разберат за какво става дума.
По същия начин за страници, съдържащи флаш или видео файлове, трябва да включите допълнително текстово описание на тези файлове.

2. Валидирайте HTML кода
Проверете HTML кода на вашия сайт за грешки, за да може да бъде правилно интерпретиран от браузъра. 
Независимо дали пишете кода в текстова програма или WYSIWYG редактор, винаги е добре да валидирате HTML и CSS кода. 
Търсачките не се интересуват дали кода ви съдържа грешки, но разчитат на кода, за да се ориентират кои части от страницата ви да индексират. Ако имате грешки в кода, търсачката може да реши, че част от съдържанието на вашия сайт е код и да индексира само част от страницата.

3. Създавайте релевантни Title тагове
Много търсачки дават приоритет на текста в TITLE тага. Това не е заглавието, което виждате, когато отворите вашата страница в браузъра. Това е невидима част от HTML кода, която браузърът изобразява в горната част на прозореца си. Търсачките използват този текст като част от своите алгоритми, за да разберат за какво е вашата страница. Всяка страница от сайта ви трябва да има индивидуално и конкретно съдържание на заглавния таг. 

4. Използвайте HTML линкове за навигацията на вашия уеб сайт
С помощта на новите технологии – флаш, JavaScript, могат да се създават красиви анимирани менюта. Търсачките обаче не могат да ги четат и следователно не откриват връзка към останалите страници на сайта ви. Освен това, има потребители, които изключват Flash и JavaScript в браузърите си. Те също няма да видят вашето меню и останалите страници от сайта ви.
Не е необходимо да се лишавате от флаш или JavaScript. Но създайте менюта и връзки с чист HTML код.
Освен това трябва да създадете и карта на сайта си и да свържете началната си страница с тази карта. Така търсачките и вашите посетители ще се ориентират по-лесно в съдържанието на сайта ви.

5. Избягвайте дублирането на съдържание
Под дублиране на съдържанието се разбират части от вашия уеб сайт, които се повтарят повече от веднъж. Ако създавате сайта си с уеб редактор, това е малко вероятно да се случи. Някои автоматизирани системи обаче – блогове и CMS, създават алтернативни пътища към една и съща статия; те могат да запишат една статия под два различни адреса, като например www.example.com/archive/article.html и www.example.com/2011/01/05/article.html. 
Дублираното съдържание води до разпръсване на линковете към различните източници. Google и другите търсачки взимат предвид линковете, които са свързани към вашата страница, за определят нейната важност. Ако имате дублирано съдържание, линковете към него ще се преразпределят към двете отделни страници, в резултат на което нито една от страниците няма да получи достатъчна важност, за да бъде индексирана от търсачките. 

5. Не слагайте скрити текстове
Под скрит текст се има предвид текст, който е включен в основната част на страницата, но не се изобразява на екрана. Преди време скритият текст се използваше от уеб мастърите за добавяне на ключови думи към страницата с цел по-доброто й позициониране. Търсачките обаче не показват такива страници в резултатите си.

Понякога търсачките наказват дори сайтове, които използват скрит текст с определена цел – например да покажат съобщение на потребителите на определен браузър. 

Трябва също да имате предвид, че ако използвате безплатен хостинг, сайтът ви може да съдържа скрит текст без ваше знание. Някои хостинг компании показват реклами на страниците на вашия сайт и включват скрит текст около рекламите, за да повлияят вида на рекламите, които ще се покажат на страниците ви. Поради това вашият уеб сайт може да бъде наказан от търсачката.

За съжаление, не можете да разчитате на безплатен хостинг без реклами, тъй като тези компании не успяват да просъществуват дълго време без стабилен финансов доход или бърз кредит онлайн. Ако можете да си го позволите, най-добре е да наемете платен хостинг.

Създаването на оптимизиран уеб сайт не означава, че автоматично ще се позиционира добре за вашите ключови думи и фрази. Но това е необходима стъпка, за да се появи сайтът ви в резултатите на търсачките.

Плътност на ключовите думи и позициониране в търсачките


Какво е плътност на ключовите думи?

Един от най-простите начини да подобрите позиционирането на вашия сайт в резултатите на търсачките е да поработите върху плътността на ключовите думи
Ключова дума е дума или фраза, която потребителите на интернет търсят в търсачките. Плътност на ключовите думи е отношението на търсената дума спрямо общия брой думи на уеб страницата. Ако ключовата дума се появява само веднъж на страницата, плътността й е по-ниска в сравнение със страница със същия размер, на която се появява например 4 пъти. 

Ако плътността на ключовата дума е висока, по-голяма е и вероятността тази страница да бъде по-добре позиционирана в резултатите на търсачките. Не всички търсачки отчитат плътността на ключовите думи, а освен това всяка от тях има собствен алгоритъм, по който изчислява плътността на ключовите думи. 

Как да подобрите позиционирането на вашия сайт в търсачките 
Ето още няколко начина да повишите плътността на ключовите думи във вашия сайт:
1. Когато планирате страницата си, мислете за ключовите думи, които потребителите биха използвали, за да открият информацията във вашия сайт. 
2. След като създадете списък от ключови думи, не ги използвайте без смисъл на вашата уеб страница. Първо, това не работи с всички търсачки; някои от тях са достатъчно умни, за да открият безсмислен текст и могат да накажат сайта ви. Второ, по този начин ще загубите посетителите си.
3. Използвайте ключовите си думи в смислен текст. Ако пишете добре, трябва да преразгледате някои от навиците си. Например, добрите писатели използват синоними, за да не повтарят едни и същи думи. Това прави прочита по-приятен, но не помага на позиционирането на сайта ви за дадена ключова дума. Например, ако вашата ключова дума е „пари”, използвайте я многократно в този й вид, не я замествайте с местоимения или синоними. Разбира се, трябва да я употребявайте в добър контекст, за да бъде текстът ви приятен за четене.

Как да използвате мета таговете за оптимизиране на вашия сайт
Трябва да използвате поне три мета тага, за да оптимизирате вашата страница за търсачките.
Мета таговете описват съдържанието на вашата страница на търсещите машини. Например, ако нямате META Description таг на вашата страница, някои търсачки използват като описание първите няколко реда от съдържанието на страницата ви. Това описание е по-важно, отколкото си мислите. Описанието се появява в резултатите на търсачките и привлича вниманието на потребителите. Ако не използвате тага за описание, в резултатите на търсачките под заглавието на вашата страница може да се появи alt текста на някоя графика или менюто на страницата.

Има търсачки, които търсят и META Robots тага, за да разберат как да индексират сайта ви. Google например не взима под внимание този таг и приема, че може да индексира всички страници, към които има връзки. 

Валиден и добре структуриран HTML документ

Валиден HTML


За добра гугъл оптимизация е добре сайтът да бъде валиден HTML документ. На адрес http://validator.w3.org има онлайн инструмент за проверка на валидност на HTML. Ще се учудите колко много сайтове НЕ са валидни.

Създаване на силно динамичен сайт с много мултимедийни възможности е изключително трудно да бъде и стриктно валиден. Но съм виждал известни сайтове, както български така и чужди, с пресичане на HTML тагове, което според мен е абсолютно недупостимо. Често срещана грешка с пресичане на тагове е: <form> <table> ... </form></table>Структуриран HTML

По-голяма тежест при позициониране на сайтове от търсачките се дава на сайтовете с добре структуриран HTML. Какво означава добре структуриран HTML? Някои начинаещи дизайнери не разбират правилно значението на таговете H1, H2, H3 и т.н и ги използват неправилно като контейнери и чрез неправилно използване на CSS. Добре е една страница в сайта да има само едно главно заглавие H1 след това може да има няколко подзаглавия H2 и всяко от тях да има подподзаглавия H3. Но подреждането трябва да бъде примерно H1 H2 H3 H3 H2 H3. Грешно е да има H3 H2 H3 H2 H2 като големината шрифта на H2 е направена по-малка от тази на H3 чрез CSS.

Ползването на тага font с атрибут size е силно непрепоръчително точно защото предразполага към счупване на добре установената йерархия на HTML таговете.

Има едно лесно правило което може много да ви помогне при гугул оптимизация: сайтът трябва да се чете лесно и да се вижда йерархията на заглавията при изключване на CSS. Ако ползвате следния ред за задаване на CSS стилове: <link rel="stylesheet" href="style.css" type="text/css" /> опитайте следното - преименувайте временно файла със стилове style.css на style1.css (или просто изключете стиловете от браузера). Ще видите вашия сайт без красотите на CSS. Чете ли се лесно целия текст отгоре надолу и от ляво на дясно? Различават ли се заглавията и правилно ли са разположени? Ако отговорът е да сте на прав път към гугул оптимизация.

Тук е мястото да кажа, че подобни добре структурирани сайтове се четат много лесно от слепи хора. Те ще ви бъдат много благодарни за това и вероятно ще посещават вашият сайт редовно.
Описание на сайта
25.09.2007 г.

При гугъл оптимизация важна роля играе текста между таговете title. Той е по-важен от meta таговете. Трябва да бъде кратък, ясен и да описва добре целта на сайта. Пример за това е сайта http://homecalls.orbitel.bg - в едно изречение е описана целта на сайта.

Виждал съм грешки и в двете посоки. От сайт с описание Untitled1 което е автоматично поставено заглавие от софтуер за създаване на сайт, когато не е веведено нищо. До сайт който съдържа в тага title целия текст на страницата. Разбира се в този случай се виждат само първите няколко изречения и създателя на сайта очаква че гугъл ще анализира целия текст. Моето мнение е, че подобна хитрост по-скоро може да навреди.

Ако създавате динамичен сайт който представлява CMS, обикновено описанието в тага title се генерира автоматично в зависимост от избраната страница или тема и е във формат: Име на сайта - Заглавие на тема. Началото на текста има по-голяма тежест, затова препоръчвам следната оптимизация: да се разменят местата им ето така: Заглавие на тема - Име на сайта. Това създава в търсачките илюзията за много повече съдържание в сайта отколкото ако всички title започват еднакво.
Правилни META тагове и ключови думи от гледна точка на гугъл
26.09.2007 г.

Трябва да признаем, че мета таговете играят все по-малка роля за търсачки като гугъл. Но когато говорим за гугъл оптимизация има няколко ключови момента.

Мета тага keywords трябва да съдържа няколко ключови думи, които кратко и ясно описват най-важните теми на сайта. Добре е да са разделени с интервал или запетая и да са подредени от ляво на дясно, като се започне с най-важните.

Много важно е да не се прекали с ключовите думи. Отрицателен ефект за оптимизация ще има ако този таг съдържа дума която няма нищо общо със съдържанието. Просто казано: ако се правиш на хитър - сайта ще пострада.

Дори да няма пряка връзка с гугъл оптимизация, изключително важен е тага

<meta http-equiv="Content-Type" content="text/html; charset=windows-1251" />

Често срещам български сайтове без този таг (или грешен такъв) и резултатът е, че текста не се чете докато не превключиш енкодинга на браузера. Колко ли хора знаят как да си превключат енкодинга и дали ще дойдат втори път? :)

Тага description има малка тежест за гугъл оптимизация, но демонстрира добър стил на писане и се препоръчва. Тук трябва да има малко по-дълго описание за целта на сайта, но не повече от 10 изречения.
Съдържание на сайта и оптимизация
28.09.2007 г.

Най-важното за гугъл е съдържанието на сайта и по-точно текстовото съдържание. Колкото повече и разнообразна текстова информация се съдържа по дадена тема, толкова по-вероятно е да бъде открит лесно сайта при търсене по тази дума в гугъл.

Темата за оптимизация на съдържанието е много обширна и строго специфична според типа на сайта.

Ако информацията в сайта е в големи количества е добре да се раздели на категории и подкатегории. Добре е началната страница да бъде лека - да съдържа само най-важните неща. Не трябва да се прекалява с броя на връзките на една страница, ако има над 50 връзки е добре да се помисли за оптимизация.

При гугъл оптимизация изключително важно за търсачките е да има навигация от обикновенни линкове. Навигация написана на флаш или с помоща на JavaScript трябва да има и алтернатива с текстови линкове например в дъното на страницата.

Трябва до всяка една страница, която искате да се индексира, да има връзка или поредица от връзки и полученият URL да не съдържа параметри или сесийни променливи. Например ако имате страниците domein.com/index.php?page=about и domein.com/index.php?page=contact с помоща на mod rewrite на apache уеб сървъра тези два адреса трябва да се заменят с domein.com/about и domein.com/contact.



Подходящи връзки към сайта при гугъл оптимизация


Често разпространена заблуда на начинаещите уеб разработчици, когато се захващат с гугъл оптимизация, е да мислят, че колкото повече сайтове са поставили връзки към техния сайт, толкова по-добре. По-важно е какъв е сайта на който сте поставили връзка към вашия сайт. Трябва сайта по възможност да бъде с повече уникални дневни посещения от вашия и да има същата тематика като вашия сайт.

Ако вашият сайт е за уеб игри и 50 различни слабо посещавани лични уеб страници добавят връзка към вашия сайт, това ще има по-малка тежест при оптимизация, ако 5 специализирани уеб сайта за игри с над 10 000 уникални дневни посещения добавят връзка към вашия сайт.

Относно изходящите връзки от вашия сайт е много важно да не поставяте връзки, които сочат към страници с нелегален софтуер или към хакерски страници. Възможно е вашият сайт да бъде завинаги изключен от индекса на гугъл.

Добавете ръчно вашият сайт в уеб директории, като отделите специално внимание на описанието на сайта. Започнете вашата гугъл оптимизация с добавяне на сайта в гугъл от този адрес тук, но едва след като към сайта вече има достатъчно връзки от други важни сайтове.

При индексиране на сайт от търсачка се определя по кои търсени думи той да излиза в резултатите от търсенето. При оптимизация имайте предвид, че е важно заглавието на връзката към вашия сайт. Например връзката гугъл оптимизация дава тежест на думите гугъл оптимизация и търсачката отбелязва, че тези думи описват вашия сайт. Не пропускайте и атрибута title.



Гугъл оптимизация - насоки и правила на гугъл за уеб разработчици


Препоръчва се следването на тези правила, за да може по-лесно гугъл да открие, индексира и оцени страниците на вашия сайт. Дори да не изпълните всичко трябва да прочетете секция Правила за качество. Разглеждат се основните забранени практики, които могат да доведат до отстраняването на сайта ви завинаги от индекса на гугъл.Как да започнем гугъл оптимизация

След като сайта е напълно готов (без "тази страница е в разработка").
- намерете сайтове, със сходна тематика, с които да размените линкове;
- добавете сайта в гугъл от тук;
- създайте файл robots.txt и сайтмап (за това ще говорим по-късно);
- съобщете на всички сайтове, които трябва да знаят за вашия, че той вече е онлайн;Правила за качество

- Правете страници за потребители, а не за търсачки. Не предоставяйте различно съдържание за едните и за другите.
- Не участвайте в линкови схеми, които са измислени за да увеличат PageRank на сайта ви. Не се доверявайте на фирми твърдящи, че бързо ще изкачат сайта ви в гугъл.
- Не използвайте компютърни програми, за да регистрирате страниците си и да изпращате автоматични или програмирани търсения до гугъл.
- Избягвайте употребата на скрити линкове или скрити текстове! Не използвайте пренасочвания.
- Не качвайте страници със съдържание, което не се отнася до темата на сайта ви и не създавайте много страници, поддомейни и домейни със съдържание, което е почти същото като това на сайта ви.
- Не създавайте страници, които инсталират вируси, троянски коне и подобни. За дизайна и съдържанието
- Направете сайт с ясна йерархия и текстови линкове. Трябва да има достъп до всяка една страница от сайта ви чрез поне един статичен текстови линк. Проверете за счупени линкове и направете проверка за допуснати грешки във вашия HTML код. Вече писах за валиден и добре структуриран HTML документ.
- Създайте карта на сайта с линковете, които сочат към важните страници. Когато картата включва повече от 100 линка, разделете я на няколко отделни страници.
- Създайте полезен, информационен сайт, по възможност с уникално съдържание и напишете страници, които ясно и точно се отнасят към темата на сайта.
- Помислете за думите, които потребителите биха използвали, за да намерят сайт със съдържание подобно на това от вашите страници. Употребявайте в текста тези думи! По-голяма тежест имат, ако са към началото на страницата.
- Постарайте се да използвате текст, вместо изображения, за да посочите важните имена, съдържание и линкове. Текстът, който е част от графиката на изображението, не се разпознава от паяците на търсачките. Направете информацията в атрибутите TITLE и ALT максимално описателна и точна.Технически правила
- Отворете сайта с текстов браузер, като например Lynx, особено началната страница, за да проверите коя част от сайта паяците ще могат да "видят". Ако сайта съдържа прекалено много JavaScript, рамки (frames), DHTML, или Flash, които не позволяват да се види основното и важно съдържание на сайта ви, това означава, че и паяците на търсачките ще имат проблем.
- При използване на сесии ще трябва да помислите за начина по който паяка обхожда сайта ви и дали изобщо ще има достъп до някои страници.
- Не използвайте "&id=" като параметър във вашите URL адреси, защото гугъл няма да индексара страниците ви.
- При ползване на CMS система, проверете дали експортира съдържанието успешно, така че паяците на търсачките могат да го индексират. Добре се справя с това WordPress.

По-подробна информация за оптимизация може да прочетете на английски в Webmaster Guidelines.

Гугъл оптимизация и как работи Гугъл

Когато се захванете с гугъл оптимизация трябва да знаете как работят паяците. Това са автоматични програми на търсачките, чиято цел е ежедневно да претърсват мрежата, да анализират страниците и да ги индексират. Наричат ги още ботове - съкращение от роботи.

След като една страница е вече индексирана, паяка ще минава периодично, за да проверява дали в страницата има промени по текста и ако има ще я индексира отново. Колко често се случва това зависи от това колко често се добавя съдържание в тази страница.

За да може паяка на гугъл да посети вашия сайт трябва да има поне една връзка в друг сайт, който вече е индексиран, която да сочи към вашия сайт. Средно до седмица след като има такава връзка и вашия сайт ще бъде автоматично индексиран. Другият начин е да добавите ръчно вашия сайт в индекса на гугъл, както споменах по-горе. При ръчно добавяне минават около 48 часа, докато началната страница на сайта бъде добавена в индекса.

След като посети една страница паяка на гугъл започва да я анализира и оценява. Как точно се оценяват страниците е фирмена тайна на гугъл. При анализа се отделя текста от HTML таговете и се записват всички думи по-дълги от 3 символа и колко пъти се срещат в страницата. По-голяма тежест се дава на думите, които са заглавия и които са в началото на страницата. Текстове които са написани в картинки или други мултимедийни файлове се пропускат от паяка. Все пак картинките не се игнорират напълно, ако съдържат атрибут title се опитва да се разбере големината им и по този начин се определя тежестта на фразата в title.

Преглеждат се връзките в страницата и къде сочат. Ако това са връки към други страници в този сайт, се добавят за по-късна обработка. Страниците защитени с парола естествено не могат да бъдат посетени от паяка. Връзките създадени чрез флаш също се пропускат. Ето защо създаване на навигация на сайт единствено чрез флаш е безумие.

По специално гугъл има няколко програми паяци. Най-известните са Adsense bot, Freshbot и DeepCrawl. Паякът Adsense е специализиран за сайтове, които са поставили гугъл реклами в своите страници. JavaScript кода на рекламната позиция изпраща съобщение до Adsense паяка и той идва много бързо, за да анализира страницата и да прецени какъв тип реклама да постави в тази страница. Това се случва до 15 минути след като някой зареди страницата си в браузера от компютър различен от този на уеб разработчика.

При гугъл оптимизация по-интересни са другите два паяка, които работят заедно. Freshbot е паяка, които индексира страниците от първо ниво във вашия сайт и преценява колко често се посещават. Супер динамични сайтове като Yahoo се преиндексират на всеки 10 минути. Стандартно времето за повторно посещение от този паяк е от един до 14 дни в зависимост от това колко популярна е страницата и колко често се променя. Freshbot записва в база данни всички връзки от вашия сайт сочещи към по-дълбоки нива във вашия сайт. Веднъж месечно DeepCrawl прочита връзките записани в базата от Freshbot и започва да ги индексира. Това е причината, поради която може да мине до месец, докато всички страници на сайта бъдат индексирани, особено ако имате много категории и подкатегории.

Както виждате гугъл оптимизация е бавен и сложен процес. Най-доброто което можете да направите е да добавяте все повече полезно съдържание по дадена тема във вашия сайт.

Гугъл акаунт за уеб разработчици и следене на гугъл оптимизация

При започване на гугъл оптимизация на сайт, едва ли ще минете без създаване на акаунт в Google Webmaster Tools. В този сайт гугъл ви дава инструменти с които можете да следите един или няколко сайта едновременно през процеса им на гугъл оптимизация. Ако вече имате поща в gmail.com може да се логнете със същите мейл и парола.

Какви уеб инструменти ще намерите тук? Възможност да виждате кога за последно паяка на гугъл е посетил вашия сайт и дали е срещнал проблеми при обхождането му. Статистика по кои ключови думи търсят хората в гугъл преди да посетят вашия сайт. Състояние на файла robots.txt, състояние на sitemap на сайта и други.

След като създадете акаунт и се логнете в него, от страница Dashboard ще можете да добавяте сайтове за следене. За всеки добавен сайт ще трябва да докажете, пред гугъл, че сайта е под ваш контрол, като добавите специален META таг в индексния файл или като качите празен файл със специално име в главната директория на сайта. След като добавите тага или файла на уеб сървъра на вашия сайт, натиснете бутона [Verify]. Ще трябва да минат седмица-две, докато статистиките започнат да действат.

От менюто Tools/Set preferred domain можете да кажете на гугъл как да показва вашия домейн в резултатите от търсенето. Дали като http://www.domain.com или просто http://domain.com. Разбира се трябва предварително да се насочили поддомейна www. Често срещана глупава грешка е двете да не сочат на едно място.
В следващата статия ще видим как се създава файла robots.

Създаване и проверка на файла robots.txt за гугъл оптимизация

Друга стъпка от гугъл оптимизация на една уеб страница е създаването и качването на файла robots.txt в главната уеб директория на вашия сайт. Файлът robots.txt е текстов файл, който указва на паяците на търсещите машини кои директории и файлове могат да индексират и кои не трябва да бъдат индексирани. Най-често се ползва, когато на сървъра има файлове, които не са html или уеб скриптове, а например файлове на документи. Това са файлове, които не са предназначени за гледане през браузер, а само за сваляне и понякога може да се окаже опасно да бъдат индексирани и така да станат достъпни за някой, който не трябва да има достъп. Също така чрез този файл може да се укаже, кои точно търсачки да имат достъп до даден файл или директория и кои не.

Важно! Трябва да се има предвид, че не всички роботи на търсещи машини се съобразяват с указанията, дадени в robots.txt! Ако имате крон скриптове или други важни файлове НИКОГА не ги поставяйте в уеб директорията, а извън нея! Не може да се разчита само на robots.txt, че ще спре достъпа до тези файлове, това може да се направи само от настройки на уеб сървъра. Всъщност даже ще помогнете на хакери да видят кои директории са ценни за вас, като отворят през браузер вашия файл robots.txt.

Файла robots.txt има определен формат на записване, който трябва да се спазва. Името на файла трябва да бъде само с малки букви. Не може да бъде например Robots.txt. Отделните групи записи в robots.txt се разделят с празен ред.

Ето един файл robots.txt, който разрешава достъп до всички файлове на всички паяци:User-Agent: * Disallow:


Ако вторият ред бъде променен на Disallow: /, тогава имаме точно обратния ефект - всички търсачки няма да имат достъп до всички файлове.

Файлът robots.txt съдържа два основни типа записи:
1. Запис, указващ името на паяка на съответната търсачка (или знака * за всички търсачки).
2. Втория запис указва кои точно файлове или директории да не се индексират от паяка описан на предния ред.

Например:User-Agent: Googlebot Disallow: /cgi-bin/


Това е името на паяка на гугъл и така му забраняваме да индексира директорията cgi-bin, която е поддиректория на главната уеб директория, както и всички файлове и директории, които cgi-bin съдържа.

Възможно е да се забрани индексирането на даден файл или директория от една търсачка и да се разреши индексирането на същия файл или директория от всички други търсачки. Ще ви е необходимо да знаете имената на паяците на търсачките. Можете да видите пълен списък в Database of Web Robots, Overview.

Във файла robots.txt може да има само един запис от вида: User-Agent: *, който се отнася за всички паяци. Той трябва да бъде следван от списък с директории или файлове които ще бъдат забранени за индексиране. Всеки запис трябва да бъде на нов ред и не трябва да има празен ред между тях. Вече е възможно имената на няколко паяка да се укажат с един запис User-agent, като трябва да бъдат разделени с табулатор.

Втория тип запис Disallow: указва кои точно файлове или директории да не се индексират от съответния паяк.
Например записите: Disallow: my_file.php Disallow: /dir1/dir2/ Disallow: /dir1/file.html Disallow: /bin


забраняват индексирането на файла my_file.php от главната уеб директория, на цялото съдържание на dir2, която е в dir1 (важно е да има знака / в края), на файла file.html от директория dir1, като останалите файлове от dir1 си се индексират безгрижно и накрая се забранява индексирането на всеки файл или директория започваща с bin. Например директория binary или файловете bin.txt, bini.html и т.н. Както се вижда, всяко описание на директория или файл, трябва да бъде на отделен ред.

Можете да поставяте коментари във файла robots.txt като всеки коментар е на нов рез и започва със знака #. Например:
# Това е ред с коментар

Някои паяци, сред които и този на гугъл, могат да разбират забрана за индексиране на файлове с определено разширение, например записа
Disallow: *.asp
ще забрани индексирането на всички файлове с разширение .asp

Ето един завършен пример:User-agent: webcrawler Disallow: User-agent: lycra Disallow: / User-agent: * Disallow: /tmp Disallow: /logs


Този файл изрично разрешава всичко за паяка на webcrawler, забранява всичко за lycra, забранява на всички достъп до всички директории и файлове започващи с tmp и logs. Всички останали паяци, които не са споменати ще имат пълен достъп да индексират всичко без tmp и logs.
Повече информация на английски език има тук.

Създайте вашия файл robots.txt с обикновен текстов редактор и го качете на сървъра в главната уеб директория. Трябва да можете да го отворите през браузера на адрес http://yourdomain.com/robots.txt
След това влезте във вашия гугъл акаунт и от Dashboard отворете "Manage http://yourdomain.com", след това от менюто влезте в Tools/ Analyze robots.txt. В тази страница можете да проверите как гугъл успява да се справи с вашия файл robots.txt и дали в него има грешки.

След като всичко е наред с вашия файл robots.txt можете да поставите един от следните тагове:<meta name="robots" content="index, follow"> <meta name="robots" content="noindex, follow"> <meta name="robots" content="index, nofollow"> <meta name="robots" content="noindex, nofollow">


Първият таг казва на паяците да индексират всичко и да проследят линковете от текущата страница. Вторият да не индексират страницата, но ще проследят линковете в нея. Третият вариант ще индексират страницата, но няма да проследят линковете в нея. При четвъртият таг няма да индексират нищо и няма да проследят линковете.

Създаване на сайтмап за гугъл оптимизация

В тази статия ще говорим за гугъл сайтмап - XML описание на страниците във вашия сайт, предназначено за паяците на гугъл. Не трябва да се бърка с "Карта на сайта" - html страница в която са описани по-важните страници на голям сайт за по-лесно ориентиране на посетителите на сайта.

При гугъл оптимизация е много полезно да имате сайтмап. Основната цел на един сайтмап е да укаже на паяка колко често възнамерявате да променяте всяка една страница от вашия сайт и колко важна е тя за вас.Създаване на сайтмап:

1. Автоматично създаване. На адрес www.xml-sitemaps.com има полезен инструмент за онлайн създаване на сайтмап на вашия сайт. Въведете URL на вашия сайт, като за начало може да оставите останалите опции по подразбиране и натиснете бутона [Start]. Целият ви сайт ще бъде изследван (максимум 500 страници) и ще бъде създаден файла sitemap.xml. Изтеглете го от връзката под заглавието "Download un-compressed XML Sitemap" и го отворете с обикновен текстов редактор.

2. Тунинг на сайтмап. Редактирайте таговете priority за всяка връзка от сайта. Възможните стойности са 0.0, 0.1, 0.2 ... до 1.0. За по-добра гугъл оптимизация е важно да разберете правилно за какво служат тези стойности и как да ги ползвате. Това са относителни стойности на вашата оценка за всяка от страниците на вашия сайт. Колкото повече различни стойности имате, толкова по-добре. С оценка 1.0 показвате коя е най-важната за вас страница в сайта, с оценка 0.9 - следващата по важност и т.н.

2.1. Тези оценки по никакъв начин не оказват влияние на вашето класиране в гугъл спрямо други сайтове, а само начина на сортиране на вашите страници в гугъл. Ако човек търси в гугъл по дума която я има в повече от една страница във вашия сайт, то тази с по-високо priority ще излезе преди другите.

2.2. Най-глупавото нещо е да сложите на всички страници 1.0, тогава всичките страници ще бъдат оценени еднакво и ще се сортират по друг начин. Опитайте се да дадете различни стойности на priority за всички линкове.

Следващият таг който трябва да промените е changefreq. Той указва колко често смятате да променяте тази страница. Възможните стойности са: always, hourly, daily, weekly, monthly, yearly, never. Стойност always се ползва само при динамични страници, които се променят при всяко едно посещение (например брояч на посещенията). Стойност never е за архиви, които няма да бъдат променени.

Тук е важно да разберете, че това са просто указания, а не команди към паяка. Ако сте маркирали с daily една страница, но не добавяте ново съдържание всеки ден, то след известно време паяка ще си я отбележи като weekly или по голямо и повече няма да се съобразява с вашия сайтмап.

3. Качване на сайтмап. След като вашия сайтмап е готов по FTP го качете във вашата главна уеб директория, така че да се вижда на адрес http://yourdomain.com/sitemap.xml и след това сте готови да го добавите във вашия гугъл акаунт. В този момент е добра идея за всеки случай да проверите файла sitemap.xml дали е валиден XML документ ;)

4. Добавяне в Гугъл. Влезте във вашия гугъл акаунт с име и парола и от Dashboard срещу вашия сайт в колона Sitemap натиснете връзката Add. На следващата страница от падащото меню изберете "Add General Web Sitemap" и в появилото се поле 3 допишете адреса до вашия сайтмап, като напишете sitemap.xml. Остава да натиснете бутона [Add Web Sitemap] и да изчакате няколко часа.

Счупени и здрави линкове при оптимизация


Счупени линкове казваме на връзките, които сочат към несъществуващи страници (грешка 404 Not Found). Получават се най-често при показване на връзки, който сочат към незавършени страници все още не качени на сървъра или грешки при изписване на връзката от създателя на сайта.

Такива връзки оказват негативно въздействие на вашата оптимизация, но много по-важно е, че по този начин губите доверието на посетителите към сайта. Затова:
- никога не пускайте сайт със страници under construction или с връзки сочещи към все още несъществуващи страници!
- след като сайтът е пуснат, редовно проверявайте дали не се е появил счупен линк заради грешка. Може да загубите доверието на голяма част от посетителити и те да спрат да посещават сайта ви завинаги.

Виждал съм счупени страници кеширани от гугъл, които излизат в резултатите от търсенето - повече от хората дори няма да погледнат сайта ви, ако при търсене в гугъл след връзката към сайта ви в описанието видят нещо като "тази страница все още не е завършена".

Възможно е заради счупена връзка без да искате да прекъснете достъп до цяла категория от вашия сайт, в която ще могат да влизат само хора, които имат в bookmarks запазен директен линк. Тези страници до които се стига само през този счупен линк след време ще бъдат изключени от индекса на гугъл, ако не оправите връзката навреме.

Колкото по-голям и динамичен е сайтът ви, толково по-трудно е следенето за счупени линкове. За щастие има инструменти за това. Още по време на процеса на гугъл оптимизация ще имате възможност да откриете такива връзки ако съществуват.

При създаването на сайтмап уеб инструмента www.xml-sitemaps.com ще анализира сайта ви и ще ви покаже ако той съдържа счупени връзки - естествено само в публичните страници без тези защитени с парола.
За големи комерсиални сайтове ви препоръчвам да ползвате специализирани услуги за автоматична, периодична диагностика на сайт - проверка за достъпност на сайта от различни места, проверка на връзките в сайта и др.

На по-късен етап можете да следите дали са се появили счупени връзки в сайта ви от вашия гугъл акаунт. В Dashboard от менюто изберете Diagnostics и после връзка "Web crawl". В тази страница има 6 категории. Ако изберете "Not found" ще видити списък със счупени връзки - най-добре е да бъде празен ;)

В категория "URLs not followed" са връзките забранени за следване от META таг, а тези в "URLs restricted by robots.txt" забранени за гугъл от файла robots.txt. Писах по-горе и за двата вида. В категориите "URLs timed out" и "Unreachable URLs " обикновено стоят връзки от вашия сайт към други сайтове, които временно или перманентно са недостъпни.

Интересно е и да видите от менюто Links и после "Pages with external links". Там се вижда колко връзки има към вашия сайт от други сайтове. При натискане върху цифрата се вижда списък с кои точно страници са линкнати и от кои сайтове. Можете да изтеглите този списък в .CSV файл, който се отваря с Excel.

Действия при извършване на SEO оптимизация


Разделяме процеса по извършване на SEO оптимизация на два етапа: работа по сайта и грижа за сайта.

1. Работа по сайта (on-page)


По-важните стъпки на този етап са:
1 Запознаване с файловете на сайта и изготвяне на точна оферта с фиксирана цена;
2 Създаване на пълен архив на файловете на сайта;
3 Определяне на набор от подходящи термини за търсене: ключови думи и словосъчетания - извършва се проучване на конкурентността на думите и обема на търсене;
4 Оценка на популярност преди започване на работа: класиране, Alexa рангове, PR рангове, брой посещения;
5 Определяне нужно количество и уникалност на текстовете на сайта;
6 Добавяне на мета тагове description, keywords и валидиращ таг, с който сайта се удостоверява пред Google, за да може да се прави мониторинг;
7 Създаване на динамични title, description и keywords тагове - различни в различните страници;
8 Добавяне на правилни тагове за заглавия H в повечето страници;
9 Създаване на "линкова маса" - насищане с вътрешни връзки между страниците;
10 Маркиране на текстове съдържащи ключови думи и добавяне на alt атрибути на изображения (текста се подава от клиента);
11 Определяне на относителен приоритет на страниците;
12 Създаване, качване и изпращане към Google на Google sitemap файл. За динамични страници се създава динамичен Google sitemap с ping към търсачките;
13 Създаване и качване на файл robots.txt;
14 Анализ на съдържанието и промяна на текстове (със съгласието на собственика);
15 Валиден и добре структуриран XHTML код по световния стандарт W3C - изчистване на сайта от HTML грешки;
16 Анализ и финна настройка на сайта през GWT (Google Webmaster Tools);
17 Промяна на footer на сайта, като му се добави описателно изречение съдържащо ключови думи и дублиране на по-важните навигационни линкове;
18 Създаване на страница 404 с Гугъл търсачка в нея - в тази страница попада посетител, който е написал грешен адрес в браузъра;
19 Създаване на брояч на сайта или заместване, ако се използва неподходящ;
20 Създаване на RSS емисия;
21 Създаване на Facebook фен страница;
22 Ръчно добавяне в уеб директории, регистрация в търсачки, добавяне в социални сайтове за споделяне на линкове и микроблогове, и добавяне в тематични уеб каталози (общо поне 60 различни сайта);
23 Периодична оценка на класирането и посещаемостта на сайта за отчитане на ефективност.

Средната цена за основния етап на seo оптимизация на сайт е по 500 лв. на месец, като се предплаща за 4 месеца.

Цената зависи от сложността на сайта и нараства в следните случаи:
необходимост от преминаване от HTML към PHP страници;
преработване на части от сайта като например: картинки съдържащи текст, Flash или JavaScript падащи менюта и замяната им с текст базирана навигация;
необходимост от подобряване на ползваемостта на сайта;
многоезичност на сайта;
необходимост от промяна на текстове, които са в CMS или в база данни;
предишни неправилни опити за оптимизиране на сайта;
кодиране или умишлено затрудняване четимостта на кода на сайта, лошо написан код.

Тези и други подобни фактори оскъпяват офертата, затова преди да се даде точна цена на офертата е нужен FTP достъп до сайта за запознаване с файловете на сайта.

2. Грижа за сайта (off-page)

Този етап е свързан с абонаментна SEO поддръжка и обикновено трае поне 1 година.
1 Извършва се линк кампания - поставят се връзки към сайта на други тематично подбрани сайтове. Връзките се наемат или се прави размяна на линкове.
2 Периодично се прави мониторинг на сайта: класиране, брой посещения, популярност.
3 Периодично се добавя съдържание под някаква форма например: новини, статии или нови страници. Новото съдържание се линква в социалните мрежи и се свързва с RSS.
4 Създаване на рекламни статии с връзки към сайта и тяхното разпрастранение по други сайтове като например тази директория за статии - изключително добър SEO ефект и води до добро повишаване на трафика.
5 Може да се инсталира блог, форум или CMS за по-лесно добавяне на съдържание.
6 Управление на PPC (Pay Per Click) реклама (например в Google Adwords) - периодично настройване на ключовите думи с цел понижаване цена на клик.
7 При желание от страна на клиента може да се създаде Mini Net - система от помощни сайтове водещи към основния бизнес сайт. Правилното изграждане на такава система и попълването и със съдържание става бавно. Ако се извърши правилно SEO ефектът ще бъде изключително добър.
8 Диагностика на сайта включва: периодично наблюдение достъпността до сайта. Понякога се случва поради лош хостинг доставчик сайта често да е недостъпен или скоростта на зареждане да е прекалено бавна. Това довежда до спад на позициите на сайта и може да съсипе извършената SEO оптимизация. Ако добавяте съдържание проверява се сайта за счупени линкове и за валиден XHTML код.
9 Входни страници (Landing pages). Следи се показателя Bounce Rate и ако той е прекалено висок може да се изградят подходящи входни страници и връзки към тях.
10 Управление на Facebook фен страница - Social Media Management.
11 Преговори за размяна на линкове с други сайтове и оценка на тежестта на линковете.
12 Други нестандартни методи за уеб реклама и популяризиране на сайта в Интернет според конкретния проект.

За най-добър SEO ефект, от ваша страна е необходимо периодично да можете да подавате нови текстове за сайта. Тези нови текстове могат да бъдат: новини за фирмата, новини за нови обекти, новини за нови продукти, новини за нови технологии в бранша, препоръки от доволни клиенти, текст за страница на тема "как работим ние", страница на тема "защо да изберете нас?", статии от бранша с текст, който не е публикуван до момента в друг сайт и др.
Друга информация, която би била полезна: описания на снимки, видео материали, сертификати, публични документи, проспекти.
Ако клиента не може да осигурява такива текстове, тогава се налага наемането на копирайтър, който да пише текстове и статии.



Регистрация в търсачки

Много хора погрешно смятат, че регистрация в търсачки и SEO оптимизация са едно и също нещо. Извършването на добавяне в уеб директории и търсачки, без преди това да са извършени основни SEO действия, може да окаже негативно влияние на сайта.

Входящите линкове и тяхното значение


Беклинкове или още наричани (inbound links) - входяши линкове са връзките намерени в други сайтове сочещи към вашия. Колкото повече връзки има към вашия сайт, толкова по-високо е ранкван той. Това е индикатор за търсещите машини, че сайта ви е важен и е от високо значение, следователно Гугъл го качва на по-горни позиции в търсачката си.

Най-полезни линкове са тези с определени ключови думи - (anchor text) и фрази сочещи към вашия сайт. Те имат най голямо влияние сред интернет търсачките. Например трябва да линквате сайт за SEO оптимизация то линка трябва да е:

<a href="http://www.example.com">SEO оптимизация</a>
Друг важен аспект от набавянето на линкове към вашите страници е дали те се намират в уеб сайтове с висок авторитет. Според мен много по-добре е да имате 10 линка в сайтове с висок ранк (PR) над 3 отколкото да имате 50 входящи линка в сайтове с ранк 1 и 2.

Как да разберем дали страниците, в които добавяме сайтовете си са с добра репутация?

За това идва на помощ www.prchecker.info този инструмент показва какъв е ранкът, който гугъл дава на сайтовете.
PageRank-а (PR) в повечето случай се гради от съвкупност от много фактори, като голямо влияние имат именно беклинковете към вашия сайт.
Други фактори са: качествено съдържание, възраста на домейна, присъствието ви в социалните мрежи, честото обновяване на съдържанието и още много други.

Видове входящи линкове:

Атрибута no-follow:
Някой линкове сочещи към сайта ви няма да имат толкова голяма тежест и няма да ви вършат никаква работа ако носят със себе си в кода атрибута "no-follow". Пример:
<a href="http://www.example.com" rel="nofollow">SEO оптимизация</a>
Сайтове като Уикипедия и Youtube например, имат свободен достъп за постване и тяхните линкове са точно с такъв атрибут.
Атрибута do-follow:
Фактически такъв атрибут няма, просто не се използва “nofollow”
Линкове идващи от други сайтове на същия сървър.
Те най-вероятно също няма да дадат голяма тежест за рейтига на сайта ви. В повечето случай търсачките не слагат почти никаква тежест на линкове разположени на същия сървър.

Набавяне на линкове

Добър начин да се снабдите с хубави линкове е размяната на линкове с други сайтове и блогове. Хубаво е линковете да са в сайтове, които са с близка тематика и имат нещо общо с вашия сайт. По този начин по лесно можете де се вмъкнете в дадена статия с (anchor text) и да имате максимана полза от линка.

 Внимавайте къде регистрирате сайта си! За да няма негативни последици след това. Като за начало можете да започнете от изпитаните:
www.gbg.bgwww.dir.bgwww.svejo.netwww.start.bg
От къде да започнем?

1. Качествено, интересно и полезно съдържание.

Разбира се за да е откриваем и посещаван вашия сайт, той се нуждае от нещо, което да привлича хората, нова услуга или продукт, интересни статии, и най-важното да бъде авторско съдържание - не копирано от друг уеб сайт. Гугъл лесно разпознава кой текст е дублиран и съществува на друго място в интернет пронстранството и по този начин ви слага на заден план.
Прясно съдържание - когато често актуализирате вашия сайт, търсещите машини като гугъл го индексират всекидневно, понякога по няколко пъти на ден, и когато не виждат нов текст и промяна в кода може дълго време да не се върнат при вас. Имайте предвид, че бедните на съдържание страници, претрупаните и дългите за скролване страници не са особенно харесвани, както от търсещите машини така и от потребителите.
Намерете идеалния за вашия сайт размер за текст и дължина и се стремете всички страници да го следват.

2. Индивидуално заглавие и описание за всяка страница.



Използвайте различно Title и Description в мета таговете на вашите страници. Много хора често правят грешката да използват еднакво описание за всяка страница. Това е погрешно! От както гугъл спря да обръща внимание на ключовите думи - keywords в мета тага на вашия сайт, описанието стана по практично. Оптималната дължина за meta tagovete e следната:

Tittle дължина - 60 до 70 символа
Description дължина - 150 до 200 символа
Keyword дължина - до 256 символа.

3. Вътрешни линкове

Направете мрежа от линкове, които да свързват страниците помежду си, като за всеки линк използвате ключови думи, върху които искате да акцентирате и към които води линка.
Целта на вътрешните линкове е да образуват вътрешна мрежа, която помага на ботовете на търсачките да индексират цялото съдържание на вашия сайт.

4. Входяши линкове

Това са линкове от други сайтове, сочещи към вашия. Те са много полезни за вдигането на рейтинга на вашия сайт. Колкото повече по-добре. Но! Често много хора не обръщат внимание на това дали линковете им се намират в читави уеб сайтове. Събирайте линкове само от сайтове, които смятате за добри и с добра репутация! Пълно е стакива, които предлагат безплатна регистрация на сайт и добавяне на линк, но повечето просто не струват...
 Друго важно нещо отностно ликовете към вашия сайт е най-много да са dofollow, по-малко redirect и nofollow.

5. Използвайте alt и title атрибута за вашите снимки и графични файлове.

С аlt и title се задава описание и заглавие на файла, по този начин търсещите машини индексират снимките ви и ги правят по лесно откриваеми в Google images, от там и сайта ви става откриваем.

6. Ключови думи.

Колкото повече различни ключови думи имате в страниците на сайта си, толкова по-лесни ставате за откриване и рейтингът ви става по-висок. За да направите влиянието на ключовите думи по голямо, използвайте bold (удебелен) текст. Избягвайте прекомерното повтаряне на една и съща ключова дума, използайте нейни синоними. Прекаленото претрупване на едни и същи ключови думи на едно и също място води повече до негативи, отколкото да покачи рейтинга ви.

7. Карта на сайта - Sitemap.

Хубаво е да имате страница с карта на сайта ви. Това е страница която показва структурата на вашия сайт и на която присъстват връзки към всички страници, документи и диретории на сайта.

8. Заглавие на страницата и H1 таг.

Търсачките намират за най-важно написаното в горната част на страницата заедно с тага (<title> </title>) Хубаво е двете заглавия да се различават и да включват най-важните ключови думи за определената статия. Заглавието в горната част на страницата е препоръчително да е написано с H1 тага (<h1></h1>), по този начин указвате на търсещите роботи, кое е от първостепенна важност и те него индексират първо.
Тези тагове се използват най-вече за заглавия и важни надписи по страницата ви, другите такива са: <h2>Това е заглавие 2</h2>, <h3>Това е заглавие 3</h3>, <h4>Това е заглавие 4</h4>, <h5>Това е заглавие 5</h5>, <h6>Това е заглавие 6</h6>

9. robots.txt

Всеки притежател на сайт знае, че има много папки и файлове, които не бива или не иска да бъдат индексирани (показвани в търсачките). Файла robots.txt е текстов файл, предназначен да указва на роботите на търсещите машини кои файлове и папки да не бъдат индексирани. Той се поставя в главната директория на сайта и е много полезен.
Повече информация можете да откриете на http://www.robotstxt.org/

10. Какво е .htaccess?

.htaccess е файл, с който могат да бъдат променяни настройки на вашия сървър. Той е много полезен и някой от най популярните му функции са:
- редиректване на адрес
- поставяне на собствена 404 error страница
- бан на IP адреси и др.
Ако сериозно се захванете с гугъл оптимизация не подценявайте тези съвети.

Няма коментари:

Публикуване на коментар