Да подобрим търсачката в името на маркетинга

Оптимизация за търсачките (Search engine optimization - SEO) е процесът на подобряване на количеството и качеството на интернет трафика от търсачките към уебсайт чрез натурални (органични) резултати. Обикновено колкото по-висока позиция заема сайтът в класациите на търсачките при търсене, толкова повече посетители ще получи този уебсайт. Оптимизацията за търсачките може да бъде насочена към различни видове търсене като търсене на изображения, локално търсене, видеотърсене, търсене на новини или специализирано вертикално търсене за определен тип индустрия.
Разгледана като маркетингова стратегия за значимостта на един уебсайт, оптимизацията разглежда алгоритмите на търсачките и начина на търсене от страна на потребителите. Дейността по
оптимизирането на един уебсайт
може да включва работа по програмния код, структурата и дизайна му, както и премахване на съществуващи проблеми, непозволяващи на роботите на търсачките да посетят и индексират пълното съдържание на сайта. Изключително важно действие при оптимизирането е добавянето на оригинално съдържание към сайта, което позволява той да бъде лесно открит и индексиран от роботите, а също така го прави по-привлекателен и стойностен за посетителите. Оптимизирането на уебсайт може да се предложи от SEO агенция както като самостоятелна услуга, така и като част от по-широка маркетингова кампания.
Тъй като ефективни SEO действия неминуемо изискват промени в изходния HTML код на сайта, стратегията за оптимизиране се препоръчва да е внедрена още в разработването и дизайна на уебсайта. Терминът "благоприятен за търсачките" (search engine friendly) би могъл да се употреби за описание на типове уебдизайни, менюта, системи за управление на съдържанието и сайтове за електронна търговия, които са лесни за оптимизиране.
Ранните версии на алгоритмите на търсачките разчитаха на предоставената от програмистите информация за уебсайта като мета етикета с ключови думи, отнасящи се за съответната страница. Използването на такава мета информация за индексиране на страниците обаче се оказа твърде неефикасно, тъй като много уебпрограмисти злоупотребяваха с мета етикетите, запълвайки ги с изцяло с думи, неотговарящи на съдържанието. По този начин
изкуствено се увеличаваше броят на показаните страници
от съответните сайтове, генерирайки повече рекламни приходи за собствениците. Неточна, непълна и непостоянна информация в мета етикетите беше причината за присъствието на сайтове в резултатите при търсене на неотговарящи на съдържанието термини, както и за отсъствието на подходящи такива. Вследствие на това търсещите машини разработиха нови, по-сложни и съвършени алгоритми, вземайки под внимание допълнителни фактори, които бяха по-трудни за манипулация от страна на уебпрограмистите. Алгоритъмът на Google се базира на броя и качеството входящи препратки към дадена страница (и сайт като цяло), придавайки й съответно число, наречено PageRank, което е логаритмична функция и може да бъде между 0 и 10. Колкото по-висок е PageRank на един уебсайт, толкова по-стойностен и авторитетен се счита да е той. Само няколко сайта като Google (http://www.google.com), "Майкрософт" (http://www.microsoft.com), Белия дом (http://www.whitehouse.gov), американската космическа агенция НАСА (http://www.nasa.gov), световния уебконсорциум за стандарти W3C (http://www.w3c.org) и софтуер компанията Adobe (http://www.adobe.com) имат PageRank 10. Въпреки че Google PageRank е значително по-труден за манипулиране, днес много сайтове се фокусират върху размяна, закупуване и продажба на линкове (препратки) в огромни размери с цел повишаване на съответния PageRank. Някои от тези схеми, известни като link farms (ферми за линкове), включват създаването на хиляди нови уебсайтове с единствената цел манипулация на алгоритъма, т.нар. link spamming техника. За да намалят влиянието на подобни схеми, търсачките днес включват значителен брой необявени фактори при изчисляването на техните алгоритми, като само Google заявява, че взема предвид около 200 различни показателя. Трите водещи търсещи машини Google, Yahoo! и Live Search, собственост на Microsoft, не разкриват алгоритмите, които използват за своите резултати.
Методите за оптимизация могат да се разделят в две главни категории
- SEO техники, които търсачките препоръчват като част от добрия уебдизайн, и такива, които търсещите машини не одобряват в опита си да намалят ефекта от т.нар. smapdexing (нежелано съдържание в индекса). В зависимост от използвания метод оптимизацията може да се раздели на white hat SEO (позволена) и black hat SEO (непозволена). Докато прилагането на white hat SEO води до дълготрайни положителни резултати за уебсайта, то употребата на black hat SEO трябва да се извършва задължително с презумпцията, че търсачките неминуемо ще накажат сайта при откриването на подобни техники.
Действията при white hat SEO (позволената оптимизация) се подчиняват на препоръките на търсачките и не включват използването на непозволени трикове за манипулиране на алгоритмите, като предоставеното съдържание, което търсещите машини индексират и впоследствие използват в резултатите, е същото, което посетителите на сайта виждат. Целта в случая е създаването на полезно съдържание преди всичко за потребителите, а не за търсачките и след това предоставянето на лесен достъп за роботите на търсещите машини.
Използваните при black hat SEO методи се опитват да подобрят позициите чрез забранени от търсачките начини или посредством различни (често краткотрайни) трикове. Такива популярни техники са употребата на скрит текст (сливащи се с фона цветове, разположен в невидим <div> оператор, или позиционирани извън екрана), предоставянето на различни страници за посетителите и търсачките (cloaking), огледални сайтове (еднакво съдържание, но различни интернет адреси) и т.нар. изходящи страници (doorway pages), които представляват нискокачествени страници, съдържащи предимно еднакви ключови думи и изрази. Търсачките, открили такива сайтове, които употребяват black hat SEO методики,
могат да ги накажат чрез понижаване на позициите им
в резултатите при органично търсене или в по-тежкия случай - чрез премахване на индексираните страници от базите си данни изцяло. Такива наказания могат да бъдат приложени както автоматично от алгоритъма на съответната търсачка, така и вследствие на конкретен преглед от някой редактор, особено когато става дума за докладвана от посетител нередност. Сред известните примери за прилагане на такива сурови наказания е изтриването на германските компании BMW и Ricoh през февруари 2006 г. за използването на подобен вид непозволени SEO методики. Двете компании обаче реагираха светкавично и след публични извинения в медийното пространство и премахването на приложените black hat SEO техники от съответните страници уебсайтовете бяха възстановени обратно в индекса на Google.
Следващия четвъртък четете втора част на статията