СЕО оптимализација веб-сајта

Из Википедије, слободне енциклопедије

SEO оптимализација веб-сајта за претраживаче (енгл. Search engine optimization) је процес унапређења квалитета и количине саобраћаја од претраживача ка веб-сајту преко природних (органских или алгоритамских) резултата претраге. Типично, што је сајт боље рангиран (нпр. у претрагама излази међу првима на списку), више ће саобраћаја бити преусмерено са претраживача на њега. СЕО може да учини различите врсте претрага, укључујући претрагу слика, локалне претраге и друго.[1][2]

Као интернет маркетинг стратегија, SEO разматра начин функционисања претраживача као и појам који људи претражују. Оптимализовање веб-сајта првенствено обухвата мењање садржаја и HTML кодирање које довести до побољшања његовог рангирања везано за специфичне кључне речи, и да уклони препреке приликом индексирања садржаја веб-сајта од стране претраживача.

Акроним SEO може такође да представља људе који обављају оптимализовање веб-сајтова за претрагу. То је термин прихваћен у консултантској делатности за стручњаке који изводе оптимализовање веб пројеката у корист клијента. Овај профил стручњака може понудити оптимализацију као посебну услугу или као део веће маркетинг кампање. Да би постигао ефекат SEO може захтевати измене HTML кода странице, такође може бити инкорпориран у веб дизајн и развој странице. Термин „прилагођен претраживачима“ (енгл. search engine friendly) може се односити на дизајн веб-сајта, меније, системе ажурирања садржаја (CMS) или интернет продавнице које се могу лако оптимализовати.

За SEO можемо даље рећи да је то начин на који можемо прилагодити садржај страница приликом израде неке веб презентације. Такође, треба извршити прилагођавање унутрашње и спољашње структуре линкова, како би ботовима претраживача биле доступније и лакше за даље индексирање. Ботови претраживача се користе да прегледају мноштво интернет страна у веома кратком времену и да их категоришу. Веб страница је индексирана од стране претраживача, Google, Yahoo, Bing или неки други, када је прегледана и када јој је додељена одговарајућа позиција у резултатима претраге.[3][4]

Уметност и наука разумевања како функционише интернет претраживач представљају срж разумевања процеса оптимализације, због тога што SEO често нуди боља решења од осталих форми интернет маркетинга.

После најновијих промена на Google-овом алгоритму за 2011, тзв. енгл. Panda update, SEO услуга подразумева нешто ширу листу послова и активности, због тежње за изградњом што разноврснијег линк профила клијената.

Активности везане за SEO можемо поделити у две основне категорије: -{онпаге}[5]- и оффпаге оптимализацију.

Онпаге СЕО подразумева:

  • поређење кључних речи у односу на конкуренцију и њихову даљу анализу у виду детаљних извештаја
  • оптимализацију мета тагова (титле, десцриптион)
  • сређивање тагова у садржају (алт, титле, наслови линкова)
  • оптимализацију наслова и поднаслова (Х1-Х6)
  • креирање датотеке роботс.тxт
  • креирање, регистрација и обнова ситемап.xмл
  • поправљање унутрашње структуре линкова
  • анализу дуплираног садржаја
  • креирање „404” странице и „301” редирецт по потреби
  • коришћење Стронг, италиц и блацкqоуте тагова у тексту
  • излазни линкови ка квалитетним сајтовима какав је и Wикипедиа
  • интерни линкови ка битној страници са кључном речи
  • додати видео, инфографиц у текст како би био занимљивији
  • побољшати време учитавања странице испод 3 секунде
  • респонсиве дизајн сајта
  • дугмици за шеровање друштвених мрежа: фацебоок, тwитер, yоутубе, инстаграм итд.

Оффпаге СЕО је везана за грађење имиџа и репутације на интернет небу, веома разноврсног и комплетног линк профила, односно за процес оптимализације сајта ван његових страница и без дирања кода.

Грађење имиџа и репутације на интернету се остварује искључиво преко квалитетног садржаја (цонтент маркетинга). Није случајно што су неки блогери стекли популарност преко ноћи. Они су препознали ову потребу и почели су да пишу квалитетне опсервације о неком производу тако да су стекли велико поверење код својих читалаца. Неки су постали праве медијске звезде, људи их прате шта једу, где вежбају, какву гардеробу носе.

Тако да можемо рећи да цонтент маркетинг текстови имају за последицу изградњу поверења код читалаца а то после резултује повећањем продаје производа о коме се писало. Из ове потребе проистекло је врло тразено занимање цопy wритер. Они имају задатак да пишу квалитетне текстове који имају едукативни, забављачки или информативни карактер. Из тих текстова који се објављују на различитим порталима, по могућству сродне тематике, ако добијете линк из текста то се зове квалитетан линк буилдинг [6].

Кључна реч из текста треба да води ка вашој страници сајта на коју се односи. Потребно је да ови текстови буду објављени на различитим порталима који имају добар ДА (домаин аутхоритy). Уколико сте успели да објавите текст на портали који има висок ДА и да заинтересујете њихове посетиоце, да им дате квалитетан одговор на њихове проблеме, текст може врло лако да постане виралан, тј. да се брзо рашири друштвеним мрежама. То је најбољи пут за грађење Брендинга и подизања репутације вашег сајта.


Историјски развој[уреди]

Wебмастери су почели са оптимализацијом сајтова за претраживаче средином 90-их, када су први претраживачи почели да раде на каталогизацији раног wеба. У почетку, све што је wебмастери требало да ураде било је да адресу wеб странице,или УРЛ, доставе различитим претраживачима који би послали „паука“ да „обиђе“ страницу, са ње екстрахује линкове ка другим страницама, и информације нађене на страни врати претраживачу ради њиховог индексовања. Тај процес укључује паука који преузима страницу и поставља је на сервер самог претраживача док други програм, познат као индексер, екстрахује различите информације о страници, као што су речи које она садржи, њихова локација као и све што је од значаја за одређене речи. Сви линкови које страница садржи такође се екстрахују и стављају у план за касније обилажење.

Власници сајтова су почели да препознају значај сајта који је видљив и високо позициониран у листама резултата претраживача створивши тако прилику за рад онима који се баве и „белом“ и „црном“ оптимализацијом претраживача. Према аналитичару Денију Саливану, термин "сеарцх енгине оптимизатион" вероватно је први пут употребљен 1997. године. Документовано је да је термин први употребио Џон Одет и његова компанија Мултимедиа Маркетинг Гроуп, као што је и забележено на wеб страници ММГ сајта у августу 1997. Први сајт, регистрован у америчкој агенцији за заштиту ауторских права, који је садржао термин „сеарцх енгине оптимизатион“ је сајт Бруса Клеја, из марта 1997.

Прве верзије алгоритама за претрагу ослањале су се на информације које су достављали wебмастери, као што су кључне речи у мета таговима, или индекс података у системима као што је АЛИWЕБ. Мета тагови пружају податке о садржају сваке странице, али употреба мета података да би се индексовале странице показала се као непоуздана, јер је постојала могућност да избор кључних речи у мета таговима од стране wебмастера не представља стварни садржај сајта. Нетачни, непотпуни и неконзистентни подаци у мета таговима омогућавали су рангирање страница за претраге које нису имале везе са њима. Wебмастери су такође манипулисали бројем атрибута у изворном ХТМЛ коду странице, а све да би се што боље рангирали на листама претраживача.

Ослањајући се превише на чиниоце као што је густина кључних речи коју су контролисали искључиво wебмастери, прве верзије претраживача често су биле мета злоупотреба и манипулација. Да би својим корисницима пружили што боље резултате, претраживачи су морали да се побрину за то да њихове странице приказују само најрелевантније резултате претраге, уместо страница које немају везе са конкретном претрагом, а претрпане су великим бројем кључних речи. Пошто успех и популарност претраживача зависи баш од његове могућности да избаци релевантне резултате за било коју претрагу, избацивање листи са погрешним и нетачним резултатима на крају би довело до тога да се посетилац окрене другом извору информација. Претраживачи су на изазов одговорили креирањем сложенијих алгоритама за рангирање који су узимали у обзир додатне факторе, а којима wебмастери нису могли лако да манипулишу.

Дипломци са универзитета Стенфорд, Лари Пејџ и Сергеј Брин, развили су бацкруб, претраживач који се ослањао на математички алгоритам да би оценио значај wеб страница. Број добијен тим алгоритмом, ПагеРанк, је функција количине и снаге долазних линкова. ПагеРанк процењује вероватноћу да ће одређена страница бити доступна кориснику који насумице претражује интернет, а такође прати линкове који долазе са једне на другу страницу. У суштини, то значи да су неки линкови „јачи“ од других, јер страница са већим ПагеРанк-ом има више шанси да буде посећена од стране насумичног корисника.

Пејџ и Брин су основали Гоогле 1998. године. Гоогле је убрзо стекао лојалне следбенике међу растућом популацијом интернет корисника који су волели његов једноставан дизајн. Осим он-паге фактора (као што су густина кључних речи, мета тагови, наслови, линкови и структура сајта), Гоогле је узимао у обзир и офф-паге чиниоце (као што су ПагеРанк и анализа хиперлинкова) да би избегао манипулације којима су били изложени претраживачи који су користили само он-паге факторе приликом рангирања. Иако је ПагеРанк било теже савладати, wебмастери су већ развили систем за тзв. линкбуилдинг и различите шеме којима су већ утицали на Инктоми претраживач, а те методе су се показале применљивима при манипулацији са ПагеРанк-ом. Неке од ових шема, као што су фарме линкова, утицале су на стварање хиљада сајтова који су служили искључиво за спемовање линковима.

До 2004. претраживачи су укључили широк спектар неоткривених чинилаца у своје алгоритме за претрагу да би умањили утицај манипулације линковима. У Гоогле-у кажу да користе преко 200 сигнала приликом рангирања сајтова. Водећи светски претраживачи поред Гоогле-а, као што су Бинг и Yахоо!, такође не откривају своје алгоритме. Неки од најзначајајнијих СЕО оператера од тада проучавају различите приступе оптимализацији и објављују их на форумима и блоговима.

2005. године Гоогле је почео са персонализовањем претраге за сваког корисника понаособ. У зависности од историје ранијих претрага, Гоогле је израђивао резултате за улоговане кориснике. 2008. године Брус Клеј је изјавио: „ рангирање је мртво“, баш због персонализованих претрага. Посматрати како је сајт рангиран постајало је безначајно, зато што би, на крају, позиција сајта постала различита за сваког корисника и сваку претрагу.

2007. године Гоогле је најавио кампању против плаћених линкова који утичу на ПагеРанк. 15. јуна 2009. је објавио да су предузете мере за ублажавање ефеката манипулације ПагеРанк-а употребом тзв. нофоллоw атрибута у линковима. Мет Катс, познати софтверски инжењер у Гоогле-у, најавио је да Гоогле Бот више неће третирати нофоллоw линкове на исти начин, све у циљу да би се спречило да СЕО оператери користе нофоллоw за креирање ПагеРанк-а. Као резултат ове промене, даље коришћење нофоллоw атрибута доводи до ишчезавања ПагеРанк-а. Да би се избегло горе наведено, СЕО инжењери су развили алтернативне методе које су нофоллоw тагове замениле маскираним Јавасцрипт кодом (тзв. обфусцатед цоде) и тиме омогућили даље утицање на ПагеРанк.

У децембру 2009., Гоогле је најавио да ће почети да користи историју претраге свих корисника, да би формирао листу резултата претраге.

Претрага у стварном временском оквиру (реал-тиме сеарцх) је представљена крајем 2009. у покушају да се резултати претраге учине релевантнијим и правовременим. Иако су администратори сајтова проводили месеце, па чак и године оптимализујући сајт да би се он што боље рангирао, огроман раст популарности друштвених мрежа и блогова допринео је томе да претраживачи промене своје алгоритме у циљу брзог увођења свежег садржаја у резултате претраге.

Везе са претраживачима[уреди]

Због високе маркетиншке вредности циљаних резултата претраге, врло брзо је установљено да постоји могућност супарничког односа између претраживача и СЕО оператера. 2005. је оформљена годишња конференција АИРWеб (Адверсариал Информатион Ретриевал он тхе Wеб) чија је сврха била дискусија о умањењу штетних ефеката које на претраживаче имају агресивни wеб провајдери.

Компаније које упражњавају претерано агресивне технике могу бити кажњене тако што ће сајтови њихових клијената бити уклоњени са резултата претраге. Wалл Стреет Јоурнал је 2005. године извештавао о компанији Траффиц Поwер, која је наводно користила високоризичне методе и притом није указала својим клијентима на могуће ризике таквог пословања. Часопис Wиред је објавио да је та компанија тужила блогера и СЕО инжењера Ерона Вола зато што је писао о тој забрани. Мет Катс из Гоогле-а је касније потврдио да је Гоогле заиста забранио Траффиц Поwер и неке од њених клијената.

Неки претраживачи су се укључили у СЕО индустрију и врло често су спонзори и гости на СЕО конференцијама и семинарима. Истина је да, са појавом плаћеног учешћа, неки претраживачи сада имају веће интересовање за одржавање здраве СЕО заједнице. Велики претраживачи сада пружају информације и смернице да би помогли око оптимализације сајтова. Гоогле има програм Ситемапс, који се користи да би помогао wебмастерима да сазнају да ли Гоогле има проблем приликом индексирања њиховог сајта, а такође пружа информације о саобраћају који иде ка њиховом сајту приликом коришћења Гоогле претраживача. Yахоо!Сите Еxплорер омогућава wебмастерима да пријаве УРЛ адресу, одреде колико је страница у Yахоо! индексу и пружа информације о линковима. Бинг Тоолбоx такође пружа wебмастерима могућност да поднесу мапу сајта, омогућава корисницима да одреде време „обилажења“ сајта и показује колико је страница индексирано у њиховом претраживачу.

Методе[уреди]

Индексовање[уреди]

Водећи претраживачи као што су Гоогле, Yахоо! и Бинг користе „паукове“ да пронађу странице за своје алгоритамске резултате претраге. Странице које су линковане са индексованих страница других претраживача се проналазе аутоматски. Неки претраживачи, посебно Yахоо!, имају плаћени сервис који гарантује укључивање у базу података и редовно обилажење сајта, али не и постизање одређеног ранга у оквиру резултата претраге. Два главна директоријума, Yахоо Дирецторy и Опен Дирецторy Пројецт захтевају ручно уношење података, а уређивање и проверу врши човек. Гоогле нуди Гоогле Wебмастер Тоолс, за који се може креирати XМЛ мапа сајта, која је бесплатна и омогућава да се пронађу све странице wеб сајта, нарочите странице до којих се не може доћи аутоматским праћењем линкова.

„Паукови“ претраживача могу да посматрају разне факторе када обилазе сајт. Претраживачи не индексују увек све странице сајта. Удаљеност странице од главног директоријума сајта може такође да утиче на то да ли ће страница да се обиђе или не. Притом још постоји и проблем када претраживач обилази сајт који садржи свакакве врсте графичких садржаја, документа у фласх-у, преносива документа и динамичке садржаје.

Спречавање обилажења садржаја сајта[уреди]

Да би се избегао нежељени садржај у индексу претраге, wебмастери могу да наложе пауковима да не обилазе одређене фајлове или директоријуме помоћу стандардног роботс.тxт фајла у главном директоријуму домена. Страница се може додатно искључити из претраге и базе података претраживача коришћењем мета тагова карактеристичних за ботове. Када претраживач посети сајт, роботс.тxт фајл у главном директоријуму претраживача је први фајл који се обилази. Тај се фајл затим анализира, а затим упућује паука на то које странице треба да обиђе, а које не. Пошто паук претраживача може да сачува кеширану копију овог фајла, може се десити да некад обиђе странице које wебмастер не жели да излаже претрази. Обично се избегава обилажење страница које укључују пријаву корисника на сајт, на пример странице за онлине куповину, као и оних које имају специфичан кориснички садржај, као што су странице са интерном претрагом. У марту 2007. Гоогле је упозорио wебмастере да би требало да спрече индексовање интерних резултата претраге, пошто се те странице сматрају спемовањем претраге.

Повећање угледа странице[уреди]

Постоје разне методе којима се може повећати значај wеб странице у оквиру резултата претраге. Унакрсно линковање између страница на истом wеб сајту које се користи да би се обезбедило више линкова ка најважнијим страницама сајта може значајно да повећа његову видљивост. Писање садржаја које укључује често понављање кључних речи или фраза, као и прилагођавање великом распону упита на претрази такође често повећава долазни саобраћај ка сајту. Стално ажурирање садржаја којим се постиже да се сајт често обилази такође му даје додатну тежину. Додавање релевантних кључних речи у наслову и мета десцриптион-у даје сајту на значају у резултатима претраге, што опет повећава саобраћај ка њему. УРЛ нормализација wеб страница доступних преко вишеструких урл-ова, која користи канонични мета таг или путем 301 преусмеравања такође омогућује да се линкови са разних верзија урл-а рачунају у популарност странице.

Ипак, веома добра пракса је да када више линкова са једне странице води ка другој, додамо "нофоллоw" релациони линк, како претраживачи не би посматрали садржај као дуплирани, и покушај спамовања кључним речима.

Пример:

<а хреф="хттп://www.пример.цом/" рел="нофоллоw">Текст линка</а>

„БЕЛА“ СЕО ПРОТИВ „ЦРНЕ“ СЕО[уреди]

СЕО технике се, према некима, деле у две широке категорије: технике које претраживачи препоручују као део концепта доброг дизајна, и на технике које претраживачи не одобравају и чије ефекте желе да сведу на минимум, а које се називају спамдексовањем. Неки познаваоци целе индустрије означавају ове методе, као и оне који их упражњавају, као „белу“ и „црну“ СЕО, односно деле их на „беле“ и „црне“. „Бели“ настоје да створе резултате који ће имати дугорочни ефекат, док „црни“ очекују да ће њихов сајт једном ипак бити забрањен када претраживачи открију шта они, у ствари, раде.

СЕО тактика, техника, или метод се сматра белом ако се уклапа у смернице које претраживач пружа и не укључује обману. Треба, ипак, нагласити да смернице претраживача нису одређени скуп правила и заповести које wебмастер мора да поштује. Бела СЕО не значи само праћење тих смерница, већ је њена главна улога у томе да се постара да садржај сајта који претраживач индексује и на основу ког рангира сајт, буде управо исти садржај који ће корисник и видети када посети сајт.

Оно што бела СЕО значи је стварање садржаја за кориснике, а не за претраживаче, након чега се тај материјал прави лако доступним за паукове, за разлику од покушаја да се изигра алгоритам претраживача, што је случај код црне СЕО. Бела СЕО је вид ефектног маркетинга, чији је циљ да пружи квалитетан садржај онима који такав садржај и желе да виде.

Црна СЕО подразумева коришћење средстава које претраживачи не одобравају, и која укључују неки вид обмане. Једна од техника коју користи црна СЕО укључује сакривен текст, било да је он у боји сличној боји позадине, или се налази у невидљивом делу поља, а може бити позициониран ван екрана. Друга метода значи да се кориснику приказује различита страница од оне коју је желео да посети, у зависности од тога да ли је корисник човек или паук претраживача. Ову технику користе практиканти црне СЕО када желе да се постарају да претраживач прикаже њихову страницу, која из разних разлога не би била приказана, а техника се назива цлоакинг.

Претраживачи могу казнити сајтове за које открију да користе методе црне СЕО, било да то занчи смањивање њиховог ранга, или потпуно искључивање њихових садржаја са листе претраживача. Такве казне могу да буду аутоматске, тј. укључене у алгоритам претраживача, или су резултат ручног прегледа сајта. Познат је случај из фебруара 2006., када је Гоогле одстранио са својих листи БМW Германy и Рицох Германy због коришћења средстава обмане. Обе компаније су се брзо извиниле, поправиле компромитоване странице и на крају су враћене на Гоогле-ове листе.

Као маркетинг стратегија[уреди]

СЕО није одговарајућа стратегија за сваки сајт, и друге стратегије интернет маркетинга могу бити много ефектније, што све зависи од циљева које постави оператер или власник сајта. Оне укључују плаћену верзију рекламирања која има своју сопствену верзију СЕО звану АТО (Ад Теxт Оптимизатион). Успешна маркетиншка кампања на интернету може да привуче органски саобраћај ка страници, што се постиже техникама оптимализације и неплаћеним рекламирањем, али такође може да укључује и плаћене рекламе на страницама самог претраживача и другим страницама, израду висококвалитетних wеб страница које привлаче и убеђују корисника, решавање техничких проблема због којих претраживач можда не обилази и не индексује странице сајта, постављање аналитичких програма који власницима сајтова омогућавају да измере свој успех и побољшају степен конверзије сајта. СЕО може да омогући и повраћај инвестиције. Ипак, претраживачи нису плаћени за органски саобраћај, њихови алгоритми се повремено мењају, и не постоје гаранције да ће референце сајта бити у континуитету. Неки сајтови за он-лине трговање су изузетак, попут еБаy-а, који начин и време промене алгоритма за претрагу најављује неколико месеци пре него што је стварно уведе. Захваљујући недостатку гаранције и сигурности, компаније које се у великој мери ослањају на саобраћај који долази са претраживача могу да претрпе велике губитке ако претраживач престане да „шаље“ посетиоце. Ослобађање wеб сајтова и њихових оператера зависности од сабраћаја са претраживача сматра се мудром пословном праксом. Најбоље рангирани блог који се бави оптимализацијом, Сеомоз.орг, наводи: „ СЕО оператери, иронично, најмањи удео саобраћаја ка свом сајту имају од претраживача. Уместо тога, главни извор саобраћаја ка сајту долази путем линкова са других wеб сајтова.

Међународна тржишта[уреди]

Технике оптимализације су у великој мери прилагођене претраживачима доминантним на циљаном тржишту. Удео претраживача на тржишту варира од тржишта до тржишта, као што је то случај и са конкуренцијом. 2003. је Дени Саливан изјавио да се преко Гоогле-а обавља око 75% свих претрага. Ван тржишта Сједињених Амреичких Држава удео Гоогле-а је често и већи, а од 2007. Гоогле постаје доминантни претраживач на светском нивоу. 2006. године, Гоогле је имао 85-90% удела на тржишту Немачке. У јуну 2008. удео Гоогле-а на тржишту Велике Британије је био близу 90%, према извору Хитwисе. Тај резултат је постигнут у већини држава света.

Од 2009. постоји само неколико великих тржишта где Гоогле није водећи претраживач. У већини случајева, када Гоогле није водећи, онда заостаје за локалним играчима. Најзначајнија тржишта где је ово случај су Кина, јапан, Јужна Кореја, Русија и Чешка где су водећи претраживачи Баиду, Yахоо! Јапан, Навер, Yандеx анд Сезнам, респективно.

Успешна оптимализација за међународна тржишта може да захтева професионални превод wеб страница, регистрацију домена где је топ-левел домен са циљаног тржишта, и wеб хостинг који обезбеђује локалну ИП адресу. Иначе су сви основни елементи оптимализације за претраживаче исти, без обзира на језик.

Види још[уреди]

Референце[уреди]

  1. Бриан Пинкертон. „Финдинг Wхат Пеопле Wант: Еxпериенцес wитх тхе WебЦраwлер” (ПДФ). Тхе Сецонд Интернатионал WWW Цонференце Цхицаго, УСА, Оцтобер 17–20, 1994. Приступљено 7. 5. 2007. 
  2. Беел, Јöран анд Гипп, Бела анд Wилде, Ерик (2010). „Ацадемиц Сеарцх Енгине Оптимизатион (АСЕО): Оптимизинг Сцхоларлy Литературе фор Гоогле Сцхолар анд Цо.” (ПДФ). Јоурнал оф Сцхоларлy Публисхинг. стр. 176—190. Приступљено 18. 4. 2010. 
  3. „Гоогле Персонализед Сеарцх Леавес Гоогле Лабс - Сеарцх Енгине Wатцх (СЕW)”. сеарцхенгинеwатцх.цом. Приступљено 5. 9. 2009. 
  4. „Wилл Персонал Сеарцх Турн СЕО Он Итс Еар?”. www.wебпронеwс.цом. Приступљено 5. 9. 2009.  Текст „ WебПроНеwс ” игнорисан (помоћ)
  5. Саша Ребић. „СЕО онпаге оптимизација”. Сео Агенција Нет Висион, Београд, Србија. Приступљено 12. 11. 2017. 
  6. Саша Ребић. „Како избећи БЛАЦК СЕО: 21 СЕО савет који ће вам спасити сајт у будућности”. Нет Висион, Београд, Србија. Приступљено 12. 11. 2017. 

Спољашње везе[уреди]