Webmaster tools Crawl errors

OK. pod crawl errors na webmaster toolsih mi javlja naslednjo napako

Restricted by robots.txt ‎(20)‎
Timed out ‎(1)‎

Ma kdo kake izkušnje kaj narest v tem primeru? Večinoma gre za urlje kategorija, tagov in feedov??

Kako resna napaka je to?

Bi bil hvaležen za odgovor. Hvala

Lp

16 odgovorov

ne vem no...
sam se nikoli nisem ubadal z robot.txt v wordpressu pa še nisem imel problemov. Pač nastavim seo plugin in to je to. sitemap pa lahko narediš tudi kot stran, ki je del bloga in bo prav tako vse lepo razvidno.

mogoče se motim... :)

Danes sem malce bolj podrobno pogledal GWT in opazil nekaj zanimivosti oziroma težav. Ker sem v tem orodju še nov bi prosil za malce pomoči. Pod zavihkom Predlogi HTML imam pri postavki Podvojeni metaopisi - 925 (strani), kratki metaopisi - 223 (strani). Kaj to pomeni, to vpliva kaj na SEO, kaj storiti? Tudi pri postavki Podvojene oznake naslova mi kaže čez 900, vendar ko pogledam kaj to je so recimo v tabeli zapisana imena uporabnikov, Iskanje in podobne fraze... Vsakršnega nasveta bom zelo vesel!

je potreben ... ker je spisek zanimivih lokacij za script kiddies ker jim pove kje naj gledajo /sarcasm off

google prikaže meta opise v serp-u kot opis zadetka, če pa vidi da so vsi enaki pa sam iz vsebine "oblikuje" izvleček ki pa ni vedno vabljiv - zato je bolje imeti originalne meta opise, a vedno se ne da ..

glede škode .... sigurni ni ok, a problem nastane če imaš prevelik procent vsebine neoriginalne - s tem da neoriginalna vsebina v očeh googla pomeni nekaj drugega - kje jo je prvič zaznal. Recimo zanimiv problem (ki bi ga rad rešil na SEO pošten način , a ne vem kako:)) je v trgovinah (tudi pri tej v mojem podpisu). ki originalne opise svojih izdelkov prenašajo drugim spletnim trgovcem z večjim PR - v tem primeru se dejansko originalna vsebina na spletni strani avtorja s strani Googla smatra kot neoriginalna, ker jo je že poindexiral na strani, ki jo 3 dnevno indexira, le ta pa prevzame vsebino vsako jutro (tudi) iz tvoje XML datoteke z opisi .... skratka stvar ni vedno črno bela:)) ... tako da če tega z headerji in meta ne moreš urediti, potem je smiselno uporabiti robot.txt da ti ne kvari razmerja originale/podvojene vsebine ....

Hm, pri teh metaopisih imam jaz še uporabniške profile notri, čeprav mi ni jasno kaj tam počnejo. Moja vsebina je originalna, tudi vsak metaopis je izvleček iz vsebine tako, da dva metaopisa nista enaka. Potem mi podvojene metaopise najde še na forumu :o Sedaj sem pa popolno zbegan :/ če bi bil kdo pripravljen pomagati, lahko na ZS tudi pokažem kaj točno se dogaja.