Fisierul Robots.txt, util Seo-ului?

zonia.ro
Share Button

Fisierul Robots.txt, util Seo-ului?Traim intr-o economie de piata din ce in ce mai acerba in care comerciantii sunt dispusi sa foloseasca orice metoda generatoare de venit. Marea majoritate a celor care doresc obtinerea unui venit au realizat mai devreme sau mai tarziu ca traim intr-o perioada in care tehnologia joaca un rol important.

Astfel mediul online a ajuns sa fie cea mai utilizata metoda de marketing, metoda care pe zi ce trece se dovedeste a fi din ce in ce mai benefica. Insa daca ai ales mediul online ca si metoda de promovare va trebui sa stii dinainte ca ai nevoie de mult mai mult pentru a avea succes in acest sens.

Vei avea nevoie de specialisti in acest domeniu si de servicii seo realizate de cei mai buni profesionisti in domeniul optimizarii. Daca inca te afli in cautarea acestor specialisti, www.danbradu.ro e solutia. Incearca aceasta firma optimizare seo si nu vei regreta!

Atunci cand se realizeaza optimizarea unui site trebuie sa se tina seama de doua elemente si anume fisierele „robots.txt” si „sitemap.xml”. Aceste doua elemente vor ajuta  la indexarea corecta a paginii web in motoarele de cautare.

Daca aceste doua fisiere nu sunt complet sau corect configurate atunci vor fi indexate pagini sau fisiere care nu ar trebui sa apara in motoarele de cautare. Blocarea la indexare a anumitor pagini importante din site este un alt lucru care se poate intampla daca aceste doua fisiere nu sunt corect sau complet configurate.

Astfel regula generala cunoscuta de catre toti profesionistii in optimizare seo este sa nu folosesti niciodata fisierul „robots.txt”, pentru a putea gestiona continutul duplicat. In acest sens exista alte metode mult mai potrivite.

Comanda „disallow” din fisierul „robots.txt”, este pe cat de utila pe atat de periculoasa pentru cei care nu stapanesc prea bine arta optimizarii seo. Tocmai din acest motiv va recomand din nou sa apelati la serviciile oferite de catre www.danbradu.ro deoarece din punctul meu de vedere este unul din cele mai bune site-uri de profil existent in momentul de fata. Comanda „disallow” este folosita pentru blocarea anumitor lucruri.

spioneaza.ro


Daca se doreste blocarea unei anumite parti din continutul existent pe site atunci trebuie sa fim foarte atenti la sintaxa folosita, deoarece utilizarea sintaxei Disallow: /folder-of-stuff/ va bloca directorul in intregime cu tot ceea ce e in el la acel moment. Pentru a putea bloca tot continutul de tip power point existent pe site se va folosi urmatoarea comanda: Disallow: *.ppt$.

Pentru o indexare cat mai buna a paginilor web recomand folosirea instrumentelor Google Webmaster Tools si Bing Webmaster Tools, precum si tag-urile „meta robots” si „x – robots – tag”, pe care le puteti gasi in header. Pentru cei care sunt mai precauti recomand folosirea tag-ului „real canonical”, tag care va impiedica indexarea continutului duplicitar.

Fisierul „robots.txt” ascunde si unele capcane, motiv pentru care trebuie sa fim foarte atenti atunci cand lucram cu acest fisier. Trebuie sa ne asiguram ca fisierele CSS nu sunt blocate in fisierul „robots.txt”. Deoarece poate crea probleme legate de afisarea corecta a paginilor web nu este recomandat includerea in comanda „disallow”, a programului „javascript assets”.


Alte stiri actuale :

1. SEO Guide for Business Owners: 5 Tips for DIY SEO
2. Discovery, Not Link Building, is the Objective of Your Press Release
3. Seven facts on SharePoint 2013 all IT pros should know
4. Google Discusses Unnatural Links (On Your Site) In New Video
5. Evidence That Using The “No Index, No follow” Tag Doesn’t Always Work
6. Robot Txt File Tutorial For A WordPress Website
7. Simple Web Maintenance with Webmaster Tools
8. SEOmers Launches Infograph on the Importance of Online Visibility

Leave a Reply