Google Panda Update din 28 septembrie 2011

Google Panda Update din 28 septembrie 2011

Pe 24 februarie 2011, Google facea o schimbare importanta de algoritm, cunoscuta sub numele Google Panda Update. Atunci 12% din site-urile din SUA au fost afectate, multe site-uri inregistrand o scadere a traficului organic provenit din motorul de cautare Google de pana la 50% - 60%.

Au mai urmat inca 5 update-uri : pe 11 Aprilie 2011 (care a afectat toate rezultatele in limba engleza), 10 Mai 2011, 16 iunie 2011, 23 Iulie 2011, 12 August 2011, iar recent pe 28 Septembrie 2011, multe site-uri din SUA au primit o mare lovitura.

Daca aveti site-uri al caror trafic provine din SUA, acum deja stiti daca au fost sau nu afectate de noul update Google. Google Analytics va va da o veste buna sau una rea, in functie de cat de indeaproape ati urmat sfaturile Google privind calitatea informatiilor propuse pe site.

Matt Cutts anunta pe blogul Google ca acest update are ca scop inlaturarea din primele pagini de rezultate Google a site-urilor care propun continut de calitate inferioara.

Ce inseamna continut de slaba calitate?  Continut creat doar pentru motoare si care nu furnizeaza utilizatorului informatii pertinente si actuale sau continut copiat.

Google vrea ca motorul sau de cautare sa returneze site-uri de calitate, site-uri care sunt foarte folositoare utilizatorilor, care au continut original, bine documentat si prezentat.

Cum detecteaza Google continutul de slaba calitate ?

-        un procentaj ridicat de continut duplicat;

-        un numar mare de pagini cu foarte putin continut editorial;
-    texte generate in mod automat (content spinning) ;

-       articole redundante : mai multe articole avand acelasi subiect, scrise pentru a urca in clasamentul Google si neinteresante pentru utilizatori;

-        un numar foarte mare de reclame neadecvate;

-        continutul de pe pagina (si inclusiv titlul paginii, Meta tag-ul Title) nu corespunde cuvantului cheie pe care pagina reiese in rezultate;

-        repetarea exagerata a unui cuvant cheie pe pagina  ;

-        bounce rate ridicat;

-        backlink-uri putine sau de slaba calitate;

-        probleme tehnice.

Ce poti sa faci daca ai fost afectat de Google Panda Update ?

-         Reevalueaza intregul continut de pe site. Daca ai pagini cu foarte putin text sau pagini cu text care nu este 100% original, daca ai continut generat in mod automat, daca ai articole redundante, daca ai exagerat cu tehnicile de optimizare (exemplu: repetarea excesiva a unui cuvant cheie), incearca sa imbunatatesti aceste aspecte. Determina care sunt eventualele probleme pentru fiecare pagina in parte, urmeaza indeaproape sfaturile Google si urmareste cum evolueaza site-ul dupa aceste schimbari.

-         Urmareste sa obtii backlink-uri de calitate, de la site-uri cu PR mare, site-uri bine clasate in Google. Nu incerca sa obtii backlink-uri folosind tehnici indoielnice (exemplu: inscrieri automate in directoare)

-         Elimina cat mai multe probleme tehnice : pagini 404, redirectionari, timp de incarcare al paginilor foarte lent..etc.

-         Promoveaza-ti site-ul in retelele sociale

-         Investeste in Brand Awareness

Orice schimbare faci pe site, pune-te tot timpul in locul utilizatorului si puneti intrebari de tipul  „Este utila aceasta informatie?”, „As recomanda prietenilor mei acest articol ?”, „Este informatia credibila?”,  „Pot accesa usor si rapid o informatie de pe site?”

Daca va intrebati ce site-uri au fost afectate de noul update Google, aveti in imaginea de mai jos informatii furnizate de Searchmetrics:

6 Comments

  1. corneliu

    In articolul asta sunt doar speculatii si chestii generale si de bun simt (unele valabile si inainte de Panda – de ex keyword stuffing). Sunt foarte putine cazuri raportate in care siteurile afectate au revenit (hubpages e unul dintre ele si nu a facut nimic din ce este recomandat in articol, ci doar a mutat userii pe subdomenii).
    Daca crezi ca este un succes Panda ar trebui sa mai citesti pe webmasterworld.com situatii in care cel care a furat content este inaintea siteului de unde a copiat, iar pe prima pagina sunt domenii parcate/expirate etc. Este din ce in ce mai greu sa gasesti pe Google ceva relevant asa ca Bing este din ce in ce mai folosit, cel putin pana cand Panda nu este “tunat” cum trebuie.
    PS: Google este facut sa produca bani nu rezultate relevante pt utilizator. De ce crezi ca sunt bagate in fata toate produsele Google. Dupa fiecare update, pe lista castigatorilor se afla toate produsele Google: Youtube, blogger etc.

  2. Alina Orel

    De acord cu tine, in mare parte. Totusi, ca sa produci bani trebuie sa oferi un produs/serviciu de calitate. Era nevoie de acest update si mai este nevoie si de altele, pentru a avea in paginile de rezultate site-uri de calitate si pentru a se elimina spamul.

  3. corneliu

    Ok, era nevoie de acest update, problema este ca Panda nu a curatat spamul asa cum trebuia. Din pacate, Panda a busit si cateva siteuri de calitate (de ex: DaniWeb).
    Nu cred ca ai dreptate cu criteriile de selectie a continutului de calitate:
    1. reclamele trebuie sa fie relevante si proportionale cu lungimea textului (nu poti sa ai 4 blocuri de reclame la un articol de 200 de cuvinte si above the fold)
    2. paginile 404 si redirectarile nu sunt neaparat probleme tehnice. (pot pune un link catre o pagina inexistenta de pe siteul tau), iar redirectarile 301 si 302 sunt folosite cand se muta contentul / siteul. Reprezinta o problema tehnica cand ai un link in articol catre o pagina 404.
    3. Google a introdus o optiune in SERP pentru un utilizator care cauta ceva si se intoarce in Google daca pagina nu este relevanta. El poate bloca toate rezultatele de pe un site. Un numar mare de blocari poate semnala un site de proasta calitate.
    4. continutul duplicat poate reprezenta o problema. Totusi sunt situatii in care este ok (de ex price.ro sau chiar google)
    Ar trebui sa citesti Google Quality Raters Handbook, un document intern scapat pe internet, in care se explica in detaliu ce este un site relevant pentru o cautare (http://www.potpiegirl.com/2011/11/google-raters-who-are-they).

  4. Alina Orel

    Nu ma indoiesc ca au fost si site-uri afectate pe nedrept.DaniWeb in ce sens a fost busit? Pana la urma este un forum si e normal ca google sa preferentieze review-uri IT, ghiduri it, “how to” sites. Cei de la Google si in special Matt Cutts au spus mereu ca vor sa faca un motor de cautare care sa dea cele mai pertinente rezultate userilor si banuiam ca fac si manipulari manuale. Faza cu Google Raters e interesanta, nu stiam de ea. Am observat ca imediat dupa update au aparut mult mai multe rezultate de pe youtube ca inainte, pe google.com, ca site-urile cu plata au fost preferentiate (pana la urma e si o chestiune de drepturi de autor). Nu stiu daca ai observat ca acum nu mai poti pune ca inainte pe youtube un video facut de tine cu o melodie pe care nu detii drepturi de autor. Pana la urma e bine sa nu faci excese. Cred ca nu m-am exprimat prea bine in articol : sa nu ai f multe pagini 404 a.i navigarea sa fie ingreunata mult, sa nu exagerezi cu reclame care iti blocheaza pagina si te “obliga” sa dai clic pe ele, cum vezi pe site-uri romanesti de femei, sport (nu stiu de regulile mentioate de tine), duplicate content exagerat, de ex acelasi text in care schimbi doar orasul sa spunem,pe mai multe pagini ; site-urile cu filtre, (sub)categorii multe genereaza duplicate content dar n-ar tb penalizate, desi in mod normal n-ar tb sa exagerezi cu adaugarea unui produs in multe categorii si n-ai nevoie de 100 de filtre.

  5. corneliu

    Daniweb are 1 milion de useri si este un forum de calitate si nu trebuia busit (adica a fost marcat de Panda ca site de proasta calitate si a pierdut traficul din Google). Chiar si ei au recunoscut ca a fost fals pozitiv.
    Cei de la Google nu fac niciodata exceptii manuale (cel putin asa sustin). De exemplu daca siteul tau este penalizat si trimiti in WMT un reconsideration request si nu are penalitate manuala, penalitatea nu se ridica pana nu rezolvi problema.
    Contentul duplicat din categorii, arhive sau search se rezolva simplu cu “noindex” tag pe paginile respective. Contentul duplicat mai poate aparea atunci cand la acelasi articol se ajunge prin mai multe linkuri. Din acest motiv s-a inventat “canonical tag” (de ex: ai versiunea pt homepage: cu www si fara www sau http://www.domanin.com / http://www.domain.com/index.html/php/htm)

  6. Alina Orel

    Dap, sunt multe solutii, depinde si de site. Eu n-as apela la noindex totusi, e bine sa ai cat mai multe pagini indexate si cat mai multe de calitate desigur. Daca vorbim de un magazin online, as face structura site-ului cat mai ok, as renunta la filtrele inutile, as diferentia continutul duplicat prin adaugarea unui text diferit pe fiecare pagina de categorie/subcategorie, as adauga manual produsele in fiecare categorie cu o descriere personalizata (n-as bifa din cms direct mai multe categorii). Pana la urma daca ai un site complex, foarte mare, nu poti evita duplicate contentul dar poti “ameliora” problema.