• Forumul vechi a fost pierdut. Nu mai putem recupera continutul vechi. Va invitam sa va inregistrati pentru a reface comunitatea noastra!

Modificari in algoritmul de cautare Google

bodo

Prieten
Joined
Nov 29, 2009
Messages
9,993
Reaction score
0
Google a schimbat algoritmul de căutare. Cine a fost lovit


Google a anunțat la finalul lunii februarie că va face modificări privind algoritmul său de căutare și a declarat război agregatoarelor de conținut editorial, care nu au conținut propriu. Primele schimbări au început deja să apară.

Prima victimă importantă a noului algoritm a fost grupul Demand Media, una dintre cele mai cunoscute "ferme de conținut" din America.

Conform unor informații apărute pe site-ul publicațiie Forbes, în urma unui studiu realizat de Experian Hitwise, s-a descoperit că traficul site-urilor Demand Media prezintă mai puțini utilizatori veniți din Google, după ce a motorul de căutare a implementat noul update pentru algoritm, numit "Panda".

Hitwise a urmărit site-urile accesate de utilizatori imediat după Google.com. Astfel, în primele două săptămâni din ianuarie, 0,57% dintre utilizatorii care părăseau google.com intrau pe un site deținut de Demand Media, același nivel înregistrat și la finalul lui februarie, când au avut loc modificările.


La mijlocul lunii aprilie, scriu cei de la Forbes, situația a început să se schimbe după ce Panda a început să lucreze la parametrii întregi. La 16 aprilie, doar 0,34% dintre utilizatorii care părăseau google.com intrau pe un site Demand Media, ceea ce înseamnă o scădere de 40% față de începutul anului.

Unele site-uri precum answerbag.com au înregistrat pierderi din Google chiar de 80%. eHow.com, cel mai cunoscut site al Demand Media, a cunoscut o scădere de 29%.

Alte ferme de conținut au înregistrat de asemenea scăderi ale utilizatorilor veniţi din Google: Mahalo, scădere de 78%, Associate Content 61% și Examiner.com cu 51%.

Într-o postare pe blogul oficial, Amit Singhal si Matt Cutts, ingineri de software de la Google, scriau că noul algoritm este realizat pentru a reduce rankingul pentru site-urile de slabă calitate, site-uri care nu aduc valoare adăugată pentru cititori și care au conținut copiat de la alte site-uri.

"În același timp, vom îmbunătăți rankingul pentru site-urile de bună calitate, care au conținut util și relevant pentru cititori, precum informațiile apărute în urma investigațiilor sau analizele gândite", arătau aceștia.

"Credem că noua modificare a algoritmului este un pas mare în direcția bună, în scopul de a-i ajuta pe oameni să găsească o mai bună calitate în căutările lor de pe Google", se arată pe blogul oficial al motorului de căutare.

http://www.capital.ro/detalii-artic...tmul-de-cautare-cine-a-fost-lovit-146571.html
 
Foarte bine!
Ma enerva ca in Google apareau fermele de continut si indexii in fata site-urilor cu content.
 
Ca sa nu fac topic singurel bag aici, ca e vb tot de google intr-un anumit sens:

Deep Web – internetul ascuns
Publicat de Guzga Florin la data: 22 - Mai - 2010, categoria: Tehnologie
Termenul de Deep Web (numit si Deep Net, Invisible Web, Dark Web sau Hidden Web) se refera la o parte din continutul World Wide Web care nu face parte din Surface Web, portiune indexata de motoarele standard de cautare. Acea parte a Web-ului care nu poate fi accesata de aceste motoare, se numeste Deep Web. Motoarele de cautare construiesc o baza de date a Web-ului folosind programe numite spiders sau web crawlers care incep explorarea cu o lista cunoscuta de pagini web. Spider-ul face o copie a paginii web accesate si o indexeaza, stocand informatiile necesare pentru ca acea pagina sa poate fi accesata rapid data viitoare. Toate link-urile din cadrul paginii indexate vor fi explorate si indexate la randul lor. Intr-un final, toate paginile web functionale vor fi explorate, daca nu cumva spider-ul nu mai are timp sau ramane fara spatiu pe disc. Toate paginile care au fost explorate si indexate, puse la un loc, formeaza ceea ce numim Surface Web (internetul asa cum il stim noi).

Din diverse motive, cum ar fi link-urile generate in JavaScript sau cele care necesita autentificare, paginile care nu sunt explorate raman in anonimat. Totalitatea lor formeaza Deep Web-ul.

In 2000, se estima ca Deep Web-ul contine aproximativ 7.500 de terabiti si 550 de miliarde de documente individuale.

In iunie 2008, numarul de pagini web indexate cu succes se ridica la aproximativ 63 de miliarde. In momentul de fata, se estimeaza ca Deep Web-ul depaseste de 4 ori ca marime Surface Web-ul.

Resursele Deep Web-ului pot fi clasificate in cateva categorii generale:

- pagini cu continut dinamic: pagini dinamice care apar ca raspuns la un anumit tip de cautare sau care sunt accesate prin formulare web (campuri de text). Explorarea acestor pagini e dificila, daca nu suntem familirizati cu continutul domeniului.

- pagini care nu sunt legate de altele prin link-uri, acest lucru impiedica programele de tip spider sa le acceseze continutul.

- web privat: pagini care necesita un nume de utilizator si o parola.

- web contextual: pagini ale caror continut variaza in functie contextul in care sunt accesate (clasa de I.P.-uri a clientului sau secventa de navigare precedenta).

- pagini cu continut limitat: pagini cu acces limitat tehnic ( folosesc programe care exclud accesul robotilor si impiedica motoarele de cautare sa le indexeze si sa creeze copii cache ).

- continut scriptat: pagini ce sunt accesibile doar prin link-uri de JavaScript, dar si alte continuturi dinamice descarcate de pe serverele web via Flash sau AJAX.

- continut non-HTML/text: continut textual codat in fisiere multimedia sau alte formate specifice ce nu sunt suportate de motoarele de cautare.

http://www.descopera.org/deep-web-internetul-ascuns/

In sursa e un articol si despre Motoare de cautare Deep Web
 
Back
Top