Cutts scrie ca in timp ce Google a facut o treaba buna in ceea ce priveste "webspam-ul web" (link-uri irelevante n.r.), alte tipuri de continut junk au reusit sa se mai strecoare. Pentru a rezolva acesta problema, Google a modificat algoritmi de cautare pentru a scana continutul de tip spam, pe pagini izolate, sau site-uri care copiaza continut pentru a-si creste vizibilitatea. De asemenea, compania si-a imbunatatit abilitatea de a detecta site-uri hacuite, care a fost o sursa...
Posted on Mon, 24 Jan 2011 00:00:00 +0200 at http://feedproxy.google.com/~r/info...ficiente-fara-site-uri-spam-sau~din-it-c.html
Posted on Mon, 24 Jan 2011 00:00:00 +0200 at http://feedproxy.google.com/~r/info...ficiente-fara-site-uri-spam-sau~din-it-c.html