|
Sinds haar ontstaan heeft de zoekmachine Google getracht een beetje orde te
scheppen in de miljarden webdocumenten die er op het internet zijn, en
maakte daarbij gebruik van geavanceerde technologie die het bedrijf zelf
ontworpen heeft. Maar nu is Google aan het experimenteren met een nieuw
concept om haar zoekrobotten te verbeteren: zij vragen de webmaster om hulp.
Het programma, Google Sitemaps (1), kan wel eens de manier waarop het
internet geïndexeerd wordt revolutionair veranderen.
Volgens dit artikel bij BetaNews (2) werkt het systeem als volgt: Sitemaps
zal de webcrawlers van Google enkel naar content uitsturen die gewijzigd of
toegevoegd werd, zodat de spiders niet de hele site meer moeten doorzoeken.
De Sitemap bestanden zijn gebaseerd op XML en bevatten een aantal parameters
die helpen bij het zoek-indexatie proces.
Volgens het hoofd van de Google ingenieurs, Shiva Shivakumar zal het project
"ofwel volkomen mislukken, of zodanig lukken dat het onze stoutste dromen
overtreft, en een beter internet zal maken, zowel voor de webmaster als de
internauten." Leest u zelf zijn weblog (3)
Om die Sitemap bestanden aan te maken heeft Google een open broncode
generator (4) ontwikkeld die op webservers draait. De sitemaps worden dan
aangeboden bij Google. Hoe - alleen maar bij Google, vraagt u? Wordt het
internet dan een Google-only zaak? Neen, gelukkig niet. Het project is
ontwikkeld onder een bepaalde soort licentie, "Attribution/Share Alike
Creative commons" (5)gegeten, zodat de andere zoekmachines zoals Yahoo en
MSN dezelfde functies eveneens kunnen toepassen. Nu nog Microsoft overtuigen
(en de makers van Apache webservers) om eveneens ondersteuning in te bouwen
voor Sitemap...
Nieuws:
google.com, betanews.com, googleblog.blogspot.com, google.com, creativecommons.org Bron: Netties.be Zaterdag 11 Juni 2005
|
|