Zoekmachines functioneren zeer slecht

Zoekmachines doen hun werk zeer slecht, zo blijkt uit een juist gepubliceerd onderzoek van het NEC Research Institute uit Princeton. Geen enkele zoekmachine overziet meer dan één zesde van het gehele web, en sommige machines doen er maanden over voordat ze aan bepaalde pagina's toekomen.

De machines blijken vooral sites te bezoeken met veel links erheen. Van alle sites bevat 83 procent commerciële inhoud, 6 procent wetenschappelijke of educatieve inhoud, en slechts 1,5 procent pornografie.
Dat is de bevinding van twee Amerikaanse onderzoekers van het NEC Research Institute, Steve Lawrence en Lee Giles, in het artikel 'Accessibility and distribution of information on the Web' in het Amerikaanse bladNature. Hun negatieve conclusie is het resultaat van een uitvoerig onderzoek van zoekmachines. Zij hebben ook vastgesteld dat het web momenteel zo'n achthonderd miljoen pagina's bevat, vijftienduizend miljard bytes (vijftien terabytes) aan informatie, waarvan zesduizend miljard bytes aan tekst. Het gebruik van metadata volgens de Dublin Core standaard is zeer gering. Zelfs eenvoudige beschrijvende metatags worden door niet meer dan eenderde van alle sites gebruikt.

x

Om te kunnen beoordelen moet u ingelogd zijn:

Dit artikel delen:

Lees verder


Stuur dit artikel door

Uw naam ontbreekt
Uw e-mailadres ontbreekt
De naam van de ontvanger ontbreekt
Het e-mailadres van de ontvanger ontbreekt

×
×
article 1999-07-12T00:00:00.000Z Redactie Computable
Wilt u dagelijks op de hoogte worden gehouden van het laatste ict-nieuws, achtergronden en opinie?
Abonneer uzelf op onze gratis nieuwsbrief.