|
|
Motoare de cautare
(search engine )
Pentru a cauta o anumita informatie intr-un
motor de cautare , trebuie formulata o interogare alcatuita din cuvinte
sau expresii avand sensul cat mai apropiat de ceea ce se doreste sa se
afle .In urma interogarii , motorul de cautare interogheaza baza lui de
date si returneaza o lista cu un numar mare de legaturi ( uneori chiar
si cateva zeci de mii ) catre situri web care contin cuvantul cheie sau
expresia folosita .
Din lipsa de spatiu , aceasta lista este insa fragmentata astfel incat
nu vor apare mai mult de 10 sau 20 de legaturi pe fiecare pagina , asezate
in ordinea relevantei , in functie de un algoritm specific fiecarui motor
de cautare .Restul legaturilor apar pe paginile urmatoare .
Ideal ar fi ca legatura catre situl pe care l-ati creat sa se regaseasca
pe prima pagina cu legaturi , returnate dupa o cautare , pentru a spori
sansele ca el sa fie vazut de un potential vizitator . Acest lucru este
necesar ,avand in vedere faptul ca sunt putini surferi care au rabdarea
sa deruleze mai multe pagini cu legaturi rezultate in urma cautarii .
Pentru a reusi acest lucru trebuie sa cunoasteti structura unui motor
de cautare si criteriile necesare pentru stabilirea relevantei unui sit
web .
Elemente principale
Orice motor de cautare are trei elemente majore .
1. Primul este robotul , care mai este numit paianjen sau vierme
( robot , spider sau crawler , in limba engleza
) .Robotul este un program care viziteaza paginile web , le citeste
si apoi urmareste legaturile catre alte pagini .
Dar multe dintre paginile vizitate isi pot modifica dupa un anumit timp
continutul , se pot adauga noi legaturi , iar unele pagini pot disparea
definitiv .
De aceea robotii se intorc dupa un anumit interval de timp , de obicei
o luna sau doua , si viziteaza din nou situl , cautand eventualele schimbari
care au fost facute .
Aceste programe au o capacitate extraordinara de a citi si de a prelucra
date .
Astfel , conform declaratiilor producatorilor , robotii rapizi de la
Altavista au capacitatea de a citi 1 GB de text pe secunda , respectiv
3 milioane de pagini web pe zi .
2. Tot ceea ce gaseste robotul ( cuvinte cheie , portiuni de text din
paginile vizitate , etc. ) sunt trecute in al doilea element al motorului
de cautare , numit index sau catalog .
Acesta este ca o baza de date imensa in care se afla informatii despre
fiecare pagina web gasite de robot .Aceasta pagina apare in catalog
ca o noua inregistrare , care va contine titlul si adresa paginii respective
, cuvintele cheie folosite , legaturile catre alte pagini , precum si
portiuni din text , care insa pot fi diferite de la un motor de cautare
la altul .
Daca robotul gaseste schimbari intr-o pagina web , atunci indexul este
actualizat cu noile informatii .
Uneori , poate trece mai mult timp pana cand paginile noi sau modificate
gasite de robot la o noua cautare sa fie adaugate la index . Deci o
pagina web poate sa fie vizitata de robot , dar este posibil ca ea sa
nu fie inca " indexata " .In acest caz , pagina nu este disponibila
la o eventuala cautare .
3. Al treilea element esential este software-ul de cautare ,
un program care permite cautarea printre milioanele de pagini inregistrate
in index precum si afisarea rezultatului sub forma unei liste de legaturi
, in ordinea pe care el o considera cea mai relevanta .
|