|  |  | Motoare de cautare (search engine )
      Pentru a cauta o anumita informatie intr-un 
        motor de cautare , trebuie formulata o interogare alcatuita din cuvinte 
        sau expresii avand sensul cat mai apropiat de ceea ce se doreste sa se 
        afle .In urma interogarii , motorul de cautare interogheaza baza lui de 
        date si returneaza o lista cu un numar mare de legaturi ( uneori chiar 
        si cateva zeci de mii ) catre situri web care contin cuvantul cheie sau 
        expresia folosita . 
 Din lipsa de spatiu , aceasta lista este insa fragmentata astfel incat 
        nu vor apare mai mult de 10 sau 20 de legaturi pe fiecare pagina , asezate 
        in ordinea relevantei , in functie de un algoritm specific fiecarui motor 
        de cautare .Restul legaturilor apar pe paginile urmatoare .
 
 Ideal ar fi ca legatura catre situl pe care l-ati creat sa se regaseasca 
        pe prima pagina cu legaturi , returnate dupa o cautare , pentru a spori 
        sansele ca el sa fie vazut de un potential vizitator . Acest lucru este 
        necesar ,avand in vedere faptul ca sunt putini surferi care au rabdarea 
        sa deruleze mai multe pagini cu legaturi rezultate in urma cautarii .
 Pentru a reusi acest lucru trebuie sa cunoasteti structura unui motor 
        de cautare si criteriile necesare pentru stabilirea relevantei unui sit 
        web .
 Elemente principaleOrice motor de cautare are trei elemente majore . 
         1. Primul este robotul , care mai este numit paianjen sau vierme 
          ( robot , spider sau crawler , in limba engleza 
          ) .Robotul este un program care viziteaza paginile web , le citeste 
          si apoi urmareste legaturile catre alte pagini .Dar multe dintre paginile vizitate isi pot modifica dupa un anumit timp 
          continutul , se pot adauga noi legaturi , iar unele pagini pot disparea 
          definitiv .
 De aceea robotii se intorc dupa un anumit interval de timp , de obicei 
          o luna sau doua , si viziteaza din nou situl , cautand eventualele schimbari 
          care au fost facute .
 Aceste programe au o capacitate extraordinara de a citi si de a prelucra 
          date .
 Astfel , conform declaratiilor producatorilor , robotii rapizi de la 
          Altavista au capacitatea de a citi 1 GB de text pe secunda , respectiv 
          3 milioane de pagini web pe zi .
 
 2.  Tot ceea ce gaseste robotul ( cuvinte cheie , portiuni de text din 
          paginile vizitate , etc. ) sunt trecute in al doilea element al motorului 
          de cautare , numit index sau catalog .
 
  Acesta este ca o baza de date imensa in care se afla informatii despre 
          fiecare pagina web gasite de robot .Aceasta pagina apare in catalog 
          ca o noua inregistrare , care va contine titlul si adresa paginii respective 
          , cuvintele cheie folosite , legaturile catre alte pagini , precum si 
          portiuni din text , care insa pot fi diferite de la un motor de cautare 
          la altul . Daca robotul gaseste schimbari intr-o pagina web , atunci indexul este 
          actualizat cu noile informatii .
 Uneori , poate trece mai mult timp pana cand paginile noi sau modificate 
          gasite de robot la o noua cautare sa fie adaugate la index . Deci o 
          pagina web poate sa fie vizitata de robot , dar este posibil ca ea sa 
          nu fie inca " indexata " .In acest caz , pagina nu este disponibila 
          la o eventuala cautare .
 
 3.  Al treilea element esential este software-ul de cautare , 
          un program care permite cautarea printre milioanele de pagini inregistrate 
          in index precum si afisarea rezultatului sub forma unei liste de legaturi 
          , in ordinea pe care el o considera cea mai relevanta .
   |