Odlomak

Uvod
Tema mog seminarskog rada je Internet pretraživači.Kao jedan od problema u korišćenju interneta jeste kako pronaći željene informacije. Naime, Internet nije usluga, već sredstvo koje omogućava pristup uslugama i pronalaženje informacija koje su predstavljene u elektronskom obliku. Internet je na neki način sličan velikom gradu, nekom megapolisu. U ogromnom gradu koji na prvi pogled izgleda da je neorganizovan, može ne samo došljacima već i stalnim žiteljima da bude teško da pronađu ono što traže. Da bi se olakšalo snalaženje po gradu, poštoje knjige – vodiči, odgovarajuće informacije u novinama i časopisima, posebno obučeni stručni vodiči za pojedine oblasti, a kroz grad se može kretati pješke, autobusom, tramvajem, metroom, taksijem.
Surfanje internetom može se uporediti sa kretanjem ulicama velikog grada: usluge koje se mogu dobiti preko mreže imaju analogiju sa gradskim čitaonicama, bibliotekama, muzejima, umetničkim galerijama, tržnim centrima u tom gradu. Kao što ćemo u nekoj ulici tog grada pronaći željene informacije ili usluge, tako ćemo gotovo sigurno i na internetu naći ono što tražimo. Istina, u oba slučaja biće nam za to potrebno neko vreme, utoliko duže ukoliko se slabije snalazimo u gradu, odnosno na mreži.
Pretraživanje interneta u današnje vrijeme i nije baš tako jednostavno.Jednostavno je u slučaju ukoliko znamo tačnu adresu stranice koju želimo da posjetimo,npr. www.facebook.com. Međutim,ukoliko ne znamo tačnu adresu potreban nam je internet pretraživač.
Dakle,postavlja se pitanje: „Šta je to ustvari Internet pretraživač?
Internet pretraživač je alatka dizajnirana da traži informacije na www i to uglavnom zadavanjem ključnih reči, a mnogo ređe odabirom ponuđenih stavki. Rezultati pretrage su obično predstavljeni u obliku liste i najčešče se nazivaju pogotci (hits). Informacije se mogu saštojati od web stranica, slika, zvučnih i mnogih drugih tipova fajlova. Neki internet pretraživači takođe pretražuju podatke koji se nalaze u bazama podataka. Za razliku od web direktorijuma, koji se održavaju od strane ljudskih editora, internet pretraživači rade na principu algoritma ili su mešavina algoritamskog i ljudskog faktora.
Prvi Internet Pretraživači, su sadržali index koji je iznosio nekoliko miliona stranica i dokumenata, i primili nekoliko hiljada pretraga dnevno. Danas, najbolji Internet pretraživači, sadrže index sastavljen od nekoliko milijardi stranica i dokumenata i sa desetinama miliona pretraga dnevno.

U nastavku rada saznat ćemo kako se ustvari obavlja pretraživanje interneta,pravljenje indeksa,hištorija internet pretraživača,informacije o važnijim pretraživačima i rangiranje internet pretraživača.

1. Pretraživanje interneta

Pretraživači su jedan od nepredviđenih rezultata distributerske komjuterske mreže, sada zvane World Wide Web (WWW ili web). WWW je samo jedna komponenta Interneta kao cjeline, ali uglavnom kada ljudi kažu Internet oni zapravo misle World Wide Web. U ranijim fazama WWW-a, jedni način sa se prosljedi informacija od jednog kompjutera ka drugom je bio File Transfer Protocol ili FTP , ovaj način je zahtjevao da jedan kompjuter zna adresu drugog. FTP klijent je onda mogao da kontaktira FTP server (Deamon) koristeci tacnu adresu, nakon cega bi pretrazivao i uzimao odabran dio dostupnog sadrzaja na distributerskoj masini. Tadasnje pretrazivanje, nije nalik danasnjem, sadrzaj prikazan kao obicna lista, bez grafickog pretrazivanja i linkova. Korisnik bi tada morao da prekine vezu i ponovo uspostavi vezu FTP klijenta ka drugoj masini da bi pretrazivao drugi sadrzaj (pritom je mogao da se poveze samo sa serverima cija adresa je poznata). Bilo je to tezak, komplikovan i radnicki zadatak gledano sa aspekta danasnjih standarda. Jedini način da neko nadje fajl, pogotovo nov fajl, bio je slanjem e-mail-a.
I prije nego što je WWW postao najvidljiviji dio Interneta, postojali su Internet pretraživači sa ciljem lakseg snalazenja korisnika. To su bili, sada vec legendarni programi, gopher i Archie , koji su čuvali informacije spiskove locirane na serverima, koji su bili konstantno poveazani sa Internetom. Iskljucivo njihovom zaslugom, ekstremno je smanjeno vreme nalazenja programa i dokumenata. U kasnim 80’-im, iskoristiti maksimum Interneta, znacilo je poznavanje programa: gopher, Archie, Veronika itd…
Prije nego što pretraživač moze dati rezultat (lokaciju fajla ili dokumenta), on mora da ga nadje. Da bi nasao informaciju na milijardama stranica Web-a, pretraživač uposljava specijalno softverske robote, takozvane paukove (spiders), koji prave listu riječi nadjenih na Internet sajtovima. Proces paukovog pravljenja liste se naziva gmizanje Web-om (Web crawling). U cilju pravljenja što korisnije liste riječi, paukovi pretrazuju mnogo stranica.
Pocetak paukovog pretrazivanja stranica, su liste sastavljene od mnogo pristupanim serverima i veoma popularnim stranicima. Pauk pocinje od popularnog sajta, sastavljajuci index sa njegovih stranica i prateci svaki link, nadjen na pocetnom sajtu. Na ovaj način, sistem zasnovan na paukovima brzo pocinje putovanje kroz Web, siriječi se preko njegovih siroko primenjenih delova.
Google.com je nastao kao akademski pretraživač. Njegov inicijalni sistem koristi vise paukova, obicno tri ištovremeno. Svaki pauk moze da odrzi 300 veza sa Web stranicama otvorenim i išto vreme. Pri svojim maksimalnim performansama, koristeci cetiri pauka, sistem moze da odgmize preko 100 stranica po sekundi, stvarajuci oko 600 kilobajta podataka svake sekunde.
Održavajući sve brzim značilo je napraviti sistem koji bi hranio pauke neophodnim informacijama. Prvobitni sistem Google-a sadrzao je server posvecen dostavljanje URL-a paucima. Google je imao svoj sopstveni DNS (Domain Name Server prevodi ime servera u adresu), iz razloga što bi se u suprotnom oslanjao na Internet servis provajdera za DNS. Rezultat je svodjenje odlaganja na minimum, tj. veca brzina.

No votes yet.
Please wait…

Prijavi se

Detalji dokumenta

Više u Informacione tehnologije

Više u Seminarski radovi

Više u Skripte

Komentari