Sebelum anda membaca halaman hasil pencarian atas kata kunci tertentu yang dimasukkan didalam kotak pencarian, ada beberapa proses yang sebelumnya dilalui serach engine, yaitu :
Yang Dimaksud Crawler
Crawler adalah sebuah program yang didesain untuk menemukan halaman-halaman website baru berdasarkan link-link yang ada didalam suatu halaman website. Fungsinya adalah untuk menjadi penunjuk arah bagi sebuah program lain yang disebut spider untuk pergi ke halaman yang ditunjuk oleh crawler.
Yang Dimaksud Spider
Spider berfungsi untuk mendownload teks-teks yang dianggap penting dihalaman website yang ia temui berdasarkan petunjuk dari crawler. Spider ini selanjutnya menyerahkan tugas selanjutnya kedapa indexer
Yang Dimaksud Indexer
Halaman yang telah didownload kemudian di index sesuai dengan metode pengindexan yang berlaku bagi masing-masing search engine. Selanjutnya hasil pengindexan tersebut disimpan didalam databse. Ketika kita mencari kata kunci didalam dialog box search engine, maka yang dikerjakan oleh search engine adalah mencocokan kata kunci tersebut dengan data yang telah diindex didalam databse mereka, dan jika ada yang sesuai, search engine akan menampilkan halaman hasil pencarian, seperti yang kita kenal.
Catatan : Sebuah search engine menemukan suatu halaman website hanya jika ada jalan/link dari halaman lainnya yang menuju ke halaman website tersebut. Misal sebuah website A memiliki link ke website B. Maka cara search engine mengetahui lokasi website B adalah melalui link yang ada di website A. Jika tidak ada satupun link dari website yang menuju ke website B, maka jangan harap website tersebut akan diindex/masuk kedalam database search engine. Satu-satunya cara agar sebuah website baru yang belum ada satupun link yang menuju ke arahnya sehingga search engine dapat menemukannya, adalah dengan memberitahukan/mendaftarkan alamat website tersebut ke pengelola search engine.
Baca juga : Yang dimaksud Invisible Web
Yang Dimaksud Crawler
Crawler adalah sebuah program yang didesain untuk menemukan halaman-halaman website baru berdasarkan link-link yang ada didalam suatu halaman website. Fungsinya adalah untuk menjadi penunjuk arah bagi sebuah program lain yang disebut spider untuk pergi ke halaman yang ditunjuk oleh crawler.
Yang Dimaksud Spider
Spider berfungsi untuk mendownload teks-teks yang dianggap penting dihalaman website yang ia temui berdasarkan petunjuk dari crawler. Spider ini selanjutnya menyerahkan tugas selanjutnya kedapa indexer
Yang Dimaksud Indexer
Halaman yang telah didownload kemudian di index sesuai dengan metode pengindexan yang berlaku bagi masing-masing search engine. Selanjutnya hasil pengindexan tersebut disimpan didalam databse. Ketika kita mencari kata kunci didalam dialog box search engine, maka yang dikerjakan oleh search engine adalah mencocokan kata kunci tersebut dengan data yang telah diindex didalam databse mereka, dan jika ada yang sesuai, search engine akan menampilkan halaman hasil pencarian, seperti yang kita kenal.
Catatan : Sebuah search engine menemukan suatu halaman website hanya jika ada jalan/link dari halaman lainnya yang menuju ke halaman website tersebut. Misal sebuah website A memiliki link ke website B. Maka cara search engine mengetahui lokasi website B adalah melalui link yang ada di website A. Jika tidak ada satupun link dari website yang menuju ke website B, maka jangan harap website tersebut akan diindex/masuk kedalam database search engine. Satu-satunya cara agar sebuah website baru yang belum ada satupun link yang menuju ke arahnya sehingga search engine dapat menemukannya, adalah dengan memberitahukan/mendaftarkan alamat website tersebut ke pengelola search engine.
Baca juga : Yang dimaksud Invisible Web