ANALISIS WEB
A. Pengukuran Web
Di bawah ini ada
beberapa tools yang digunakan untuk mengeukur website dari segi kecepatan akses
dan performanya, serta mengukut banyaknya pengunjung suatu website, berikut ini
penjelasan mengenai beberapa tools yang digunakan untuk mengukur kecepatan
akses website.
Tools-tools pengukur
analisis web :
·
SEO (Search Engine Optimization) adalah
mengoptimalkan sebuah blog/web dengan memanfaatkan mesin pencari dan
mendapatkan peringkat yang tinggi di halaman pertama mesin pencari dengan
menggunakan keyword agar dibanjiri pengunjung yang datang dari search engine.
·
GTmetrix merupakan sebuah situs dimana
kita dapat mengetahui berbagai hal yang membuat blog/web kita lambat dan
performa blog/web ketika akses, tersedia secara gratis dengan mengunakan yahoo
Yslow dan Google page speed sebagai mesin penganalisa dan menampilkan hasil
juga rekomendasi yang harus dilakukan.
Kelebihan
dari GTmetrix :
1. dapat
membandingkan beberapa URL secara bersamaan.
2. dapt
menjadwalkan pengecekan web/blog secara otomatis dan dapat menyimpan laporan.
kekurangan dari GTmetrix :
Dalam penggunaan GTmetrix harus
menggunakan koneksi internet yang cepat.
·
Keynote Internet Testing Environment
(KITE)
·
Alat pengujian dan pengukur berbasis
desktop yang digunakan untuk merekam atau mengedittransaksi web dan menganalis
kinerja dari aplikasi web. KITE sangat mudah untuk digunakan dan sebagai salah
satu alat yang sudah cukup terkenal didunia.
·
CloudStatus
CloudStatus
adalah alat pengukur web yang berfungsi menelusuri kinerja utama dari
layanan-layanan cloud computing. CloudStatus terdiri dari 5 layanan dasar yang ditawarkan
oleh amazon, dan memiliki kemampuan monitoring yang lebih baik.
·
Jiffy
jiffy
tersedia secara bebas(open source). Cara kerja jiffy adalah dengan memasukan
kode jiffy ke dalam halamanhalaman web yang akan di telusuri. Dengan jiffy kita
dapat mengukur page rendering times, melaporkan hasil pengukuran dari web
server, aggregate log into database, dan membuat laporan-laporan.
Pembasan berikutnya
tentang bagaimana sebuah web perlu dianalisis , yaitu :
1. membantu mengetahui
nilai yang akan didapat dari suatu web maupun blog
2. membantu memantau
beberapa lama pengunjung yang membuka situs web tersebut
3. membantu
mengoptimalkan situs web dalam hal penampilan dan menambah informasi.
B.
Crawlers
proses pengambilan
sejumlah besar halaman web dengan cepat kedalam satu tempat penyimpanan lokal
dan mengindexnya berdasarkan sejumlah kata kunci. yakni sebuah komponen utama
dalam sebuah Search Engine (Mesin Pencari), sebagai Aplikasi Information
Retrieval Modern
Cara kerja :
suatu data dikumpulkan
oleh web crawler kemudian digunakan oleh mesin pencari untuk memberikan link
situs yang relavan bagi pengguna ketika mereka melakukan pencarian. web crawler
menangkap banyak hal yang berbeda ketika mereka memindai situs. Informasi
diperoleh dari metatag, konten itu sendiri dan link. untuk mendapatkan ide yang
baik dari apa situs adalah tentang. Crawler digunakan sebagai scan situs anda.
jika ada bagian-bagian tertentu dari situs yang seharusnya tidak diindeks,
mereka harus mencatat dalam file ini. setelah mendapat instruksi crawler dari
file ini, akan mulai dengan merangkak halaman situs anda.
Ini kemudian akan melanjutkan
ke indeks konten, dan kemudian akhirnya akan mengunjungi link di situs Anda.
Jika crawler mengikuti link dan tidak menemukan halaman, maka akan dihapus dari
indeks. Informasi yang dikumpulkan dari situs Anda kemudian disimpan dalam
database, yang kemudian digunakan oleh mesin pencari.
BEBERAPA CONTOH WEB
CRAWLER :
1.Teleport Pro
Salah satu software web
crawler untuk keperluan offline browsing. Software ini sudah cukup lama
popular, terutama pada saat koneksi internet tidak semudah dan secepat sekarang.
Software ini berbayar dan beralamatkan di http://www.tenmax.com.
2.HTTrack
Ditulis dengan
menggunakan C, seperti juga Teleport Pro, HTTrack merupakan software yang dapat
mendownload konten website menjadi sebuah mirror pada harddisk anda, agar dapat
dilihat secara offline. Yang menarik software ini free dan dapat di download
pada website resminya di http://www.httrack.com
3.Googlebot
Merupakan web crawler
untuk membangun index pencarian yang digunakan oleh search engine Google. Kalau
website anda ditemukan orang melalui Google, bisa jadi itu merupakan jasa dari
Googlebot. Walau konsekuensinya, sebagian bandwidth anda akan tersita karena
proses crawling ini.
4.Yahoo!Slurp
Kalau Googlebot adalah
web crawler andalan Google, maka search engine Yahoo mengandalkan Yahoo!Slurp.
Teknologinya dikembangkan oleh Inktomi Corporation yang diakuisisi oleh Yahoo!.
5.YaCy
Sedikit berbeda dengan
web crawler lainnya di atas, YaCy
dibangun atas prinsip jaringan P2P (peer-to-peer), di develop dengan
menggunakan java, dan didistribusikan pada beberapa ratus mesin computer
(disebut YaCy peers). Tiap-tiap peer di share dengan prinsip P2P untuk berbagi
index, sehingga tidak memerlukan server central. Contoh search engine yang
menggunakan YaCy ialah Sciencenet, untuk pencarian dokumen di bidang sains.
C.
Search Engines
adalah program komputer
yang dirancang untuk melakukan pencarian atas berkas-berkas yang tersimpan
dalam layanan www, ftp, publikasi milis, ataupun news group dalam sebuah
ataupun sejumlah komputer peladen dalam suatu jaringan. Search engine merupakan
perangkat pencari informasi dari dokumen-dokumen yang tersedia. Hasil pencarian
umumnya ditampilkan dalam bentuk daftar yang seringkali diurutkan menurut
tingkat akurasi ataupun rasio pengunjung atas suatu berkas yang disebut sebagai
hits. Informasi yang menjadi target pencarian bisa terdapat dalam berbagai
macam jenis berkas seperti halaman situs web, gambar, ataupun jenis-jenis
berkas lainnya. Beberapa mesin pencari juga diketahui melakukan pengumpulan
informasi atas data yang tersimpan dalam suatu basisdata ataupun direktori web.
Sebagian besar mesin
pencari dijalankan oleh perusahaan swasta yang menggunakan algoritma
kepemilikan dan basisdata tertutup, di antaranya yang paling populer adalah
Google (MSN Search dan Yahoo!). Telah ada beberapa upaya menciptakan mesin
pencari dengan sumber terbuka (open source), contohnya adalah Htdig, Nutch,
Egothor dan OpenFTS
Contoh - Contoh Search
Enginess
1. GOOGLE
google muncul pada
akhir tahun 1997, dimana google memasuki pasar yang telah diisi oleh para
pesaing lain dalam penyediaan layanan mesin pencari, seperti Yahoo, Altavista ,
HotBot, Excite, InfoSeek dan Lycos. dimana perusahaan-perusahaan tersebut
mengklaim sebagain perusahaan tabg bergerak dalam bidang layanan pencarian
internert. Hingga akhirnya Google mampu menjadi sebagai penyedia mesin pencari
yang cukup diperhitungkan didunia.
2. Yahoo
Yahoo raja directori di
internet disamping para pengguna internet melihat DMOZ serta LookSma berusaha
menurunkan nya diposisi puncak tersebut. akhir-akhir ini telah tumbuh secara
cepat dalam ukurannya mereka pun sudah memliki harga sehingga mudah untuk
memasukinya, dengan demikian mendapatkan sebuah daftar pada direktori yahoo
memang memiliki nilai yang tinggi.
Perbedaan Search Enginess
1. Yahoo! dan bing : On
page keyword merupakan faktor yang paling penting .
2. Google : linklah
yang merupakan faktor yang sangat penting. halaman website google seperti wine
semakin tua umurnya semakin bagus peringkatnya. Google akan secara otomatis
melakukan pencarian dengan logika boolean dengan menggunakan batasan-batasan
AND, NOT, PHRASE, dan OR. google tidak mendukung pemotongan, penambahan dan
tidak membedakan bentuk huruf besar atau kecil. kelebihan google menggunakan
relavansi dan linking, yaity jumlah tertentu halaman-halaman sejenis yang
berhubungan dengan halamab yang dicari. Google juga menyediakan file-file
berekstensi PDF yang jarang dihasilkan oleh alat-alat pencari lainnya.
3. Yahoo : untuk yahoo
tidak mementingkan layaknya seperti google. yahoo tidak menggunakan robot dalam
membuat direktori informasi, web ini bergantung pada jumlah website yang
didaftakan di direktori mereka. Sekalipun demikian yahoo sangat selektif dalam
menerima situs-situs yang didaftarkan. karena yahoo tidak mempunyai jangkauan
yang luas, maka web ini menyediakan mesin pencari milik google sebagai
pelengkap.
4. google dan Altavista
:
1. Loading altavista lebih lama daripada
google.
2. Tampilan altavista kurang menarik
3. Altavista lebih sulit dalam pengambilan
data dibanding google.
5. Alltheweb : metode
pencarian dalam web ini menggunakan logika boolean. kita dapat membatasi
pencarian hanya pada judul, teks, nama link, URL, link, bahasa, dan domain.
Ranking pencarian didasarkan pada relavansi, analisa link, penempatan teks pada
halaman tertentu, danpenggunaan kata kunci.
D. Web Archiving
adalah proses
mengumpulkan bagian dari WWW dan memastikan koleksi tersebut diawetkan dalam
suatu arsip, misalnya situs arsip, untuk diakses peneliti, sejarawan, dan masyarakat
umum pada masa datang. Besarnya ukuran Web membuat arsiparis web umumnya
menggunakan web crawlers untuk pengumpulan secara otomatis. Organisasi
pengarsip web terbesar yang menggunakan ancangan perangkak web ini adalah
Internet Archive yang berupaya memelihara arsip dari seluruh Web. Perpustakaan
nasional, arsip nasional, dan berbagai konsorsium organisasi lain juga terlibat
dalam upaya pengarsipan konten Web yang memiliki nilai penting bagi mereka.
Perangkat lunak dan layanan komersial juga tersedia bagi organisasi yang ingin
mengarsipkan konten web mereka sendiri untuk berbagai keperluan.
CARA KERJA WEB
ARCHIVING
A. Remote Harvesting
Merupakan cara yang
plaing umum dalam web archiving dengan menggunkana teknik web crawlers yang
secara otomatis melakukan proses pengumpulan halaman web. Metode yang digunakan
web crawler untuk mengakses halaman web
sama semeprti user mengakses halaman web menggunakan wob browser. Contoh web crawler yang digunakan dalam web
archiving seperti :
· Heritrix
· HTTrack
· Wget
B. On-Demand
Ada banyak layanan yang
dapat digunakan sebagai sumber archive web "on-demand", menggunakan
teknik web crawling. Contohnya seperti
· Aleph Archives
· archive.is
· Archive-It
· Archivethe.net
· Compliance WatchDog by SiteQuest
Technologies
· freezePAGE snapshots
· Hanzo Archives
· Iterasi
· Nextpoint
· Patrina
· PageFreezer
· Reed Archives
· Smarsh Web Archiving
· The Web Archiving Service
· webEchoFS
· WebCite
· Website-Archive.com
C. Database archiving
Databasa Archiving
mengacu pada metode untuk menarsipkan konten database-driven websites. Hal ini biasanya memerlukan ekstraksi konten
database ke standard schema, sering menggunakan XML. Setelah disimpan dalam
format standar, konten yang diarsipkan dari beberapa databse dapat tersedia
untuk diakses dengan menggunakan single access system. Motode ini digunkanan
seprti pada DeepArc dan Xinq masiing
masing dikembangkan oleh Bibliothèque nationale de France dan National Library of Australia.
D. Transactional
archiving
Transactional archiving
merupakan event-driven yang mengumpulkan
transaksi yang berlangsung antara
web server dan web browser. Hal ini
terutama digunakan untuk menjamin keaslian dari isi suatu website, pada tanggal
tertentu. Hal ini sangatlah penting untuk organisasi atau perusahaan yang perlu
mematuhi persyaratan hukum atau peraturan untuk mengungkapkan dan mempertahankan
informasi.
Sistem yang digunakan
pada transactional archiving biasanya beroperasi dengan memeriksa setiap permintaan HTTP dan respon dari web
server, menyaring setiap aktifitas untuk menghilangkan konten yang duklikat dan
secara permanen disimpan sebagai bitstreams. Sebuah sistem transactional
archiving membutuhkan instalasi perangkat lunak pada web server, dan karena hal
itu maka metode ini tidka dapat mengumpulkan konten dari remote website.
sumber :
http://id.prmob.net/web-mesin-pencari/web-crawler/optimisasi-mesin-pencari-2666047.html
http://catatan-dinz.net/riset-pengembangan/information-retrieval-methods-recall-and-precision-web-crawler/
http://www.bum1.info/2012/03/web-crawler.html
http://tugasptikkelompok9.blogspot.com/2010/10/perbedaan-beberapa-searh-engine_29.html
http://shellaaputri.blogspot.com/2011/02/tugas-1-perbedaan-antara-google-dan.html
http://id.wikipedia.org/wiki/Mesin_pencari_web
http://januarianto04.blogspot.com/2012/06/tools-yang-bisa-digunakan-dalam.html
http://en.wikipedia.org/wiki/Web_archiving
http://archive.org/about/
http://id.wikipedia.org/wiki/WebCit
Tidak ada komentar:
Posting Komentar