Cara Cegah Copy Semua Isi Web Site

Semua isi web site atau blog yang berbasis statis terdiri dari html semua laman, copy gambar, style sheets, JavaScript dan lain-lain dapat digandakan (copy) lalu disimpan dalam diska komputer. Struktur direktori dan hyperlink situs kloning sama seperti situs asli yang online dan dapat dijelajahi secara offline pada komputer. Pada Internet Explorer (IE) versi 5 terdapat menu make available offline sehingga tanpa aplikasi khusus untuk replika situs, namun IE versi yang lebih baru menu tersebut dihilangkan. Entahlah apa alasan Microsoft menghapus menu tersebut.

Menaruh file di situs web memang bertujuan untuk dibaca atau diunduh oleh pengunjung melalui browser, namun jika diunduh semua file yang seharusnya tidak tampak dengan aplikasi web copier atau web downloader maka ada peluang bagian-bagian yang rahasia ikut diunduh berkat kecanggihan aplikasi. Saya apabila dalam lingkungan jaringan internet yang cepat (fiber optic) suka mengunduh semua file dari suatu direktori situs hanya satu perintah tombol dengan DownThemAll ekstensi Firefox yang lebih cepat 4x pengunduhan daripada unduh satu per satu. Semua file yang diinginkan dari direktori akan pindah ke laptop dalam waktu singkat. Begitu pula apabila suatu situs isinya menarik maka akan saya copy dengan aplikasi web copier untuk tujuan dibaca offline demi penghematan biaya akses internet dan ketersediaan setiap saat.

Dari pengalaman tersebut saya pernah menerima file yang tak ditautkan pada artikel, tidak diindeks namun ikut diunduh oleh aplikasi downloader. Kategorinya penting dan mungkin rahasia bagi pemilik situs. Nah, dari pengalaman tersebut blog ini saya proteksi dari unduhan webcopier. Alasannya bukan karena ada yang rahasia tetapi malu, kurang percaya diri dengan kode CSS, PHP, HTML yang diedit secara “paksa”. Paksa artinya baca kode lalu dihapus atau ubah dan lihat perubahan di browser. Jika baik dipertahankan, jika buruk dikembalikan ke asalnya. Gitu saja. Di samping itu webcopier yang copy semua isi situs web menyita banyak bandwith namun tidak menambah kunjungan pada setiap artikel.   

Cara proteksi dengan robots.txt terpanjang sedunia, sekurang-kurangnya mencegah dikopi dari pengguna internet pemula perlu usaha ekstra untuk dapat mengkloning. Namun, bagi yang telah berpengalaman selalu bisa mengambil data dari server yang terhubung dalam jaringan internet. Tidak ada data yang 100% aman dari gangguan pihak lain jika terhubung jaringan internet.

Kode untuk proteksi dari aplikasi HTTrack Website Copier yang ditaruh pada file robots.txt adalah sebagai berikut.

Sedangkan pencegahan dari aplikasi web copier yang lain sesuaikan dan lihat pada file robots.txt blog ini. Untuk menguji robot berfungsi atau tidak coba copy web site target dengan HTTrack Website Copier . Jika robot berfungsi akan tampil pesan error di bawah ini.

Tinggalkan Balasan

Alamat surel Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *