Difference between revisions of "WNDW: Meningkatkan kinerja proxy (PEP)"

From OnnoWiki
Jump to navigation Jump to search
(New page: ===Pre-populate cache menggunakan wget=== Daripada menyiapkan sebuah situs web mirror seperti yang dijelaskan di bagian sebelumnya, pendekatan yang lebih baik untuk mengisi proxy cache me...)
 
 
(2 intermediate revisions by the same user not shown)
Line 1: Line 1:
===Pre-populate cache menggunakan wget===
+
Ide untuk meningkatkan Kinerja-proxy dijelaskan di RFC 3135 (lihat http://www.ietf.org/rfc/rfc3135), dan membutuhkan [[proxy server]] dengan cache disk besar yang memiliki ekstensi RFC 1323, diantara fitur yang dibutuhkan. Sebuah [[laptop]] memiliki [[TCP]] sesi dengan [[PEP]] di [[ISP]]. [[PEP]] tersebut, dan lawannya di provier satelit, berkomunikasi menggunakan sesi [[TCP]] yang berbeda atau bahkan menggunakan protokol mereka sendiri. [[PEP]] yang di [[provider satelit]] mendapat file dari [[web server]]. Dengan cara ini, sesi [[TCP]] dibagi, dan dengan demikian karakteristik sambungan yang mempengaruhi kinerja protokol (faktor panjang pipa yang berlemak) akan mengatasi (dengan TCP acknowledge spoofing, misalnya). Selain itu, [[PEP]] menggunakan [[proxy]] dan pre-fetching untuk mempercepat akses ke web lebih lanjut.
  
Daripada menyiapkan sebuah situs web mirror seperti yang dijelaskan di bagian sebelumnya, pendekatan yang lebih baik untuk mengisi proxy cache menggunakan proses otomatis. Metode ini telah dijelaskan oleh J.J. Eksteen dan J.P.L. Cloete dari CSIR di Pretoria, Afrika Selatan, di sebuah kertas berjudul "Enhancing International World Wide Web Access in Mozambique Through the Use of Mirroring and Caching Proxies". Dalam makalah ini (tersedia di http://www.isoc.org/inet97/ans97/cloet.htm) mereka menjelaskan bagaimana proses tersebut bekerja:
+
Sistem seperti itu dapat dibangun dari nol menggunakan [[Squid]], misalnya, atau dibeli "off the shelf" dari sejumlah vendor.
  
"Sebuah proses otomatis yang mengambil situs home page dan yang ditentukan jumlah halaman tambahan (secara rekursif mengikuti link HTML pada halaman diambil) melalui penggunaan proxy. Daripada menulis halaman yang di ambil ke disk lokal, proses mirror membuang halaman yang diambil. Hal ini dilakukan dalam rangka untuk menghemat sumber daya sistem serta menghindari kemungkinan konflik hak cipta. Dengan menggunakan proxy sebagai perantara, halaman yang di ambil dijamin akan di cache oleh proxy seperti klien jika mengakses halaman. Bila klien mengakses halaman yang diambil, ia disajikan dari cache dan tidak melalui sambungan internasional yang padat. Proses ini dapat dijalankan di waktu off-peak untuk memaksimalkan pemanfaatan bandwidth dan tidak untuk bersaing dengan aktifitas akses lainnya."
 
  
  
Perintah berikut (dijadwalkan untuk berjalan di malam hari atau sekali setiap minggu) adalah yang diperlukan (berulang lagi untuk setiap situs yang memerlukan pra-populasi).
 
  
wget --proxy-on --cache=off --delete after -m http://www.python.org
 
 
Pilihan berikut mengaktifkan hal:
 
 
-m: Mirror seluruh situs. wget dimulai di www.python.org dan mengikuti semua hyperlink, sehingga semua sub-halaman didownload.
 
--proxy-on: memastikan bahwa wget menggunakan server proxy. Hal ini dapat tidak diabaikan jika digunakan transparent proxy.
 
--cache=off: memastikan konten yang segar akan diambil dari Internet, dan tidak lokal dari server proxy.
 
--delete after: Menghapus yang copy di mirror. Konten yang dimirror tetap di proxy cache jika ada cukup ruang disk, dan parameter server proxy-caching ditetapkan dengan benar.
 
 
Selain itu, wget memiliki banyak pilihan lain; misalnya, untuk memberikan password untuk website yang memerlukan password. Ketika menggunakan tool ini, squid harus dikonfigurasi dengan ruang disk cukup untuk menampung semua situs pra-populasi dan lainnya (untuk penggunaan normal Squid melibatkan halaman selain yang pra-populasi). Untungnya, harddisk saat ini menjadi semakin murah dan ukuran disk yang jauh lebih besar dari sebelumnya. Namun, teknik ini hanya dapat digunakan dengan beberapa situs yang dipilih. Situs ini tidak boleh terlalu besar untuk proses selesai sebelum hari kerja dimulai, dan harus memperhatikan baik-baik sisa ruang harddisk.
 
 
 
 
 
 
 
===Hirarki cache===
 
 
Ketika suatu organisasi memiliki lebih dari satu proxy server, proxy cache dapat berbagi informasi di antara mereka. Misalnya, jika halaman web server yang ada di cache A, tetapi tidak dalam cache dari server B, pengguna terhubung melalui server B mungkin mendapatkan obyek cache dari server A melalui server B. Inter-Cache Protocol (ICP) dan Cache Array Routing Protocol (CARP) dapat berbagi informasi cache. CARP dianggap protokol yang lebih baik. Squid mendukung kedua protokol, dan MS ISA Server mendukung CARP. Untuk informasi lebih lanjut, lihat http://squid-docs.sourceforge.net/latest/html/c2075.html. Ini berbagi informasi dari cache mengurangi penggunaan bandwidth di organisasi di mana lebih dari satu proxy digunakan.
 
 
 
===Spesifikasi proxy===
 
 
Pada jaringan kampus universitas, seharusnya ada lebih dari satu server proxy, baik untuk kinerja dan juga untuk alasan cadangan. Pada hari ini dengan harddisk lebih murah dan lebih besar, server proxy yang ampuh dapat dibangun, dengan 50 GB atau lebih ruang harddisk yang dialokasikan untuk cache. Kinerja harddisk adalah penting, sehingga harddisk SCSI yang cepat akan melakukan yang terbaik (meskipun sebuah IDE berbasis Cache adalah lebih baik daripada tidak ada sama sekali). RAID atau mirroring tidak dianjurkan. Juga disarankan untuk menggunakan harddisk yang terpisah untuk cache yang terdedikasi. Misalnya, satu harddisk untuk cache, dan yang harddisk kedua untuk sistem operasi dan pencatatan cache. Squid dirancang untuk menggunakan RAM sebanyak yang dia dapat, karena bila data yang diambil dari RAM ini lebih cepat daripada jika berasal dari hard disk. Untuk jaringan kampus, gunakan memori RAM 1GB harus atau lebih:
 
 
* Selain dari memori yang dibutuhkan untuk sistem operasi dan aplikasi lain, Squid memerlukan 10 MB RAM untuk setiap 1 GB dari disk cache. Oleh karena itu, jika ada 50 GB yang dialokasikan untuk ruang disk caching, Squid akan memerlukan tambahan memori 500 MB.
 
* Mesin juga membutuhkan 128 MB untuk Linux dan 128 MB untuk Xwindows.
 
* 256 MB lain harus ditambahkan untuk aplikasi lain dan agar semuanya dapat berjalan dengan mudah. Kinerja mesin akan meningkat dengan pesat dengan menginstall memori yang besar, karena ini mengurangi kebutuhan untuk menggunakan hard disk. Memori ribuan kali lebih cepat dari hard disk. Sistem operasi modern sering menyimpan data yang sering di akses dalam memori jika ada cukup tersedia RAM. Tetapi mereka menggunakan halaman file sebagai memori tambahan ketika mereka tidak memiliki cukup RAM.
 
  
  

Latest revision as of 10:27, 22 September 2009

Ide untuk meningkatkan Kinerja-proxy dijelaskan di RFC 3135 (lihat http://www.ietf.org/rfc/rfc3135), dan membutuhkan proxy server dengan cache disk besar yang memiliki ekstensi RFC 1323, diantara fitur yang dibutuhkan. Sebuah laptop memiliki TCP sesi dengan PEP di ISP. PEP tersebut, dan lawannya di provier satelit, berkomunikasi menggunakan sesi TCP yang berbeda atau bahkan menggunakan protokol mereka sendiri. PEP yang di provider satelit mendapat file dari web server. Dengan cara ini, sesi TCP dibagi, dan dengan demikian karakteristik sambungan yang mempengaruhi kinerja protokol (faktor panjang pipa yang berlemak) akan mengatasi (dengan TCP acknowledge spoofing, misalnya). Selain itu, PEP menggunakan proxy dan pre-fetching untuk mempercepat akses ke web lebih lanjut.

Sistem seperti itu dapat dibangun dari nol menggunakan Squid, misalnya, atau dibeli "off the shelf" dari sejumlah vendor.




Pranala Menarik