Difference between revisions of "Data Center"
Onnowpurbo (talk | contribs) |
Onnowpurbo (talk | contribs) |
||
(55 intermediate revisions by the same user not shown) | |||
Line 1: | Line 1: | ||
− | + | '''data center''' ([[American English]]) atau '''data centre''' ([[British English]]) adalah [[Bangunan|fasilitas]] yang digunakan untuk menampung [[Komputer| sistem komputer]] dan komponen terkait, seperti [[telekomunikasi]] dan [[penyimpanan data komputer|sistem penyimpanan]]. Ini umumnya mencakup [[Redundansi (teknik)|redundan]] atau komponen dan infrastruktur cadangan untuk [[catu daya]], koneksi komunikasi data, kontrol lingkungan (mis. AC, pencegah kebakaran) dan berbagai perangkat keamanan. Pusat data besar adalah operasi skala industri yang menggunakan listrik sebanyak kota kecil. | |
− | == | + | ==Sejarah== |
− | Data | + | Data center berawal pada ruang komputer besar di tahun 1940-an, yang ditandai dengan [[ENIAC]], salah satu contoh paling awal dari data center. Sistem komputer awal, rumit untuk dioperasikan dan dipelihara, membutuhkan lingkungan khusus untuk beroperasi. Banyak kabel diperlukan untuk menyambungkan semua komponen, dan metode untuk menampung dan mengaturnya telah dirancang seperti [[rak|rak|19 inci]] standar untuk memasang peralatan, [[raised floor]], dan [[cable tray]] (dipasang di atas kepala atau di bawah lantai yang ditinggikan). Satu [[Komputer mainframe|mainframe]] membutuhkan banyak daya, dan harus didinginkan untuk menghindari panas berlebih. Keamanan menjadi penting – komputer mahal, dan sering digunakan untuk tujuan [[militer]]. Oleh karena itu, pedoman desain dasar untuk mengontrol akses ke ruang komputer telah dibuat. |
− | + | Selama ledakan industri komputer mikro, dan khususnya selama tahun 1980-an, pengguna mulai menyebarkan komputer di mana-mana, dalam banyak kasus dengan sedikit atau tanpa peduli tentang persyaratan pengoperasian. Namun, karena [[teknologi informasi]] (TI) [[operasi TI|operasi]] mulai tumbuh dalam kompleksitas, organisasi semakin sadar akan kebutuhan untuk mengontrol sumber daya TI. Munculnya [[Unix]] dari awal 1970-an menyebabkan proliferasi selanjutnya dari sistem operasi [[Linux]]-kompatibel [[komputer pribadi|PC]] yang tersedia secara bebas selama tahun 1990-an. Ini disebut "[[Server (komputasi)|server]]", sebagai [[timesharing]] [[sistem operasi]] seperti Unix sangat bergantung pada [[model klien-server]] untuk memfasilitasi berbagi sumber daya unik antara banyak pengguna. Ketersediaan peralatan [[Perangkat keras jaringan|jaringan]] yang murah, ditambah dengan standar baru untuk jaringan [[pengkabelan terstruktur]], memungkinkan untuk menggunakan desain hierarkis yang menempatkan server di ruangan tertentu di dalam perusahaan. Penggunaan istilah "data center", sebagaimana diterapkan pada ruang komputer yang dirancang khusus, mulai mendapat pengakuan populer saat ini. | |
− | + | Ledakan pusat data terjadi selama [[dot-com bubble]] tahun 1997–2000. [[Perusahaan|Perusahaan]] memerlukan konektivitas [[Internet]] yang cepat dan pengoperasian tanpa henti untuk menerapkan sistem dan membangun kehadiran di Internet. Memasang peralatan seperti itu tidak layak untuk banyak perusahaan kecil. Banyak perusahaan mulai membangun fasilitas yang sangat besar, yang disebut '''Internet data center''' (IDC), yang menyediakan [[pelanggan|klien komersial]] berbagai solusi untuk penerapan dan pengoperasian sistem. Teknologi dan praktik baru dirancang untuk menangani skala dan persyaratan operasional dari operasi skala besar tersebut. Praktik-praktik ini akhirnya bermigrasi ke pusat data pribadi, dan diadopsi sebagian besar karena hasil praktisnya. Pusat data untuk komputasi awan disebut '''cloud data center''' (CDC). Namun saat ini, pembagian istilah-istilah tersebut hampir menghilang dan diintegrasikan ke dalam istilah "data center". | |
− | + | Dengan peningkatan penggunaan [[cloud computing]], organisasi bisnis dan pemerintah meneliti pusat data ke tingkat yang lebih tinggi di berbagai bidang seperti keamanan, ketersediaan, dampak lingkungan, dan kepatuhan terhadap standar. Dokumen standar dari grup [[profesional]] terakreditasi, seperti [[Telecommunications Industry Association]], menetapkan persyaratan untuk desain pusat data. Metrik operasional terkenal untuk [[data availability|data-center availability]] dapat digunakan untuk mengevaluasi [[Business Impact Analysis|commercial impact]] gangguan. Pengembangan berlanjut dalam praktik operasional, dan juga dalam desain data center yang ramah lingkungan. Data center biasanya menghabiskan banyak biaya untuk membangun dan memelihara. | |
− | == | + | ==Persyaratan untuk modern data center== |
− | [[ | + | [[Operasi TI]] adalah aspek penting dari sebagian besar operasi organisasi di seluruh dunia. Salah satu perhatian utama adalah [[kelangsungan bisnis]]; perusahaan mengandalkan sistem informasi mereka untuk menjalankan operasi mereka. Jika suatu sistem menjadi tidak tersedia, operasi perusahaan dapat terganggu atau dihentikan sama sekali. Penyediaan infrastruktur yang andal untuk operasional TI diperlukan untuk meminimalkan kemungkinan gangguan. Keamanan informasi juga menjadi perhatian, dan untuk alasan ini pusat data harus menawarkan lingkungan yang aman yang meminimalkan kemungkinan pelanggaran keamanan. Oleh karena itu, data center harus menjaga standar tinggi untuk memastikan integritas dan fungsionalitas lingkungan komputer yang dihostingnya. Hal ini dicapai melalui redundansi pendinginan mekanis dan sistem daya (termasuk generator daya cadangan darurat) yang melayani data center bersama dengan kabel serat optik. |
− | + | Telecommunications Infrastructure Standard for Data Center [[Telecommunications Industry Association]] menetapkan persyaratan minimum untuk infrastruktur telekomunikasi data center dan ruang komputer termasuk data center perusahaan penyewa tunggal dan pusat data hosting Internet multi-penyewa. Topologi yang diusulkan dalam dokumen ini dimaksudkan agar dapat diterapkan pada data center dengan ukuran berapa pun. | |
+ | Telcordia GR-3160, ''NEBS Requirements for Telecommunications Data Center Equipment and Spaces'', memberikan panduan untuk ruang data center dalam jaringan telekomunikasi, dan persyaratan lingkungan untuk peralatan yang ditujukan untuk pemasangan di ruang tersebut. Kriteria ini dikembangkan bersama oleh Telcordia dan perwakilan industri. Mereka dapat diterapkan ke ruang data center yang menampung pemrosesan data atau peralatan Teknologi Informasi (TI). Peralatan tersebut dapat digunakan untuk: | ||
+ | * Mengoperasikan dan mengelola jaringan telekomunikasi operator | ||
+ | * Menyediakan aplikasi berbasis data center langsung ke pelanggan operator | ||
+ | * Menyediakan aplikasi yang dihosting untuk pihak ketiga untuk memberikan layanan kepada pelanggan mereka | ||
+ | * Berikan kombinasi dari ini dan aplikasi data center serupa | ||
− | + | Pengoperasian data center yang efektif memerlukan investasi yang seimbang baik dalam fasilitas maupun peralatan yang ada. Langkah pertama adalah menetapkan lingkungan fasilitas dasar yang sesuai untuk pemasangan peralatan. Standardisasi dan modularitas dapat menghasilkan penghematan dan efisiensi dalam desain dan konstruksi data center telekomunikasi. | |
− | |||
− | |||
− | |||
− | |||
− | + | Standarisasi berarti rekayasa bangunan dan peralatan terpadu. Modularitas memiliki manfaat skalabilitas dan pertumbuhan yang lebih mudah, bahkan ketika prakiraan perencanaan kurang optimal. Untuk alasan ini, data center telekomunikasi harus direncanakan dalam blok bangunan berulang dari peralatan, dan peralatan daya dan pendukung (pengkondisian) yang terkait jika dimungkinkan. Penggunaan sistem terpusat khusus memerlukan perkiraan kebutuhan masa depan yang lebih akurat untuk mencegah mahalnya pembangunan, atau mungkin lebih buruk — dalam pembangunan yang gagal memenuhi kebutuhan di masa depan. | |
− | + | Data center "lights-out", juga dikenal sebagai data center yang digelapkan atau gelap, adalah data center yang, idealnya, menghilangkan kebutuhan akan akses langsung oleh personel, kecuali dalam keadaan luar biasa. Karena kurangnya kebutuhan staf untuk masuk ke data center, maka bisa dioperasikan tanpa penerangan. Semua perangkat diakses dan dikelola oleh sistem jarak jauh, dengan program otomasi yang digunakan untuk melakukan operasi tanpa pengawasan. Selain penghematan energi, pengurangan biaya kepegawaian, dan kemampuan untuk menemukan lokasi lebih jauh dari pusat populasi, menerapkan data center tanpa lampu mengurangi ancaman serangan berbahaya terhadap infrastruktur. | |
− | + | Ada kecenderungan untuk memodernisasi data center untuk memanfaatkan kinerja dan [[Efisiensi listrik|efisiensi energi]] peningkatan peralatan dan kemampuan TI yang lebih baru, seperti [[cloud computing]]. Proses ini juga dikenal sebagai transformasi data center. | |
− | + | Organisasi sedang mengalami pertumbuhan TI yang cepat tetapi data center mereka menua. Perusahaan riset industri [[International Data Corporation]] (IDC) menetapkan usia rata-rata sebuah data center adalah sembilan tahun. [[Gartner]], perusahaan riset lainnya, mengatakan data center yang berusia lebih dari tujuh tahun sudah usang. Pertumbuhan data (163 zettabytes pada tahun 2025) merupakan salah satu faktor yang mendorong perlunya modernisasi data center. | |
− | + | Pada bulan Mei 2011, organisasi riset pusat data [[Uptime Institute]] melaporkan bahwa 36 persen dari perusahaan besar yang disurvei diperkirakan akan kehabisan kapasitas TI dalam 18 bulan ke depan. | |
− | + | Transformasi data center mengambil pendekatan langkah demi langkah melalui proyek terintegrasi yang dilakukan dari waktu ke waktu. Ini berbeda dari metode tradisional pemutakhiran data center yang menggunakan pendekatan serial dan silo. Proyek tipikal dalam inisiatif transformasi pusat data meliputi standardisasi/konsolidasi, virtualisasi, [[otomatisasi]] dan keamanan. | |
− | + | * Standardisasi/konsolidasi: Tujuan proyek ini adalah untuk mengurangi jumlah data center yang mungkin dimiliki organisasi besar. Proyek ini juga membantu mengurangi jumlah perangkat keras, platform perangkat lunak, alat, dan proses dalam data center. Organisasi mengganti peralatan data center yang sudah tua dengan yang lebih baru yang memberikan peningkatan kapasitas dan kinerja. Platform komputasi, jaringan, dan manajemen distandarisasi sehingga lebih mudah dikelola. | |
− | * | ||
− | * | + | * Virtualisasi: Ada kecenderungan untuk menggunakan teknologi virtualisasi TI untuk mengganti atau menggabungkan beberapa peralatan data center, seperti server. Virtualisasi membantu menurunkan biaya modal dan operasional, serta mengurangi konsumsi energi. Teknologi virtualisasi juga digunakan untuk membuat desktop virtual, yang kemudian dapat dihosting di data center dan disewakan secara berlangganan. Data yang dikeluarkan oleh bank investasi Lazard Capital Markets melaporkan bahwa 48 persen operasi perusahaan akan divirtualisasikan pada tahun 2012. Gartner memandang virtualisasi sebagai katalis untuk modernisasi. |
− | * | + | * Otomatisasi: Otomatisasi data center melibatkan tugas otomatisasi seperti [[penyediaan]], konfigurasi, [[Patch (komputasi)|penambalan]], manajemen rilis, dan kepatuhan. Karena perusahaan kekurangan pekerja TI yang terampil, otomatisasi tugas membuat operasi data center menjadi lebih efisien. |
− | * | + | * Mengamankan: Di data center modern, keamanan data pada sistem virtual terintegrasi dengan keamanan infrastruktur fisik yang ada. Keamanan data center modern harus mempertimbangkan keamanan fisik, keamanan jaringan, dan keamanan data dan pengguna. |
==Carrier neutrality== | ==Carrier neutrality== | ||
− | + | Saat ini banyak pusat data dijalankan oleh [[Internet Service Provider]]([[ISP]]) semata-mata untuk tujuan menghosting [[Server]] mereka sendiri dan pihak ketiga]. | |
− | + | Namun secara tradisional data center dibangun hanya untuk penggunaan satu perusahaan besar, atau sebagai [[carrier hotel]] atau [[Network-neutral data center]]. | |
− | + | Fasilitas ini memungkinkan interkoneksi operator dan mitra, dan bertindak sebagai hub fiber regional yang melayani bisnis lokal selain menghosting konten [[Server]]. | |
− | ==Data center | + | ==Data center Level and Tier== |
− | + | [[Telecommunications Industry Association]] adalah asosiasi perdagangan yang diakreditasi oleh ANSI (American National Standards Institutea). Pada tahun 2005 menerbitkan ANSI/TIA-942,Telecommunications Infrastructure Standard for Data Centers, yang menetapkan empat tingkat pusat data secara menyeluruh dan terukur. TIA-942 diubah pada tahun 2008, 2010, 2014 dan 2017. ''TIA-942:Data Center Standards Overview'' menjelaskan persyaratan untuk infrastruktur data center. Yang paling sederhana adalah pusat data Level 1, yang pada dasarnya adalah [[ruang server]], mengikuti panduan dasar untuk pemasangan sistem komputer. Level yang paling ketat adalah pusat data Level 4, yang dirancang untuk menampung sistem komputer yang paling kritis, dengan subsistem yang sepenuhnya redundan, kemampuan untuk terus beroperasi selama periode waktu yang tidak terbatas selama pemadaman listrik utama. | |
− | + | [[Uptime Institute]], sebuah penelitian data center dan organisasi layanan profesional yang berbasis di Seattle, WA mendefinisikan apa yang sekarang disebut sebagai "Tiers" atau lebih tepatnya, "Tier Standard". Level Standar Tingkat Uptime menjelaskan ketersediaan pemrosesan data dari perangkat keras di suatu lokasi. Semakin tinggi level Tier, semakin besar ketersediaan yang diharapkan. Standar Tingkat Uptime Institute ditunjukkan di bawah ini. | |
− | + | Untuk revisi TIA-942 2014, organisasi TIA dan Uptime Institute sepakat bahwa TIA akan menghapus semua penggunaan kata "Tier" dari spesifikasi TIA-942 mereka yang dipublikasikan, dengan menggunakan terminologi tersebut hanya akan digunakan oleh Uptime Institute untuk mendeskripsikan sistemnya. | |
− | + | Klasifikasi lain juga ada. Misalnya, German Datacenter Star Audit program menggunakan proses audit untuk mengesahkan lima tingkat "gratification" yang memengaruhi data center yang critical. | |
{| class="wikitable" | {| class="wikitable" | ||
− | |+ Uptime Institute | + | |+ Uptime Institute Tier Standard |
|- | |- | ||
! Tier level | ! Tier level | ||
− | ! | + | ! Persyaratan |
|- | |- | ||
! I | ! I | ||
| | | | ||
− | * | + | * Jalur distribusi non-redundan tunggal yang melayani beban kritis |
− | * | + | * Komponen kritis non-redundan |
|- | |- | ||
! II | ! II | ||
| | | | ||
− | * | + | * Memenuhi semua persyaratan Tier I, selain: |
− | * | + | * Komponen kritis yang redundan |
− | * | + | * Komponen kritis harus dapat diisolasi dan dipindahkan dari layanan sambil tetap memberikan kapasitas N ke beban kritis. |
|- | |- | ||
! III | ! III | ||
| | | | ||
− | * | + | * Memenuhi semua persyaratan Tier II selain: |
− | * | + | * Beberapa jalur distribusi independen yang berbeda melayani beban kritis peralatan TI |
− | * | + | * Semua peralatan TI harus dual-powered yang dilengkapi dengan dua sumber PLN & UPS redundan yang berbeda. Perangkat IT berkabel tunggal harus menggunakan Sakelar Transfer Titik Penggunaan agar perangkat dapat menerima daya dari dan memilih di antara dua pemasok UPS. |
− | * | + | * Setiap komponen kapasitas kritis, jalur distribusi, dan komponen sistem kritis apa pun harus dapat sepenuhnya kompatibel dengan topologi arsitektur situs yang diisolasi untuk acara yang direncanakan (penggantian, pemeliharaan, atau peningkatan) sambil tetap menyediakan kapasitas N ke kritis beban. |
− | * | + | * Sistem produksi energi di lokasi (seperti generator listrik) tidak boleh memiliki batasan waktu kerja pada kondisi lokasi dan beban desain. |
|- | |- | ||
! IV | ! IV | ||
| | | | ||
− | * | + | * Memenuhi semua persyaratan Tier III selain: |
− | * | + | * Beberapa jalur distribusi independen yang berbeda dan aktif melayani beban kritis |
− | * | + | * Kompartemenisasi komponen kapasitas kritis dan jalur distribusi |
− | * | + | * Sistem kritis harus dapat secara mandiri menyediakan kapasitas N ke beban kritis setelah kesalahan atau kegagalan tunggal |
− | * | + | * Pendinginan yang continuous diberikan untuk sistem IT dan UPS. |
|} | |} | ||
− | + | Sementara salah satu sistem ketahanan data center industri diusulkan pada saat ketersediaan dinyatakan sebagai teori, dan sejumlah 'Nine' (angka sembilan) di sisi kanan titik desimal, secara umum disepakati bahwa pendekatan ini agak menipu. atau terlalu sederhana, sehingga vendor saat ini biasanya membahas ketersediaan secara mendetail yang sebenarnya dapat mereka pengaruhi, dan dalam istilah yang jauh lebih spesifik. Oleh karena itu, sistem leveling yang tersedia saat ini tidak lagi menentukan hasilnya dalam persentase waktu aktif. | |
− | + | Catatan: Uptime Institute juga mengklasifikasikan Tingkatan untuk masing-masing dari tiga fase pusat data, dokumen desainnya, fasilitas yang dibangun, dan keberlanjutan operasionalnya yang berkelanjutan. | |
− | == | + | ==Pertimbangan desain== |
− | + | Data center dapat menempati satu ruangan di gedung, satu lantai atau lebih, atau seluruh gedung. Sebagian besar peralatan seringkali berupa server yang dipasang di lemari [[rak 19 inci]], yang biasanya ditempatkan dalam satu baris membentuk koridor (disebut lorong) di antaranya. Ini memungkinkan orang mengakses bagian depan dan belakang setiap kabinet. Ukuran server sangat berbeda dari [[Unit rak|server 1U]] hingga silo penyimpanan besar yang berdiri bebas yang menempati banyak ruang lantai. Beberapa peralatan seperti perangkat [[komputer mainframe]] dan [[penyimpanan komputer|penyimpanan]] seringkali sebesar rak itu sendiri, dan ditempatkan di sampingnya. Pusat data yang sangat besar dapat menggunakan [[intermodal container|shipping containers]] yang masing-masing dikemas dengan 1.000 server atau lebih; ketika perbaikan atau pemutakhiran diperlukan, seluruh wadah diganti (alih-alih memperbaiki server individual). | |
− | + | Kode bangunan lokal dapat mengatur ketinggian langit-langit minimum. | |
===Design programming=== | ===Design programming=== | ||
− | Design programming, | + | Design programming, juga dikenal sebagai architectural programming, adalah proses penelitian dan pengambilan keputusan untuk mengidentifikasi ruang lingkup proyek desain. Selain arsitektur bangunan itu sendiri, ada tiga elemen untuk mendesain pemrograman untuk data center: facility topology design (space planning), engineering infrastructure design (sistem mekanis seperti pendinginan dan sistem kelistrikan termasuk daya) dan technology infrastructure design (cable plant). Masing-masing akan dipengaruhi oleh penilaian kinerja dan pemodelan untuk mengidentifikasi kesenjangan yang berkaitan dengan keinginan kinerja pemilik fasilitas dari waktu ke waktu. |
− | + | Berbagai vendor yang menyediakan data center design service mendefinisikan langkah-langkah data center design sedikit berbeda, namun semuanya menangani aspek dasar yang sama seperti yang diberikan di bawah ini. | |
− | === | + | ===Kriteria pemodelan=== |
− | + | Kriteria pemodelan digunakan untuk mengembangkan skenario masa depan untuk ruang, daya, pendinginan, dan biaya di data center. Tujuannya adalah untuk membuat rencana induk dengan parameter seperti jumlah, ukuran, lokasi, topologi, tata letak sistem lantai TI, serta teknologi dan konfigurasi daya dan pendinginan. Tujuan dari ini adalah untuk memungkinkan penggunaan yang efisien dari sistem mekanik dan listrik yang ada dan juga pertumbuhan di pusat data yang ada tanpa perlu membangun gedung baru dan lebih meningkatkan pasokan listrik yang masuk. | |
− | === | + | ===Rekomendasi desain=== |
− | + | Rekomendasi/rencana desain umumnya mengikuti fase kriteria pemodelan. Infrastruktur teknologi optimal diidentifikasi dan kriteria perencanaan dikembangkan, seperti kapasitas daya kritis, kebutuhan daya data center keseluruhan menggunakan PUE (power utilization efficiency) yang disepakati, kapasitas pendinginan mekanis, kilowatt per kabinet, raised floor space, dan tingkat ketahanan untuk fasilitas. | |
− | === | + | ===Desain konseptual=== |
− | + | Desain konseptual mewujudkan rekomendasi atau rencana desain dan harus mempertimbangkan skenario "what-if" untuk memastikan semua hasil operasional terpenuhi untuk membuktikan fasilitas di masa depan. Tata letak lantai konseptual harus didorong oleh persyaratan kinerja TI serta biaya siklus hidup yang terkait dengan permintaan TI, efisiensi energi, efisiensi biaya, dan ketersediaan. Pemeriksaan masa depan juga akan mencakup kemampuan ekspansi, yang seringkali disediakan di pusat data modern melalui desain modular. Ini memungkinkan ruang lantai yang lebih tinggi untuk dipasang di data center saat menggunakan pembangkit listrik utama yang ada di fasilitas tersebut. | |
===Detailed design=== | ===Detailed design=== | ||
− | Detailed | + | Detailed designdilakukan setelah desain konseptual yang sesuai ditentukan, biasanya termasuk pembuktian konsep. Fase detailed design harus mencakup informasi arsitektur, struktural, mekanik dan listrik rinci dan spesifikasi fasilitas. Pada tahap ini pengembangan skema fasilitas dan dokumen konstruksi serta skema dan spesifikasi kinerja dan perincian khusus dari semua infrastruktur teknologi, desain [[infrastruktur TI]] terperinci dan dokumentasi infrastruktur TI diproduksi. |
− | ===Mechanical engineering infrastructure | + | ===Mechanical engineering infrastructure design=== |
− | Mechanical engineering infrastructure design | + | Mechanical engineering infrastructure design membahas sistem mekanis yang terlibat dalam memelihara lingkungan interior data center, seperti pemanas, ventilasi, dan air conditioning (HVAC); peralatan pelembapan dan dehumidifikasi; tekanan udara; dan seterusnya. |
− | + | Tahap proses desain ini harus ditujukan untuk menghemat ruang dan biaya, sambil memastikan tujuan bisnis dan keandalan terpenuhi serta mencapai persyaratan PUE dan ramah lingkungan. Desain modern mencakup modularisasi dan penskalaan beban TI, dan memastikan belanja modal untuk konstruksi bangunan dioptimalkan. | |
===Electrical engineering infrastructure design=== | ===Electrical engineering infrastructure design=== | ||
− | Electrical Engineering infrastructure design | + | Electrical Engineering infrastructure design difokuskan pada perancangan konfigurasi kelistrikan yang mengakomodir berbagai kebutuhan keandalan dan ukuran data center. Aspek dapat mencakup perencanaan layanan utilitas; distribusi, switching dan bypass dari sumber daya; sistem uninterruptible power source (UPS); dan banyak lagi. |
− | + | Desain ini harus sesuai dengan standar energi dan praktik terbaik sekaligus memenuhi tujuan bisnis. Konfigurasi kelistrikan harus dioptimalkan dan kompatibel secara operasional dengan kemampuan pengguna data center. Desain kelistrikan modern bersifat modular dan terukur, dan tersedia untuk kebutuhan tegangan rendah dan menengah serta DC (arus searah). | |
===Technology infrastructure design=== | ===Technology infrastructure design=== | ||
+ | Technology infrastructure design membahas sistem kabel telekomunikasi yang berjalan di seluruh data center. Terdapat sistem pengkabelan untuk semua lingkungan data center, termasuk pengkabelan horizontal, suara, modem, dan layanan telekomunikasi faksimili, peralatan peralihan lokasi, koneksi manajemen komputer dan telekomunikasi, koneksi keyboard/video/mouse, dan komunikasi data. Wide Area Network, Local Area Network, dan storage area network harus terhubung dengan sistem pensinyalan gedung lainnya (misalnya kebakaran, keamanan, listrik, HVAC, EMS). | ||
− | + | ===Ekspektasi Ketersediaan=== | |
+ | Semakin tinggi kebutuhan ketersediaan data center, semakin tinggi modal dan biaya operasional untuk membangun dan mengelolanya. Kebutuhan bisnis harus mendikte tingkat ketersediaan yang dibutuhkan dan harus dievaluasi berdasarkan karakterisasi kekritisan sistem TI, perkiraan analisis biaya dari skenario yang dimodelkan. Dengan kata lain, bagaimana tingkat ketersediaan yang tepat dapat dipenuhi dengan kriteria desain untuk menghindari risiko keuangan dan operasional sebagai akibat dari downtime? | ||
− | + | Jika perkiraan biaya downtime dalam satuan waktu tertentu melebihi biaya modal yang diamortisasi dan biaya operasional, tingkat ketersediaan yang lebih tinggi harus diperhitungkan dalam desain data center. Jika biaya untuk menghindari waktu henti jauh melebihi biaya waktu henti itu sendiri, tingkat ketersediaan yang lebih rendah harus diperhitungkan dalam desain. | |
− | |||
− | |||
− | === | + | ===Pemilihan Lokasi=== |
− | + | Aspek-aspek seperti kedekatan dengan jaringan listrik yang tersedia, infrastruktur telekomunikasi, layanan jaringan, jalur transportasi, dan layanan darurat dapat memengaruhi biaya, risiko, keamanan, dan faktor lain yang harus dipertimbangkan untuk desain data center. Sementara beragam faktor lokasi diperhitungkan (misalnya jalur penerbangan, penggunaan di sekitar, risiko geologis), akses ke daya yang tersedia yang sesuai sering kali merupakan waktu tunggu yang paling lama. Lokasi memengaruhi desain data center juga karena kondisi iklim menentukan teknologi pendinginan apa yang harus diterapkan. Pada gilirannya hal ini berdampak pada waktu kerja dan biaya yang terkait dengan pendinginan. Misalnya, topologi dan biaya pengelolaan data center di iklim yang hangat dan lembab akan sangat berbeda dengan pengelolaan di iklim yang sejuk dan kering. | |
− | === | + | ===Modularitas dan fleksibilitas=== |
+ | Modularitas dan fleksibilitas adalah elemen kunci yang memungkinkan data center tumbuh dan berubah seiring waktu. Modul data center adalah blok bangunan terstandarisasi yang direkayasa sebelumnya yang dapat dengan mudah dikonfigurasi dan dipindahkan sesuai kebutuhan. | ||
+ | Data center modular dapat terdiri dari peralatan data center yang terdapat di dalam kontainer pengiriman atau kontainer portabel serupa. Tetapi juga dapat digambarkan sebagai gaya desain di mana komponen data center dibuat sebelumnya dan distandarisasi sehingga dapat dibangun, dipindahkan, atau ditambahkan secepat perubahan kebutuhan. | ||
− | + | ===Environmental control=== | |
− | + | Physical environment data center dikontrol dengan ketat. | |
− | + | [[Air conditioning]] digunakan untuk mengontrol suhu dan kelembaban di pusat data. "Thermal Guidelines for Data Processing Environments" [[ASHRAE]] merekomendasikan kisaran suhu 18-27C, kisaran titik embun -9 s/d 15C, dan kelembapan relatif ideal 60%, dengan kisaran yang diperbolehkan antara 40% hingga 60% untuk lingkungan data center. Suhu di v secara alami akan naik karena daya listrik yang digunakan untuk memanaskan udara. Kecuali jika panas dihilangkan, suhu sekitar akan naik, yang mengakibatkan kegagalan fungsi peralatan elektronik. Dengan mengontrol suhu udara, komponen server di motherboard dalam rentang suhu/kelembaban yang ditentukan pabrikan. Sistem pendingin udara membantu mengontrol [[kelembaban]] dengan mendinginkan udara ruang balik di bawah [[titik embun]]. Terlalu banyak kelembapan, dan air mungkin mulai [[kondensasi|mengembun]] pada komponen internal. Dalam kasus atmosfer kering, sistem pelembapan tambahan dapat menambahkan uap air jika kelembapan terlalu rendah, yang dapat menyebabkan masalah pelepasan muatan [[elektrostatis|listrik statis]] yang dapat merusak komponen. Data center bawah tanah dapat menjaga peralatan komputer tetap dingin sambil mengeluarkan lebih sedikit energi daripada desain konvensional. | |
− | + | Data center modern mencoba menggunakan pendingin economizer, di mana mereka menggunakan udara luar agar data center tetap dingin. Setidaknya satu data center (terletak di [[Upstate New York]]) akan mendinginkan server menggunakan udara luar selama musim dingin. Mereka tidak menggunakan pendingin/AC, yang menciptakan potensi penghematan energi hingga jutaan. Pendinginan udara tidak langsung semakin banyak digunakan di pusat data secara global yang memiliki keunggulan pendinginan yang lebih efisien yang menurunkan biaya konsumsi daya di pusat data. Banyak data center yang baru dibangun juga menggunakan unit Indirect Evaporative Cooling (IDEC) serta fitur lingkungan lainnya seperti air laut untuk meminimalkan jumlah energi yang dibutuhkan untuk mendinginkan ruangan. | |
− | |||
− | + | Telcordia ''NEBS: Raised Floor Generic Requirements for Network and Data Centers'', GR-2930 menyajikan persyaratan teknik umum untuk lantai yang dinaikkan yang termasuk dalam pedoman NEBS yang ketat. | |
− | + | Ada banyak jenis lantai yang tersedia secara komersial yang menawarkan berbagai kekuatan struktural dan kemampuan pemuatan, tergantung pada konstruksi komponen dan bahan yang digunakan. Jenis umum [[raised floor]] termasuk platform stringer, stringerless, dan struktural, yang semuanya dibahas secara rinci di GR-2930 dan dirangkum di bawah ini. | |
− | + | * '''''Stringered raised floor''''' - Jenis lantai ditinggikan ini umumnya terdiri dari susunan vertikal rakitan alas baja (setiap rakitan terdiri dari pelat dasar baja, tubular tegak, dan kepala) secara seragam ditempatkan pada pusat dua kaki dan secara mekanis diikat ke lantai beton. Kepala tumpuan baja memiliki tiang yang dimasukkan ke dalam tumpuan tegak dan ketinggian keseluruhan dapat disesuaikan dengan mur perata pada tiang yang dilas pada kepala tumpuan. | |
− | * '''''Stringered raised | + | * '''''Stringerless raised floor''''' - Salah satu jenis lantai peninggian non-gempa umumnya terdiri dari susunan tumpuan yang memberikan ketinggian yang diperlukan untuk merutekan kabel dan juga berfungsi untuk menopang setiap sudut panel lantai. Dengan jenis lantai ini, mungkin ada atau tidak ada perlengkapan untuk mengencangkan panel lantai secara mekanis ke tumpuan. Jenis sistem tanpa senar ini (tidak memiliki keterikatan mekanis antara kepala tumpuan) memberikan aksesibilitas maksimum ke ruang di bawah lantai. Namun, lantai tanpa senar secara signifikan lebih lemah daripada lantai yang ditinggikan dengan senar dalam mendukung beban lateral dan tidak direkomendasikan. |
− | * '''''Stringerless raised | + | * '''''Structural platform''''' - Salah satu jenis platform struktural terdiri dari anggota yang dibangun dari sudut baja atau saluran yang dilas atau dibaut bersama untuk membentuk platform terintegrasi untuk peralatan pendukung. Desain ini memungkinkan peralatan untuk diikat langsung ke platform tanpa perlu toggle bar atau penguat tambahan. Platform struktural mungkin atau mungkin tidak berisi panel atau stringer. |
− | * '''''Structural | ||
− | Data | + | Data Center biasanya memiliki [[raised floor]] yang terdiri dari 60 cm ubin persegi yang dapat dilepas. Tren menuju 80-100 cm void untuk memenuhi distribusi udara yang lebih baik dan seragam. Ini menyediakan [[ruang pleno|pleno]] untuk sirkulasi udara di bawah lantai, sebagai bagian dari sistem pendingin udara, serta menyediakan ruang untuk pemasangan kabel daya. |
− | === | + | ===Kumis logam=== |
− | Raised | + | Raised Floor dan struktur logam lainnya seperti cable tray dan ventilation duct telah menyebabkan banyak masalah dengan [[kumis seng]] di masa lalu, dan sepertinya masih ada di banyak data center. Ini terjadi ketika filamen logam mikroskopis terbentuk pada logam seperti seng atau timah yang melindungi banyak struktur logam dan komponen elektronik dari korosi. Perawatan di lantai yang ditinggikan atau pemasangan kabel dll. dapat melepaskan kumis, yang masuk ke aliran udara dan dapat menyebabkan korsleting komponen server atau catu daya, terkadang melalui uap logam berarus tinggi [[busur plasma]]. Fenomena ini tidak unik untuk data center, dan juga menyebabkan kegagalan besar pada satelit dan perangkat keras militer. |
===Electrical power=== | ===Electrical power=== | ||
+ | Backup power terdiri dari satu atau lebih [[uninterruptible power supply]], batere, dan/atau generator [[Generator diesel|solar]] / [[turbin gas]]. | ||
− | + | Untuk mencegah [[single point of failure]], semua elemen sistem kelistrikan, termasuk sistem cadangan, biasanya digandakan sepenuhnya, dan server penting dihubungkan ke "A-side" dan "B-side" umpan listrik. Pengaturan ini sering dibuat untuk mencapai [[N+1 redundansi]] dalam sistem. [[Sakelar transfer statis]] terkadang digunakan untuk memastikan peralihan seketika dari satu suplai ke suplai lainnya jika terjadi kegagalan listrik. | |
− | |||
− | |||
− | |||
===Low-voltage cable routing=== | ===Low-voltage cable routing=== | ||
− | + | Pengkabelan data biasanya dirutekan melalui overhead [[cable tray]] di data center modern. Namun beberapa orang masih merekomendasikan pemasangan kabel di bawah lantai untuk alasan keamanan dan untuk mempertimbangkan penambahan sistem pendingin di atas rak jika peningkatan ini diperlukan. Data Center yang lebih kecil/lebih murah tanpa lantai yang ditinggikan dapat menggunakan ubin antistatis untuk permukaan lantai. Lemari komputer sering diatur menjadi pengaturan [[hot aisle]] untuk memaksimalkan efisiensi aliran udara. | |
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | + | ===Perlindungan kebakaran=== | |
− | + | Data Center mempunyai sistem [[proteksi kebakaran]], termasuk elemen [[proteksi kebakaran pasif|pasif]] dan [[Desain Aktif]], serta penerapan program [[pencegahan kebakaran]] dalam operasi. [[Detektor asap]] biasanya dipasang untuk memberikan peringatan dini akan adanya kebakaran pada tahap awal. Hal ini memungkinkan penyelidikan, pemutusan aliran listrik, dan pemadaman api manual menggunakan alat pemadam api genggam sebelum api membesar menjadi ukuran besar. Sistem [[proteksi kebakaran aktif]], seperti sistem gas pencegah kebakaran [[fire sprinkler system]] atau [[clean agent]], sering disediakan untuk mengendalikan api skala penuh jika berkembang. Detektor asap sensitivitas tinggi, seperti [[detektor asap aspirating]], mengaktifkan [[clean agent]] sistem gas pencegah kebakaran aktif lebih awal daripada penyiram api. | |
+ | * Sprinkler = perlindungan struktur dan keselamatan hidup bangunan. | ||
+ | * Clean agent = kelangsungan bisnis dan perlindungan aset. | ||
+ | * No water = tidak ada jaminan kerusakan atau pembersihan. | ||
− | + | Elemen proteksi kebakaran pasif mencakup pemasangan [[Firewall]] di sekitar data center, sehingga api dapat dibatasi ke sebagian fasilitas untuk waktu yang terbatas jika terjadi kegagalan kebakaran aktif sistem perlindungan. Penetrasi dinding api ke ruang server, seperti penetrasi kabel, penetrasi saluran cairan pendingin, dan saluran udara, harus dilengkapi dengan rakitan penetrasi tahan api, seperti [[fire stop]]ping. | |
− | + | ===Keamanan=== | |
− | + | Keamanan fisik juga memainkan peran besar dengan data center. Akses fisik ke lokasi biasanya dibatasi untuk personel tertentu, dengan kontrol termasuk sistem keamanan berlapis yang sering dimulai dengan pagar, [[bollard]] dan [[mantrap (kontrol akses)]]. [[Kamera video]] pengawasan dan [[penjaga keamanan]] permanen hampir selalu ada pada data center besar atau berisi informasi sensitif pada salah satu sistem di dalamnya. Penggunaan finger print recognition [[mantrap (snare)]] mulai menjadi hal yang lumrah. | |
− | |||
− | + | Mendokumentasikan akses diperlukan oleh beberapa peraturan perlindungan data. Untuk melakukannya, beberapa organisasi menggunakan sistem kontrol akses yang menyediakan laporan pencatatan akses. Pencataan dapat terjadi di pintu masuk utama, di pintu masuk ke ruang mekanik dan ruang putih, serta di lemari peralatan. Kontrol akses modern pada kabinet memungkinkan integrasi dengan [[unit distribusi daya]] yang cerdas sehingga kunci dapat diberi daya dan dihubungkan ke jaringan melalui alat yang sama. | |
− | + | ==Penggunaan Energi== | |
+ | Penggunaan energi adalah isu sentral untuk data center. Penarikan daya untuk data center berkisar dari beberapa kW untuk rak server dalam lemari hingga beberapa puluh MW untuk fasilitas besar. Beberapa fasilitas memiliki kerapatan daya lebih dari 100 kali lipat dari gedung perkantoran pada umumnya. Untuk fasilitas dengan kepadatan daya yang lebih tinggi, biaya listrik merupakan [[biaya operasional]] yang dominan dan mencapai lebih dari 10% dari [[total cost of ownership]] (TCO) pusat data. Pada tahun 2012, biaya daya untuk data center diperkirakan melebihi biaya investasi modal awal. | ||
− | + | Menurut studi [[Greenpeace]], pada tahun 2012, pusat data center mewakili 21% listrik yang dikonsumsi oleh sektor TI, yaitu sekitar 382 miliar kWh per tahun. Data Center AS menggunakan lebih dari 90 miliar kWh listrik per tahun. Data Center global menggunakan sekitar 416 TWh pada tahun 2016, hampir 40% lebih banyak daripada seluruh Inggris Raya. | |
− | |||
− | + | ===Emisi gas rumah kaca=== | |
+ | Pada tahun 2007, seluruh [[teknologi informasi dan komunikasi]] atau sektor TIK diperkirakan bertanggung jawab atas sekitar 2% dari [[Greenhouse gas|carbon emissions]] global dengan pusat data terhitung 14% dari jejak TIK. untuk tahun 2007. Mengingat skenario bisnis seperti biasa, emisi gas rumah kaca dari data center diproyeksikan menjadi lebih dari dua kali lipat dari tingkat tahun 2007 pada tahun 2020. | ||
− | + | Penempatan adalah salah satu faktor yang mempengaruhi konsumsi energi dan efek lingkungan dari data center. Di daerah di mana iklim mendukung pendinginan dan tersedia banyak listrik terbarukan, dampak lingkungan akan lebih moderat. Jadi negara-negara dengan kondisi yang menguntungkan, seperti: Kanada, Finlandia, Swedia, Norwegia, dan Swiss, mencoba menarik cloud computing data center. | |
− | + | Dalam penyelidikan selama 18 bulan oleh para sarjana di Baker Institute for Public Policy di Rice University di Houston dan Institute for Sustainable and Applied Infodynamics di Singapura, emisi terkait data center akan meningkat lebih dari tiga kali lipat pada tahun 2020. | |
− | + | ===Efisiensi energi=== | |
+ | Metrik yang paling umum digunakan untuk menentukan efisiensi energi data center adalah [[power usage effectiveness]], atau PUE. Rasio sederhana ini adalah total daya yang masuk ke pusat data dibagi dengan daya yang digunakan oleh peralatan TI. | ||
− | = | + | PUE = Total Facility Power / IT Equipment Power |
− | |||
− | + | Total facility power terdiri dari daya yang digunakan oleh peralatan TI ditambah daya overhead yang dikonsumsi oleh apa pun yang tidak dianggap sebagai perangkat komputasi atau komunikasi data (yaitu pendinginan, penerangan, dll.). PUE yang ideal adalah 1.0 untuk situasi hipotetis dari daya overhead nol. Data Center rata-rata di AS memiliki PUE 2,0 yang berarti bahwa fasilitas menggunakan daya total dua watt (overhead + peralatan IT) untuk setiap watt yang dikirimkan ke peralatan IT. Efisiensi energi data center canggih diperkirakan sekitar 1,2. Beberapa operator data center besar seperti [[Microsoft]] dan [[Yahoo!]] telah menerbitkan proyeksi PUE untuk fasilitas yang sedang dikembangkan; [[Google]] memublikasikan kinerja efisiensi aktual triwulanan dari data center yang beroperasi. | |
− | |||
− | + | Amerika Serikat. Badan Perlindungan Lingkungan]] memiliki peringkat [[Energy Star]] untuk pusat data mandiri atau besar. Agar memenuhi syarat untuk ekolabel, pusat data harus berada dalam kuartil teratas efisiensi energi dari semua fasilitas yang dilaporkan. Amerika Serikat mengesahkan Undang-Undang Peningkatan Efisiensi Energi tahun 2015, yang mewajibkan fasilitas federal — termasuk data center — untuk beroperasi lebih efisien. Pada tahun 2014, California memberlakukan [[California Energy Code title 24]] dari Kode Peraturan California, yang mengamanatkan bahwa setiap data center yang baru dibangun harus memiliki beberapa bentuk penahanan aliran udara, sebagai langkah untuk mengoptimalkan efisiensi energi. | |
− | |||
− | + | Uni Eropa juga memiliki inisiatif serupa: EU Code of Conduct for Data Centres | |
+ | ===Analisis penggunaan energi=== | ||
+ | Seringkali, langkah pertama untuk membatasi penggunaan energi di data center adalah dengan memahami bagaimana energi digunakan di data center. Ada beberapa jenis analisis untuk mengukur penggunaan energi data center. Aspek yang diukur tidak hanya mencakup energi yang digunakan oleh peralatan IT itu sendiri, tetapi juga oleh peralatan fasilitas data center, seperti pendingin dan kipas. | ||
− | + | ===Analisis daya dan pendinginan=== | |
+ | Daya adalah biaya berulang terbesar bagi pengguna data center. Analisis daya dan pendinginan, juga disebut sebagai penilaian termal, mengukur suhu relatif di area tertentu serta kapasitas sistem pendingin untuk menangani suhu lingkungan tertentu. Analisis daya dan pendinginan dapat membantu mengidentifikasi hot spot, area yang terlalu dingin yang dapat menangani kerapatan penggunaan daya yang lebih besar, breakpoint pemuatan peralatan, efektivitas strategi lantai yang dinaikkan, dan pemosisian peralatan yang optimal (seperti unit AC) untuk menyeimbangkan suhu di data center. Kepadatan pendinginan daya adalah ukuran berapa banyak luas persegi yang dapat didinginkan pusat pada kapasitas maksimum. Pendinginan data center adalah konsumen daya terbesar kedua setelah server. Energi pendinginan bervariasi dari 10% dari total konsumsi energi di data center paling efisien dan naik hingga 45% di standard air-cooled data center. | ||
− | === | + | ===Analisis efisiensi energi=== |
− | + | Analisis efisiensi energi mengukur penggunaan energi TI data center dan peralatan fasilitas. Analisis efisiensi energi tipikal mengukur faktor-faktor seperti power use effectiveness (PUE) data center terhadap standar industri, mengidentifikasi sumber ketidakefisienan mekanis dan elektrik, dan mengidentifikasi metrik manajemen udara. Namun, batasan dari sebagian besar metrik dan pendekatan saat ini adalah bahwa mereka tidak menyertakan TI dalam analisis. Studi kasus telah menunjukkan bahwa dengan menangani efisiensi energi secara holistik di data center, efisiensi besar dapat dicapai yang tidak mungkin dilakukan dengan cara lain. | |
− | + | ===Analisis dinamika fluida komputasi (CFD)=== | |
+ | Jenis analisis ini menggunakan alat dan teknik canggih untuk memahami kondisi termal unik yang ada di setiap pusat data center—predicting suhu, aliran udara, dan perilaku tekanan data center untuk menilai kinerja dan konsumsi energi, menggunakan pemodelan numerik. Dengan memprediksi efek dari kondisi lingkungan ini, analisis CFD di data center dapat digunakan untuk memprediksi dampak rak dengan kepadatan tinggi yang dicampur dengan rak dengan kepadatan rendah dan dampak selanjutnya pada sumber pendinginan, praktik manajemen infrastruktur yang buruk, dan kegagalan AC atau AC shutdown untuk pemeliharaan terjadwal. | ||
− | === | + | ===Pemetaan zona termal=== |
+ | Pemetaan zona termal menggunakan sensor dan pemodelan komputer untuk membuat gambar tiga dimensi zona panas dan dingin di data center. | ||
+ | Informasi ini dapat membantu mengidentifikasi posisi optimal peralatan data center. Misalnya, server kritis mungkin ditempatkan di zona sejuk yang dilayani oleh unit AC redundan. | ||
− | + | ===Data Center ramah lingkungan=== | |
− | Data | + | Data Center menggunakan banyak daya, dikonsumsi oleh dua penggunaan utama: daya yang diperlukan untuk menjalankan peralatan sebenarnya dan kemudian daya yang diperlukan untuk mendinginkan peralatan. Kategori pertama ditangani dengan merancang komputer dan sistem penyimpanan yang semakin hemat daya. Untuk menurunkan biaya pendinginan, perancang pusat data mencoba menggunakan cara alami untuk mendinginkan peralatan. Banyak data center terletak di dekat konektivitas serat yang baik, koneksi jaringan listrik, dan juga pusat konsentrasi orang untuk mengelola peralatan, tetapi ada juga keadaan di mana data center berada ratusan kilometer jauhnya dari pengguna dan tidak memerlukan banyak manajemen lokal. Contohnya adalah pusat data 'massal' seperti Google atau Facebook: DC ini dibangun di sekitar banyak server standar dan storage array dan pengguna sebenarnya dari sistem ini berlokasi di seluruh dunia. Setelah pembangunan awal data center, jumlah staf yang diperlukan agar tetap berjalan seringkali relatif rendah: terutama data center yang menyediakan penyimpanan massal atau daya komputasi yang tidak perlu berada di dekat pusat populasi. Data Center di lokasi Arktik dengan udara luar menyediakan semua pendinginan semakin populer karena pendinginan dan listrik adalah dua komponen biaya variabel utama. |
− | === | + | === Penggunaan kembali energi === |
− | + | Praktik pendinginan data center menjadi topik diskusi. Sangat sulit untuk menggunakan kembali panas yang berasal dari pusat data berpendingin udara. Untuk itu, infrastruktur data center lebih sering dilengkapi dengan pompa panas. Alternatif untuk pompa panas adalah adopsi pendinginan cair di seluruh pusat data. Berbagai teknik pendinginan cairan dicampur dan disesuaikan untuk memungkinkan infrastruktur berpendingin cairan sepenuhnya yang menangkap semua panas dalam air. Teknologi cairan yang berbeda dikategorikan dalam 3 kelompok utama, Pendinginan cairan tidak langsung (rak berpendingin air), Pendinginan cairan langsung (pendinginan langsung ke chip) dan Pendinginan cairan total (pencelupan total dalam cairan). Kombinasi teknologi ini memungkinkan pembuatan [[thermal cascade]] sebagai bagian dari skenario [[temperature chaining]] untuk membuat output air bersuhu tinggi dari data center. | |
− | == | + | ==Infrastruktur jaringan== |
− | + | Komunikasi di data center saat ini paling sering didasarkan pada [[jaringan komputer]] yang menjalankan rangkaian [[IP]] [[protocol]]. Data Center berisi kumpulan [[Router]] dan [[Switch]] yang mengangkut lalu lintas antara server dan ke dunia luar yang terhubung sesuai dengan [[data center network architecture]]. [[Redundansi]] koneksi Internet sering disediakan dengan menggunakan dua atau lebih penyedia layanan upstream (lihat [[Multihoming]]). | |
− | + | Beberapa server di data center digunakan untuk menjalankan layanan dasar Internet dan [[intranet]] yang dibutuhkan oleh pengguna internal dalam organisasi, misalnya, server email, [[server proxy]], dan [[DNS]] server. | |
− | + | Elemen keamanan jaringan juga biasanya digunakan: [[Firewall]], [[VPN]] [[Gateway]], [[Intrusion Detection System]], dll. Yang juga umum adalah sistem pemantauan untuk jaringan dan beberapa aplikasi. Sistem pemantauan di luar lokasi tambahan juga tipikal, jika terjadi kegagalan komunikasi di dalam pusat data. | |
==Data center infrastructure management== | ==Data center infrastructure management== | ||
− | Data center infrastructure management (DCIM) | + | Data center infrastructure management (DCIM) adalah integrasi teknologi informasi (TI) dan disiplin manajemen fasilitas untuk memusatkan pemantauan, manajemen, dan perencanaan kapasitas cerdas dari sistem data center kritis. Dicapai melalui penerapan perangkat lunak, perangkat keras, dan sensor khusus, DCIM memungkinkan platform pemantauan dan manajemen bersama yang real-time untuk semua sistem yang saling bergantung di seluruh TI dan infrastruktur fasilitas. |
− | + | Tergantung pada jenis penerapannya, produk DCIM dapat membantu manajer data center mengidentifikasi dan menghilangkan sumber risiko untuk meningkatkan ketersediaan sistem TI yang penting. Produk DCIM juga dapat digunakan untuk mengidentifikasi interdependensi antara fasilitas dan infrastruktur TI untuk mengingatkan manajer fasilitas akan kesenjangan redundansi sistem, dan memberikan tolok ukur yang dinamis dan holistik pada konsumsi daya dan efisiensi untuk mengukur efektivitas inisiatif "green TI". | |
− | + | Penting untuk mengukur dan memahami metrik efisiensi data center. Banyak diskusi di bidang ini berfokus pada masalah energi, tetapi metrik lain di luar PUE dapat memberikan gambaran yang lebih detail tentang operasi data center. Metrik penggunaan server, penyimpanan, dan staf dapat berkontribusi pada tampilan data center perusahaan yang lebih lengkap. Dalam banyak kasus, kapasitas disk tidak terpakai dan dalam banyak kasus organisasi menjalankan server mereka dengan penggunaan 20% atau kurang. Alat otomatisasi yang lebih efektif juga dapat meningkatkan jumlah server atau mesin virtual yang dapat ditangani oleh satu admin. | |
− | DCIM | + | Penyedia DCIM semakin terhubung dengan [[computational fluid dynamics]] penyedia untuk memprediksi pola aliran udara yang kompleks di pusat data. Komponen CFD diperlukan untuk mengukur dampak dari perubahan yang direncanakan di masa mendatang pada ketahanan, kapasitas, dan efisiensi pendinginan. |
− | == | + | ==Mengelola kapasitas pusat data== |
+ | Beberapa parameter dapat membatasi kapasitas data center. Untuk penggunaan jangka panjang, batasan utamanya adalah area yang tersedia, lalu daya yang tersedia. Pada tahap pertama siklus hidupnya, data center akan melihat ruang yang ditempati tumbuh lebih cepat daripada energi yang dikonsumsi. Dengan pemadatan konstan teknologi IT baru, kebutuhan energi akan menjadi dominan, menyamai kemudian mengatasi kebutuhan di daerah (siklus fase kedua kemudian ketiga). Perkembangan dan penggandaan objek yang terkoneksi, kebutuhan akan penyimpanan dan pengolahan data menyebabkan kebutuhan data center semakin berkembang pesat. Oleh karena itu penting untuk menentukan strategi data center sebelum terpojok. Keputusan, konsepsi, dan siklus pembangunan berlangsung beberapa tahun. Oleh karena itu, sangat penting untuk memulai pertimbangan strategis ini ketika pusat data mencapai sekitar 50% dari kapasitas dayanya. Penggunaan maksimum pusat data perlu distabilkan sekitar 85%, baik dalam daya atau area yang ditempati. Sumber daya yang dikelola dengan demikian akan memungkinkan zona rotasi untuk mengelola penggantian perangkat keras dan akan memungkinkan kohabitasi sementara generasi lama dan baru. Dalam kasus di mana batas ini akan dilampaui secara terus-menerus, tidak mungkin untuk melanjutkan ke penggantian material, yang akan selalu menyebabkan sistem informasi tercekik. Pusat data adalah sumber daya dalam sistem informasinya sendiri, dengan batasan waktu dan manajemennya sendiri (masa hidup 25 tahun), oleh karena itu perlu dipertimbangkan dalam kerangka perencanaan jangka menengah SI (antara 3 dan 5 tahun). | ||
− | + | ==Aplikasi== | |
− | + | Tujuan utama data center adalah menjalankan aplikasi sistem TI yang menangani bisnis inti dan data operasional organisasi. Sistem tersebut mungkin merupakan hak milik dan dikembangkan secara internal oleh organisasi, atau dibeli dari [[perangkat lunak perusahaan]] vendor. Aplikasi umum tersebut adalah sistem [[Enterprise resource planning|ERP]] dan [[Customer relationship management|CRM]]. | |
− | + | Data Center mungkin hanya peduli dengan [[arsitektur operasi]] atau mungkin menyediakan layanan lain juga. | |
+ | Seringkali aplikasi ini terdiri dari banyak host, masing-masing menjalankan satu komponen. Komponen umum dari aplikasi tersebut adalah [[database]], [[file server]], [[application server]], [[middleware]], dan berbagai lainnya. | ||
− | + | Data Center juga digunakan untuk off-site backup. Perusahaan dapat berlangganan layanan backup yang disediakan oleh data center. Ini sering digunakan bersamaan dengan [[Tape drive|backup tape]]. Backup dapat diambil dari server secara lokal ke kaset. Namun, kaset yang disimpan di lokasi menimbulkan ancaman keamanan dan juga rentan terhadap kebakaran dan banjir. Perusahaan yang lebih besar juga dapat mengirim backup mereka ke off-site untuk keamanan tambahan. Ini dapat dilakukan dengan membuat backup ke data center. Backup terenkripsi dapat dikirim melalui Internet ke data center lain untuk disimpan dengan aman. | |
− | + | Untuk penerapan cepat atau [[pemulihan bencana]], beberapa vendor perangkat keras besar telah mengembangkan solusi seluler/modular yang dapat dipasang dan dioperasikan dalam waktu yang sangat singkat. Perusahaan seperti | |
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
* [[Cisco Systems]], | * [[Cisco Systems]], | ||
* [[Sun Microsystems]] ([[Sun Modular Datacenter]]), | * [[Sun Microsystems]] ([[Sun Modular Datacenter]]), | ||
Line 292: | Line 279: | ||
* [[FiberHome Technologies Group]] (FitMDC Modular Data Center Solution), | * [[FiberHome Technologies Group]] (FitMDC Modular Data Center Solution), | ||
* [[Huawei]] (Container Data Center Solution), | * [[Huawei]] (Container Data Center Solution), | ||
− | * [[Google]] ([[Google Modular Data Center]]) | + | * [[Google]] ([[Google Modular Data Center]]) telah mengembangkan sistem yang dapat digunakan untuk tujuan ini. |
− | * BASELAYER | + | * BASELAYER memiliki paten pada software defined modular data center. |
− | ==US wholesale | + | ==US wholesale dan retail colocation provider== |
− | + | Menurut data yang diberikan pada kuartal ketiga tahun 2013 oleh Synergy Research Group, "skala pasar colocation grosir di Amerika Serikat relatif signifikan terhadap pasar ritel, dengan pendapatan grosir Q3 mencapai hampir $700 juta. [[Realty Digital]] Trust adalah pemimpin pasar grosir, diikuti dari jauh oleh [[DuPont Fabros]]." Synergy Research juga menggambarkan pasar colocation AS sebagai yang paling matang dan berkembang dengan baik di dunia, berdasarkan pendapatan dan adopsi berkelanjutan dari layanan infrastruktur cloud. | |
− | ; | + | ;Estimasi dari data Q3 2013 Synergy Research Group. |
{| class="wikitable sortable" | {| class="wikitable sortable" | ||
Line 333: | Line 320: | ||
| [[Internap]] || 2% | | [[Internap]] || 2% | ||
|} | |} | ||
− | |||
− | |||
==Pranala Menarik== | ==Pranala Menarik== | ||
Line 340: | Line 325: | ||
* [[Data Center Tier Standard]] | * [[Data Center Tier Standard]] | ||
* [[Data Center Perhitungan Cost]] | * [[Data Center Perhitungan Cost]] | ||
+ | * [[Data Center: Konsep Design Pembangunan Data Center Sesuai Standard]] | ||
+ | * [[Data Center: How to design and build a data center]] |
Latest revision as of 10:40, 27 April 2023
data center (American English) atau data centre (British English) adalah fasilitas yang digunakan untuk menampung sistem komputer dan komponen terkait, seperti telekomunikasi dan sistem penyimpanan. Ini umumnya mencakup redundan atau komponen dan infrastruktur cadangan untuk catu daya, koneksi komunikasi data, kontrol lingkungan (mis. AC, pencegah kebakaran) dan berbagai perangkat keamanan. Pusat data besar adalah operasi skala industri yang menggunakan listrik sebanyak kota kecil.
Sejarah
Data center berawal pada ruang komputer besar di tahun 1940-an, yang ditandai dengan ENIAC, salah satu contoh paling awal dari data center. Sistem komputer awal, rumit untuk dioperasikan dan dipelihara, membutuhkan lingkungan khusus untuk beroperasi. Banyak kabel diperlukan untuk menyambungkan semua komponen, dan metode untuk menampung dan mengaturnya telah dirancang seperti rak|19 inci standar untuk memasang peralatan, raised floor, dan cable tray (dipasang di atas kepala atau di bawah lantai yang ditinggikan). Satu mainframe membutuhkan banyak daya, dan harus didinginkan untuk menghindari panas berlebih. Keamanan menjadi penting – komputer mahal, dan sering digunakan untuk tujuan militer. Oleh karena itu, pedoman desain dasar untuk mengontrol akses ke ruang komputer telah dibuat.
Selama ledakan industri komputer mikro, dan khususnya selama tahun 1980-an, pengguna mulai menyebarkan komputer di mana-mana, dalam banyak kasus dengan sedikit atau tanpa peduli tentang persyaratan pengoperasian. Namun, karena teknologi informasi (TI) operasi mulai tumbuh dalam kompleksitas, organisasi semakin sadar akan kebutuhan untuk mengontrol sumber daya TI. Munculnya Unix dari awal 1970-an menyebabkan proliferasi selanjutnya dari sistem operasi Linux-kompatibel PC yang tersedia secara bebas selama tahun 1990-an. Ini disebut "server", sebagai timesharing sistem operasi seperti Unix sangat bergantung pada model klien-server untuk memfasilitasi berbagi sumber daya unik antara banyak pengguna. Ketersediaan peralatan jaringan yang murah, ditambah dengan standar baru untuk jaringan pengkabelan terstruktur, memungkinkan untuk menggunakan desain hierarkis yang menempatkan server di ruangan tertentu di dalam perusahaan. Penggunaan istilah "data center", sebagaimana diterapkan pada ruang komputer yang dirancang khusus, mulai mendapat pengakuan populer saat ini.
Ledakan pusat data terjadi selama dot-com bubble tahun 1997–2000. Perusahaan memerlukan konektivitas Internet yang cepat dan pengoperasian tanpa henti untuk menerapkan sistem dan membangun kehadiran di Internet. Memasang peralatan seperti itu tidak layak untuk banyak perusahaan kecil. Banyak perusahaan mulai membangun fasilitas yang sangat besar, yang disebut Internet data center (IDC), yang menyediakan klien komersial berbagai solusi untuk penerapan dan pengoperasian sistem. Teknologi dan praktik baru dirancang untuk menangani skala dan persyaratan operasional dari operasi skala besar tersebut. Praktik-praktik ini akhirnya bermigrasi ke pusat data pribadi, dan diadopsi sebagian besar karena hasil praktisnya. Pusat data untuk komputasi awan disebut cloud data center (CDC). Namun saat ini, pembagian istilah-istilah tersebut hampir menghilang dan diintegrasikan ke dalam istilah "data center".
Dengan peningkatan penggunaan cloud computing, organisasi bisnis dan pemerintah meneliti pusat data ke tingkat yang lebih tinggi di berbagai bidang seperti keamanan, ketersediaan, dampak lingkungan, dan kepatuhan terhadap standar. Dokumen standar dari grup profesional terakreditasi, seperti Telecommunications Industry Association, menetapkan persyaratan untuk desain pusat data. Metrik operasional terkenal untuk data-center availability dapat digunakan untuk mengevaluasi commercial impact gangguan. Pengembangan berlanjut dalam praktik operasional, dan juga dalam desain data center yang ramah lingkungan. Data center biasanya menghabiskan banyak biaya untuk membangun dan memelihara.
Persyaratan untuk modern data center
Operasi TI adalah aspek penting dari sebagian besar operasi organisasi di seluruh dunia. Salah satu perhatian utama adalah kelangsungan bisnis; perusahaan mengandalkan sistem informasi mereka untuk menjalankan operasi mereka. Jika suatu sistem menjadi tidak tersedia, operasi perusahaan dapat terganggu atau dihentikan sama sekali. Penyediaan infrastruktur yang andal untuk operasional TI diperlukan untuk meminimalkan kemungkinan gangguan. Keamanan informasi juga menjadi perhatian, dan untuk alasan ini pusat data harus menawarkan lingkungan yang aman yang meminimalkan kemungkinan pelanggaran keamanan. Oleh karena itu, data center harus menjaga standar tinggi untuk memastikan integritas dan fungsionalitas lingkungan komputer yang dihostingnya. Hal ini dicapai melalui redundansi pendinginan mekanis dan sistem daya (termasuk generator daya cadangan darurat) yang melayani data center bersama dengan kabel serat optik.
Telecommunications Infrastructure Standard for Data Center Telecommunications Industry Association menetapkan persyaratan minimum untuk infrastruktur telekomunikasi data center dan ruang komputer termasuk data center perusahaan penyewa tunggal dan pusat data hosting Internet multi-penyewa. Topologi yang diusulkan dalam dokumen ini dimaksudkan agar dapat diterapkan pada data center dengan ukuran berapa pun.
Telcordia GR-3160, NEBS Requirements for Telecommunications Data Center Equipment and Spaces, memberikan panduan untuk ruang data center dalam jaringan telekomunikasi, dan persyaratan lingkungan untuk peralatan yang ditujukan untuk pemasangan di ruang tersebut. Kriteria ini dikembangkan bersama oleh Telcordia dan perwakilan industri. Mereka dapat diterapkan ke ruang data center yang menampung pemrosesan data atau peralatan Teknologi Informasi (TI). Peralatan tersebut dapat digunakan untuk:
- Mengoperasikan dan mengelola jaringan telekomunikasi operator
- Menyediakan aplikasi berbasis data center langsung ke pelanggan operator
- Menyediakan aplikasi yang dihosting untuk pihak ketiga untuk memberikan layanan kepada pelanggan mereka
- Berikan kombinasi dari ini dan aplikasi data center serupa
Pengoperasian data center yang efektif memerlukan investasi yang seimbang baik dalam fasilitas maupun peralatan yang ada. Langkah pertama adalah menetapkan lingkungan fasilitas dasar yang sesuai untuk pemasangan peralatan. Standardisasi dan modularitas dapat menghasilkan penghematan dan efisiensi dalam desain dan konstruksi data center telekomunikasi.
Standarisasi berarti rekayasa bangunan dan peralatan terpadu. Modularitas memiliki manfaat skalabilitas dan pertumbuhan yang lebih mudah, bahkan ketika prakiraan perencanaan kurang optimal. Untuk alasan ini, data center telekomunikasi harus direncanakan dalam blok bangunan berulang dari peralatan, dan peralatan daya dan pendukung (pengkondisian) yang terkait jika dimungkinkan. Penggunaan sistem terpusat khusus memerlukan perkiraan kebutuhan masa depan yang lebih akurat untuk mencegah mahalnya pembangunan, atau mungkin lebih buruk — dalam pembangunan yang gagal memenuhi kebutuhan di masa depan.
Data center "lights-out", juga dikenal sebagai data center yang digelapkan atau gelap, adalah data center yang, idealnya, menghilangkan kebutuhan akan akses langsung oleh personel, kecuali dalam keadaan luar biasa. Karena kurangnya kebutuhan staf untuk masuk ke data center, maka bisa dioperasikan tanpa penerangan. Semua perangkat diakses dan dikelola oleh sistem jarak jauh, dengan program otomasi yang digunakan untuk melakukan operasi tanpa pengawasan. Selain penghematan energi, pengurangan biaya kepegawaian, dan kemampuan untuk menemukan lokasi lebih jauh dari pusat populasi, menerapkan data center tanpa lampu mengurangi ancaman serangan berbahaya terhadap infrastruktur.
Ada kecenderungan untuk memodernisasi data center untuk memanfaatkan kinerja dan efisiensi energi peningkatan peralatan dan kemampuan TI yang lebih baru, seperti cloud computing. Proses ini juga dikenal sebagai transformasi data center.
Organisasi sedang mengalami pertumbuhan TI yang cepat tetapi data center mereka menua. Perusahaan riset industri International Data Corporation (IDC) menetapkan usia rata-rata sebuah data center adalah sembilan tahun. Gartner, perusahaan riset lainnya, mengatakan data center yang berusia lebih dari tujuh tahun sudah usang. Pertumbuhan data (163 zettabytes pada tahun 2025) merupakan salah satu faktor yang mendorong perlunya modernisasi data center.
Pada bulan Mei 2011, organisasi riset pusat data Uptime Institute melaporkan bahwa 36 persen dari perusahaan besar yang disurvei diperkirakan akan kehabisan kapasitas TI dalam 18 bulan ke depan.
Transformasi data center mengambil pendekatan langkah demi langkah melalui proyek terintegrasi yang dilakukan dari waktu ke waktu. Ini berbeda dari metode tradisional pemutakhiran data center yang menggunakan pendekatan serial dan silo. Proyek tipikal dalam inisiatif transformasi pusat data meliputi standardisasi/konsolidasi, virtualisasi, otomatisasi dan keamanan.
- Standardisasi/konsolidasi: Tujuan proyek ini adalah untuk mengurangi jumlah data center yang mungkin dimiliki organisasi besar. Proyek ini juga membantu mengurangi jumlah perangkat keras, platform perangkat lunak, alat, dan proses dalam data center. Organisasi mengganti peralatan data center yang sudah tua dengan yang lebih baru yang memberikan peningkatan kapasitas dan kinerja. Platform komputasi, jaringan, dan manajemen distandarisasi sehingga lebih mudah dikelola.
- Virtualisasi: Ada kecenderungan untuk menggunakan teknologi virtualisasi TI untuk mengganti atau menggabungkan beberapa peralatan data center, seperti server. Virtualisasi membantu menurunkan biaya modal dan operasional, serta mengurangi konsumsi energi. Teknologi virtualisasi juga digunakan untuk membuat desktop virtual, yang kemudian dapat dihosting di data center dan disewakan secara berlangganan. Data yang dikeluarkan oleh bank investasi Lazard Capital Markets melaporkan bahwa 48 persen operasi perusahaan akan divirtualisasikan pada tahun 2012. Gartner memandang virtualisasi sebagai katalis untuk modernisasi.
- Otomatisasi: Otomatisasi data center melibatkan tugas otomatisasi seperti penyediaan, konfigurasi, penambalan, manajemen rilis, dan kepatuhan. Karena perusahaan kekurangan pekerja TI yang terampil, otomatisasi tugas membuat operasi data center menjadi lebih efisien.
- Mengamankan: Di data center modern, keamanan data pada sistem virtual terintegrasi dengan keamanan infrastruktur fisik yang ada. Keamanan data center modern harus mempertimbangkan keamanan fisik, keamanan jaringan, dan keamanan data dan pengguna.
Carrier neutrality
Saat ini banyak pusat data dijalankan oleh Internet Service Provider(ISP) semata-mata untuk tujuan menghosting Server mereka sendiri dan pihak ketiga].
Namun secara tradisional data center dibangun hanya untuk penggunaan satu perusahaan besar, atau sebagai carrier hotel atau Network-neutral data center.
Fasilitas ini memungkinkan interkoneksi operator dan mitra, dan bertindak sebagai hub fiber regional yang melayani bisnis lokal selain menghosting konten Server.
Data center Level and Tier
Telecommunications Industry Association adalah asosiasi perdagangan yang diakreditasi oleh ANSI (American National Standards Institutea). Pada tahun 2005 menerbitkan ANSI/TIA-942,Telecommunications Infrastructure Standard for Data Centers, yang menetapkan empat tingkat pusat data secara menyeluruh dan terukur. TIA-942 diubah pada tahun 2008, 2010, 2014 dan 2017. TIA-942:Data Center Standards Overview menjelaskan persyaratan untuk infrastruktur data center. Yang paling sederhana adalah pusat data Level 1, yang pada dasarnya adalah ruang server, mengikuti panduan dasar untuk pemasangan sistem komputer. Level yang paling ketat adalah pusat data Level 4, yang dirancang untuk menampung sistem komputer yang paling kritis, dengan subsistem yang sepenuhnya redundan, kemampuan untuk terus beroperasi selama periode waktu yang tidak terbatas selama pemadaman listrik utama.
Uptime Institute, sebuah penelitian data center dan organisasi layanan profesional yang berbasis di Seattle, WA mendefinisikan apa yang sekarang disebut sebagai "Tiers" atau lebih tepatnya, "Tier Standard". Level Standar Tingkat Uptime menjelaskan ketersediaan pemrosesan data dari perangkat keras di suatu lokasi. Semakin tinggi level Tier, semakin besar ketersediaan yang diharapkan. Standar Tingkat Uptime Institute ditunjukkan di bawah ini.
Untuk revisi TIA-942 2014, organisasi TIA dan Uptime Institute sepakat bahwa TIA akan menghapus semua penggunaan kata "Tier" dari spesifikasi TIA-942 mereka yang dipublikasikan, dengan menggunakan terminologi tersebut hanya akan digunakan oleh Uptime Institute untuk mendeskripsikan sistemnya.
Klasifikasi lain juga ada. Misalnya, German Datacenter Star Audit program menggunakan proses audit untuk mengesahkan lima tingkat "gratification" yang memengaruhi data center yang critical.
Tier level | Persyaratan |
---|---|
I |
|
II |
|
III |
|
IV |
|
Sementara salah satu sistem ketahanan data center industri diusulkan pada saat ketersediaan dinyatakan sebagai teori, dan sejumlah 'Nine' (angka sembilan) di sisi kanan titik desimal, secara umum disepakati bahwa pendekatan ini agak menipu. atau terlalu sederhana, sehingga vendor saat ini biasanya membahas ketersediaan secara mendetail yang sebenarnya dapat mereka pengaruhi, dan dalam istilah yang jauh lebih spesifik. Oleh karena itu, sistem leveling yang tersedia saat ini tidak lagi menentukan hasilnya dalam persentase waktu aktif.
Catatan: Uptime Institute juga mengklasifikasikan Tingkatan untuk masing-masing dari tiga fase pusat data, dokumen desainnya, fasilitas yang dibangun, dan keberlanjutan operasionalnya yang berkelanjutan.
Pertimbangan desain
Data center dapat menempati satu ruangan di gedung, satu lantai atau lebih, atau seluruh gedung. Sebagian besar peralatan seringkali berupa server yang dipasang di lemari rak 19 inci, yang biasanya ditempatkan dalam satu baris membentuk koridor (disebut lorong) di antaranya. Ini memungkinkan orang mengakses bagian depan dan belakang setiap kabinet. Ukuran server sangat berbeda dari server 1U hingga silo penyimpanan besar yang berdiri bebas yang menempati banyak ruang lantai. Beberapa peralatan seperti perangkat komputer mainframe dan penyimpanan seringkali sebesar rak itu sendiri, dan ditempatkan di sampingnya. Pusat data yang sangat besar dapat menggunakan shipping containers yang masing-masing dikemas dengan 1.000 server atau lebih; ketika perbaikan atau pemutakhiran diperlukan, seluruh wadah diganti (alih-alih memperbaiki server individual).
Kode bangunan lokal dapat mengatur ketinggian langit-langit minimum.
Design programming
Design programming, juga dikenal sebagai architectural programming, adalah proses penelitian dan pengambilan keputusan untuk mengidentifikasi ruang lingkup proyek desain. Selain arsitektur bangunan itu sendiri, ada tiga elemen untuk mendesain pemrograman untuk data center: facility topology design (space planning), engineering infrastructure design (sistem mekanis seperti pendinginan dan sistem kelistrikan termasuk daya) dan technology infrastructure design (cable plant). Masing-masing akan dipengaruhi oleh penilaian kinerja dan pemodelan untuk mengidentifikasi kesenjangan yang berkaitan dengan keinginan kinerja pemilik fasilitas dari waktu ke waktu.
Berbagai vendor yang menyediakan data center design service mendefinisikan langkah-langkah data center design sedikit berbeda, namun semuanya menangani aspek dasar yang sama seperti yang diberikan di bawah ini.
Kriteria pemodelan
Kriteria pemodelan digunakan untuk mengembangkan skenario masa depan untuk ruang, daya, pendinginan, dan biaya di data center. Tujuannya adalah untuk membuat rencana induk dengan parameter seperti jumlah, ukuran, lokasi, topologi, tata letak sistem lantai TI, serta teknologi dan konfigurasi daya dan pendinginan. Tujuan dari ini adalah untuk memungkinkan penggunaan yang efisien dari sistem mekanik dan listrik yang ada dan juga pertumbuhan di pusat data yang ada tanpa perlu membangun gedung baru dan lebih meningkatkan pasokan listrik yang masuk.
Rekomendasi desain
Rekomendasi/rencana desain umumnya mengikuti fase kriteria pemodelan. Infrastruktur teknologi optimal diidentifikasi dan kriteria perencanaan dikembangkan, seperti kapasitas daya kritis, kebutuhan daya data center keseluruhan menggunakan PUE (power utilization efficiency) yang disepakati, kapasitas pendinginan mekanis, kilowatt per kabinet, raised floor space, dan tingkat ketahanan untuk fasilitas.
Desain konseptual
Desain konseptual mewujudkan rekomendasi atau rencana desain dan harus mempertimbangkan skenario "what-if" untuk memastikan semua hasil operasional terpenuhi untuk membuktikan fasilitas di masa depan. Tata letak lantai konseptual harus didorong oleh persyaratan kinerja TI serta biaya siklus hidup yang terkait dengan permintaan TI, efisiensi energi, efisiensi biaya, dan ketersediaan. Pemeriksaan masa depan juga akan mencakup kemampuan ekspansi, yang seringkali disediakan di pusat data modern melalui desain modular. Ini memungkinkan ruang lantai yang lebih tinggi untuk dipasang di data center saat menggunakan pembangkit listrik utama yang ada di fasilitas tersebut.
Detailed design
Detailed designdilakukan setelah desain konseptual yang sesuai ditentukan, biasanya termasuk pembuktian konsep. Fase detailed design harus mencakup informasi arsitektur, struktural, mekanik dan listrik rinci dan spesifikasi fasilitas. Pada tahap ini pengembangan skema fasilitas dan dokumen konstruksi serta skema dan spesifikasi kinerja dan perincian khusus dari semua infrastruktur teknologi, desain infrastruktur TI terperinci dan dokumentasi infrastruktur TI diproduksi.
Mechanical engineering infrastructure design
Mechanical engineering infrastructure design membahas sistem mekanis yang terlibat dalam memelihara lingkungan interior data center, seperti pemanas, ventilasi, dan air conditioning (HVAC); peralatan pelembapan dan dehumidifikasi; tekanan udara; dan seterusnya.
Tahap proses desain ini harus ditujukan untuk menghemat ruang dan biaya, sambil memastikan tujuan bisnis dan keandalan terpenuhi serta mencapai persyaratan PUE dan ramah lingkungan. Desain modern mencakup modularisasi dan penskalaan beban TI, dan memastikan belanja modal untuk konstruksi bangunan dioptimalkan.
Electrical engineering infrastructure design
Electrical Engineering infrastructure design difokuskan pada perancangan konfigurasi kelistrikan yang mengakomodir berbagai kebutuhan keandalan dan ukuran data center. Aspek dapat mencakup perencanaan layanan utilitas; distribusi, switching dan bypass dari sumber daya; sistem uninterruptible power source (UPS); dan banyak lagi.
Desain ini harus sesuai dengan standar energi dan praktik terbaik sekaligus memenuhi tujuan bisnis. Konfigurasi kelistrikan harus dioptimalkan dan kompatibel secara operasional dengan kemampuan pengguna data center. Desain kelistrikan modern bersifat modular dan terukur, dan tersedia untuk kebutuhan tegangan rendah dan menengah serta DC (arus searah).
Technology infrastructure design
Technology infrastructure design membahas sistem kabel telekomunikasi yang berjalan di seluruh data center. Terdapat sistem pengkabelan untuk semua lingkungan data center, termasuk pengkabelan horizontal, suara, modem, dan layanan telekomunikasi faksimili, peralatan peralihan lokasi, koneksi manajemen komputer dan telekomunikasi, koneksi keyboard/video/mouse, dan komunikasi data. Wide Area Network, Local Area Network, dan storage area network harus terhubung dengan sistem pensinyalan gedung lainnya (misalnya kebakaran, keamanan, listrik, HVAC, EMS).
Ekspektasi Ketersediaan
Semakin tinggi kebutuhan ketersediaan data center, semakin tinggi modal dan biaya operasional untuk membangun dan mengelolanya. Kebutuhan bisnis harus mendikte tingkat ketersediaan yang dibutuhkan dan harus dievaluasi berdasarkan karakterisasi kekritisan sistem TI, perkiraan analisis biaya dari skenario yang dimodelkan. Dengan kata lain, bagaimana tingkat ketersediaan yang tepat dapat dipenuhi dengan kriteria desain untuk menghindari risiko keuangan dan operasional sebagai akibat dari downtime?
Jika perkiraan biaya downtime dalam satuan waktu tertentu melebihi biaya modal yang diamortisasi dan biaya operasional, tingkat ketersediaan yang lebih tinggi harus diperhitungkan dalam desain data center. Jika biaya untuk menghindari waktu henti jauh melebihi biaya waktu henti itu sendiri, tingkat ketersediaan yang lebih rendah harus diperhitungkan dalam desain.
Pemilihan Lokasi
Aspek-aspek seperti kedekatan dengan jaringan listrik yang tersedia, infrastruktur telekomunikasi, layanan jaringan, jalur transportasi, dan layanan darurat dapat memengaruhi biaya, risiko, keamanan, dan faktor lain yang harus dipertimbangkan untuk desain data center. Sementara beragam faktor lokasi diperhitungkan (misalnya jalur penerbangan, penggunaan di sekitar, risiko geologis), akses ke daya yang tersedia yang sesuai sering kali merupakan waktu tunggu yang paling lama. Lokasi memengaruhi desain data center juga karena kondisi iklim menentukan teknologi pendinginan apa yang harus diterapkan. Pada gilirannya hal ini berdampak pada waktu kerja dan biaya yang terkait dengan pendinginan. Misalnya, topologi dan biaya pengelolaan data center di iklim yang hangat dan lembab akan sangat berbeda dengan pengelolaan di iklim yang sejuk dan kering.
Modularitas dan fleksibilitas
Modularitas dan fleksibilitas adalah elemen kunci yang memungkinkan data center tumbuh dan berubah seiring waktu. Modul data center adalah blok bangunan terstandarisasi yang direkayasa sebelumnya yang dapat dengan mudah dikonfigurasi dan dipindahkan sesuai kebutuhan.
Data center modular dapat terdiri dari peralatan data center yang terdapat di dalam kontainer pengiriman atau kontainer portabel serupa. Tetapi juga dapat digambarkan sebagai gaya desain di mana komponen data center dibuat sebelumnya dan distandarisasi sehingga dapat dibangun, dipindahkan, atau ditambahkan secepat perubahan kebutuhan.
Environmental control
Physical environment data center dikontrol dengan ketat.
Air conditioning digunakan untuk mengontrol suhu dan kelembaban di pusat data. "Thermal Guidelines for Data Processing Environments" ASHRAE merekomendasikan kisaran suhu 18-27C, kisaran titik embun -9 s/d 15C, dan kelembapan relatif ideal 60%, dengan kisaran yang diperbolehkan antara 40% hingga 60% untuk lingkungan data center. Suhu di v secara alami akan naik karena daya listrik yang digunakan untuk memanaskan udara. Kecuali jika panas dihilangkan, suhu sekitar akan naik, yang mengakibatkan kegagalan fungsi peralatan elektronik. Dengan mengontrol suhu udara, komponen server di motherboard dalam rentang suhu/kelembaban yang ditentukan pabrikan. Sistem pendingin udara membantu mengontrol kelembaban dengan mendinginkan udara ruang balik di bawah titik embun. Terlalu banyak kelembapan, dan air mungkin mulai mengembun pada komponen internal. Dalam kasus atmosfer kering, sistem pelembapan tambahan dapat menambahkan uap air jika kelembapan terlalu rendah, yang dapat menyebabkan masalah pelepasan muatan listrik statis yang dapat merusak komponen. Data center bawah tanah dapat menjaga peralatan komputer tetap dingin sambil mengeluarkan lebih sedikit energi daripada desain konvensional.
Data center modern mencoba menggunakan pendingin economizer, di mana mereka menggunakan udara luar agar data center tetap dingin. Setidaknya satu data center (terletak di Upstate New York) akan mendinginkan server menggunakan udara luar selama musim dingin. Mereka tidak menggunakan pendingin/AC, yang menciptakan potensi penghematan energi hingga jutaan. Pendinginan udara tidak langsung semakin banyak digunakan di pusat data secara global yang memiliki keunggulan pendinginan yang lebih efisien yang menurunkan biaya konsumsi daya di pusat data. Banyak data center yang baru dibangun juga menggunakan unit Indirect Evaporative Cooling (IDEC) serta fitur lingkungan lainnya seperti air laut untuk meminimalkan jumlah energi yang dibutuhkan untuk mendinginkan ruangan.
Telcordia NEBS: Raised Floor Generic Requirements for Network and Data Centers, GR-2930 menyajikan persyaratan teknik umum untuk lantai yang dinaikkan yang termasuk dalam pedoman NEBS yang ketat.
Ada banyak jenis lantai yang tersedia secara komersial yang menawarkan berbagai kekuatan struktural dan kemampuan pemuatan, tergantung pada konstruksi komponen dan bahan yang digunakan. Jenis umum raised floor termasuk platform stringer, stringerless, dan struktural, yang semuanya dibahas secara rinci di GR-2930 dan dirangkum di bawah ini.
- Stringered raised floor - Jenis lantai ditinggikan ini umumnya terdiri dari susunan vertikal rakitan alas baja (setiap rakitan terdiri dari pelat dasar baja, tubular tegak, dan kepala) secara seragam ditempatkan pada pusat dua kaki dan secara mekanis diikat ke lantai beton. Kepala tumpuan baja memiliki tiang yang dimasukkan ke dalam tumpuan tegak dan ketinggian keseluruhan dapat disesuaikan dengan mur perata pada tiang yang dilas pada kepala tumpuan.
- Stringerless raised floor - Salah satu jenis lantai peninggian non-gempa umumnya terdiri dari susunan tumpuan yang memberikan ketinggian yang diperlukan untuk merutekan kabel dan juga berfungsi untuk menopang setiap sudut panel lantai. Dengan jenis lantai ini, mungkin ada atau tidak ada perlengkapan untuk mengencangkan panel lantai secara mekanis ke tumpuan. Jenis sistem tanpa senar ini (tidak memiliki keterikatan mekanis antara kepala tumpuan) memberikan aksesibilitas maksimum ke ruang di bawah lantai. Namun, lantai tanpa senar secara signifikan lebih lemah daripada lantai yang ditinggikan dengan senar dalam mendukung beban lateral dan tidak direkomendasikan.
- Structural platform - Salah satu jenis platform struktural terdiri dari anggota yang dibangun dari sudut baja atau saluran yang dilas atau dibaut bersama untuk membentuk platform terintegrasi untuk peralatan pendukung. Desain ini memungkinkan peralatan untuk diikat langsung ke platform tanpa perlu toggle bar atau penguat tambahan. Platform struktural mungkin atau mungkin tidak berisi panel atau stringer.
Data Center biasanya memiliki raised floor yang terdiri dari 60 cm ubin persegi yang dapat dilepas. Tren menuju 80-100 cm void untuk memenuhi distribusi udara yang lebih baik dan seragam. Ini menyediakan pleno untuk sirkulasi udara di bawah lantai, sebagai bagian dari sistem pendingin udara, serta menyediakan ruang untuk pemasangan kabel daya.
Kumis logam
Raised Floor dan struktur logam lainnya seperti cable tray dan ventilation duct telah menyebabkan banyak masalah dengan kumis seng di masa lalu, dan sepertinya masih ada di banyak data center. Ini terjadi ketika filamen logam mikroskopis terbentuk pada logam seperti seng atau timah yang melindungi banyak struktur logam dan komponen elektronik dari korosi. Perawatan di lantai yang ditinggikan atau pemasangan kabel dll. dapat melepaskan kumis, yang masuk ke aliran udara dan dapat menyebabkan korsleting komponen server atau catu daya, terkadang melalui uap logam berarus tinggi busur plasma. Fenomena ini tidak unik untuk data center, dan juga menyebabkan kegagalan besar pada satelit dan perangkat keras militer.
Electrical power
Backup power terdiri dari satu atau lebih uninterruptible power supply, batere, dan/atau generator solar / turbin gas.
Untuk mencegah single point of failure, semua elemen sistem kelistrikan, termasuk sistem cadangan, biasanya digandakan sepenuhnya, dan server penting dihubungkan ke "A-side" dan "B-side" umpan listrik. Pengaturan ini sering dibuat untuk mencapai N+1 redundansi dalam sistem. Sakelar transfer statis terkadang digunakan untuk memastikan peralihan seketika dari satu suplai ke suplai lainnya jika terjadi kegagalan listrik.
Low-voltage cable routing
Pengkabelan data biasanya dirutekan melalui overhead cable tray di data center modern. Namun beberapa orang masih merekomendasikan pemasangan kabel di bawah lantai untuk alasan keamanan dan untuk mempertimbangkan penambahan sistem pendingin di atas rak jika peningkatan ini diperlukan. Data Center yang lebih kecil/lebih murah tanpa lantai yang ditinggikan dapat menggunakan ubin antistatis untuk permukaan lantai. Lemari komputer sering diatur menjadi pengaturan hot aisle untuk memaksimalkan efisiensi aliran udara.
Perlindungan kebakaran
Data Center mempunyai sistem proteksi kebakaran, termasuk elemen pasif dan Desain Aktif, serta penerapan program pencegahan kebakaran dalam operasi. Detektor asap biasanya dipasang untuk memberikan peringatan dini akan adanya kebakaran pada tahap awal. Hal ini memungkinkan penyelidikan, pemutusan aliran listrik, dan pemadaman api manual menggunakan alat pemadam api genggam sebelum api membesar menjadi ukuran besar. Sistem proteksi kebakaran aktif, seperti sistem gas pencegah kebakaran fire sprinkler system atau clean agent, sering disediakan untuk mengendalikan api skala penuh jika berkembang. Detektor asap sensitivitas tinggi, seperti detektor asap aspirating, mengaktifkan clean agent sistem gas pencegah kebakaran aktif lebih awal daripada penyiram api.
- Sprinkler = perlindungan struktur dan keselamatan hidup bangunan.
- Clean agent = kelangsungan bisnis dan perlindungan aset.
- No water = tidak ada jaminan kerusakan atau pembersihan.
Elemen proteksi kebakaran pasif mencakup pemasangan Firewall di sekitar data center, sehingga api dapat dibatasi ke sebagian fasilitas untuk waktu yang terbatas jika terjadi kegagalan kebakaran aktif sistem perlindungan. Penetrasi dinding api ke ruang server, seperti penetrasi kabel, penetrasi saluran cairan pendingin, dan saluran udara, harus dilengkapi dengan rakitan penetrasi tahan api, seperti fire stopping.
Keamanan
Keamanan fisik juga memainkan peran besar dengan data center. Akses fisik ke lokasi biasanya dibatasi untuk personel tertentu, dengan kontrol termasuk sistem keamanan berlapis yang sering dimulai dengan pagar, bollard dan mantrap (kontrol akses). Kamera video pengawasan dan penjaga keamanan permanen hampir selalu ada pada data center besar atau berisi informasi sensitif pada salah satu sistem di dalamnya. Penggunaan finger print recognition mantrap (snare) mulai menjadi hal yang lumrah.
Mendokumentasikan akses diperlukan oleh beberapa peraturan perlindungan data. Untuk melakukannya, beberapa organisasi menggunakan sistem kontrol akses yang menyediakan laporan pencatatan akses. Pencataan dapat terjadi di pintu masuk utama, di pintu masuk ke ruang mekanik dan ruang putih, serta di lemari peralatan. Kontrol akses modern pada kabinet memungkinkan integrasi dengan unit distribusi daya yang cerdas sehingga kunci dapat diberi daya dan dihubungkan ke jaringan melalui alat yang sama.
Penggunaan Energi
Penggunaan energi adalah isu sentral untuk data center. Penarikan daya untuk data center berkisar dari beberapa kW untuk rak server dalam lemari hingga beberapa puluh MW untuk fasilitas besar. Beberapa fasilitas memiliki kerapatan daya lebih dari 100 kali lipat dari gedung perkantoran pada umumnya. Untuk fasilitas dengan kepadatan daya yang lebih tinggi, biaya listrik merupakan biaya operasional yang dominan dan mencapai lebih dari 10% dari total cost of ownership (TCO) pusat data. Pada tahun 2012, biaya daya untuk data center diperkirakan melebihi biaya investasi modal awal.
Menurut studi Greenpeace, pada tahun 2012, pusat data center mewakili 21% listrik yang dikonsumsi oleh sektor TI, yaitu sekitar 382 miliar kWh per tahun. Data Center AS menggunakan lebih dari 90 miliar kWh listrik per tahun. Data Center global menggunakan sekitar 416 TWh pada tahun 2016, hampir 40% lebih banyak daripada seluruh Inggris Raya.
Emisi gas rumah kaca
Pada tahun 2007, seluruh teknologi informasi dan komunikasi atau sektor TIK diperkirakan bertanggung jawab atas sekitar 2% dari carbon emissions global dengan pusat data terhitung 14% dari jejak TIK. untuk tahun 2007. Mengingat skenario bisnis seperti biasa, emisi gas rumah kaca dari data center diproyeksikan menjadi lebih dari dua kali lipat dari tingkat tahun 2007 pada tahun 2020.
Penempatan adalah salah satu faktor yang mempengaruhi konsumsi energi dan efek lingkungan dari data center. Di daerah di mana iklim mendukung pendinginan dan tersedia banyak listrik terbarukan, dampak lingkungan akan lebih moderat. Jadi negara-negara dengan kondisi yang menguntungkan, seperti: Kanada, Finlandia, Swedia, Norwegia, dan Swiss, mencoba menarik cloud computing data center.
Dalam penyelidikan selama 18 bulan oleh para sarjana di Baker Institute for Public Policy di Rice University di Houston dan Institute for Sustainable and Applied Infodynamics di Singapura, emisi terkait data center akan meningkat lebih dari tiga kali lipat pada tahun 2020.
Efisiensi energi
Metrik yang paling umum digunakan untuk menentukan efisiensi energi data center adalah power usage effectiveness, atau PUE. Rasio sederhana ini adalah total daya yang masuk ke pusat data dibagi dengan daya yang digunakan oleh peralatan TI.
PUE = Total Facility Power / IT Equipment Power
Total facility power terdiri dari daya yang digunakan oleh peralatan TI ditambah daya overhead yang dikonsumsi oleh apa pun yang tidak dianggap sebagai perangkat komputasi atau komunikasi data (yaitu pendinginan, penerangan, dll.). PUE yang ideal adalah 1.0 untuk situasi hipotetis dari daya overhead nol. Data Center rata-rata di AS memiliki PUE 2,0 yang berarti bahwa fasilitas menggunakan daya total dua watt (overhead + peralatan IT) untuk setiap watt yang dikirimkan ke peralatan IT. Efisiensi energi data center canggih diperkirakan sekitar 1,2. Beberapa operator data center besar seperti Microsoft dan Yahoo! telah menerbitkan proyeksi PUE untuk fasilitas yang sedang dikembangkan; Google memublikasikan kinerja efisiensi aktual triwulanan dari data center yang beroperasi.
Amerika Serikat. Badan Perlindungan Lingkungan]] memiliki peringkat Energy Star untuk pusat data mandiri atau besar. Agar memenuhi syarat untuk ekolabel, pusat data harus berada dalam kuartil teratas efisiensi energi dari semua fasilitas yang dilaporkan. Amerika Serikat mengesahkan Undang-Undang Peningkatan Efisiensi Energi tahun 2015, yang mewajibkan fasilitas federal — termasuk data center — untuk beroperasi lebih efisien. Pada tahun 2014, California memberlakukan California Energy Code title 24 dari Kode Peraturan California, yang mengamanatkan bahwa setiap data center yang baru dibangun harus memiliki beberapa bentuk penahanan aliran udara, sebagai langkah untuk mengoptimalkan efisiensi energi.
Uni Eropa juga memiliki inisiatif serupa: EU Code of Conduct for Data Centres
Analisis penggunaan energi
Seringkali, langkah pertama untuk membatasi penggunaan energi di data center adalah dengan memahami bagaimana energi digunakan di data center. Ada beberapa jenis analisis untuk mengukur penggunaan energi data center. Aspek yang diukur tidak hanya mencakup energi yang digunakan oleh peralatan IT itu sendiri, tetapi juga oleh peralatan fasilitas data center, seperti pendingin dan kipas.
Analisis daya dan pendinginan
Daya adalah biaya berulang terbesar bagi pengguna data center. Analisis daya dan pendinginan, juga disebut sebagai penilaian termal, mengukur suhu relatif di area tertentu serta kapasitas sistem pendingin untuk menangani suhu lingkungan tertentu. Analisis daya dan pendinginan dapat membantu mengidentifikasi hot spot, area yang terlalu dingin yang dapat menangani kerapatan penggunaan daya yang lebih besar, breakpoint pemuatan peralatan, efektivitas strategi lantai yang dinaikkan, dan pemosisian peralatan yang optimal (seperti unit AC) untuk menyeimbangkan suhu di data center. Kepadatan pendinginan daya adalah ukuran berapa banyak luas persegi yang dapat didinginkan pusat pada kapasitas maksimum. Pendinginan data center adalah konsumen daya terbesar kedua setelah server. Energi pendinginan bervariasi dari 10% dari total konsumsi energi di data center paling efisien dan naik hingga 45% di standard air-cooled data center.
Analisis efisiensi energi
Analisis efisiensi energi mengukur penggunaan energi TI data center dan peralatan fasilitas. Analisis efisiensi energi tipikal mengukur faktor-faktor seperti power use effectiveness (PUE) data center terhadap standar industri, mengidentifikasi sumber ketidakefisienan mekanis dan elektrik, dan mengidentifikasi metrik manajemen udara. Namun, batasan dari sebagian besar metrik dan pendekatan saat ini adalah bahwa mereka tidak menyertakan TI dalam analisis. Studi kasus telah menunjukkan bahwa dengan menangani efisiensi energi secara holistik di data center, efisiensi besar dapat dicapai yang tidak mungkin dilakukan dengan cara lain.
Analisis dinamika fluida komputasi (CFD)
Jenis analisis ini menggunakan alat dan teknik canggih untuk memahami kondisi termal unik yang ada di setiap pusat data center—predicting suhu, aliran udara, dan perilaku tekanan data center untuk menilai kinerja dan konsumsi energi, menggunakan pemodelan numerik. Dengan memprediksi efek dari kondisi lingkungan ini, analisis CFD di data center dapat digunakan untuk memprediksi dampak rak dengan kepadatan tinggi yang dicampur dengan rak dengan kepadatan rendah dan dampak selanjutnya pada sumber pendinginan, praktik manajemen infrastruktur yang buruk, dan kegagalan AC atau AC shutdown untuk pemeliharaan terjadwal.
Pemetaan zona termal
Pemetaan zona termal menggunakan sensor dan pemodelan komputer untuk membuat gambar tiga dimensi zona panas dan dingin di data center. Informasi ini dapat membantu mengidentifikasi posisi optimal peralatan data center. Misalnya, server kritis mungkin ditempatkan di zona sejuk yang dilayani oleh unit AC redundan.
Data Center ramah lingkungan
Data Center menggunakan banyak daya, dikonsumsi oleh dua penggunaan utama: daya yang diperlukan untuk menjalankan peralatan sebenarnya dan kemudian daya yang diperlukan untuk mendinginkan peralatan. Kategori pertama ditangani dengan merancang komputer dan sistem penyimpanan yang semakin hemat daya. Untuk menurunkan biaya pendinginan, perancang pusat data mencoba menggunakan cara alami untuk mendinginkan peralatan. Banyak data center terletak di dekat konektivitas serat yang baik, koneksi jaringan listrik, dan juga pusat konsentrasi orang untuk mengelola peralatan, tetapi ada juga keadaan di mana data center berada ratusan kilometer jauhnya dari pengguna dan tidak memerlukan banyak manajemen lokal. Contohnya adalah pusat data 'massal' seperti Google atau Facebook: DC ini dibangun di sekitar banyak server standar dan storage array dan pengguna sebenarnya dari sistem ini berlokasi di seluruh dunia. Setelah pembangunan awal data center, jumlah staf yang diperlukan agar tetap berjalan seringkali relatif rendah: terutama data center yang menyediakan penyimpanan massal atau daya komputasi yang tidak perlu berada di dekat pusat populasi. Data Center di lokasi Arktik dengan udara luar menyediakan semua pendinginan semakin populer karena pendinginan dan listrik adalah dua komponen biaya variabel utama.
Penggunaan kembali energi
Praktik pendinginan data center menjadi topik diskusi. Sangat sulit untuk menggunakan kembali panas yang berasal dari pusat data berpendingin udara. Untuk itu, infrastruktur data center lebih sering dilengkapi dengan pompa panas. Alternatif untuk pompa panas adalah adopsi pendinginan cair di seluruh pusat data. Berbagai teknik pendinginan cairan dicampur dan disesuaikan untuk memungkinkan infrastruktur berpendingin cairan sepenuhnya yang menangkap semua panas dalam air. Teknologi cairan yang berbeda dikategorikan dalam 3 kelompok utama, Pendinginan cairan tidak langsung (rak berpendingin air), Pendinginan cairan langsung (pendinginan langsung ke chip) dan Pendinginan cairan total (pencelupan total dalam cairan). Kombinasi teknologi ini memungkinkan pembuatan thermal cascade sebagai bagian dari skenario temperature chaining untuk membuat output air bersuhu tinggi dari data center.
Infrastruktur jaringan
Komunikasi di data center saat ini paling sering didasarkan pada jaringan komputer yang menjalankan rangkaian IP protocol. Data Center berisi kumpulan Router dan Switch yang mengangkut lalu lintas antara server dan ke dunia luar yang terhubung sesuai dengan data center network architecture. Redundansi koneksi Internet sering disediakan dengan menggunakan dua atau lebih penyedia layanan upstream (lihat Multihoming).
Beberapa server di data center digunakan untuk menjalankan layanan dasar Internet dan intranet yang dibutuhkan oleh pengguna internal dalam organisasi, misalnya, server email, server proxy, dan DNS server.
Elemen keamanan jaringan juga biasanya digunakan: Firewall, VPN Gateway, Intrusion Detection System, dll. Yang juga umum adalah sistem pemantauan untuk jaringan dan beberapa aplikasi. Sistem pemantauan di luar lokasi tambahan juga tipikal, jika terjadi kegagalan komunikasi di dalam pusat data.
Data center infrastructure management
Data center infrastructure management (DCIM) adalah integrasi teknologi informasi (TI) dan disiplin manajemen fasilitas untuk memusatkan pemantauan, manajemen, dan perencanaan kapasitas cerdas dari sistem data center kritis. Dicapai melalui penerapan perangkat lunak, perangkat keras, dan sensor khusus, DCIM memungkinkan platform pemantauan dan manajemen bersama yang real-time untuk semua sistem yang saling bergantung di seluruh TI dan infrastruktur fasilitas.
Tergantung pada jenis penerapannya, produk DCIM dapat membantu manajer data center mengidentifikasi dan menghilangkan sumber risiko untuk meningkatkan ketersediaan sistem TI yang penting. Produk DCIM juga dapat digunakan untuk mengidentifikasi interdependensi antara fasilitas dan infrastruktur TI untuk mengingatkan manajer fasilitas akan kesenjangan redundansi sistem, dan memberikan tolok ukur yang dinamis dan holistik pada konsumsi daya dan efisiensi untuk mengukur efektivitas inisiatif "green TI".
Penting untuk mengukur dan memahami metrik efisiensi data center. Banyak diskusi di bidang ini berfokus pada masalah energi, tetapi metrik lain di luar PUE dapat memberikan gambaran yang lebih detail tentang operasi data center. Metrik penggunaan server, penyimpanan, dan staf dapat berkontribusi pada tampilan data center perusahaan yang lebih lengkap. Dalam banyak kasus, kapasitas disk tidak terpakai dan dalam banyak kasus organisasi menjalankan server mereka dengan penggunaan 20% atau kurang. Alat otomatisasi yang lebih efektif juga dapat meningkatkan jumlah server atau mesin virtual yang dapat ditangani oleh satu admin.
Penyedia DCIM semakin terhubung dengan computational fluid dynamics penyedia untuk memprediksi pola aliran udara yang kompleks di pusat data. Komponen CFD diperlukan untuk mengukur dampak dari perubahan yang direncanakan di masa mendatang pada ketahanan, kapasitas, dan efisiensi pendinginan.
Mengelola kapasitas pusat data
Beberapa parameter dapat membatasi kapasitas data center. Untuk penggunaan jangka panjang, batasan utamanya adalah area yang tersedia, lalu daya yang tersedia. Pada tahap pertama siklus hidupnya, data center akan melihat ruang yang ditempati tumbuh lebih cepat daripada energi yang dikonsumsi. Dengan pemadatan konstan teknologi IT baru, kebutuhan energi akan menjadi dominan, menyamai kemudian mengatasi kebutuhan di daerah (siklus fase kedua kemudian ketiga). Perkembangan dan penggandaan objek yang terkoneksi, kebutuhan akan penyimpanan dan pengolahan data menyebabkan kebutuhan data center semakin berkembang pesat. Oleh karena itu penting untuk menentukan strategi data center sebelum terpojok. Keputusan, konsepsi, dan siklus pembangunan berlangsung beberapa tahun. Oleh karena itu, sangat penting untuk memulai pertimbangan strategis ini ketika pusat data mencapai sekitar 50% dari kapasitas dayanya. Penggunaan maksimum pusat data perlu distabilkan sekitar 85%, baik dalam daya atau area yang ditempati. Sumber daya yang dikelola dengan demikian akan memungkinkan zona rotasi untuk mengelola penggantian perangkat keras dan akan memungkinkan kohabitasi sementara generasi lama dan baru. Dalam kasus di mana batas ini akan dilampaui secara terus-menerus, tidak mungkin untuk melanjutkan ke penggantian material, yang akan selalu menyebabkan sistem informasi tercekik. Pusat data adalah sumber daya dalam sistem informasinya sendiri, dengan batasan waktu dan manajemennya sendiri (masa hidup 25 tahun), oleh karena itu perlu dipertimbangkan dalam kerangka perencanaan jangka menengah SI (antara 3 dan 5 tahun).
Aplikasi
Tujuan utama data center adalah menjalankan aplikasi sistem TI yang menangani bisnis inti dan data operasional organisasi. Sistem tersebut mungkin merupakan hak milik dan dikembangkan secara internal oleh organisasi, atau dibeli dari perangkat lunak perusahaan vendor. Aplikasi umum tersebut adalah sistem ERP dan CRM.
Data Center mungkin hanya peduli dengan arsitektur operasi atau mungkin menyediakan layanan lain juga.
Seringkali aplikasi ini terdiri dari banyak host, masing-masing menjalankan satu komponen. Komponen umum dari aplikasi tersebut adalah database, file server, application server, middleware, dan berbagai lainnya.
Data Center juga digunakan untuk off-site backup. Perusahaan dapat berlangganan layanan backup yang disediakan oleh data center. Ini sering digunakan bersamaan dengan backup tape. Backup dapat diambil dari server secara lokal ke kaset. Namun, kaset yang disimpan di lokasi menimbulkan ancaman keamanan dan juga rentan terhadap kebakaran dan banjir. Perusahaan yang lebih besar juga dapat mengirim backup mereka ke off-site untuk keamanan tambahan. Ini dapat dilakukan dengan membuat backup ke data center. Backup terenkripsi dapat dikirim melalui Internet ke data center lain untuk disimpan dengan aman.
Untuk penerapan cepat atau pemulihan bencana, beberapa vendor perangkat keras besar telah mengembangkan solusi seluler/modular yang dapat dipasang dan dioperasikan dalam waktu yang sangat singkat. Perusahaan seperti
- Cisco Systems,
- Sun Microsystems (Sun Modular Datacenter),
- Bull (mobull),
- IBM (Portable Modular Data Center),
- Schneider-Electric (Portable Modular Data Center),
- HP (Performance Optimized Datacenter),
- ZTE Corporation,
- FiberHome Technologies Group (FitMDC Modular Data Center Solution),
- Huawei (Container Data Center Solution),
- Google (Google Modular Data Center) telah mengembangkan sistem yang dapat digunakan untuk tujuan ini.
- BASELAYER memiliki paten pada software defined modular data center.
US wholesale dan retail colocation provider
Menurut data yang diberikan pada kuartal ketiga tahun 2013 oleh Synergy Research Group, "skala pasar colocation grosir di Amerika Serikat relatif signifikan terhadap pasar ritel, dengan pendapatan grosir Q3 mencapai hampir $700 juta. Realty Digital Trust adalah pemimpin pasar grosir, diikuti dari jauh oleh DuPont Fabros." Synergy Research juga menggambarkan pasar colocation AS sebagai yang paling matang dan berkembang dengan baik di dunia, berdasarkan pendapatan dan adopsi berkelanjutan dari layanan infrastruktur cloud.
- Estimasi dari data Q3 2013 Synergy Research Group.
Rank | Company name | US market share |
---|---|---|
1 | Various providers | 34% |
2 | Equinix | 18% |
3 | CenturyLink-Savvis | 8% |
4 | SunGard | 5% |
5 | AT&T | 5% |
6 | Verizon | 5% |
7 | Telx | 4% |
8 | CyrusOne | 4% |
9 | Level 3 Communications | 3% |
10 | Internap | 2% |