Data Center
data center (American English) atau data centre (British English) adalah fasilitas yang digunakan untuk menampung sistem komputer dan komponen terkait, seperti telekomunikasi dan sistem penyimpanan. Ini umumnya mencakup redundan atau komponen dan infrastruktur cadangan untuk catu daya, koneksi komunikasi data, kontrol lingkungan (mis. AC, pencegah kebakaran) dan berbagai perangkat keamanan. Pusat data besar adalah operasi skala industri yang menggunakan listrik sebanyak kota kecil.
Sejarah
Data center berawal pada ruang komputer besar di tahun 1940-an, yang ditandai dengan ENIAC, salah satu contoh paling awal dari data center. Sistem komputer awal, rumit untuk dioperasikan dan dipelihara, membutuhkan lingkungan khusus untuk beroperasi. Banyak kabel diperlukan untuk menyambungkan semua komponen, dan metode untuk menampung dan mengaturnya telah dirancang seperti rak|19 inci standar untuk memasang peralatan, raised floor, dan cable tray (dipasang di atas kepala atau di bawah lantai yang ditinggikan). Satu mainframe membutuhkan banyak daya, dan harus didinginkan untuk menghindari panas berlebih. Keamanan menjadi penting – komputer mahal, dan sering digunakan untuk tujuan militer. Oleh karena itu, pedoman desain dasar untuk mengontrol akses ke ruang komputer telah dibuat.
Selama ledakan industri komputer mikro, dan khususnya selama tahun 1980-an, pengguna mulai menyebarkan komputer di mana-mana, dalam banyak kasus dengan sedikit atau tanpa peduli tentang persyaratan pengoperasian. Namun, karena teknologi informasi (TI) operasi mulai tumbuh dalam kompleksitas, organisasi semakin sadar akan kebutuhan untuk mengontrol sumber daya TI. Munculnya Unix dari awal 1970-an menyebabkan proliferasi selanjutnya dari sistem operasi Linux-kompatibel PC yang tersedia secara bebas selama tahun 1990-an. Ini disebut "server", sebagai timesharing sistem operasi seperti Unix sangat bergantung pada model klien-server untuk memfasilitasi berbagi sumber daya unik antara banyak pengguna. Ketersediaan peralatan jaringan yang murah, ditambah dengan standar baru untuk jaringan pengkabelan terstruktur, memungkinkan untuk menggunakan desain hierarkis yang menempatkan server di ruangan tertentu di dalam perusahaan. Penggunaan istilah "data center", sebagaimana diterapkan pada ruang komputer yang dirancang khusus, mulai mendapat pengakuan populer saat ini.
Ledakan pusat data terjadi selama dot-com bubble tahun 1997–2000. Perusahaan memerlukan konektivitas Internet yang cepat dan pengoperasian tanpa henti untuk menerapkan sistem dan membangun kehadiran di Internet. Memasang peralatan seperti itu tidak layak untuk banyak perusahaan kecil. Banyak perusahaan mulai membangun fasilitas yang sangat besar, yang disebut Internet data center (IDC), yang menyediakan klien komersial berbagai solusi untuk penerapan dan pengoperasian sistem. Teknologi dan praktik baru dirancang untuk menangani skala dan persyaratan operasional dari operasi skala besar tersebut. Praktik-praktik ini akhirnya bermigrasi ke pusat data pribadi, dan diadopsi sebagian besar karena hasil praktisnya. Pusat data untuk komputasi awan disebut cloud data center (CDC). Namun saat ini, pembagian istilah-istilah tersebut hampir menghilang dan diintegrasikan ke dalam istilah "data center".
Dengan peningkatan penggunaan cloud computing, organisasi bisnis dan pemerintah meneliti pusat data ke tingkat yang lebih tinggi di berbagai bidang seperti keamanan, ketersediaan, dampak lingkungan, dan kepatuhan terhadap standar. Dokumen standar dari grup profesional terakreditasi, seperti Telecommunications Industry Association, menetapkan persyaratan untuk desain pusat data. Metrik operasional terkenal untuk data-center availability dapat digunakan untuk mengevaluasi commercial impact gangguan. Pengembangan berlanjut dalam praktik operasional, dan juga dalam desain data center yang ramah lingkungan. Data center biasanya menghabiskan banyak biaya untuk membangun dan memelihara.
Persyaratan untuk modern data center
Operasi TI adalah aspek penting dari sebagian besar operasi organisasi di seluruh dunia. Salah satu perhatian utama adalah kelangsungan bisnis; perusahaan mengandalkan sistem informasi mereka untuk menjalankan operasi mereka. Jika suatu sistem menjadi tidak tersedia, operasi perusahaan dapat terganggu atau dihentikan sama sekali. Penyediaan infrastruktur yang andal untuk operasional TI diperlukan untuk meminimalkan kemungkinan gangguan. Keamanan informasi juga menjadi perhatian, dan untuk alasan ini pusat data harus menawarkan lingkungan yang aman yang meminimalkan kemungkinan pelanggaran keamanan. Oleh karena itu, data center harus menjaga standar tinggi untuk memastikan integritas dan fungsionalitas lingkungan komputer yang dihostingnya. Hal ini dicapai melalui redundansi pendinginan mekanis dan sistem daya (termasuk generator daya cadangan darurat) yang melayani data center bersama dengan kabel serat optik.
Telecommunications Infrastructure Standard for Data Center Telecommunications Industry Association menetapkan persyaratan minimum untuk infrastruktur telekomunikasi data center dan ruang komputer termasuk data center perusahaan penyewa tunggal dan pusat data hosting Internet multi-penyewa. Topologi yang diusulkan dalam dokumen ini dimaksudkan agar dapat diterapkan pada data center dengan ukuran berapa pun.
Telcordia GR-3160, NEBS Requirements for Telecommunications Data Center Equipment and Spaces, memberikan panduan untuk ruang data center dalam jaringan telekomunikasi, dan persyaratan lingkungan untuk peralatan yang ditujukan untuk pemasangan di ruang tersebut. Kriteria ini dikembangkan bersama oleh Telcordia dan perwakilan industri. Mereka dapat diterapkan ke ruang data center yang menampung pemrosesan data atau peralatan Teknologi Informasi (TI). Peralatan tersebut dapat digunakan untuk:
- Mengoperasikan dan mengelola jaringan telekomunikasi operator
- Menyediakan aplikasi berbasis data center langsung ke pelanggan operator
- Menyediakan aplikasi yang dihosting untuk pihak ketiga untuk memberikan layanan kepada pelanggan mereka
- Berikan kombinasi dari ini dan aplikasi data center serupa
Pengoperasian data center yang efektif memerlukan investasi yang seimbang baik dalam fasilitas maupun peralatan yang ada. Langkah pertama adalah menetapkan lingkungan fasilitas dasar yang sesuai untuk pemasangan peralatan. Standardisasi dan modularitas dapat menghasilkan penghematan dan efisiensi dalam desain dan konstruksi data center telekomunikasi.
Standarisasi berarti rekayasa bangunan dan peralatan terpadu. Modularitas memiliki manfaat skalabilitas dan pertumbuhan yang lebih mudah, bahkan ketika prakiraan perencanaan kurang optimal. Untuk alasan ini, data center telekomunikasi harus direncanakan dalam blok bangunan berulang dari peralatan, dan peralatan daya dan pendukung (pengkondisian) yang terkait jika dimungkinkan. Penggunaan sistem terpusat khusus memerlukan perkiraan kebutuhan masa depan yang lebih akurat untuk mencegah mahalnya pembangunan, atau mungkin lebih buruk — dalam pembangunan yang gagal memenuhi kebutuhan di masa depan.
Data center "lights-out", juga dikenal sebagai data center yang digelapkan atau gelap, adalah data center yang, idealnya, menghilangkan kebutuhan akan akses langsung oleh personel, kecuali dalam keadaan luar biasa. Karena kurangnya kebutuhan staf untuk masuk ke data center, maka bisa dioperasikan tanpa penerangan. Semua perangkat diakses dan dikelola oleh sistem jarak jauh, dengan program otomasi yang digunakan untuk melakukan operasi tanpa pengawasan. Selain penghematan energi, pengurangan biaya kepegawaian, dan kemampuan untuk menemukan lokasi lebih jauh dari pusat populasi, menerapkan data center tanpa lampu mengurangi ancaman serangan berbahaya terhadap infrastruktur.
Ada kecenderungan untuk memodernisasi data center untuk memanfaatkan kinerja dan efisiensi energi peningkatan peralatan dan kemampuan TI yang lebih baru, seperti cloud computing. Proses ini juga dikenal sebagai transformasi data center.
Organisasi sedang mengalami pertumbuhan TI yang cepat tetapi data center mereka menua. Perusahaan riset industri International Data Corporation (IDC) menetapkan usia rata-rata sebuah data center adalah sembilan tahun. Gartner, perusahaan riset lainnya, mengatakan data center yang berusia lebih dari tujuh tahun sudah usang. Pertumbuhan data (163 zettabytes pada tahun 2025) merupakan salah satu faktor yang mendorong perlunya modernisasi data center.
Pada bulan Mei 2011, organisasi riset pusat data Uptime Institute melaporkan bahwa 36 persen dari perusahaan besar yang disurvei diperkirakan akan kehabisan kapasitas TI dalam 18 bulan ke depan.
Transformasi data center mengambil pendekatan langkah demi langkah melalui proyek terintegrasi yang dilakukan dari waktu ke waktu. Ini berbeda dari metode tradisional pemutakhiran data center yang menggunakan pendekatan serial dan silo. Proyek tipikal dalam inisiatif transformasi pusat data meliputi standardisasi/konsolidasi, virtualisasi, otomatisasi dan keamanan.
- Standardisasi/konsolidasi: Tujuan proyek ini adalah untuk mengurangi jumlah data center yang mungkin dimiliki organisasi besar. Proyek ini juga membantu mengurangi jumlah perangkat keras, platform perangkat lunak, alat, dan proses dalam data center. Organisasi mengganti peralatan data center yang sudah tua dengan yang lebih baru yang memberikan peningkatan kapasitas dan kinerja. Platform komputasi, jaringan, dan manajemen distandarisasi sehingga lebih mudah dikelola.
- Virtualisasi: Ada kecenderungan untuk menggunakan teknologi virtualisasi TI untuk mengganti atau menggabungkan beberapa peralatan data center, seperti server. Virtualisasi membantu menurunkan biaya modal dan operasional, serta mengurangi konsumsi energi. Teknologi virtualisasi juga digunakan untuk membuat desktop virtual, yang kemudian dapat dihosting di data center dan disewakan secara berlangganan. Data yang dikeluarkan oleh bank investasi Lazard Capital Markets melaporkan bahwa 48 persen operasi perusahaan akan divirtualisasikan pada tahun 2012. Gartner memandang virtualisasi sebagai katalis untuk modernisasi.
- Otomatisasi: Otomatisasi data center melibatkan tugas otomatisasi seperti penyediaan, konfigurasi, penambalan, manajemen rilis, dan kepatuhan. Karena perusahaan kekurangan pekerja TI yang terampil, otomatisasi tugas membuat operasi data center menjadi lebih efisien.
- Mengamankan: Di data center modern, keamanan data pada sistem virtual terintegrasi dengan keamanan infrastruktur fisik yang ada. Keamanan data center modern harus mempertimbangkan keamanan fisik, keamanan jaringan, dan keamanan data dan pengguna.
Carrier neutrality
Saat ini banyak pusat data dijalankan oleh Internet Service Provider(ISP) semata-mata untuk tujuan menghosting Server mereka sendiri dan pihak ketiga].
Namun secara tradisional data center dibangun hanya untuk penggunaan satu perusahaan besar, atau sebagai carrier hotel atau Network-neutral data center.
Fasilitas ini memungkinkan interkoneksi operator dan mitra, dan bertindak sebagai hub fiber regional yang melayani bisnis lokal selain menghosting konten Server.
Data center Level and Tier
Telecommunications Industry Association adalah asosiasi perdagangan yang diakreditasi oleh ANSI (American National Standards Institutea). Pada tahun 2005 menerbitkan ANSI/TIA-942,Telecommunications Infrastructure Standard for Data Centers, yang menetapkan empat tingkat pusat data secara menyeluruh dan terukur. TIA-942 diubah pada tahun 2008, 2010, 2014 dan 2017. TIA-942:Data Center Standards Overview menjelaskan persyaratan untuk infrastruktur data center. Yang paling sederhana adalah pusat data Level 1, yang pada dasarnya adalah ruang server, mengikuti panduan dasar untuk pemasangan sistem komputer. Level yang paling ketat adalah pusat data Level 4, yang dirancang untuk menampung sistem komputer yang paling kritis, dengan subsistem yang sepenuhnya redundan, kemampuan untuk terus beroperasi selama periode waktu yang tidak terbatas selama pemadaman listrik utama.
Uptime Institute, sebuah penelitian data center dan organisasi layanan profesional yang berbasis di Seattle, WA mendefinisikan apa yang sekarang disebut sebagai "Tiers" atau lebih tepatnya, "Tier Standard". Level Standar Tingkat Uptime menjelaskan ketersediaan pemrosesan data dari perangkat keras di suatu lokasi. Semakin tinggi level Tier, semakin besar ketersediaan yang diharapkan. Standar Tingkat Uptime Institute ditunjukkan di bawah ini.
Untuk revisi TIA-942 2014, organisasi TIA dan Uptime Institute sepakat bahwa TIA akan menghapus semua penggunaan kata "Tier" dari spesifikasi TIA-942 mereka yang dipublikasikan, dengan menggunakan terminologi tersebut hanya akan digunakan oleh Uptime Institute untuk mendeskripsikan sistemnya.
Klasifikasi lain juga ada. Misalnya, German Datacenter Star Audit program menggunakan proses audit untuk mengesahkan lima tingkat "gratification" yang memengaruhi data center yang critical.
Tier level | Persyaratan |
---|---|
I |
|
II |
|
III |
|
IV |
|
Sementara salah satu sistem ketahanan data center industri diusulkan pada saat ketersediaan dinyatakan sebagai teori, dan sejumlah 'Nine' (angka sembilan) di sisi kanan titik desimal, secara umum disepakati bahwa pendekatan ini agak menipu. atau terlalu sederhana, sehingga vendor saat ini biasanya membahas ketersediaan secara mendetail yang sebenarnya dapat mereka pengaruhi, dan dalam istilah yang jauh lebih spesifik. Oleh karena itu, sistem leveling yang tersedia saat ini tidak lagi menentukan hasilnya dalam persentase waktu aktif.
Catatan: Uptime Institute juga mengklasifikasikan Tingkatan untuk masing-masing dari tiga fase pusat data, dokumen desainnya, fasilitas yang dibangun, dan keberlanjutan operasionalnya yang berkelanjutan.
Pertimbangan desain
Data center dapat menempati satu ruangan di gedung, satu lantai atau lebih, atau seluruh gedung. Sebagian besar peralatan seringkali berupa server yang dipasang di lemari rak 19 inci, yang biasanya ditempatkan dalam satu baris membentuk koridor (disebut lorong) di antaranya. Ini memungkinkan orang mengakses bagian depan dan belakang setiap kabinet. Ukuran server sangat berbeda dari server 1U hingga silo penyimpanan besar yang berdiri bebas yang menempati banyak ruang lantai. Beberapa peralatan seperti perangkat komputer mainframe dan penyimpanan seringkali sebesar rak itu sendiri, dan ditempatkan di sampingnya. Pusat data yang sangat besar dapat menggunakan shipping containers yang masing-masing dikemas dengan 1.000 server atau lebih; ketika perbaikan atau pemutakhiran diperlukan, seluruh wadah diganti (alih-alih memperbaiki server individual).
Kode bangunan lokal dapat mengatur ketinggian langit-langit minimum.
Design programming
Design programming, juga dikenal sebagai architectural programming, adalah proses penelitian dan pengambilan keputusan untuk mengidentifikasi ruang lingkup proyek desain. Selain arsitektur bangunan itu sendiri, ada tiga elemen untuk mendesain pemrograman untuk data center: facility topology design (space planning), engineering infrastructure design (sistem mekanis seperti pendinginan dan sistem kelistrikan termasuk daya) dan technology infrastructure design (cable plant). Masing-masing akan dipengaruhi oleh penilaian kinerja dan pemodelan untuk mengidentifikasi kesenjangan yang berkaitan dengan keinginan kinerja pemilik fasilitas dari waktu ke waktu.
Berbagai vendor yang menyediakan data center design service mendefinisikan langkah-langkah data center design sedikit berbeda, namun semuanya menangani aspek dasar yang sama seperti yang diberikan di bawah ini.
Kriteria pemodelan
Kriteria pemodelan digunakan untuk mengembangkan skenario masa depan untuk ruang, daya, pendinginan, dan biaya di data center. Tujuannya adalah untuk membuat rencana induk dengan parameter seperti jumlah, ukuran, lokasi, topologi, tata letak sistem lantai TI, serta teknologi dan konfigurasi daya dan pendinginan. Tujuan dari ini adalah untuk memungkinkan penggunaan yang efisien dari sistem mekanik dan listrik yang ada dan juga pertumbuhan di pusat data yang ada tanpa perlu membangun gedung baru dan lebih meningkatkan pasokan listrik yang masuk.
Rekomendasi desain
Rekomendasi/rencana desain umumnya mengikuti fase kriteria pemodelan. Infrastruktur teknologi optimal diidentifikasi dan kriteria perencanaan dikembangkan, seperti kapasitas daya kritis, kebutuhan daya data center keseluruhan menggunakan PUE (power utilization efficiency) yang disepakati, kapasitas pendinginan mekanis, kilowatt per kabinet, raised floor space, dan tingkat ketahanan untuk fasilitas.
Desain konseptual
Desain konseptual mewujudkan rekomendasi atau rencana desain dan harus mempertimbangkan skenario "what-if" untuk memastikan semua hasil operasional terpenuhi untuk membuktikan fasilitas di masa depan. Tata letak lantai konseptual harus didorong oleh persyaratan kinerja TI serta biaya siklus hidup yang terkait dengan permintaan TI, efisiensi energi, efisiensi biaya, dan ketersediaan. Pemeriksaan masa depan juga akan mencakup kemampuan ekspansi, yang seringkali disediakan di pusat data modern melalui desain modular. Ini memungkinkan ruang lantai yang lebih tinggi untuk dipasang di data center saat menggunakan pembangkit listrik utama yang ada di fasilitas tersebut.
Detailed design
Detailed designdilakukan setelah desain konseptual yang sesuai ditentukan, biasanya termasuk pembuktian konsep. Fase detailed design harus mencakup informasi arsitektur, struktural, mekanik dan listrik rinci dan spesifikasi fasilitas. Pada tahap ini pengembangan skema fasilitas dan dokumen konstruksi serta skema dan spesifikasi kinerja dan perincian khusus dari semua infrastruktur teknologi, desain infrastruktur TI terperinci dan dokumentasi infrastruktur TI diproduksi.
Mechanical engineering infrastructure design
Mechanical engineering infrastructure design membahas sistem mekanis yang terlibat dalam memelihara lingkungan interior data center, seperti pemanas, ventilasi, dan air conditioning (HVAC); peralatan pelembapan dan dehumidifikasi; tekanan udara; dan seterusnya.
Tahap proses desain ini harus ditujukan untuk menghemat ruang dan biaya, sambil memastikan tujuan bisnis dan keandalan terpenuhi serta mencapai persyaratan PUE dan ramah lingkungan. Desain modern mencakup modularisasi dan penskalaan beban TI, dan memastikan belanja modal untuk konstruksi bangunan dioptimalkan.
Electrical engineering infrastructure design
Electrical Engineering infrastructure design difokuskan pada perancangan konfigurasi kelistrikan yang mengakomodir berbagai kebutuhan keandalan dan ukuran data center. Aspek dapat mencakup perencanaan layanan utilitas; distribusi, switching dan bypass dari sumber daya; sistem uninterruptible power source (UPS); dan banyak lagi.
Desain ini harus sesuai dengan standar energi dan praktik terbaik sekaligus memenuhi tujuan bisnis. Konfigurasi kelistrikan harus dioptimalkan dan kompatibel secara operasional dengan kemampuan pengguna data center. Desain kelistrikan modern bersifat modular dan terukur, dan tersedia untuk kebutuhan tegangan rendah dan menengah serta DC (arus searah).
Technology infrastructure design
Technology infrastructure design membahas sistem kabel telekomunikasi yang berjalan di seluruh data center. Terdapat sistem pengkabelan untuk semua lingkungan data center, termasuk pengkabelan horizontal, suara, modem, dan layanan telekomunikasi faksimili, peralatan peralihan lokasi, koneksi manajemen komputer dan telekomunikasi, koneksi keyboard/video/mouse, dan komunikasi data. Wide Area Network, Local Area Network, dan storage area network harus terhubung dengan sistem pensinyalan gedung lainnya (misalnya kebakaran, keamanan, listrik, HVAC, EMS).
Ekspektasi Ketersediaan
Semakin tinggi kebutuhan ketersediaan data center, semakin tinggi modal dan biaya operasional untuk membangun dan mengelolanya. Kebutuhan bisnis harus mendikte tingkat ketersediaan yang dibutuhkan dan harus dievaluasi berdasarkan karakterisasi kekritisan sistem TI, perkiraan analisis biaya dari skenario yang dimodelkan. Dengan kata lain, bagaimana tingkat ketersediaan yang tepat dapat dipenuhi dengan kriteria desain untuk menghindari risiko keuangan dan operasional sebagai akibat dari downtime?
Jika perkiraan biaya downtime dalam satuan waktu tertentu melebihi biaya modal yang diamortisasi dan biaya operasional, tingkat ketersediaan yang lebih tinggi harus diperhitungkan dalam desain data center. Jika biaya untuk menghindari waktu henti jauh melebihi biaya waktu henti itu sendiri, tingkat ketersediaan yang lebih rendah harus diperhitungkan dalam desain.
Pemilihan Lokasi
Aspek-aspek seperti kedekatan dengan jaringan listrik yang tersedia, infrastruktur telekomunikasi, layanan jaringan, jalur transportasi, dan layanan darurat dapat memengaruhi biaya, risiko, keamanan, dan faktor lain yang harus dipertimbangkan untuk desain data center. Sementara beragam faktor lokasi diperhitungkan (misalnya jalur penerbangan, penggunaan di sekitar, risiko geologis), akses ke daya yang tersedia yang sesuai sering kali merupakan waktu tunggu yang paling lama. Lokasi memengaruhi desain data center juga karena kondisi iklim menentukan teknologi pendinginan apa yang harus diterapkan. Pada gilirannya hal ini berdampak pada waktu kerja dan biaya yang terkait dengan pendinginan. Misalnya, topologi dan biaya pengelolaan data center di iklim yang hangat dan lembab akan sangat berbeda dengan pengelolaan di iklim yang sejuk dan kering.
Modularitas dan fleksibilitas
Modularitas dan fleksibilitas adalah elemen kunci yang memungkinkan data center tumbuh dan berubah seiring waktu. Modul data center adalah blok bangunan terstandarisasi yang direkayasa sebelumnya yang dapat dengan mudah dikonfigurasi dan dipindahkan sesuai kebutuhan.
Data center modular dapat terdiri dari peralatan data center yang terdapat di dalam kontainer pengiriman atau kontainer portabel serupa. Tetapi juga dapat digambarkan sebagai gaya desain di mana komponen data center dibuat sebelumnya dan distandarisasi sehingga dapat dibangun, dipindahkan, atau ditambahkan secepat perubahan kebutuhan.
Environmental control
Physical environment data center dikontrol dengan ketat.
Air conditioning digunakan untuk mengontrol suhu dan kelembaban di pusat data. "Thermal Guidelines for Data Processing Environments" ASHRAE merekomendasikan kisaran suhu 18-27C, kisaran titik embun -9 s/d 15C, dan kelembapan relatif ideal 60%, dengan kisaran yang diperbolehkan antara 40% hingga 60% untuk lingkungan data center. Suhu di v secara alami akan naik karena daya listrik yang digunakan untuk memanaskan udara. Kecuali jika panas dihilangkan, suhu sekitar akan naik, yang mengakibatkan kegagalan fungsi peralatan elektronik. Dengan mengontrol suhu udara, komponen server di motherboard dalam rentang suhu/kelembaban yang ditentukan pabrikan. Sistem pendingin udara membantu mengontrol kelembaban dengan mendinginkan udara ruang balik di bawah titik embun. Terlalu banyak kelembapan, dan air mungkin mulai mengembun pada komponen internal. Dalam kasus atmosfer kering, sistem pelembapan tambahan dapat menambahkan uap air jika kelembapan terlalu rendah, yang dapat menyebabkan masalah pelepasan muatan listrik statis yang dapat merusak komponen. Data center bawah tanah dapat menjaga peralatan komputer tetap dingin sambil mengeluarkan lebih sedikit energi daripada desain konvensional.
Data center modern mencoba menggunakan pendingin economizer, di mana mereka menggunakan udara luar agar data center tetap dingin. Setidaknya satu data center (terletak di Upstate New York) akan mendinginkan server menggunakan udara luar selama musim dingin. Mereka tidak menggunakan pendingin/AC, yang menciptakan potensi penghematan energi hingga jutaan. Pendinginan udara tidak langsung semakin banyak digunakan di pusat data secara global yang memiliki keunggulan pendinginan yang lebih efisien yang menurunkan biaya konsumsi daya di pusat data. Banyak data center yang baru dibangun juga menggunakan unit Indirect Evaporative Cooling (IDEC) serta fitur lingkungan lainnya seperti air laut untuk meminimalkan jumlah energi yang dibutuhkan untuk mendinginkan ruangan.
Telcordia NEBS: Raised Floor Generic Requirements for Network and Data Centers, GR-2930 menyajikan persyaratan teknik umum untuk lantai yang dinaikkan yang termasuk dalam pedoman NEBS yang ketat.
Ada banyak jenis lantai yang tersedia secara komersial yang menawarkan berbagai kekuatan struktural dan kemampuan pemuatan, tergantung pada konstruksi komponen dan bahan yang digunakan. Jenis umum raised floor termasuk platform stringer, stringerless, dan struktural, yang semuanya dibahas secara rinci di GR-2930 dan dirangkum di bawah ini.
- Stringered raised floor - Jenis lantai ditinggikan ini umumnya terdiri dari susunan vertikal rakitan alas baja (setiap rakitan terdiri dari pelat dasar baja, tubular tegak, dan kepala) secara seragam ditempatkan pada pusat dua kaki dan secara mekanis diikat ke lantai beton. Kepala tumpuan baja memiliki tiang yang dimasukkan ke dalam tumpuan tegak dan ketinggian keseluruhan dapat disesuaikan dengan mur perata pada tiang yang dilas pada kepala tumpuan.
- Stringerless raised floor - Salah satu jenis lantai peninggian non-gempa umumnya terdiri dari susunan tumpuan yang memberikan ketinggian yang diperlukan untuk merutekan kabel dan juga berfungsi untuk menopang setiap sudut panel lantai. Dengan jenis lantai ini, mungkin ada atau tidak ada perlengkapan untuk mengencangkan panel lantai secara mekanis ke tumpuan. Jenis sistem tanpa senar ini (tidak memiliki keterikatan mekanis antara kepala tumpuan) memberikan aksesibilitas maksimum ke ruang di bawah lantai. Namun, lantai tanpa senar secara signifikan lebih lemah daripada lantai yang ditinggikan dengan senar dalam mendukung beban lateral dan tidak direkomendasikan.
- Structural platform - Salah satu jenis platform struktural terdiri dari anggota yang dibangun dari sudut baja atau saluran yang dilas atau dibaut bersama untuk membentuk platform terintegrasi untuk peralatan pendukung. Desain ini memungkinkan peralatan untuk diikat langsung ke platform tanpa perlu toggle bar atau penguat tambahan. Platform struktural mungkin atau mungkin tidak berisi panel atau stringer.
Data Center biasanya memiliki raised floor yang terdiri dari 60 cm ubin persegi yang dapat dilepas. Tren menuju 80-100 cm void untuk memenuhi distribusi udara yang lebih baik dan seragam. Ini menyediakan pleno untuk sirkulasi udara di bawah lantai, sebagai bagian dari sistem pendingin udara, serta menyediakan ruang untuk pemasangan kabel daya.
Kumis logam
Raised Floor dan struktur logam lainnya seperti cable tray dan ventilation duct telah menyebabkan banyak masalah dengan kumis seng di masa lalu, dan sepertinya masih ada di banyak data center. Ini terjadi ketika filamen logam mikroskopis terbentuk pada logam seperti seng atau timah yang melindungi banyak struktur logam dan komponen elektronik dari korosi. Perawatan di lantai yang ditinggikan atau pemasangan kabel dll. dapat melepaskan kumis, yang masuk ke aliran udara dan dapat menyebabkan korsleting komponen server atau catu daya, terkadang melalui uap logam berarus tinggi busur plasma. Fenomena ini tidak unik untuk data center, dan juga menyebabkan kegagalan besar pada satelit dan perangkat keras militer.
Electrical power
Backup power terdiri dari satu atau lebih uninterruptible power supply, batere, dan/atau generator solar / turbin gas.
Untuk mencegah single point of failure, semua elemen sistem kelistrikan, termasuk sistem cadangan, biasanya digandakan sepenuhnya, dan server penting dihubungkan ke "A-side" dan "B-side" umpan listrik. Pengaturan ini sering dibuat untuk mencapai N+1 redundansi dalam sistem. Sakelar transfer statis terkadang digunakan untuk memastikan peralihan seketika dari satu suplai ke suplai lainnya jika terjadi kegagalan listrik.
Low-voltage cable routing
Pengkabelan data biasanya dirutekan melalui overhead cable tray di data center modern. Namun beberapa orang masih merekomendasikan pemasangan kabel di bawah lantai untuk alasan keamanan dan untuk mempertimbangkan penambahan sistem pendingin di atas rak jika peningkatan ini diperlukan. Data Center yang lebih kecil/lebih murah tanpa lantai yang ditinggikan dapat menggunakan ubin antistatis untuk permukaan lantai. Lemari komputer sering diatur menjadi pengaturan hot aisle untuk memaksimalkan efisiensi aliran udara.
Perlindungan kebakaran
Data Center mempunyai sistem proteksi kebakaran, termasuk elemen pasif dan Desain Aktif, serta penerapan program pencegahan kebakaran dalam operasi. Detektor asap biasanya dipasang untuk memberikan peringatan dini akan adanya kebakaran pada tahap awal. Hal ini memungkinkan penyelidikan, pemutusan aliran listrik, dan pemadaman api manual menggunakan alat pemadam api genggam sebelum api membesar menjadi ukuran besar. Sistem proteksi kebakaran aktif, seperti sistem gas pencegah kebakaran fire sprinkler system atau clean agent, sering disediakan untuk mengendalikan api skala penuh jika berkembang. Detektor asap sensitivitas tinggi, seperti detektor asap aspirating, mengaktifkan clean agent sistem gas pencegah kebakaran aktif lebih awal daripada penyiram api.
- Sprinkler = perlindungan struktur dan keselamatan hidup bangunan.
- Clean agent = kelangsungan bisnis dan perlindungan aset.
- No water = tidak ada jaminan kerusakan atau pembersihan.
Elemen proteksi kebakaran pasif mencakup pemasangan Firewall di sekitar data center, sehingga api dapat dibatasi ke sebagian fasilitas untuk waktu yang terbatas jika terjadi kegagalan kebakaran aktif sistem perlindungan. Penetrasi dinding api ke ruang server, seperti penetrasi kabel, penetrasi saluran cairan pendingin, dan saluran udara, harus dilengkapi dengan rakitan penetrasi tahan api, seperti fire stopping.
Security
Physical security also plays a large role with data centers. Physical access to the site is usually restricted to selected personnel, with controls including a layered security system often starting with fencing, bollards and mantraps. Video camera surveillance and permanent security guards are almost always present if the data center is large or contains sensitive information on any of the systems within. The use of finger print recognition mantraps is starting to be commonplace.
Documenting access is required by some data protection regulations. To do so, some organizations use access control systems that provide a logging report of accesses. Logging can occur at the main entrance, at the entrances to mechanical rooms and white spaces, as well as in at the equipment cabinets. Modern access control at the cabinet allows for integration with intelligent power distribution units so that the locks can be powered and networked through the same appliance.
Keamanan
Keamanan fisik juga memainkan peran besar dengan pusat data. Akses fisik ke lokasi biasanya dibatasi untuk personel tertentu, dengan kontrol termasuk sistem keamanan berlapis yang sering dimulai dengan pagar, bollard dan mantrap (kontrol akses). Kamera video pengawasan dan penjaga keamanan permanen hampir selalu ada jika pusat datanya besar atau berisi informasi sensitif pada salah satu sistem di dalamnya. Penggunaan finger print recognition mantrap (snare) mulai menjadi hal yang lumrah.
Mendokumentasikan akses diperlukan oleh beberapa peraturan perlindungan data. Untuk melakukannya, beberapa organisasi menggunakan sistem kontrol akses yang menyediakan laporan pencatatan akses. Penebangan dapat terjadi di pintu masuk utama, di pintu masuk ke ruang mekanik dan ruang putih, serta di lemari peralatan. Kontrol akses modern pada kabinet memungkinkan integrasi dengan unit distribusi daya yang cerdas sehingga kunci dapat diberi daya dan dihubungkan ke jaringan melalui alat yang sama.
Energy use
Energy use is a central issue for data centers. Power draw for data centers ranges from a few kW for a rack of servers in a closet to several tens of MW for large facilities. Some facilities have power densities more than 100 times that of a typical office building. For higher power density facilities, electricity costs are a dominant operating expense and account for over 10% of the total cost of ownership (TCO) of a data center. By 2012 the cost of power for the data center is expected to exceed the cost of the original capital investment.
According to a Greenpeace study, in 2012, data centers represented 21% of the electricity consumed by the IT sector, which was about 382 billion kWh a year. U.S. data centers use more than 90 billion kWh of electricity a year. Global data centers used roughly 416 TWh in 2016, nearly 40% more than the entire United Kingdom.
Greenhouse gas emissions
In 2007 the entire information and communication technologies or ICT sector was estimated to be responsible for roughly 2% of global carbon emissions with data centers accounting for 14% of the ICT footprint. for 2007. Given a business as usual scenario greenhouse gas emissions from data centers is projected to more than double from 2007 levels by 2020.
Siting is one of the factors that affect the energy consumption and environmental effects of a datacenter. In areas where climate favors cooling and lots of renewable electricity is available the environmental effects will be more moderate. Thus countries with favorable conditions, such as: Canada, Finland, Sweden, Norway and Switzerland, are trying to attract cloud computing data centers.
In an 18-month investigation by scholars at Rice University's Baker Institute for Public Policy in Houston and the Institute for Sustainable and Applied Infodynamics in Singapore, data center-related emissions will more than triple by 2020.
Energy efficiency
The most commonly used metric to determine the energy efficiency of a data center is power usage effectiveness, or PUE. This simple ratio is the total power entering the data center divided by the power used by the IT equipment.
- <math> \mathrm{PUE} = {\mbox{Total Facility Power} \over \mbox{IT Equipment Power}} </math>
Total facility power consists of power used by IT equipment plus any overhead power consumed by anything that is not considered a computing or data communication device (i.e. cooling, lighting, etc.). An ideal PUE is 1.0 for the hypothetical situation of zero overhead power. The average data center in the US has a PUE of 2.0,<ref name="energystar1"/> meaning that the facility uses two watts of total power (overhead + IT equipment) for every watt delivered to IT equipment. State-of-the-art data center energy efficiency is estimated to be roughly 1.2. Some large data center operators like Microsoft and Yahoo! have published projections of PUE for facilities in development; Google publishes quarterly actual efficiency performance from data centers in operation.
The U.S. Environmental Protection Agency has an Energy Star rating for standalone or large data centers. To qualify for the ecolabel, a data center must be within the top quartile of energy efficiency of all reported facilities. The United States passed the Energy Efficiency Improvement Act of 2015, which requires federal facilities — including data centers — to operate more efficiently. In 2014, California enacted title 24 of the California Code of Regulations, which mandates that every newly constructed data center must have some form of airflow containment in place, as a measure to optimize energy efficiency.
European Union also has a similar initiative: EU Code of Conduct for Data Centres
Energy use analysis
Often, the first step toward curbing energy use in a data center is to understand how energy is being used in the data center. Multiple types of analysis exist to measure data center energy use. Aspects measured include not just energy used by IT equipment itself, but also by the data center facility equipment, such as chillers and fans.
Power and cooling analysis
Power is the largest recurring cost to the user of a data center. A power and cooling analysis, also referred to as a thermal assessment, measures the relative temperatures in specific areas as well as the capacity of the cooling systems to handle specific ambient temperatures. A power and cooling analysis can help to identify hot spots, over-cooled areas that can handle greater power use density, the breakpoint of equipment loading, the effectiveness of a raised-floor strategy, and optimal equipment positioning (such as AC units) to balance temperatures across the data center. Power cooling density is a measure of how much square footage the center can cool at maximum capacity. The cooling of data centers is the second largest power consumer after servers. The cooling energy varies from 10% of the total energy consumption in the most efficient data centers and goes up to 45% in standard air-cooled data centers.
Energy efficiency analysis
An energy efficiency analysis measures the energy use of data center IT and facilities equipment. A typical energy efficiency analysis measures factors such as a data center's power use effectiveness (PUE) against industry standards, identifies mechanical and electrical sources of inefficiency, and identifies air-management metrics. However, the limitation of most current metrics and approaches is that they do not include IT in the analysis. Case studies have shown that by addressing energy efficiency holistically in a data center, major efficiencies can be achieved that are not possible otherwise.
Computational fluid dynamics (CFD) analysis
This type of analysis uses sophisticated tools and techniques to understand the unique thermal conditions present in each data center—predicting the temperature, airflow, and pressure behavior of a data center to assess performance and energy consumption, using numerical modeling. By predicting the effects of these environmental conditions, CFD analysis in the data center can be used to predict the impact of high-density racks mixed with low-density racks and the onward impact on cooling resources, poor infrastructure management practices and AC failure or AC shutdown for scheduled maintenance.
Thermal zone mapping
Thermal zone mapping uses sensors and computer modeling to create a three-dimensional image of the hot and cool zones in a data center.
This information can help to identify optimal positioning of data center equipment. For example, critical servers might be placed in a cool zone that is serviced by redundant AC units.
Green data centers
Data centers use a lot of power, consumed by two main usages: the power required to run the actual equipment and then the power required to cool the equipment. The first category is addressed by designing computers and storage systems that are increasingly power-efficient. To bring down cooling costs data center designers try to use natural ways to cool the equipment. Many data centers are located near good fiber connectivity, power grid connections and also people-concentrations to manage the equipment, but there are also circumstances where the data center can be miles away from the users and don't need a lot of local management. Examples of this are the 'mass' data centers like Google or Facebook: these DC's are built around many standardized servers and storage-arrays and the actual users of the systems are located all around the world. After the initial build of a data center staff numbers required to keep it running are often relatively low: especially data centers that provide mass-storage or computing power which don't need to be near population centers.Data centers in arctic locations where outside air provides all cooling are getting more popular as cooling and electricity are the two main variable cost components.
Energy reuse
The practice of cooling data centers is a topic of discussion. It is very difficult to reuse the heat which comes from air cooled data centers. For this reason, data center infrastructures are more often equipped with heat pumps. An alternative to heat pumps is the adoption of liquid cooling throughout a data center. Different liquid cooling techniques are mixed and matched to allow for a fully liquid cooled infrastructure which captures all heat in water. Different liquid technologies are categorised in 3 main groups, Indirect liquid cooling (water cooled racks), Direct liquid cooling (direct-to-chip cooling) and Total liquid cooling (complete immersion in liquid). This combination of technologies allows the creation of a thermal cascade as part of temperature chaining scenarios to create high temperature water outputs from the data center.
Network infrastructure
Communications in data centers today are most often based on networks running the IP protocol suite. Data centers contain a set of routers and switches that transport traffic between the servers and to the outside world which are connected according to the data center network architecture. Redundancy of the Internet connection is often provided by using two or more upstream service providers (see Multihoming).
Some of the servers at the data center are used for running the basic Internet and intranet services needed by internal users in the organization, e.g., e-mail servers, proxy servers, and DNS servers.
Network security elements are also usually deployed: firewalls, VPN gateways, intrusion detection systems, etc. Also common are monitoring systems for the network and some of the applications. Additional off site monitoring systems are also typical, in case of a failure of communications inside the data center.
Data center infrastructure management
Data center infrastructure management (DCIM) is the integration of information technology (IT) and facility management disciplines to centralize monitoring, management and intelligent capacity planning of a data center's critical systems. Achieved through the implementation of specialized software, hardware and sensors, DCIM enables common, real-time monitoring and management platform for all interdependent systems across IT and facility infrastructures.
Depending on the type of implementation, DCIM products can help data center managers identify and eliminate sources of risk to increase availability of critical IT systems. DCIM products also can be used to identify interdependencies between facility and IT infrastructures to alert the facility manager to gaps in system redundancy, and provide dynamic, holistic benchmarks on power consumption and efficiency to measure the effectiveness of "green IT" initiatives.
It's important to measure and understand data center efficiency metrics. A lot of the discussion in this area has focused on energy issues, but other metrics beyond the PUE can give a more detailed picture of the data center operations. Server, storage, and staff utilization metrics can contribute to a more complete view of an enterprise data center. In many cases, disc capacity goes unused and in many instances the organizations run their servers at 20% utilization or less. More effective automation tools can also improve the number of servers or virtual machines that a single admin can handle.
DCIM providers are increasingly linking with computational fluid dynamics providers to predict complex airflow patterns in the data center. The CFD component is necessary to quantify the impact of planned future changes on cooling resilience, capacity and efficiency.
Managing the capacity of a data center
Several parameters may limit the capacity of a data center. For long term usage, the main limitations will be available area, then available power. In the first stage of its life cycle, a data center will see its occupied space growing more rapidly than consumed energy. With constant densification of new IT technologies, the need in energy is going to become dominant, equaling then overcoming the need in area (second then third phase of cycle). The development and multiplication of connected objects, the needs in storage and data treatment lead to the necessity of data centers to grow more and more rapidly. It is therefore important to define a data center strategy before being cornered. The decision, conception and building cycle lasts several years. Therefore, it is imperative to initiate this strategic consideration when the data center reaches about 50% of its power capacity. Maximum occupation of a data center needs to be stabilized around 85%, be it in power or occupied area. Resources thus managed will allow a rotation zone for managing hardware replacement and will allow temporary cohabitation of old and new generations. In the case where this limit would be overcrossed durably, it would not be possible to proceed to material replacements, which would invariably lead to smothering the information system. The data center is a resource in its own right of the information system, with its own constraints of time and management (life span of 25 years), it therefore needs to be taken into consideration in the framework of the SI midterm planning (between 3 and 5 years).
Applications
The main purpose of a data center is running the IT systems applications that handle the core business and operational data of the organization. Such systems may be proprietary and developed internally by the organization, or bought from enterprise software vendors. Such common applications are ERP and CRM systems.
A data center may be concerned with just operations architecture or it may provide other services as well.
Often these applications will be composed of multiple hosts, each running a single component. Common components of such applications are databases, file servers, application servers, middleware, and various others.
Data centers are also used for off site backups. Companies may subscribe to backup services provided by a data center. This is often used in conjunction with backup tapes. Backups can be taken off servers locally on to tapes. However, tapes stored on site pose a security threat and are also susceptible to fire and flooding. Larger companies may also send their backups off site for added security. This can be done by backing up to a data center. Encrypted backups can be sent over the Internet to another data center where they can be stored securely.
For quick deployment or disaster recovery, several large hardware vendors have developed mobile/modular solutions that can be installed and made operational in very short time. Companies such as
- Cisco Systems,
- Sun Microsystems (Sun Modular Datacenter),
- Bull (mobull),
- IBM (Portable Modular Data Center),
- Schneider-Electric (Portable Modular Data Center),
- HP (Performance Optimized Datacenter),
- ZTE Corporation,
- FiberHome Technologies Group (FitMDC Modular Data Center Solution),
- Huawei (Container Data Center Solution),
- Google (Google Modular Data Center) have developed systems that could be used for this purpose.
- BASELAYER has a patent on the software defined modular data center.
US wholesale and retail colocation providers
According to data provided in the third quarter of 2013 by Synergy Research Group, "the scale of the wholesale colocation market in the United States is very significant relative to the retail market, with Q3 wholesale revenues reaching almost $700 million. Digital Realty Trust is the wholesale market leader, followed at a distance by DuPont Fabros." Synergy Research also described the US colocation market as the most mature and well-developed in the world, based on revenue and the continued adoption of cloud infrastructure services.
- Estimates from Synergy Research Group's Q3 2013 data.
Rank | Company name | US market share |
---|---|---|
1 | Various providers | 34% |
2 | Equinix | 18% |
3 | CenturyLink-Savvis | 8% |
4 | SunGard | 5% |
5 | AT&T | 5% |
6 | Verizon | 5% |
7 | Telx | 4% |
8 | CyrusOne | 4% |
9 | Level 3 Communications | 3% |
10 | Internap | 2% |