Pertama-tama, tentukan komponen dan sumber daya apa yang Anda perlukan. Anda memerlukan satu node utama, setidaknya selusin node komputasi yang identik, switch Ethernet, unit distribusi daya, dan rak. Tentukan kapasitas kabel dan pendinginan, serta jumlah ruang yang Anda perlukan. Putuskan juga alamat IP apa yang ingin Anda gunakan untuk node, perangkat lunak apa yang akan Anda instal, dan teknologi apa yang Anda perlukan untuk menciptakan daya komputasi paralel (lebih lanjut tentang ini di bawah).
Pasang node. Anda perlu merakit node jaringan atau membeli server yang sudah dirakit sebelumnya.
Instal server di rak. Mulailah dari bawah agar rak di bagian atas tidak kelebihan beban. Anda memerlukan bantuan teman - server yang dirakit bisa sangat berat, dan menempatkannya di dalam sangkar yang menahannya di rak cukup sulit.
Pasang sakelar Ethernet di sebelah rak. Sebaiknya segera konfigurasikan sakelar: atur ukuran bingkai jumbo menjadi 9000 byte, atur alamat IP statis yang Anda pilih pada langkah 1 dan matikan protokol yang tidak perlu seperti SMTP.
Memasang unit distribusi tenaga listrik (PDU, atau Power Distribution Unit). Bergantung pada beban maksimum yang dapat ditangani oleh node di jaringan Anda, Anda mungkin memerlukan 220 volt untuk komputer berperforma tinggi.
Setelah semuanya terinstal, lanjutkan ke konfigurasi. Faktanya, Linux adalah sistem pilihan untuk klaster berkinerja tinggi (HPC) - tidak hanya ideal sebagai lingkungan komputasi ilmiah, namun Anda juga tidak perlu membayar untuk menginstal sistem pada ratusan atau bahkan ribuan komputer. node. Bayangkan berapa biayanya Instalasi Windows ke semua node!
Instal antarmuka penyampaian pesan, pengelola sumber daya, dan pustaka lain yang diperlukan. Jika Anda tidak menginstal Rocks pada langkah sebelumnya, Anda harus menginstal perangkat lunak yang diperlukan secara manual untuk mengatur logika komputasi paralel.
Hubungkan komputer ke dalam jaringan. Node utama mengirimkan tugas perhitungan ke node budak, yang pada gilirannya harus mengembalikan hasilnya, dan juga mengirim pesan satu sama lain. Dan semakin cepat semua ini terjadi, semakin baik.
Uji clusternya. Hal terakhir yang harus Anda lakukan sebelum memberikan akses daya komputer kepada pengguna adalah menguji kinerjanya. Benchmark HPL (High Performance Lynpack) adalah pilihan populer untuk mengukur kecepatan komputasi dalam sebuah cluster. Anda perlu mengkompilasi perangkat lunak dari sumber hingga tingkat optimasi tertinggi yang dimungkinkan oleh kompiler Anda untuk arsitektur yang Anda pilih.
Saya membangun “cluster” komputer papan tunggal pertama saya segera setelah komputer mikro PC Orange Pi mulai mendapatkan popularitas. Bisa disebut “cluster” dengan sangat luas, karena dari sudut pandang formal memang adil jaringan lokal dari empat papan yang “melihat” satu sama lain dan dapat mengakses Internet.
Perangkat tersebut berpartisipasi dalam proyek SETI@home dan bahkan berhasil menghitung sesuatu. Tapi sayangnya, tidak ada yang datang menjemputku dari planet ini.
Namun, selama mengutak-atik kabel, konektor, dan kartu microSD, saya belajar banyak. Jadi, misalnya, saya menemukan bahwa Anda tidak boleh mempercayai kekuatan catu daya yang dinyatakan, bahwa akan lebih baik untuk mendistribusikan beban dalam hal konsumsi, dan penampang kabel itu penting.
Dan ya, kami harus “bertani secara kolektif” sistem manajemen daya, karena pengaktifan lima perangkat papan tunggal secara bersamaan mungkin memerlukan arus pengasutan sekitar 8-10A (5*2)! Jumlahnya banyak, terutama untuk pasokan listrik yang dibuat di ruang bawah tanah negara, tempat kami senang memesan segala macam... gadget menarik.
Saya mungkin akan mulai dengan dia. Tugasnya turun ke tindakan yang relatif sederhana - setelah jangka waktu tertentu, nyalakan 4 saluran secara berurutan yang melaluinya 5 volt disuplai. Cara termudah untuk mengimplementasikan rencana Anda adalah Arduino (yang berlimpah di setiap geek yang menghargai diri sendiri) dan papan ajaib dari Ali dengan 4 relay.
Dan tahukah Anda, itu bahkan berhasil.
Namun, klik “gaya lemari es” saat startup menyebabkan beberapa ketidaknyamanan. Pertama, ketika terdengar bunyi klik, gangguan mengalir melalui catu daya dan kapasitor perlu dipasang, dan kedua, keseluruhan strukturnya cukup besar.
Jadi suatu hari saya cukup mengganti blok relay dengan saklar transistor berbasis IRL520.
Ini memecahkan masalah interferensi, tetapi karena MOSFET mengontrol "nol", saya harus meninggalkan kaki kuningan di rak agar tidak secara tidak sengaja menyambungkan ground papan.
Dan kini, solusi tersebut direplikasi dengan sempurna dan dua klaster sudah bekerja secara stabil tanpa kejutan apa pun. Seperti yang direncanakan.
Tapi mari kita kembali ke replikasi. Mengapa membeli catu daya dengan harga yang mahal ketika ada banyak ATX terjangkau yang bisa Anda beli?
Selain itu, mereka memiliki semua voltase (5,12,3.3), awal diagnosis mandiri dan kemungkinan kontrol program.
Baiklah, saya tidak akan membahas terlalu banyak detail di sini - artikel tentang mengendalikan ATX melalui Arduino.
Nah, apakah pilnya sudah dimakan semua, dan perangkonya juga ditempel? Saatnya menyatukan semuanya.
Akan ada satu node kepala yang terhubung ke dunia luar melalui WiFi dan mengirimkan “Internet” ke cluster. Ini akan didukung oleh tegangan siaga ATX.
Faktanya, TBNG bertanggung jawab untuk mendistribusikan Internet.
Jadi, jika diinginkan, node cluster bisa disembunyikan di balik TOR.
Juga, akan ada papan rumit yang terhubung melalui i2c ke node kepala ini. Ini akan dapat menghidupkan/mematikan masing-masing dari 10 node pekerja. Ditambah lagi, ia akan mampu mengontrol tiga kipas 12V untuk mendinginkan seluruh sistem.
Skenario pengoperasiannya adalah sebagai berikut: ketika ATX dihidupkan pada 220V, node kepala dimulai. Ketika sistem siap dioperasikan, sistem akan menyalakan 10 node dan kipas secara berurutan.
Ketika proses peralihan selesai, node kepala akan mengelilingi setiap node yang bekerja dan menanyakan bagaimana perasaan kita, berapa suhunya. Jika salah satu rak menjadi panas, tingkatkan aliran udara.
Nah, dengan perintah shutdown, setiap node akan dimatikan dan diberi energi dengan hati-hati.
Saya sendiri yang menggambar diagram papannya, jadi terlihat menyeramkan. Namun, orang yang terlatih melakukan penelusuran dan pembuatan, dan kami sangat berterima kasih padanya.
Ini dia sedang dalam proses perakitan
Berikut adalah salah satu sketsa pertama lokasi komponen cluster. Dibuat di selembar kertas kotak-kotak dan diabadikan melalui Office Lens melalui telepon.
Seluruh struktur ditempatkan pada selembar textolite yang dibeli untuk acara tersebut.
Ini kira-kira seperti apa lokasi node di dalamnya. Dua rak yang masing-masing terdiri dari lima kartu.
Di sini Anda dapat melihat kontrol Arduino. Terhubung ke kepala Orange Pi Pc melalui i2c melalui konverter level.
Nah, ini yang final (versi saat ini).
Jadi, yang Anda perlukan hanyalah menulis beberapa utilitas dengan Python yang akan menjalankan semua musik ini - nyalakan, nyalakan, sesuaikan kecepatan kipas.
Saya tidak akan membuat Anda bosan dengan detail teknisnya - tampilannya seperti ini:
1
2 3 4 5 6 7 8 | #!/usr/bin/env sh echo "Memulai papan ATX..." /home/zno/i2creobus/i2catx_tool.py --mulai gema "Menetapkan nilai penggemar awal..." /home/zno/i2creobus/i2creobus_tool.py --kipas 0 --set 60 /home/zno/i2creobus/i2creobus_tool.py --kipas 1 --set 60 /home/zno/i2creobus/i2creobus_tool.py --kipas 2 --set 60 |
Karena kami sudah memiliki sebanyak 10 node, kami menggunakan Ansible, yang akan membantu, misalnya, mematikan semua node dengan benar. Atau jalankan monitor suhu pada masing-masingnya.
1
2 3 4 5 6 7 8 | ---
- tuan rumah: pekerja peran: - webmon_stop - webmon_hapus - webmon_install - webmon_mulai |
Saya sering dituduh dengan nada meremehkan, mengatakan bahwa ini hanyalah jaringan lokal pelat tunggal (seperti yang telah saya sebutkan di awal). Secara umum, saya tidak peduli dengan pendapat orang lain, tapi mungkin kita akan menambahkan sedikit glamor dan mengatur cluster buruh pelabuhan.
Tugasnya sangat sederhana dan dapat diselesaikan dalam waktu kurang dari 10 menit. Kemudian kita meluncurkan sebuah instance Portainer di node kepala, dan voila!
Sekarang kamu bisa Sungguh tugas skala. Dengan demikian, penambang cryptocurrency Verium Reserve saat ini berjalan di cluster. Dan cukup berhasil. Saya berharap penduduk asli terdekat akan mendapatkan kembali listrik yang dikonsumsi;) Atau kurangi jumlah node yang terlibat dan menambang sesuatu yang lain seperti Turtle Coin.
Jika Anda menginginkan payload, Anda dapat memasukkan Hadoop ke dalam cluster atau mengatur penyeimbangan server web. Ada banyak gambar siap pakai di Internet, dan materi pelatihannya cukup. Nah, jika gambar (gambar buruh pelabuhan) hilang, Anda selalu dapat membuatnya sendiri.
Apa yang diajarkan hal ini kepada saya? Secara umum, “tumpukan” teknologi sangat luas. Nilailah sendiri - Docker, Ansible, Python, upgrade Arduino (maafkan saya, ini tidak akan dikatakan pada malam hari), dan shell, tentu saja. Dan juga KiCad dan bekerja sama dengan kontraktor :).
Apa yang bisa dilakukan dengan lebih baik? Banyak. Di sisi perangkat lunak, alangkah baiknya jika menulis ulang utilitas kontrol di Go. Omong-omong - membuatnya lebih steampunkish - KDPV pada awalnya meningkatkan standar dengan sempurna. Jadi ada sesuatu yang harus dikerjakan.
Peran yang dilakukan oleh:
Selama percobaan, beberapa papan Orange Pi PC2 rusak karena catu daya yang tercampur (terbakar dengan sangat baik), PC2 lainnya kehilangan Ethernet (ini adalah cerita terpisah di mana saya tidak memahami fisika prosesnya) .
Tampaknya itulah keseluruhan cerita “dari atas ke bawah.” Jika ada yang menganggapnya menarik, ajukan pertanyaan di komentar. Dan pilih pertanyaan di sana (suara positif - setiap komentar memiliki tombol untuk ini). Paling pertanyaan menarik akan dibahas dalam catatan baru.
Terima kasih telah membaca sampai akhir.
(Omong-omong, dimungkinkan untuk merakit cluster yang murah dan efisien dari xbox 360 atau PS3, prosesornya hampir sama dengan Power, dan Anda dapat membeli lebih dari satu konsol seharga satu juta.)
Berdasarkan hal ini, kami mencatat pilihan harga yang menarik untuk membangun sistem berkinerja tinggi. Tentu saja harus multiprosesor. Intel menggunakan prosesor Xeon untuk tugas tersebut, sedangkan AMD menggunakan prosesor Opteron.
Agar delapan prosesor dapat masuk ke dalam casing, mereka tidak langsung dipasang papan utama, tetapi pada papan terpisah yang dicolokkan ke motherboard. Foto menunjukkan empat papan dengan prosesor terpasang di motherboard (masing-masing dua). Ini adalah solusi Supermicro. Dalam solusi HP, setiap prosesor memiliki papannya sendiri. Biaya solusi HP adalah dua hingga tiga juta, tergantung pada konten prosesor, memori, dan lainnya. Sasis dari Supermicro berharga $10.000, yang lebih menarik. Selain itu, Supermicro dapat memasang empat kartu ekspansi koprosesor di port PCI-Express x16 (omong-omong, masih ada ruang bagi adaptor Infiniband untuk merakit clusternya), sedangkan HP hanya memiliki dua. Jadi, untuk membuat superkomputer, platform delapan prosesor dari Supermicro lebih menarik. Foto pameran berikut menunjukkan superkomputer yang dirangkai dengan empat papan GPU.
Untuk memilih model tertentu, saya menyusun tabel di mana saya menghitung indikator harga/(jumlah inti*frekuensi) untuk setiap prosesor. Saya mengecualikan prosesor dengan frekuensi di bawah 2 GHz dari perhitungan, dan untuk Intel - dengan bus di bawah 6,4GT/s.
Model |
Jumlah inti |
Frekuensi |
Harga, $ |
Harga/inti, $ |
Harga/Inti/GHz |
AMD |
|||||
6386 SE |
16 |
2,8 |
1392 |
87 |
31 |
6380 |
16 |
2,5 |
1088 |
68 |
27 |
6378 |
16 |
2,4 |
867 |
54 |
23 |
6376 |
16 |
2,3 |
703 |
44 |
19 |
6348 |
12 |
2,8 |
575 |
48 |
17 |
6344
|
12 |
2,6 |
415 |
35 |
13 |
6328 |
8 |
3,2 |
575 |
72 |
22 |
6320 |
8 |
2,8 |
293 |
37 |
13 |
INTELI |
|||||
E5-2690 |
8 |
2,9 |
2057 |
257 |
89 |
E5-2680 |
8 |
2,7 |
1723 |
215 |
80 |
E5-2670 |
8 |
2,6 |
1552 |
194 |
75 |
E5-2665 |
8 |
2,4 |
1440 |
180 |
75 |
E5-2660 |
8 |
2,2 |
1329 |
166 |
76 |
E5-2650 |
8 |
2 |
1107 |
138 |
69 |
E5-2687W |
8 |
3,1 |
1885 |
236 |
76 |
E5-4650L |
8 |
2,6 |
3616 |
452 |
174 |
E5-4650 |
8 |
2,7 |
3616 |
452 |
167 |
E5-4640 |
8 |
2,4 |
2725 |
341 |
142 |
E5-4617 |
6 |
2,9 |
1611 |
269 |
93 |
E5-4610 |
6 |
2,4 |
1219 |
203 |
85 |
E5-2640 |
6 |
2,5 |
885 |
148 |
59 |
E5-2630
|
6 |
2,3 |
612 |
102 |
44 |
E5-2667 |
6 |
2,9 |
1552 |
259 |
89 |
X5690 |
6 |
3,46 |
1663 |
277 |
80 |
X5680 |
6 |
3,33 |
1663 |
277 |
83 |
X5675 |
6 |
3,06 |
1440 |
240 |
78 |
X5670 |
6 |
2,93 |
1440 |
240 |
82 |
X5660 |
6 |
2,8 |
1219 |
203 |
73 |
X5650 |
6 |
2,66 |
996 |
166 |
62 |
E5-4607 |
6 |
2,2 |
885 |
148 |
67 |
X5687 |
4 |
3,6 |
1663 |
416 |
115 |
X5677 |
4 |
3,46 |
1663 |
416 |
120 |
X5672 |
4 |
3,2 |
1440 |
360 |
113 |
X5667 |
4 |
3,06 |
1440 |
360 |
118 |
E5-2643 |
4 |
3,3 |
885 |
221 |
67 |
Jadi, prosesor pilihan saya untuk superkomputer adalah Opteron 6386 SE, Opteron 6344, Xeon E5-2687W dan Xeon E5-2630.
Sistem seperti itu tanpa GPU akan menelan biaya setidaknya $5.000.
Supermicro X9DRG-QF - board ini dirancang khusus untuk merakit sistem berkinerja tinggi.
Fitur dari koprosesor tersebut adalah adanya volume besar di dalamnya RAM, perhitungan presisi ganda yang cepat dan efisiensi energi.
FP32, Tflop | FP64, Tflop | Harga | Memori, GB | |
Nvidia Tesla K20X | 3.95 | 1.31 | 5.5 | 6 |
AMD FirePro S10000 | 5.91 | 1.48 | 3.6 | 6 |
Intel Xeon Phi 5110P | 1 | 2.7 | 8 | |
Nvidia GTXTitan | 4.5 | 1.3 | 1.1 | 6 |
Nvidia GTX 680 | 3 | 0.13 | 0.5 | 2 |
Edisi AMD HD 7970 GHz | 4 | 1 | 0.5 | 3 |
AMD HD 7990 Setan 13 | 2x3.7 | 2x0,92 | 1.6 | 2x3 |
Solusi dari Intel - Xeon Phi 5110P menarik karena semua core dalam koprosesor didasarkan pada arsitektur x86 dan tidak diperlukan optimasi kode khusus untuk menjalankan perhitungan. Namun favorit saya di antara koprosesor adalah AMD HD 7970 GHz Edition yang relatif murah. Secara teori, kartu video ini akan menunjukkan performa maksimal per biaya.
Gunakan sebagai antarmuka jaringan Untuk menghubungkan komputer, gigabit Ethernet biasa terlalu lambat. Infiniband paling sering digunakan untuk tujuan ini. Adaptor host Infiniband lebih murah dibandingkan dengan server. Misalnya, pada lelang internasional Ebay, adaptor tersebut dijual dengan harga mulai dari $40. Misalnya, adaptor DDR X4 (20Gb/s) akan berharga sekitar $100 dengan pengiriman ke Rusia.
Pada saat yang sama, peralatan switching untuk Infiniband cukup mahal. Dan seperti disebutkan di atas, bintang klasik sebagai topologi jaringan komputer- Bukan pilihan terbaik.
Namun, host InfiniBand dapat dihubungkan satu sama lain secara langsung, tanpa saklar. Kemudian, misalnya, opsi ini menjadi cukup menarik: sekelompok dua komputer yang terhubung melalui infiniband. Superkomputer semacam itu dapat dengan mudah dirakit di rumah.
Di Tianhe-1A, superkomputer berbasis xeon Tiongkok, hubungannya adalah sebagai berikut. Dua prosesor enam inti untuk satu kartu video Nvidia M2050 (lebih lemah dari K20X).
Kami akan menganggap sikap majelis kami ini sebagai hal yang optimal (karena lebih murah). Artinya, 12-16 inti prosesor per GPU. Pada tabel di bawah, opsi yang memungkinkan secara praktis ditunjukkan dalam huruf tebal, dan opsi yang paling berhasil dari sudut pandang saya digarisbawahi.
GPU | Inti | CPU 6 inti | CPU 8 inti | CPU 12 inti | CPU 16 inti | |||||
2 | 24 | 32 | 4
|
5 |
3
|
4
|
2
|
3
|
2
|
2
|
3 | 36 | 48 | 6 |
8 |
5 |
6 |
3
|
4
|
2
|
3
|
4 | 48 | 64 | 8 |
11 |
6 |
8 |
4
|
5 |
3
|
4
|
papan utama | Supermikro H8QGL-6F | 1 | 1200 | 1200 |
CPU | AMD Opteron 6344 | 4 | 500 | 2000 |
Pendingin CPU | Thermaltake CLS0017 | 4 | 40 | 160 |
Kasus 1400W | SC748TQ-R1400B | 1 | 1000 | 1000 |
Akselerator grafis | Edisi AMD HD 7970 GHz | 3 | 500 | 1500 |
5860 |
Kuantitas | Harga | Jumlah | ||
papan utama | TYAN S8232 | 1 | 790 | 790 |
CPU | AMD Opteron 6282SE | 2 | 1000 | 2000 |
Pendingin CPU | Noctua NH-U12DO A3 | 2 | 60 | 120 |
Bingkai | Antec Dua Belas Ratus Hitam | 1 | 200 | 200 |
satuan daya | FSP AURUM PRO 1200W | 2 | 200 | 400 |
Akselerator grafis | Edisi AMD HD 7970 GHz | 2 | 500 | 1000 |
Akselerator grafis | AX7990 6GBD5-A2DHJ | 1 | 1000 | 1000 |
Adaptor tak terbatas | X4 DDR pita tak terbatas | 1 | 140 | 140 |
Kabel tak terbatas | X4 DDR pita tak terbatas | 1 | 30 | 30 |
5680 (per blok) |
Artikel ini akan menunjukkan kepada Anda cara membangun cluster failover Server 2012 dengan dua node. Pertama, saya akan mencantumkan prasyarat dan memberikan gambaran umum tentang lingkungan perangkat keras, jaringan, dan pengaturan penyimpanan. Kemudian akan dijelaskan secara rinci cara memperluas Server 2012 dengan kemampuan pengelompokan failover dan menggunakan Failover Cluster Manager untuk mengonfigurasi kluster dua simpul.
DI DALAM Server Windows Ada begitu banyak inovasi di tahun 2012 sehingga sulit untuk melacak semuanya. Beberapa elemen terpenting dari infrastruktur TI baru melibatkan perbaikan dalam pengelompokan failover. Pengelompokan failover dimulai sebagai teknologi untuk melindungi aplikasi penting yang diperlukan untuk operasi produksi, seperti Microsoft SQLServer dan Microsoft Exchange. Namun kemudian, pengelompokan failover berkembang menjadi platform ketersediaan tinggi untuk sejumlah layanan dan Aplikasi Windows. Pengelompokan failover adalah bagian dari dasar Pusat Data Dinamis dan teknologi seperti migrasi langsung. Dengan Server 2012 dan peningkatan baru Protokol server Blok Pesan (SMB) 3.0 memperluas cakupan pengelompokan failover untuk menyediakan sumber daya file yang terus tersedia akses bersama. Gambaran umum tentang fungsionalitas pengelompokan failover di Server 2012 diberikan dalam artikel “Fitur baru pengelompokan failover di Windows Server 2012” yang diterbitkan dalam edisi majalah yang sama.
Untuk membangun kluster failover Server 2012 dua simpul, Anda memerlukan dua komputer yang menjalankan Pusat Data Server 2012 atau edisi Standar. Ini bisa berupa komputer fisik atau mesin virtual. Cluster dengan node virtual dapat dibangun menggunakan Microsoft Hyper-V atau VMware vSphere. Artikel ini menggunakan dua server fisik, namun langkah-langkah untuk menyiapkan cluster untuk node fisik dan virtual sama. Fitur Utama adalah node harus dikonfigurasi secara identik sehingga node cadangan dapat menjalankan beban kerja jika terjadi failover atau migrasi langsung. Komponen yang digunakan dalam kluster failover pengujian Server 2012 ditunjukkan pada gambar.
Kluster failover Server 2012 memerlukan penyimpanan bersama seperti iSCSI, SCSI Terlampir Serial, atau Fibre Channel SAN. Contoh kami menggunakan iSCSI SAN. Fitur-fitur berikut dari jenis penyimpanan ini harus diingat.
Untuk informasi selengkapnya tentang mengonfigurasi penyimpanan iSCSI untuk kluster failover, lihat sidebar "Contoh Konfigurasi Penyimpanan ISCSI". Rincian lebih lanjut tentang persyaratan untuk pengelompokan failover dijelaskan dalam artikel “Persyaratan Perangkat Keras dan Opsi Penyimpanan Pengelompokan Failover” (http://technet.microsoft.com/en-us/library/jj612869.aspx).
Langkah pertama untuk membuat cluster failover Server 2012 dua node adalah menambahkan komponen cluster failover menggunakan Server Manager. Server Manager otomatis terbuka ketika Anda login ke Server 2012. Untuk menambahkan fitur failover cluster, pilih Server Lokal dan gulir ke bawah ke bagian PERAN DAN FITUR. Dari daftar drop-down TASKS, pilih Add Roles and Features, seperti yang ditunjukkan Gambar 1. Ini akan meluncurkan Add Roles and Features Wizard.
Halaman pertama yang dibuka setelah meluncurkan wizard adalah halaman selamat datang Sebelum Anda memulai. Klik Berikutnya untuk membuka halaman pemilihan jenis instalasi, yang menanyakan apakah Anda ingin menginstal komponen tersebut komputer lokal atau dalam pelayanan Desktop Jarak Jauh. Untuk contoh ini, pilih opsi instalasi berbasis peran atau berbasis fitur dan klik Berikutnya.
Pada halaman Pilih server tujuan, pilih server tempat Anda ingin menginstal fitur kluster failover. Dalam kasus saya itu server lokal bernama WS2012-N1. Dengan server lokal Anda dipilih, klik Berikutnya untuk membuka halaman Pilih peran server. DI DALAM dalam contoh ini Peran server belum ditetapkan, jadi klik Berikutnya. Atau Anda dapat mengklik link Fitur di menu sebelah kiri.
Pada halaman Pilih fitur, gulir ke bawah daftar fitur ke Pengelompokan Failover. Klik pada kotak di depan Failover Clustering dan Anda akan melihat kotak dialog yang mencantumkan berbagai komponen yang akan diinstal sebagai bagian dari komponen tersebut. Seperti yang ditunjukkan Gambar 2, secara default wizard akan menginstal alat manajemen kluster failover dan modul kluster failover untuk Windows PowerShell. Klik tombol Tambah Fitur untuk kembali ke halaman pemilihan fitur. Klik Berikutnya.
Halaman Konfirmasi pilihan instalasi akan menampilkan fitur kluster failover bersama dengan alat manajemen dan modul PowerShell. Anda dapat kembali dan membuat perubahan apa pun dari halaman ini. Ketika Anda mengklik tombol Instal, instalasi komponen yang sebenarnya akan dimulai. Setelah instalasi selesai, wizard akan selesai dan fitur Failover Cluster akan muncul di bagian PERAN DAN FITUR Manajer Server. Proses ini harus diselesaikan pada kedua node.
Langkah selanjutnya setelah menambahkan fitur failover cluster adalah meninjau pengaturan lingkungan di mana cluster dibuat. Di sini Anda dapat menggunakan Validasi Pengaturan Wizard di Failover Cluster Manager. Wizard ini memeriksa pengaturan perangkat keras dan perangkat lunak semua node di cluster dan melaporkan masalah apa pun yang mungkin mengganggu organisasi cluster.
Untuk membuka Failover Cluster Manager, pilih opsi Failover Cluster Manager dari menu Tools di Server Manager. Di area Manajemen, klik link Validasi Konfigurasi, seperti yang ditunjukkan Gambar 3, untuk meluncurkan Wizard Validasi Konfigurasi.
|
Layar 3: Meluncurkan Wizard Konfigurasi Verifikasi |
Pertama, halaman selamat datang wizard akan muncul. Klik Berikutnya untuk masuk ke halaman pilihan server atau Cluster. Di halaman ini, masukkan nama node cluster yang ingin Anda periksa. Saya menentukan WS2012-N1 dan WS2012-N2. Klik Berikutnya untuk menampilkan halaman Opsi Pengujian, tempat Anda dapat memilih rangkaian pengujian tertentu atau menjalankan semua pengujian. Setidaknya untuk pertama kalinya, saya sarankan menjalankan semua tes. Klik Berikutnya untuk membuka halaman konfirmasi yang menampilkan pengujian yang sedang berjalan. Klik Berikutnya untuk memulai proses pengujian cluster. Selama pengujian, versinya diperiksa sistem operasi, pengaturan jaringan dan penyimpanan untuk semua node cluster. Ringkasan hasil ditampilkan setelah tes selesai.
Jika uji validasi berhasil, Anda dapat membuat cluster. Gambar 4 menunjukkan layar ringkasan klaster yang berhasil diverifikasi. Jika ditemukan kesalahan selama pemeriksaan, laporan akan ditandai segitiga kuning(peringatan) atau tanda "X" merah untuk kesalahan serius. Peringatan harus dibaca tetapi dapat diabaikan. Kesalahan serius harus diperbaiki sebelum membuat cluster.
Akibatnya, wizard pembuatan cluster akan diluncurkan, yang dimulai dari halaman selamat datang. Klik Next untuk masuk ke halaman Pemilihan Server, yang ditunjukkan pada Gambar 6. Pada halaman ini, masukkan nama semua node di cluster, lalu klik Next.
Pada halaman Access Point for Administering the Cluster, Anda harus menentukan nama dan alamat IP cluster, yang harus unik di jaringan. Seperti yang Anda lihat di Layar 7, nama cluster saya adalah WS2012-CL01 dan alamat IP adalah 192.168.100.200. Saat menggunakan Server 2012, alamat IP cluster dapat ditetapkan melalui DHCP, tapi saya lebih suka alamat IP yang ditetapkan secara statis untuk server saya.
Setelah memasukkan nama dan alamat IP Anda, klik Next untuk melihat halaman konfirmasi (Gambar 8). Di halaman ini Anda dapat memverifikasi pengaturan yang dibuat saat membuat cluster. Anda dapat kembali dan melakukan perubahan jika perlu.
Setelah mengklik tombol Next pada halaman konfirmasi, cluster terbentuk pada semua node yang dipilih. Halaman kemajuan menunjukkan langkah-langkah wizard dalam proses pembuatan cluster baru. Setelah selesai, wizard akan menampilkan halaman ringkasan dengan pengaturan untuk cluster baru.
New Cluster Wizard secara otomatis memilih kuorum penyimpanan, namun sering kali memilih kuorum disk yang berbeda dari yang diinginkan administrator. Untuk memeriksa disk mana yang digunakan untuk kuorum, buka Failover Cluster Manager dan perluas cluster. Kemudian buka node Penyimpanan dan klik node Disk. Disk yang tersedia di cluster akan ditampilkan di panel Disk. Disk yang dipilih oleh wizard untuk kuorum klaster akan dicantumkan di bagian Saksi Disk di Kuorum.
Dalam contoh ini, Cluster Disk 4 digunakan untuk kuorum. Ukurannya adalah 520 MB, sedikit lebih besar dari nilai minimum kuorum sebesar 512 MB. Jika Anda ingin menggunakan disk yang berbeda untuk kuorum klaster, Anda dapat mengubah pengaturan klaster dengan mengklik kanan nama klaster di Failover Cluster Manager, memilih Tindakan Lainnya, lalu memilih Konfigurasikan Pengaturan Kuorum Klaster. Ini akan menampilkan Wizard Konfigurasi Kuorum, yang memungkinkan Anda mengubah pengaturan kuorum klaster.
Kedua node di cluster saya memiliki peran Hyper-V karena cluster dirancang untuk mesin virtual dengan ketersediaan tinggi yang menyediakan migrasi langsung. Untuk mempermudah migrasi langsung, selanjutnya Anda perlu mengonfigurasi Cluster Shared Volumes (CSV). Tidak seperti Server 2008 R2, Cluster Shared Volumes diaktifkan secara default di Server 2012. Namun, Anda masih perlu menentukan penyimpanan mana yang akan digunakan untuk Volume Bersama Klaster. Untuk mengaktifkan CSV pada disk yang tersedia, perluas node Penyimpanan dan pilih node Disk. Selanjutnya, pilih disk cluster yang ingin Anda gunakan sebagai CSV dan klik link Add to Cluster Shared Volumes di panel Actions pada Failover Cluster Manager (Gambar 9). Bidang Ditugaskan Ke untuk disk cluster ini berubah dari Penyimpanan yang Tersedia menjadi Volume Bersama Cluster, seperti yang ditunjukkan Gambar 9.
Saat ini, Failover Cluster Manager mengonfigurasi penyimpanan disk cluster untuk CSV, khususnya menambahkan titik mount ke dalamnya disk sistem. Dalam contoh ini, Cluster Shared Volumes diaktifkan pada Cluster Disk 1 dan Cluster Disk 3 dengan menambahkan titik pemasangan berikut:
* C:ClusterStorageVolume1 * C:ClusterStorageVolume2
Pada tahap ini, cluster dua node Server 2012 telah dibangun dan Cluster Shared Volumes telah diaktifkan. Anda kemudian dapat menginstal aplikasi cluster atau menambahkan peran ke cluster. Dalam hal ini, cluster dibuat untuk virtualisasi, jadi kami menambahkan peran mesin virtual ke cluster.
Untuk menambahkan peran baru, pilih nama klaster di panel navigasi Failover Cluster Manager dan klik tautan Konfigurasikan Peran di panel Tindakan untuk meluncurkan Wizard Ketersediaan Tinggi. Klik Berikutnya di halaman Selamat Datang untuk membuka halaman pemilihan peran. Gulir ke bawah daftar peran hingga Anda melihat peran mesin virtual, seperti yang ditunjukkan Gambar 10. Pilih peran dan klik Berikutnya.
Halaman Pilih Mesin Virtual akan mencantumkan semua VM di semua node di cluster, seperti yang ditunjukkan Gambar 11. Gulir daftar dan pilih mesin virtual yang ingin Anda berikan ketersediaan tinggi. Klik Berikutnya. Setelah Anda mengonfirmasi pilihan Anda, klik Berikutnya untuk menambahkan peran mesin virtual ke Failover Cluster Manager.
Untuk toleransi kesalahan kluster Windows Server 2012 memerlukan penyimpanan bersama, yang dapat berupa iSCSI, Serially Attached SCSI, atau Fibre Channel SAN. Kluster failover ini menggunakan Channel SAN.
Pertama, tiga LUN dibuat di iSCSI SAN. Satu LUN dibuat untuk disk kuorum cluster (520 MB). LUN lainnya ditujukan untuk 10 mesin virtual dan berukuran 375 GB. LUN ketiga didedikasikan untuk mesin virtual pengujian kecil. Ketiga LUN dalam format NTFS.
Setelah LUN dibuat, Inisiator iSCSI dikonfigurasikan pada kedua node Server 2012. Untuk menambahkan target iSCSI, Inisiator iSCSI dipilih dari menu Alat di Manajer Server. Pada tab Penemuan, saya mengklik tombol Temukan Portal. Hasilnya, kotak dialog Discover Portal muncul, di mana alamat IP (192.168.0.1) dan port iSCSI (3260) dari jaringan SAN dimasukkan.
Saya kemudian pergi ke tab Target dan mengklik tombol Hubungkan. Di kotak dialog Connect To Target, saya memasukkan nama target iSCSI SAN. Itu diperoleh dari properti SAN. Namanya bergantung pada penyedia SAN, nama domain, dan nama LUN yang dibuat. Selain nama target, saya mengatur mode Tambahkan koneksi ini ke daftar Target Favorit.
Setelah pengaturan iSCSI selesai, LUN ini akan muncul di tab Target pada Inisiator iSCSI. Untuk memasang LUN secara otomatis ketika Server 2012 dimulai, saya memastikan LUN tersebut terdaftar di tab Target Favorit, seperti yang ditunjukkan pada Layar A.
Layar A: Mengonfigurasi Inisiator iSCSI |
Terakhir, nama huruf ditetapkan ke LUN menggunakan snap-in Disk Konsol manajemen Manajemen Microsoft (MMC). Saya memilih Q untuk disk kuorum dan W untuk disk yang digunakan untuk mesin virtual dan Cluster Shared Volumes (CSV). Saat menetapkan simbol huruf, Anda harus menetapkannya terlebih dahulu pada node yang sama. Kemudian Anda perlu membuat disk offline dan membuat tugas serupa pada node kedua. Hasil penetapan huruf drive untuk satu node ditampilkan di Layar B. Saat Anda membuat cluster, drive akan ditampilkan sebagai penyimpanan yang tersedia.