Manajemen Perangkat Lunak Dan Sistem Pada Superkomputer – Pada tahun 1960 UNIVAC membangun Livermore Atomic Research Computer (LARC), yang saat ini dianggap sebagai salah satu superkomputer pertama, untuk Pusat Penelitian dan Pengembangan Angkatan Laut AS.

Manajemen Perangkat Lunak Dan Sistem Pada SuperkomputerManajemen Perangkat Lunak Dan Sistem Pada Superkomputer

tokyopc.org – Itu masih menggunakan memori drum berkecepatan tinggi, daripada teknologi disk drive yang baru muncul. Juga, di antara superkomputer pertama adalah IBM 7030 Stretch. IBM 7030 dibangun oleh IBM untuk Laboratorium Nasional Los Alamos, yang pada tahun 1955 telah meminta komputer 100 kali lebih cepat daripada komputer mana pun yang ada.

Dilansir dari laman kompas.com, IBM 7030 menggunakan transistor, memori inti magnetik, instruksi pipelined, data yang diambil sebelumnya melalui pengontrol memori dan termasuk drive disk akses acak perintis. IBM 7030 diselesaikan pada tahun 1961 dan meskipun tidak memenuhi tantangan peningkatan kinerja seratus kali lipat, itu dibeli oleh Laboratorium Nasional Los Alamos. Pelanggan di Inggris dan Prancis juga membeli komputer, dan itu menjadi dasar untuk IBM 7950 Harvest, superkomputer yang dibuat untuk pembacaan sandi.

Baca Juga : Mac vs PC Windows, Mana yang Lebih Baik?

Proyek superkomputer perintis ketiga di awal 1960-an adalah Atlas di Universitas Manchester, yang dibuat oleh tim yang dipimpin oleh Tom Kilburn. Dia merancang Atlas untuk memiliki ruang memori hingga satu juta kata dengan 48 bit, tetapi karena penyimpanan magnetik dengan kapasitas seperti itu tidak terjangkau, memori inti sebenarnya dari Atlas hanya 16.000 kata, dengan drum menyediakan memori untuk 96.000 lebih lanjut, kata-kata.

Sistem operasi Atlas menukar data dalam bentuk halaman antara inti magnet dan drum. Sistem operasi Atlas juga memperkenalkan pembagian waktu ke superkomputer, sehingga lebih dari satu program dapat dieksekusi pada superkomputer tersebut dalam satu waktu.

Atlas adalah perusahaan patungan antara Ferranti dan Universitas Manchester dan dirancang untuk beroperasi pada kecepatan pemrosesan yang mendekati satu mikrodetik per instruksi, sekitar satu juta instruksi per detik.

CDC 6600, dirancang oleh Seymour Cray, diselesaikan pada tahun 1964 dan menandai transisi dari transistor germanium ke silikon. Transistor silikon dapat bekerja lebih cepat dan masalah overheating diselesaikan dengan memperkenalkan desain superkomputer refrigerasi.

Dengan demikian, CDC6600 menjadi komputer tercepat di dunia. Mengingat bahwa 6600 mengungguli semua komputer kontemporer lainnya sekitar 10 kali lipat, ia dijuluki superkomputer dan menentukan pasar superkomputer, ketika seratus komputer dijual masing-masing dengan harga $ 8 juta.

Cray meninggalkan CDC pada tahun 1972 untuk membentuk perusahaannya sendiri, Cray Research. Empat tahun setelah meninggalkan CDC, Cray mengirimkan 80 MHz Cray-1 pada tahun 1976, yang menjadi salah satu superkomputer paling sukses dalam sejarah.

Cray-2 dirilis pada tahun 1985. Ia memiliki delapan unit pemrosesan pusat (CPU), pendingin cair dan fluorinert cairan pendingin elektronik yang dipompa melalui arsitektur superkomputer. Ini dilakukan pada 1.9 gigaFLOPS dan merupakan yang tercepat kedua di dunia setelah superkomputer M-13 di Moskow.

Desain paralel besar-besaran

Satu-satunya komputer yang secara serius menantang kinerja Cray-1 pada tahun 1970-an adalah ILLIAC IV. Mesin ini adalah contoh nyata pertama dari komputer paralel masif yang sebenarnya, di mana banyak prosesor bekerja sama untuk memecahkan berbagai bagian dari satu masalah yang lebih besar.

Berbeda dengan sistem vektor, yang dirancang untuk menjalankan aliran data tunggal secepat mungkin, dalam konsep ini, komputer memberikan bagian data yang terpisah ke prosesor yang sama sekali berbeda dan kemudian menggabungkan kembali hasilnya.

Desain ILLIAC diselesaikan pada tahun 1966 dengan 256 prosesor dan menawarkan kecepatan hingga 1 GFLOPS, dibandingkan dengan puncak Cray-1 tahun 1970-an sebesar 250 MFLOPS.

Namun, masalah pengembangan menyebabkan hanya 64 prosesor yang sedang dibangun, dan sistem tidak pernah dapat beroperasi lebih cepat dari sekitar 200 MFLOPS sementara jauh lebih besar dan lebih kompleks daripada Cray. Masalah lainnya adalah sulitnya menulis perangkat lunak untuk sistem, dan mendapatkan kinerja puncak darinya adalah masalah upaya yang serius.

Namun keberhasilan parsial ILLIAC IV secara luas dipandang sebagai petunjuk jalan ke masa depan superkomputer. Cray membantah hal ini, yang terkenal menyindir bahwa “Jika Anda membajak ladang, mana yang akan Anda gunakan? Dua sapi kuat atau 1024 ayam?” Tetapi pada awal 1980-an, beberapa tim mengerjakan desain paralel dengan ribuan prosesor, terutama Connection Machine (CM) yang dikembangkan dari penelitian di MIT.

CM-1 menggunakan sebanyak 65.536 mikroprosesor kustom sederhana yang terhubung bersama dalam jaringan untuk berbagi data. Beberapa versi yang diperbarui mengikuti; superkomputer CM-5 adalah komputer pemrosesan paralel masif yang mampu melakukan miliaran operasi aritmatika per detik.

Pada tahun 1982, Sistem Grafik Komputer LINKS-1 Universitas Osaka menggunakan arsitektur pemrosesan paralel besar-besaran, dengan 514 mikroprosesor, termasuk 257 prosesor kontrol Zilog Z8001 dan 257 prosesor titik mengambang iAPX 86/20.

Itu terutama digunakan untuk rendering grafik komputer 3D yang realistis. VPP500 Fujitsu dari tahun 1992 tidak biasa karena, untuk mencapai kecepatan yang lebih tinggi, prosesornya menggunakan GaA, bahan yang biasanya digunakan untuk aplikasi gelombang mikro karena toksisitasnya.

Superkomputer Numerical Wind Tunnel Fujitsu menggunakan 166 prosesor vektor untuk mendapatkan posisi teratas pada tahun 1994 dengan kecepatan puncak 1,7 gigaFLOPS (GFLOPS) per prosesor.

Hitachi SR2201 memperoleh kinerja puncak 600 GFLOPS pada tahun 1996 dengan menggunakan prosesor 2048 yang terhubung melalui jaringan palang tiga dimensi yang cepat. Intel Paragon dapat memiliki 1000 hingga 4000 prosesor Intel i860 dalam berbagai konfigurasi dan menduduki peringkat tercepat di dunia pada tahun 1993.

Paragon adalah mesin MIMD yang menghubungkan prosesor melalui mesh dua dimensi berkecepatan tinggi, memungkinkan proses untuk dijalankan pada node terpisah , berkomunikasi melalui Message Passing Interface.

Pengembangan perangkat lunak tetap menjadi masalah, tetapi seri CM memicu banyak penelitian tentang masalah ini. Desain serupa yang menggunakan perangkat keras khusus dibuat oleh banyak perusahaan, termasuk Evans & Sutherland ES-1, MasPar, nCUBE, Intel iPSC, dan Goodyear MPP.

Tetapi pada pertengahan 1990-an, kinerja CPU untuk keperluan umum telah meningkat pesat sehingga superkomputer dapat dibuat menggunakannya sebagai unit pemrosesan individual, alih-alih menggunakan chip khusus. Pada pergantian abad ke-21, desain yang menampilkan puluhan ribu CPU komoditas menjadi hal yang biasa, dengan mesin kemudian menambahkan unit grafis ke dalam campuran.

Sistem dengan jumlah prosesor yang banyak biasanya mengambil salah satu dari dua jalur. Dalam pendekatan komputasi grid, kekuatan pemrosesan banyak komputer, diatur sebagai domain administratif yang terdistribusi dan beragam, secara oportunistik digunakan setiap kali komputer tersedia dan dalam pendekatan lain, banyak prosesor digunakan berdekatan satu sama lain, misalnya di cluster komputer.

Dalam sistem paralel padat terkonsentrasi semacam itu, kecekatan serta elastisitas interkoneksi jadi amat berarti serta superkomputer modern sudah memakai bermacam pendekatan mulai dari sistem Infiniband yang disempurnakan sampai interkoneksi torus 3 format. Pemakaian prosesor multi- inti yang digabungkan dengan sentralisasi merupakan arah yang timbul, mis. semacam pada sistem Cyclops64.

Karena harga, kinerja, dan efisiensi energi prosesor grafis tujuan umum (GPGPU) telah meningkat, sejumlah superkomputer petaFLOPS seperti Tianhe-I dan Nebulae mulai mengandalkannya.

Namun, sistem lain seperti komputer K terus menggunakan prosesor konvensional seperti desain berbasis SPARC dan keseluruhan penerapan GPGPU dalam aplikasi komputasi kinerja tinggi untuk keperluan umum telah menjadi subjek perdebatan, sementara GPGPU dapat disetel.

Untuk mendapatkan skor yang baik pada tolok ukur tertentu, penerapannya secara keseluruhan pada algoritme sehari-hari mungkin dibatasi kecuali upaya yang signifikan dilakukan untuk menyesuaikan aplikasi dengan itu. Namun, GPU mulai berkembang dan pada tahun 2012 superkomputer Jaguar diubah menjadi Titan dengan menyesuaikan CPU dengan GPU.

Komputer berkinerja tinggi memiliki siklus hidup yang diharapkan sekitar tiga tahun sebelum memerlukan peningkatan. Superkomputer Gyoukou unik karena menggunakan desain paralel masif dan pendingin perendaman cair.

Superkomputer tujuan khusus

Sejumlah sistem “tujuan khusus” telah dirancang, didedikasikan untuk satu masalah. Hal ini memungkinkan penggunaan chip FPGA yang diprogram secara khusus atau bahkan ASIC khusus, yang memungkinkan rasio harga / kinerja yang lebih baik dengan mengorbankan keumuman. Contoh superkomputer tujuan khusus termasuk Belle, Deep Blue, dan Hydra, untuk bermain catur, Pipa Gravity untuk astrofisika, MDGRAPE-3 untuk dinamika komputasi struktur protein, dan Deep Crack, untuk memecahkan sandi DES.

Penggunaan energi dan manajemen panas

Sepanjang sebagian dekade, pengurusan kepadatan panas senantiasa jadi permasalahan penting untuk beberapa besar superkomputer terkonsentrasi. Banyaknya panas yang diperoleh oleh sesuatu sistem pula bisa mempunyai dampak lain, mis. mengurangi masa pakai komponen sistem lainnya.

Ada beragam pendekatan untuk manajemen panas, dari memompa Fluorinert melalui sistem, hingga sistem pendingin udara-cair hibrid atau pendingin udara dengan suhu AC normal. Superkomputer tipikal mengkonsumsi daya listrik dalam jumlah besar, yang hampir semuanya diubah menjadi panas, membutuhkan pendinginan.

Misalnya, Tianhe-1A mengkonsumsi listrik 4,04 megawatt (MW). Biaya untuk menyalakan dan mendinginkan sistem bisa jadi signifikan, mis. 4 MW pada $ 0,10 / kWh adalah $ 400 per jam atau sekitar $ 3,5 juta per tahun.

Manajemen panas adalah masalah utama dalam perangkat elektronik yang kompleks dan memengaruhi sistem komputer yang kuat dalam berbagai cara. Daya desain termal dan masalah disipasi daya CPU dalam superkomputer melampaui teknologi pendingin komputer tradisional. Penghargaan superkomputer untuk komputasi hijau mencerminkan masalah ini.

Pengemasan ribuan prosesor bersama-sama pasti menghasilkan kepadatan panas dalam jumlah besar yang perlu ditangani. Cray 2 didinginkan dengan cairan, dan menggunakan “air terjun pendingin” Fluorinert yang dipaksa melalui modul di bawah tekanan.

Namun, pendekatan pendinginan cair terendam tidak praktis untuk sistem multi-kabinet yang didasarkan pada prosesor off-the-shelf, dan di Sistem X sistem pendingin khusus yang menggabungkan AC dengan pendingin cair dikembangkan bersama dengan perusahaan Liebert.

Dalam sistem Blue Gene, IBM sengaja menggunakan prosesor berdaya rendah untuk menangani kepadatan panas. IBM Power 775, dirilis pada tahun 2011, memiliki elemen yang sangat padat yang membutuhkan pendingin air. Sistem IBM Aquasar menggunakan pendingin air panas untuk mencapai efisiensi energi, air juga digunakan untuk memanaskan bangunan.

Efisiensi energi sistem komputer umumnya diukur dalam istilah “FLOPS per watt”. Pada tahun 2008, Roadrunner oleh IBM beroperasi pada 3,76 MFLOPS / W. Pada bulan November 2010, Blue Gene / Q mencapai 1.684 MFLOPS / W dan pada bulan Juni 2011, 2 tempat teratas dalam daftar Green 500 ditempati oleh mesin Blue Gene di New York (satu mencapai 2097 MFLOPS / W) dengan cluster DEGIMA di Nagasaki menempatkan ketiga dengan 1375 MFLOPS / W.

Karena kabel tembaga dapat mentransfer energi ke superkomputer dengan kepadatan daya yang jauh lebih tinggi daripada udara paksa atau refrigeran yang bersirkulasi dapat menghilangkan panas buangan, kemampuan sistem pendingin untuk menghilangkan panas buangan merupakan faktor pembatas.

Pada 2015, banyak superkomputer yang ada memiliki kapasitas infrastruktur lebih dari permintaan puncak aktual mesin – desainer umumnya secara konservatif merancang infrastruktur daya dan pendingin untuk menangani lebih dari daya listrik puncak teoretis yang dikonsumsi oleh superkomputer.

Desain untuk superkomputer masa depan dibatasi daya – daya desain termal superkomputer secara keseluruhan, jumlah yang dapat ditangani oleh infrastruktur daya dan pendingin, agak lebih dari konsumsi daya normal yang diharapkan, tetapi kurang dari konsumsi daya puncak teoretis perangkat keras elektronik.

Sistem operasi

Sejak akhir abad ke-20, sistem operasi superkomputer telah mengalami transformasi besar-besaran, berdasarkan perubahan arsitektur superkomputer. Sementara sistem operasi awal dirancang khusus untuk setiap superkomputer untuk mendapatkan kecepatan, trennya adalah beralih dari sistem operasi in-house ke adaptasi perangkat lunak generik seperti Linux.

Baca Juga : Jenis Utama Perangkat Lunak Pada Komputer

Karena superkomputer paralel masif modern biasanya memisahkan komputasi dari layanan lain dengan menggunakan beberapa jenis node, mereka biasanya menjalankan sistem operasi yang berbeda pada node yang berbeda, mis. menggunakan kernel ringan yang kecil dan efisien seperti CNK atau CNL pada node komputasi, tetapi sistem yang lebih besar seperti turunan Linux pada server dan node I / O.

Sementara dalam penjadwalan pekerjaan sistem komputer multi-pengguna tradisional, pada dasarnya, masalah penugasan untuk pemrosesan dan sumber daya periferal, dalam sistem paralel besar-besaran, sistem manajemen pekerjaan perlu mengelola alokasi sumber daya komputasi dan komunikasi, serta dengan anggun menangani kegagalan perangkat keras yang tak terhindarkan saat puluhan ribu prosesor hadir.

Meskipun sebagian besar superkomputer modern menggunakan sistem operasi berbasis Linux, setiap pabrikan memiliki turunan Linux spesifiknya sendiri, dan tidak ada standar industri, sebagian karena perbedaan dalam arsitektur perangkat keras memerlukan perubahan untuk mengoptimalkan sistem operasi untuk setiap desain perangkat keras. .