Garisan antara PC dan pusat data menjadi kabur dengan cepat, dan dengannya datang kategori baharu: superkomputer desktop untuk AILonjakan ini bukan sahaja mendemokrasikan akses kepada pengkomputeran besar-besaran, ia juga mengubah cara kami membuat prototaip, melatih dan membuat kesimpulan model lanjutan tanpa sentiasa bergantung pada awan.
Secara selari, planet ini mengalami perlumbaan sebenar untuk exascale, dari infrastruktur negara ratusan megawatt kepada komputer padat yang mampu mencapai petaFLOPS di pejabat penyelidik. Dalam artikel ini, kami mengumpulkan, di satu tempat, semua data utama daripada sumber yang dirujuk: gambaran keseluruhan global, pemain Eropah dan Asia, senarai sejarah, pusat terkemuka dan, sudah tentu, bintang desktop baharu, Nvidia DGX Spark.
Apakah superkomputer dan mengapa ia penting dalam AI?
Un superkomputer Ia adalah sistem dengan keupayaan pengkomputeran yang jauh lebih baik daripada PC konvensional. Prestasinya dinyatakan dalam FLOPS (operasi titik terapung sesaat), dengan unit seperti petaFLOPS (1015) dan, dalam golongan elit semasa, exaFLOPS (1018).
Mereka beroperasi sebagai satu set beribu-ribu nod (masing-masing dengan CPU, GPU khusus, memori dan storan) disambungkan oleh rangkaian dan suis berkelajuan tinggi, untuk bekerja sebagai mesin tunggal. Walaupun komputer meja yang berkuasa boleh berjalan dalam puluhan TFLOPS, sistem ini boleh mencapai ratusan PFLOPS atau lebih.
Aplikasinya meliputi hampir semua perkara: ramalan cuaca, astrofizik, bioperubatan, reka bentuk ubat, simulasi nuklear, geofizik, kemampanan dan penyelidikan AI. Terima kasih kepada pengkomputeran besar-besaran, mereka boleh memproses berbilion-bilion titik data dalam beberapa saat dan menyelesaikan masalah yang akan mengambil masa bertahun-tahun dengan peralatan tradisional.
- Kegunaan Pilihan: senjata dan keselamatan negara, industri farmaseutikal, data besar, bioinformatik, iklim dan kualiti udara, simulasi kejuruteraan, bandar pintar, pendidikan dan pengkomputeran awan.
Oleh kerana saiz dan penggunaannya, mereka memerlukan penyejukan lanjutan (selalunya cecair), bilik tertentu dengan kawalan suhu dan perlindungan kebakaran. Malah terdapat pusat yang menggunakan semula haba yang dijana, seperti yang berlaku di kemudahan Switzerland yang memanaskan bangunan universiti.
Eropah mempercepatkan: EuroHPC, InvestAI dan sistem besar

Eropah mempunyai 162 superkomputer didaftarkan pada 2025 dan merancang kemudahan baharu. EU juga telah mempromosikan pelaburan €200.000 bilion di bawah inisiatif InvestAI untuk menjadi peneraju global dalam kecerdasan buatan.
Penyelarasan dan pembiayaan pengkomputeran tinggi jatuh kepada "Usahasama Eropah untuk Pengkomputeran Berprestasi Tinggi» (EuroHPC JU), yang menaja dan mengendalikan rangkaian 9 sistem yang tersebar di seluruh benua. Ini termasuk LUMI (Finland), Leonardo (Itali) dan MareNostrum 5 (Sepanyol), tiang-tiang Kedaulatan digital Eropah.
Sepanyol menyumbang Pusat Pengkomputeran Besar Barcelona (BSC-CNS), yang pada 2004 membina MareNostrum 1 yang bersejarah dan mempersembahkan MareNostrum 5 pada Disember 2023. Yang terakhir, dengan 314 PFLOPS maksimum, pemproses Intel Xeon dan penggunaan 4.158,90 kW, akan menduduki kedudukan ke-11 dalam TOP500 pada 2025 dan berorientasikan AI, penyelidikan perubatan, penemuan ubat dan meteorologi.
Itali bersinar dengan Leonardo (Cineca + EuroHPC), dipasang pada 2022 di Bologna. Ia menggabungkan teknologi AMD dan Intel, menggunakan 7.493,74 kW, dan mencapai 315,74 PFLOPS dan menduduki tempat ke-9 di seluruh dunia. Ia adalah kunci untuk universiti dan syarikat bersaing di peringkat global dalam bioperubatan, tenaga, iklim, dan, terutama sekali, AI.
Finland menjadi tuan rumah BILIK (CSC + EuroHPC), dikuasakan oleh AMD dan HPE. Ia dibuka pada 2023 di Kajaani, dan dijangka sampai 386 PFLOPS, menggunakan 7.106,82 kW dan memegang tempat ke-8 di seluruh dunia. Dalam EuroHPC, ia adalah salah satu benteng yang paling berkuasa.
Secara selari, Switzerland mengendalikan superkomputer di CSCS ALPS/ALPS 5, yang dengan penggunaan 7.124,00 kW dan 434,90 PFLOPS menduduki tempat ke-7 dunia. Ia memberi tumpuan kepada meteorologi, AI, bioperubatan dan tenaga, dan merupakan sebahagian daripada program dengan 13 projek di mana ALPES adalah yang paling melambangkan.
Sektor tenaga juga mendorong: ENI (Itali) dilancarkan pada 2024 HPC-6 dengan AMD dan HPE, yang mencapai 606,97 PFLOPS dengan penggunaan 8.460,90 kW. Ia dipautkan kepada Pusat Data Hijau ENI untuk mempercepatkan peralihan tenaga, dan menduduki tempat ke-5 di seluruh dunia.
Asia dan Amerika: exascale, rekod, dan sistem bayangan
Jepun mengekalkan simbol kecemerlangan dengan Fugaku (RIKEN R-CCS, Kobe). Berdasarkan seni bina Fujitsu A64FX dan ARM, ia mencapai 442 PFLOPS dengan 26.248,36 kW, dan terus menjadi penanda aras untuk kecekapannya, sehingga menerajui Green500 mengikut sumber yang dirujuk. Ia digunakan untuk perubatan, iklim, AI, dan kecekapan tenaga.
Rusia, walaupun terdapat sekatan, digunakan pada 2023 MSU-270 di Universiti Negeri Lomonosov (Moscow). Ia menyepadukan sekitar 100 pemecut grafik canggih (tidak diketahui sama ada ia daripada AMD atau Intel) dan dianggarkan 400 PFLOPS, disepadukan ke dalam rangkaian pusat Rusia untuk AI, fizik, kimia, matematik dan perubatan.
China menggabungkan budi bicara dan otot. Siri Sunway (Wuxi) dilahirkan pada 2016 dengan TaihuLight (125 PFLOPS) dan berkembang pada 2021 kepada OceanLight, dianggap exascale (>1 exaFLOPS), walaupun tanpa angka rasmi disebabkan oleh ketegangan teknologi dengan AS. Pada 2024/2025, the Tianhe-3 (Xingyi) Ia akan mencapai antara 1,57 dan 2,01 exaFLOPS dalam ujian, dengan khabar angin dapat mengatasi El Capitan.
Amerika Syarikat bermain dalam "liga utama" dengan beberapa model exascale. Aurora (ANL + DOE), direka untuk mencapai 1,9–2 exaFLOPS, telah dipasang pada 2023 dan mencapai kemuncaknya pada 2024; hari ini ia menduduki tempat ke-3 dalam TOP500 dan berfungsi sains, perubatan, iklim, AI, astrofizik dan fizik zarah. selari, Kapten (LLNL + NNSA) menyasarkan 2–2,8 exaFLOPS, menerajui TOP500, dan akan dikhususkan untuk keselamatan negara, dengan aplikasi dalam simulasi nuklear, keselamatan siber, penjagaan kesihatan, perubahan iklim dan astrofizik.
Di luar senarai awam, terdapat inisiatif AI khusus di peringkat negara. Di Wuhan, China Telecom mengendalikan Pusat Pengkomputeran Pintar Pusat, dibina dengan perkakasan dan perisian domestik dan penyejukan cecair, bertujuan untuk melatih model gergasi; beberapa sumber malah menunjuk kepada 5 exaFLOPS, walaupun tanpa pengesahan rasmi.
India dihidupkan: GPU, awan dan ufuk besar
India tidak mahu ketinggalan. Inisiatif Kapasiti Pengiraan IndiaAI (dalam Misi IndiaAI) komited sekitar $1.240 bilion pada 2024 untuk superkomputer baharu dengan sekurang-kurangnya 10.000 GPU untuk AI dengan kerjasama Nvidia. Selain itu, Microsoft mengumumkan $3.000 bilion pada Januari 2025 untuk infrastruktur awan dan AI di negara ini.
Ekosistem tempatan semakin panas: Bhavish Aggarwal (CEO Ola) melabur $230 juta dalam Krutrim-2 LLM. ada 34 superkomputer, dan C-DAC sedang memandu, bersama-sama dengan National Supercomputing Mission (NSM), rangkaian nasional yang boleh menyampaikan sistem exascale pertama India antara 2025 dan 2026. Ia dirancang untuk membina lebih daripada 70 superkomputer pada tahun-tahun akan datang.
Colossus, superkomputer xAI, dan kontroversi tenaga
Di Amerika Syarikat, xAI (Elon Musk) mengerahkan Colossus di Memphis hanya dalam 122 hari pada 2024. Ia bermula dengan 100.000 GPU Nvidia dan merancang 200.000, menyasarkan Grok 3.0 AI dan versi masa hadapan. Dalam ujian penanda aras ia akan sampai 10,6 exaFLOPS AI, angka yang akan meletakkannya antara yang paling berkuasa di planet ini.
Tidak semuanya adalah tepukan: penggunaan gas asli sebagai sumber tenaga telah mendapat kritikan kerana kesannya terhadap kualiti udara tempatan. Namun, projek itu menggambarkan kelajuan sektor swasta boleh membina infrastruktur tertumpu AI bertaraf dunia.
DGX Spark: "superkomputer desktop" yang membawa pulang AI termaju
Nvidia telah menetapkan bar yang tinggi dengan DGX Spark, sistem padat yang dianugerahkan oleh TIME sebagai salah satu "Rekacipta Terbaik 2025" dan tersedia untuk pembelian umum mulai 15 Oktober. Intinya ialah Grace Blackwell GB10, mampu mencapai 1 petaFLOPS, dengan rangkaian ConnectX-7 dan keseluruhan timbunan perisian AI Nvidia supaya penyelidik dan pemula boleh menggunakannya "plug and play".
Pada peringkat perkakasan, Spark menggabungkan a CPU ARM 20 teras (10 Cortex-X925 + 10 Cortex-A725), 128GB LPDDR5x Memori GPU Disatukan, 4TB Penyulitan Sendiri M.2 NVMe SSD, 4x USB-C, HDMI, WiFi 7, Bluetooth 5.4, 10GbE LAN dan Sistem OS DGX. Ia direka untuk AI agenik, penaakulan, dan muatan kompleks moden.
Nvidia mengekalkan bahawa mereka boleh model muat dengan sehingga 70.000 bilion parameter, jalankan inferens setempat dan simpan data sensitif di premis tanpa bergantung pada awan. Laporan lain menunjukkan bahawa ia boleh mengendalikan LLM sehingga 200.000 bilion parameter bergantung pada konfigurasi dan model, menggariskan cita-citanya sebagai "pusat data mini" desktop.
Dari segi fungsi, kemungkinan menghubungkan dua Sparks dalam kelompok mini untuk mencipta "awan peribadi." Penyepaduannya adalah mudah: rangkaian berwayar dan wayarles, peranti Bluetooth dan timbunan CUDA/cuDNN, Triton dan syarikat untuk digunakan Prototaip ejen, penalaan halus, inferens terpencil dan keselamatan data.
Harga permulaan ditetapkan pada Dolar AS 3.999, dan jenama utama seperti Acer, Asus, Dell, Gigabyte, HP, Lenovo dan MSI akan menjadi varian pemasaran. Penting: ini bukan PC Windows biasa; ia adalah a superkomputer tempatan untuk AI serasi dengan model DeepSeek, AI CinaMeta, Nvidia, Google dan Qwen, antara aplikasi sumber terbuka yang lain. Malah Elon Musk telah pun menerima unitnya daripada Jensen Huang.
Ketibaan Spark bertepatan dengan perubahan dalam keutamaan: menurut pemimpin industri, Pengguna dan perniagaan akan mencari sistem yang menyokong gelombang pengecasan pintar seterusnya.Pesanan dibuka di Nvidia.com dan melalui rakan kongsi dan pengedar yang dibenarkan.
PC dan Stesen Kerja AI: Apabila Anda Memerlukan Perkakasan Tertentu

Jika anda akan melatih model atau membangunkan, adalah dinasihatkan melabur dalam perkakasan khusus; jika anda hanya menggunakan AI, pasukan yang seimbang mungkin mencukupi atau menggunakan Contoh EC2 dalam awan.
Selain itu, terdapat pasukan yang membawa AI berkuasa ke pasaran tempatan tanpa bergantung pada awan, seperti yang telah kita lihat dengan Spark. Dan jika anda tidak pasti tentang pilihan, sesetengah menawarkan sokongan yang diperibadikan: IbericaVIP berjanji untuk menasihati anda untuk memilih PC yang ideal untuk projek AI anda.
Komuniti dan berita: tidak semua yang anda baca adalah rasmi
Internet penuh dengan forum dan subreddit yang memfokuskan Nvidia di mana pemandu, GPU dan khabar angin dibincangkan. Nota: Komuniti ini diuruskan oleh peminat dan tidak mewakili Nvidia melainkan dinyatakan dengan jelas. Adalah baik untuk mengingati perkara ini semasa menilai kebocoran atau angka yang tidak disahkan.
Rupa mereka di dalam: seni bina, penskalaan dan penyejukan
Superkomputer pada asasnya ialah satu set beribu-ribu komputer yang dipautkan oleh kependaman rendah, rangkaian jalur lebar tinggiSetiap nod menyepadukan CPU, GPU, RAM dan storan; sistem menambah kuasa melalui perisian dan perpustakaan yang dioptimumkan.
Metrik yang memerintah ialah FLOPS: kami pergi dari TFLOPS pada PC rumah ke PFLOPS dan exaFLOPS dalam HPC. Oleh itu, 1 TFLOPS = 1012 FLOPS dan 1 PFLOPS = 1015Superkomputer mengambil seluruh bilik dan digunakan oleh berbilang pasukan serentak, dengan sumber sering berjalan pada hadnya.
Penyejukan adalah kritikal. Terdapat CPU dan GPU yang melebihi 80 ºC, itulah sebabnya air terbaja atau cecair, penukar haba dan reka bentuk tersuai digunakan. Sesetengah pemasangan menggunakan penyelesaian kreatif, seperti guna semula haba untuk memanaskan bangunan.
Di mana mereka berada dan bagaimana untuk melawat mereka
Terdapat lebih daripada seribu superkomputer di dunia. China dan Amerika Syarikat memimpin dalam bilangan dan otot, dengan data sejarah seperti 226 sistem China antara 500 yang paling berkuasa. Walau bagaimanapun, AS telah mengumpul lebih banyak jumlah PFLOPS (644) berbanding China (565) dalam edisi tertentu.
Di Sepanyol, MareNostrum daripada BSC-CNS (Barcelona) adalah yang paling berkuasa di negara ini. Versi pertamanya disimpan dalam bekas kaca dengan sistem pemadam kebakaran kabus mikro dan lokasi yang unik: gereja kecil di Kampus Utara UPC. Lawatan maya dan, kadangkala, lawatan berpandu disediakan.
Dokumen sejarah meletakkan kemasukan berkuat kuasa Mare Nostrum 5 antara 2020 dan 2021; ia akhirnya diperkenalkan pada penghujung tahun 2023 dengan peningkatan prestasi yang dinyatakan di atas. Evolusi ini jelas menggambarkan bagaimana kalendar dalam HPC mengalami pelarasan kerana kerumitan teknikal.
Senarai sejarah dan sistem pilihan lain
Senarai itu TOP500 Ia telah wujud sejak tahun 1993 dan dikemas kini dua kali setahun. Pada tahun 2021, sebagai contoh, 10 teratas termasuk Fugaku, Summit, Sierra, Sunway TaihuLight, Perlmutter, Selene, Tianhe-2A, Juwels Booster Module, HPC5 dan Frontera. Walaupun beberapa telah diatasi, mereka kekal pencapaian teknologi untuk kesannya.
Beberapa data tambahan yang berkaitan daripada sistem yang dipetik dalam sumber: Sempadan (HPE Cray EX, ORNL) adalah yang pertama secara rasmi memecahkan exascale; Sidang Kemuncak (IBM POWER9 + Nvidia V100) cemerlang dalam Alzheimer, genetik dan meteorologi; sierra (IBM + Nvidia + Mellanox) bekerja untuk NNSA mengenai keselamatan nuklear.
Di Eropah, sebagai tambahan kepada yang telah disebutkan, terdapat Penggalak Juwels y SuperMUC (Lenovo, penyejukan air terus), dengan berpuluh-puluh petabait dan persekitaran visualisasi yang berkuasa. Switzerland beroperasi Pizz Daint (Cray), dengan DataWarp sebagai penimbal pecah untuk mempercepatkan I/O.
Itali diperbadankan HPC5 (Dell, pada ENI) dengan Xeon Gold 6252 dan Nvidia V100; Marconi-100 (IBM POWER9 + Volta V100) di Cineca; dan Perlmutter (Berkeley Lab, Amerika Syarikat) adalah salah satu yang paling berkuasa dalam pemprosesan AI dengan 6.000 GPU A100, berkemampuan 180 PFLOPS dan, dalam senario AI tertentu, beberapa exaFLOPS yang berkesan.
Di AS, Selene (Nvidia, A100) bersinar untuk kecekapan (1.344 kW); Frontera (Dell, Univ. Texas) menonjol untuk storannya (50 PB HDD + 3 PB SSD, 12 Tbps) dan but semula dalam 17 saat; Trinity (Cray XC40) berkhidmat kepada NNSA dengan Haswell dan Knights Landing; Mari (IBM Power9) mengukuhkan ekosistem LLNL.
Jepun juga mempromosikan ABCI (Fujitsu) untuk AI dalam awan. Dan di Sepanyol, Mare Nostrum 4 (2017) mencapai 13,7 PFLOPS sebelum melonjak ke MN5, dengan aplikasi dalam genetik, kimia, paleontologi, meteorologi atau kualiti udara (CALIOPE).
Keseluruhan peta ini, daripada pemasangan exascale ke desktop, melukis masa terdekat di mana Menguji, menala dan membuat kesimpulan model lanjutan akan menjadi semakin setempat, dengan awan sebagai pelengkap. Eropah melangkah ke hadapan dengan EuroHPC, Amerika Syarikat dan China memegang nadi yang besar, India muncul dengan pelaburan besar-besaran, dan dari segi desktop, DGX Spark membuka pintu ketara kepada AI peringkat tinggi tanpa meninggalkan makmal, pejabat, malah rumah.