Amazon AWS memperluas penawaran komputasi dan menampilkan chip Graviton3E baru yang kuat

Halo kawan dekat TanyaTekno, bertemu kembali kita di artikel ini. Di artikel ini saya akan mengupas Amazon AWS memperluas penawaran komputasi dan menampilkan chip Graviton3E baru yang kuat

Sejak Amazon meluncurkan lengan layanan komputasi awannya pada tahun 2006 — dikenal luas sebagai AWS (Amazon Web Services) — perusahaan ini memiliki misi untuk tidak hanya mengubah dunia dalam visinya tentang bagaimana sumber daya komputasi dibeli dan digunakan, tetapi juga untuk membuat mereka di mana-mana mungkin. Strategi ini dipajang di Re:Invent tahun ini.

AWS telah meluncurkan beberapa opsi komputasi baru, beberapa didasarkan pada arsitektur silikon kustom baru, serta rangkaian kurasi data, analisis, dan alat serta layanan konektivitas yang memusingkan. Banyaknya dan kompleksitas dari banyak fitur dan layanan baru yang diluncurkan membuat sulit untuk melacak semua opsi yang sekarang tersedia bagi pelanggan. Namun, alih-alih merupakan hasil dari pengembangan yang tidak terkendali, banyak kemampuan yang dirancang.

Adam Selepski, CEO baru AWS, sangat ingin menunjukkan selama keynote-nya (lihat di atas) dan penampilan lainnya bahwa organisasi tersebut “terobsesi” dengan pelanggan. Akibatnya, sebagian besar keputusan dan strategi produk didasarkan pada permintaan pelanggan. Ternyata ketika Anda memiliki tipe pelanggan yang berbeda dengan jenis beban kerja dan persyaratan yang berbeda, Anda berakhir dengan sekumpulan opsi yang kompleks.

Secara realistis, pendekatan semacam ini akan mencapai alasannya di beberapa titik, tetapi sementara itu, itu berarti bahwa berbagai produk dan layanan AWS kemungkinan besar merupakan bayangan cermin dari keseluruhan (dan kompleksitas) lanskap komputasi perusahaan saat ini. Memang, ada banyak wawasan tentang tren komputasi perusahaan yang menunggu untuk dikumpulkan dari analisis tentang layanan apa yang digunakan sampai tingkat apa dan bagaimana mereka berubah dari waktu ke waktu, tetapi itu adalah topik untuk lain waktu.

Dalam bidang pilihan komputasi, perusahaan mengakui bahwa sekarang memiliki lebih dari 600 status komputasi EC2 yang berbeda (Elastic Compute Cloud), masing-masing terdiri dari kombinasi berbeda dari CPU dan akselerasi silikon lainnya, memori, koneksi jaringan, dan banyak lagi. Meskipun ini adalah angka yang sulit untuk diperkirakan sepenuhnya, ini sekali lagi menunjukkan betapa beragamnya tuntutan komputasi saat ini. Dari aplikasi cloud-native, berbasis AI, atau berbasis ML yang memerlukan akselerator AI terbaru atau GPU khusus hingga aplikasi perusahaan lama yang “dioptimalkan dan bervariasi” yang hanya menggunakan CPU x86 lama, layanan komputasi awan seperti AWS kini harus mampu menangani semua hal di atas.

Entri baru yang diumumkan tahun ini mencakup beberapa prosesor berdasarkan CPU Xeon Scalable generasi ketiga Intel. Namun, yang paling menarik perhatian adalah kasing berdasarkan tiga desain silikon baru Amazon. Instans Hpc7g didasarkan pada versi terbaru dari prosesor Graviton3 berbasis Arm yang disebut Graviton3E yang diklaim perusahaan menawarkan dua kali kinerja floating point dari instans Hpc6g sebelumnya dan kinerja keseluruhan 20% dibandingkan Hpc6a saat ini.

Seperti banyak kasus lainnya, Hpc7g menargetkan sekumpulan beban kerja tertentu—dalam hal ini komputasi kinerja tinggi (HPC), seperti prakiraan cuaca, pemrosesan genom, dinamika fluida, dan lainnya. Lebih khusus lagi, ini dirancang untuk model ML yang lebih besar yang sering berakhir dengan menjalankan ribuan core. Yang menarik dari hal ini adalah bahwa ini menunjukkan sejauh mana kemajuan CPU berbasis ARM dalam hal jenis beban kerja yang digunakan, serta tingkat pengoptimalan yang ditawarkan AWS ke berbagai instans EC2-nya.

Baca juga: Mengapa Amazon membuat CPU?

Secara terpisah, dalam beberapa sesi lainnya, AWS menyoroti momentum menuju penggunaan Graviton untuk banyak jenis beban kerja lainnya, khususnya untuk aplikasi cloud-native dari klien AWS seperti DirecTV dan Stripe.

Satu wawasan menarik yang muncul dari sesi ini adalah karena sifat alat yang digunakan untuk mengembangkan jenis aplikasi ini, tantangan porting kode dari x86 ke instruksi Arm asli (yang pernah dianggap sebagai penghalang jalan besar untuk arm- adopsi server berbasis) ke batas besar.

Alih-alih, yang diperlukan hanyalah toggling sederhana dari beberapa opsi sebelum kode selesai dan diterapkan ke instance. Hal ini membuat potensi pertumbuhan lebih lanjut dalam komputasi awan berbasis Arm menjadi lebih mungkin, terutama dalam aplikasi yang lebih baru.

Tentu saja, beberapa dari organisasi ini berupaya menciptakan implementasi agnostik dari seluruh set instruksi di masa depan, yang membuat pemilihan set instruksi tampaknya tidak relevan. Meskipun demikian, instans komputasi yang menawarkan peringkat harga/kinerja atau performa/watt yang lebih baik, yang sering dimiliki oleh CPU berbasis ARM, merupakan pilihan yang lebih menarik.

Untuk beban kerja ML, Amazon meluncurkan prosesor Inferentia generasi keduanya sebagai bagian dari instans Inf2 barunya. Inferentia2 dirancang untuk mendukung inferensi pembelajaran mesin pada model dengan miliaran parameter, seperti banyak model bahasa baru yang besar untuk aplikasi seperti pengenalan ucapan waktu nyata yang sedang dalam pengembangan.

Arsitektur baru ini dirancang untuk menskalakan ribuan inti, yang dibutuhkan oleh paradigma baru yang masif ini, seperti GPT-3. Selain itu, Inferentia2 menyertakan dukungan untuk teknik matematika yang dikenal sebagai perkiraan stokastik, yang dijelaskan oleh AWS sebagai “metode perkiraan probabilistik yang memungkinkan kinerja tinggi dan akurasi yang lebih tinggi dibandingkan dengan pola perkiraan yang lebih lama.” Untuk mendapatkan hasil maksimal dari komputasi terdistribusi, instans Inf2 juga mendukung versi generasi berikutnya dari arsitektur jaringan cincin NeuronLink perusahaan, yang konon memberikan kinerja 4 kali lipat dan latensi 1/10 dari instans Inf1 yang ada. Terjemahan intinya adalah dapat memberikan kinerja 45% lebih banyak per watt inferensi daripada opsi lain mana pun, termasuk yang bertenaga GPU. Mempertimbangkan bahwa menyimpulkan kebutuhan konsumsi daya seringkali 9 kali lebih tinggi daripada yang diperlukan untuk melatih model menurut AWS, ini adalah masalah besar.

Disebut C7gn, instans terdedikasi ketiga yang digerakkan oleh silikon menampilkan Kartu Jaringan Nitro AWS baru dengan chip Nitro Generasi ke-5. Didesain khusus untuk beban kerja yang membutuhkan throughput sangat tinggi, seperti firewall, virtualisasi jaringan, dan enkripsi/dekripsi data real-time, C7gn diklaim memiliki bandwidth jaringan dua kali lipat dan penanganan paket per detik 50% lebih tinggi daripada instans sebelumnya. Yang terpenting, kartu Nitro baru mampu mencapai level tersebut dengan peningkatan kinerja per watt sebesar 40% dibandingkan pendahulunya.

Terakhir, fokus Amazon pada silikon khusus dan rangkaian opsi komputasinya yang semakin beragam mewakili rangkaian alat yang komprehensif bagi perusahaan yang ingin memindahkan lebih banyak beban kerja mereka ke cloud. Seperti banyak aspek lain dari penawaran AWS-nya, perusahaan terus meningkatkan dan menyempurnakan apa yang telah menjadi rangkaian alat yang sangat matang dan canggih. Secara kolektif, mereka memberikan visi yang luar biasa dan menjanjikan untuk masa depan komputasi dan jenis aplikasi baru yang dapat mereka aktifkan.

Bob O’Donnell adalah Pendiri dan Kepala Analis TECHnalysis Research, LLC, firma penasihat teknologi yang menyediakan layanan penasihat strategi dan riset pasar untuk industri teknologi dan komunitas profesional keuangan. Anda dapat mengikutinya di Twitter @karyawan.

Demikianlah pembahasantentang Amazon AWS memperluas penawaran komputasi dan menampilkan chip Graviton3E baru yang kuat

. Jangan Lupa untuk
share artikel ini ya sobat.