Nvidia mungkin akan meraih keuntungan besar disebabkan oleh kepopularan Kecerdasan Buatan (AI) pada masa kini. Dilaporkan bahawa Chatbot AI, ChatGPT akan memerlukan lebih 30,000 kad grafik Nvidia untuk memproses data latihan. Tapi, adakah akan berlaku lagi kekurangan kad grafik dalam pasaran akibat hal ini?
Berita baiknya tidak, kerana ChatGPT akan menggunakan GPU Nvidia berasaskan Ampere Architecture seperti A100 yang dihasilkan khusus untuk pusat data, berbanding kad grafik biasa siri RTX yang digunakan oleh pengguna atau gamer. Sumber TrendForce mengatakan, ChatGPT memerlukan lebih kurang 20,000 unit A100, tetapi bilangan akan meningkat ke sekitar 30,000 unit diperlukan, selari dengan perkembangan ChatGPT.
Harga A100 tidak murah. Ia berharga antara $10,000 (~RM44.7 ribu) hingga $15,000 (~RM67.2 ribu) bergantung pada konfigurasi GPU dan varian. Jika dikira secara kasar, tidak mustahil untuk Nvidia menjana sehingga $300 juta (~RM13.4 billion) pendapatan. Akan tetapi, Nvidia mungkin akan memberi diskaun memandangkan OpenAI membeli GPU dalam jumlah yang besar, jadi jumlah harga mungkin akan lebih rendah.
Selain itu, terdapat juga Nvidia H100 (Hopper) yang memberikan prestasi sehingga sembilan kali lebih tinggi daya pemprosesan daripada segi melatih AI berbanding A100. Jadi, GPU ini juga mungkin akan jadi pilihan ChatGPT dalam mengembang dan mempercepatkan daya latihan AI. Harga untuk H100 dilaporkan pada $32,200 (~RM143.2 ribu).
Walaubagaimanapun, Nvidia bukanlah satu-satunya syarikat pengeluar GPU. Terdapat juga pesaing lain seperti Intel dan AMD. Oleh sebab itu, saya harap syarikat yang membangunkan teknologi AI seperti Google dan Amazon tidak bergantung pada GPU Nvidia semata-mata.
[Sumber: Tom’s Hardaware]
Bacaan berkaitan
Microsoft suntik kuasa AI lebih hebat daripada ChatGPT dalam Windows 11
China sekat ChatGPT, gusar akan respons yang tak ngam dengan polisi kerajaan
Pengendali ChatGPT dituduh langgar hak cipta data untuk melatih AI