Teknologi

NVIDIA Luncurkan Layanan Mikro NIM untuk AI Generatif di Jepang dan Taiwan

Negara-negara di seluruh dunia saat ini giat mengejar pengembangan kecerdasan buatan (AI) yang berdaulat, dengan tujuan untuk menciptakan sistem AI yang sesuai dengan nilai-nilai, hukum, dan kepentingan lokal mereka. Dalam rangka mendukung upaya ini, NVIDIA baru-baru ini mengumumkan ketersediaan empat layanan mikro NVIDIA Inference Model (NIM) baru yang dirancang untuk memudahkan pengembang dalam membangun dan menerapkan aplikasi AI generatif berkinerja tinggi, khususnya di Jepang dan Taiwan.

Layanan mikro baru ini mendukung model-model komunitas yang telah disesuaikan untuk memenuhi kebutuhan spesifik di masing-masing regional. Salah satu keunggulan utama dari layanan ini adalah kemampuannya untuk meningkatkan interaksi pengguna melalui pemahaman yang lebih akurat atas bahasa lokal serta warisan budaya. Di kawasan Asia-Pasifik, pendapatan perangkat lunak AI generatif diperkirakan akan melonjak mencapai USD48 miliar pada tahun 2030, melonjak dari USD5 miliar di tahun ini, berdasarkan data dari ABI Research.

Di antara model yang diluncurkan adalah Llama-3-Swallow-70B, yang dilatih menggunakan data berbahasa Jepang dan Llama-3-Taiwan-70B, yang dilatih pada data berbahasa Mandarin. Kedua model ini memberikan pemahaman mendalam tentang hukum, peraturan, dan adat setempat, sehingga sangat relevan untuk diaplikasikan dalam konteks lokal masing-masing negara.

NVIDIA juga memperkenalkan keluarga model RakutenAI 7B, yang dibangun di atas Mistral-7B. Model ini telah menunjukkan performa unggul dalam berbahasa Jepang dan tersedia sebagai dua layanan mikro NIM terpisah, yaitu untuk obrolan dan instruksi. Model-model ini telah mendapatkan pengakuan dengan mencatatkan skor tinggi dalam benchmark LM Evaluation Harness untuk model bahasa Jepang terbuka antara Januari hingga Maret 2024.

Pengembangan model bahasa besar (LLM) dengan fokus pada bahasa daerah terbukti efektif dalam memastikan komunikasi yang akurat dan nuansa yang tepat, dengan pemahaman yang lebih dalam tentang budaya dan konteks linguistik lokal. Model-model ini tidak hanya menawarkan performa yang lebih baik dalam memahami bahasa Jepang dan Mandarin, tetapi juga dalam menangani tugas hukum dan menjawab pertanyaan, bersaing dengan model dasar seperti Llama 3.

Layanan Mikro NIM baru memfasilitasi bagi bisnis, lembaga pemerintah, dan universitas untuk menghosting LLM di lingkungan mereka sendiri, memungkinkan pengembang untuk dengan mudah menciptakan copilot, chatbot, dan asisten AI yang canggih. Dengan memanfaatkan NVIDIA AI Enterprise, pengembang dapat mengoptimalkan inferensi model ini menggunakan pustaka sumber terbuka NVIDIA TensorRT-LLM. Layanan mikro untuk Llama 3 70B dapat menghasilkan throughput hingga lima kali lebih tinggi, yang tidak hanya menurunkan biaya operasional tetapi juga memperbaiki pengalaman pengguna dengan mengurangi latensi.

Layanan mikro NIM baru ini sudah tersedia sebagai antarmuka pemrograman aplikasi (API) yang dihosting. Implementasi layanan mikro NIM ini tidak hanya mempercepat penerapan dan meningkatkan kinerja secara keseluruhan, tetapi juga menyediakan tingkat keamanan yang diperlukan untuk beragam industri, termasuk perawatan kesehatan, keuangan, manufaktur, pendidikan, dan hukum.

Salah satu contoh aplikatif dari layanan ini terlihat di Institut Teknologi Tokyo, di mana mereka menyempurnakan Llama-3-Swallow 70B menggunakan data berbahasa Jepang. Rio Yokota, seorang profesor di Pusat Informasi dan Komputasi Ilmiah Global di institusi tersebut, menyatakan bahwa LLM tidak hanya berfungsi sebagai alat mekanis tetapi juga sebagai alat intelektual yang berinteraksi dengan budaya dan kreativitas manusia.

Lebih jauh, Yokota menjelaskan bahwa penciptaan model AI yang berdaulat perlu mematuhi norma budaya setempat. Ketersediaan Llama-3-Swallow sebagai layanan mikro akan memberikan akses lebih mudah bagi pengembang untuk menerapkan model dalam berbagai sektor di Jepang.

Di Taiwan, Preferred Networks adalah sebuah perusahaan AI yang memanfaatkan model tersebut untuk mengembangkan model khusus dalam bidang kesehatan, yang dikenal sebagai Llama3-Preferred-MedSwallow-70B. Model ini dilatih pada korpus data medis Jepang dan berhasil meraih peringkat teratas dalam Ujian Nasional Jepang untuk Dokter, menunjukkan efektivitas aplikasi AI yang disesuaikan dengan konteks lokal dan kebutuhan spesifik.

Rumah Sakit Memorial Chang Gung (CGMH), yang merupakan salah satu rumah sakit terkemuka di Taiwan, juga sedang membangun Layanan Inferensi AI (AIIS) yang dirancang untuk mengintegrasikan semua aplikasi LLM dalam sistem kesehatan rumah sakit. Dengan menggunakan Llama 3-Taiwan 70B, inisiatif ini berupaya meningkatkan efisiensi staf medis melalui pemahaman bahasa medis yang lebih tajam, memudahkan komunikasi dengan pasien.

Direktur Pusat Kecerdasan Buatan dalam Kedokteran di CGMH, Dr. Changfu Kuo, menjelaskan bahwa aplikasi AI yang dibangun dengan LLM berbahasa lokal berfungsi untuk merampingkan alur kerja, memberikan panduan instan berbasis konteks, serta berfungsi sebagai alat pembelajaran yang berkelanjutan bagi staf medis.

Selain itu, perusahaan-perusahaan seperti Pegatron, produsen perangkat elektronik berbasis di Taiwan, akan mengadopsi layanan mikro Llama 3-Taiwan 70B NIM untuk berbagai aplikasi internal dan eksternal. Inisiatif ini bertujuan untuk mengotomatisasi proses, serta meningkatkan efisiensi dalam sektor manufaktur dan operasi.

Sebagai bagian dari adopsi ini, Llama-3-Taiwan 70B NIM juga digunakan oleh berbagai perusahaan terkemuka lainnya, termasuk Chang Chun Group dalam sektor petrokimia dan Unimicron yang bergerak di industri papan sirkuit cetak. Perusahaan-perusahaan ini juga berkolaborasi untuk mengembangkan model terbuka, mengoptimalkan penggunaan layanan mikro NIM dalam konteks yang lebih luas.

Meskipun model AI regional menawarkan nuansa cultural dan respons yang terlokalisasi, penting bagi perusahaan untuk terus menyempurnakan model tersebut untuk memenuhi proses bisnis dan keahlian domain yang spesifik. Dengan menggunakan layanan NVIDIA AI Foundry, pengembang diberi akses untuk menghasilkan model fondasi khusus dengan dukungan infrastruktur dan layanan yang diperlukan untuk penerapan produksi.

NVIDIA AI Foundry memungkinkan dengan cepat dan mudah dalam membangun serta menerapkan layanan mikro NIM bahasa regional yang disesuaikan, sehingga hasilnya lebih relevan secara budaya dan sesuai dengan bahasa bagi pengguna lokal. Seiring dengan meningkatnya investasi negara dalam infrastruktur AI berdaulat, keberadaan layanan mikro NIM ini menandakan langkah maju yang signifikan dalam pengembangan aplikasi AI generatif yang kuat dan efektif di kawasan Asia-Pasifik, khususnya di Jepang dan Taiwan.

Redaksi Ilmiah

Ilmiah merupakan situs media online yang menyajikan berita dan informasi terbaru di Indonesia yang paling update.
Back to top button