Teknologi

Google Buka Teknologi SynthID untuk Umum, Deteksi LLM Gunakan AI untuk Keamanan Digital

Google baru-baru ini mengumumkan pembukaan akses teknologi SynthID, sebuah inovasi yang dapat mendeteksi large language models (LLM) yang digunakan oleh kecerdasan buatan (AI), kepada publik. Dengan langkah ini, Google berusaha untuk mewujudkan penggunaan AI secara bertanggung jawab, sebuah upaya yang kian mendesak di tengah proliferasi teknologi AI yang cepat. Wakil Presiden Penelitian di Google DeepMind, Pushmeet Kohli, menjelaskan bahwa saat ini pengembang AI dapat memanfaatkan SynthID untuk mengidentifikasi asal model bahasa yang digunakan oleh AI tersebut.

SynthID berfungsi dengan cara memberikan watermark pada teks yang dihasilkan oleh model bahasa. Watermark ini tidak hanya berfungsi sebagai tanda pengenal, tetapi juga sebagai alat untuk membantu pengembang mendeteksi apakah output yang dihasilkan berasal dari model bahasa yang mereka gunakan. Kohli menyatakan, “Teknologi ini membantu mereka mendeteksi apakah keluaran teks berasal dari [model bahasa besar/LLM] mereka sendiri, sehingga memudahkan lebih banyak pengembang untuk membangun AI secara bertanggung jawab.” Pernyataan ini menunjukkan bahwa Google berkomitmen untuk menciptakan lingkungan pengembangan AI yang lebih aman dan transparan.

Seiring dengan pesatnya penggunaan AI, watermark menjadi alat yang semakin krusial. Hal ini penting mengingat LLM kini digunakan untuk menghasilkan konten yang bisa disalahgunakan, seperti misinformasi politik dan konten seksual tanpa persetujuan. Menyadari potensi penyalahgunaan ini, pemerintah di beberapa negara, termasuk California dan China, mempertimbangkan regulasi yang mewajibkan penggunaan watermark untuk output AI. Meskipun saat ini alat tersebut masih dalam proses pengembangan, langkah ini menunjukkan keseriusan dalam mengatasi masalah tersebut.

SynthID pertama kali diperkenalkan pada Agustus lalu dan dirancang untuk menyisipkan watermark yang tidak terlihat dalam berbagai bentuk konten, termasuk gambar, audio, video, dan teks, saat dihasilkan. Dengan demikian, setiap output memiliki "tanda" yang dapat dikenali, memberikan kejelasan tentang asal-usul dan integritas dari informasi yang diproduksi oleh AI. Ini adalah langkah penting dalam menghadapi tantangan besar yang ditimbulkan oleh kemampuan AI untuk mereplikasi dan menyebarluaskan informasi dengan cepat.

LLM berfungsi dengan cara menghasilkan teks satu token pada satu waktu, di mana token tersebut dapat berupa karakter, kata, atau bagian dari frasa. Proses ini melibatkan prediksi token yang paling mungkin muncul berikutnya berdasarkan konteks dari token sebelumnya. Misalnya, dalam kalimat “Hewan peliharaan terfavorit adalah __,” model bisa menghasilkan berbagai kemungkinan, seperti “kucing,” “anjing,” atau “ikan.” Setiap pilihan token ini diukur dengan skor probabilitas, yang mencerminkan seberapa besar kemungkinan sebuah token untuk dipilih berdasarkan konteks.

Dalam implementasinya, SynthID menyesuaikan skor probabilitas dari setiap token yang diprediksi tanpa mengorbankan kualitas, akurasi, dan kreativitas output. Proses ini terus berlangsung sepanjang teks, sehingga walaupun satu kalimat mungkin mengandung sepuluh atau lebih skor probabilitas yang disesuaikan, hasil akhirnya tetap koheren dan bermakna. Dengan demikian, SynthID berhasil menciptakan pola yang bisa diidentifikasi, memberikan lapisan keamanan tambahan untuk output AI.

Google bukan satu-satunya entitas yang mendalami penggunaan watermark dan teknologi serupa. Sejumlah pemerintah dan organisasi di seluruh dunia mulai membahas regulasi terkait penggunaan AI untuk memastikan bahwa teknologi ini digunakan secara etis dan tidak merugikan masyarakat. Di California, misalnya, pihak berwenang sudah mulai mempertimbangkan legislasi yang menjadikan watermark AI sebagai sebuah keharusan. Sementara itu, di China, kewajiban penggunaan watermark untuk AI telah diterapkan sejak tahun lalu, meskipun masih dalam tahap pengembangan.

Dengan dibukanya akses SynthID untuk publik, Google berharap dapat memberikan alat yang diperlukan untuk mendeteksi dan mengontrol penggunaan LLM secara lebih efektif. Melalui langkah ini, mereka menunjukkan kepemimpinan dalam menjawab tantangan etika di era digital ini. Semakin banyak pengembang yang dapat memanfaatkan teknologi ini, semakin tinggi pula potensi untuk memperkuat keamanan dan integritas informasi yang dihasilkan oleh AI.

Menghadapi tantangan yang datang bersamaan dengan kemajuan teknologi ini tidaklah mudah. Namun, dengan penerapan dan penyebaran teknologi seperti SynthID, ada harapan untuk menciptakan ekosistem pengembangan AI yang lebih aman. Masyarakat dan para pengembang perlu bekerja sama bukan hanya untuk memanfaatkan kemajuan ini tetapi juga untuk memahami dan mengatasi risiko yang mungkin timbul akibat penggunaan AI yang tidak bertanggung jawab. Ke depan, diharapkan bahwa kesadaran akan pentingnya transparansi dan akuntabilitas dalam teknologi AI akan semakin meningkat, memungkinkan kita untuk mengarahkan inovasi teknologi ke jalur yang lebih positif dan bermanfaat bagi semua kalangan.

Redaksi Ilmiah

Ilmiah merupakan situs media online yang menyajikan berita dan informasi terbaru di Indonesia yang paling update.

Artikel Terkait

Back to top button