Saat Gemini lagi rame-ramenya, pernah kepikiran nggak kalo generative AI kayak gitu bisa diintegrasikan langsung ke aplikasi, seperti pada front-end, back-end, atau Android?
Ternyata, bisa lo, integrasiin generative AI ke aplikasi. Dalam ekosistem pengembangan aplikasi modern, integrasi generative AI ke aplikasi bukan lagi hal yang mewah—tapi udah jadi kebutuhan.
Generative AI adalah AI yang dapat menghasilkan teks, gambar, video, dan audio dari pola dan struktur yang ada. Generative AI terdiri dari large language models (LLM) yang telah dilatih sebelumnya dengan data latih sangat besar dan bahkan berskala internet.
LLM adalah model bahasa berbasis neural network, khususnya arsitektur transformer, yang dilatih pada sejumlah besar data teks. Model ini dapat digunakan untuk memahami, menghasilkan, serta menerjemahkan teks dan konten lainnya, serta melakukan berbagai tugas pemrosesan bahasa alami (NLP).
💻 Mulai Belajar Pemrograman
Belajar pemrograman di Dicoding Academy dan mulai perjalanan Anda sebagai developer profesional.
Daftar SekarangSalah satu LLM adalah Gemini yang dikembangkan oleh Google (termasuk Google Research). Ia didesain untuk menangani berbagai jenis data, yakni teks, suara, gambar atau foto, dan lainnya.
Gemini adalah LLM yang fleksibel, ia dapat dijalankan pada server, hingga aplikasi mobile. Selain itu, untuk pengguna akhir, Google menyediakan situs Google Gemini yang dapat digunakan untuk chat dengan AI bagi end-user.
Gemini memiliki tiga ukuran berbeda.
- Gemini Ultra: model terbesar dan yang mampu menyelesaikan tugas-tugas rumit.
- Gemini Pro: model terbaik untuk berbagai tugas.
- Gemini Nano: model yang paling efisien untuk tugas on-device.
Bagaimana dengan Performanya?
Berikut adalah perbandingan Gemini dengan LLM yang lain.
Data di atas berasal dari situs resminya, terlihat bahwa Gemini dari segi harga lebih murah dibandingkan dengan model lainnya, untuk matriks yang lain pun ia juga lebih unggul.
Keren, kan? Nah, biar nggak hanya belajar teori, kita langsung saja hands-on. Nah, saat ini kita akan mencoba menjalankan model dari google tersebut pada Node.js.
Hands-on
Sebelum memulai, pastikan saat ini kamu memiliki Gemini API key. Jika belum memilikinya, kamu bisa mengunjungi Google AI Studio API Key untuk mendapatkannya.
Ayo, kita mulai.
- Buatlah sebuah proyek Node.js.
- Kemudian, yang pertama kali dilakukan adalah memasang Google GenAI SDK. Jalankan perintah berikut.
npm install @google/genai - Setelah itu, buatlah berkas baru bernama index.js.
- Kemudian, di dalamnya tuliskan kode berikut.
12345678910111213import { GoogleGenAI } from "@google/genai";const ai = new GoogleGenAI({ apiKey: <API Key>});async function main() {const response = await ai.models.generateContent({model: "gemini-2.0-flash",contents: "Explain how AI works in a few words",});console.log(response.text);}main();
Isilah bagian API Key sesuai dengan yang kamu miliki. Kamu juga dapat mengubah teks prompting-nya dan model yang digunakan. Saat ini, model yang digunakan adalah gemini-2.0-flash dengan prompt “Explain how AI works in a few words”. - Untuk mengujinya, jalankan perintah node index.js.
- Hasil akan tampak seperti berikut.
- Secara bawaan, model tersebut akan mengembalikan respons ketika semua proses generate teks selesai. Jika ingin menampilkan teks secara bertahap seperti pada Gemini App, gunakan streaming dengan method GenerateContentResponse.
Berikut contoh kodenya.
1234567891011async function main() {const response = await ai.models.generateContentStream({model: "gemini-2.0-flash",contents: "Explain how AI works in a few words",});for await (const chunk of response) {console.log(chunk.text);}}await main()
Selain menggunakan method generateContentStream, kita juga menambahkan perulangan untuk nangkep tiap potongan jawaban dari AI tadi.
- Selain itu, kamu juga dapat menambahkan system instructions. System instructions di Gemini API adalah pesan awal yang dikirim ke AI untuk memberikan konteks, role, batasan, atau gaya komunikasi sebelum dia merespons user. Contohnya seperti berikut.
123456789101112131415async function main() {const response = await ai.models.generateContentStream({model: "gemini-2.0-flash",contents: "Explain how AI works in a few words",config: {systemInstruction: "Gunakan bahasa ala anak jaksel",},});for await (const chunk of response) {console.log(chunk.text);}}await main(); - Jika dijalankan, tampak hasil seperti berikut.
Mantap!
Sekarang kamu udah lihat sendiri gampangnya integrasi Gemini API dalam project Node.js.
Nggak perlu jadi AI expert buat mulai mainin LLM.
Dengan Gemini, kamu bisa membuat aplikasi yang ada AI-nya, misalnya membuat aplikasi chatbot, meringkas sebuah teks, menulis artikel, auto-reply, dan masih banyak lagi.
Hal yang paling penting: kamu nggak cuma jadi pengguna AI, tapi developer yang bisa nyatuin AI dalam aplikasinya.
Thanks for reading!