Di dunia LLM, Token adalah unit dasar yang digunakan model untuk memproses teks. Bayangkan Token itu seperti bahan bakar (bensin) yang kamu butuhkan setiap kali mesin AI nyala.
🧩 1. Apa Itu Token?
Token bukan berarti satu kata. Token bisa berupa:
- Satu kata utuh (misal: "makan")
- Potongan kata (misal: "mem-", "-per-", "-kan")
- Tanda baca (misal: ",", ".", "!")
- Spasi kosong
Rumus Kasar: 1.000 Token itu kira-kira setara dengan 750 Kata bahasa Inggris. Tapi untuk bahasa Indonesia, biasanya jumlah tokennya lebih boros karena pemotongan kata imbuhan yang kompleks.
🧩 2. Kenapa AI itu Berbayar?
Setiap kali kamu ngirim prompt, server raksasa di sana (milik Google/OpenAI) harus muterin triliunan angka (parameter) buat nebak jawabanmu. Itu butuh daya listrik dan GPU yang super mahal. Makanya, mereka narik biaya per-token:
- Input Tokens: Kata-kata yang kamu kirim (Prompt).
- Output Tokens: Kata-kata yang dijawab sama AI.
🚀 3. Strategi Hemat Token (Pelit itu Keren!)
Sebagai developer, kamu harus pinter-pinter ngemat. Ini caranya:
A. Batasi max_output_tokens
Jangan biarin AI ngomong kepanjangan kalau kamu cuma butuh jawaban singkat.
model = genai.GenerativeModel('gemini-1.5-flash')
response = model.generate_content(
"Jelaskan Python dalam 1 kalimat",
generation_config=genai.types.GenerationConfig(
max_output_tokens=50 # Batasi cuma 50 token aja!
)
)
B. Bersihkan Prompt (No Basa-Basi)
Hapus kata-kata sopan yang gak perlu di sistem prompt.
- ❌ "Halo AI yang baik hati, tolong bantu saya yang sedang belajar ini untuk meringkas teks berikut..."
- ✅ "Ringkas teks ini dalam 3 poin:"
C. Gunakan Model yang Tepat
- Gemini 1.5 Flash: Murah, cepat, cocok buat tugas ringan (klasifikasi, ringkasan pendek).
- Gemini 1.5 Pro: Mahal, mikir dalem, cocok buat coding rumit atau analisa data berat.
🚀 4. Memahami "Context Window"
Setiap model punya batas ingatan (Context Window). Kalau kamu ngirim buku 500 halaman ke AI, itu bakal makan jutaan token.
- Kalau tokennya habis, AI bakal "lupa" sama bagian awal percakapan.
- Strategi: Kirim cuma bagian teks yang relevan saja, jangan kirim seluruh riwayat kalau gak butuh.
💡 Tips untuk Pemula
- Token Counter: Kamu bisa pakai alat seperti Tokenizer di website OpenAI atau library Python
tiktokenbuat ngitung jumlah token sebelum dikirim. - Format JSON: Minta AI jawab dalam JSON yang padat, hindari kalimat pembuka seperti "Tentu, ini adalah jawaban Anda...".
- Caching (Materi Advanced): Nanti kita belajar cara "nyimpen" konteks biar gak perlu kirim ulang-ulang.
🎯 Kesimpulan
Token adalah uang di dunia AI. Semakin pendek dan padat instruksi kamu, semakin hemat biaya operasional aplikasi kamu. Seorang AI Architect yang jago adalah mereka yang bisa dapet jawaban paling pinter dengan token paling dikit!