Gemma 3n: ปฏิวัติ AI บนอุปกรณ์ของคุณ
สัมผัสพลังมัลติโมดัลที่ไม่เคยมีมาก่อนบน Edge Devices สร้างสรรค์อนาคตด้วยโมเดลที่ออกแบบมาเพื่อนักพัฒนาโดยเฉพาะ
เริ่มต้นใช้งาน อ่านเอกสารประกอบมีอะไรใหม่ใน Gemma 3n?
Gemma 3n คือความก้าวหน้าครั้งสำคัญสำหรับ AI บนอุปกรณ์ ที่นำความสามารถระดับ Cloud มาสู่มือคุณ
Multimodal by Design
รองรับอินพุตทั้งภาพ, เสียง, วิดีโอ และข้อความได้อย่างเป็นธรรมชาติ เพื่อสร้างสรรค์แอปพลิเคชันที่หลากหลาย
Optimized for On-Device
ออกแบบเพื่อประสิทธิภาพสูงสุดบนอุปกรณ์พกพา ใช้หน่วยความจำน้อย (เริ่มที่ 2GB) แต่ให้พลังประมวลผลมหาศาล
Groundbreaking Architecture
ด้วยนวัตกรรมอย่าง MatFormer และ PLE ทำให้โมเดลมีความยืดหยุ่นและประสิทธิภาพหน่วยความจำที่เหนือกว่า
Enhanced Quality
คุณภาพสูงขึ้นในทุกมิติ ทั้งการรองรับหลายภาษา, คณิตศาสตร์, การเขียนโค้ด และการให้เหตุผลเชิงตรรกะ
ประสิทธิภาพระดับแนวหน้า
Gemma 3n E4B สร้างประวัติศาสตร์ด้วยการเป็นโมเดลแรกที่มีพารามิเตอร์ต่ำกว่า 10 พันล้านตัว ที่สามารถทำคะแนน LMArena ได้สูงกว่า 1300 ซึ่งเป็นเกณฑ์ที่เคยมีเฉพาะโมเดลขนาดใหญ่เท่านั้นที่ทำได้ สิ่งนี้พิสูจน์ให้เห็นถึงประสิทธิภาพที่เหนือกว่าของสถาปัตยกรรมใหม่ที่ออกแบบมาเพื่อ on-device AI โดยเฉพาะ

อันดับคะแนน LMArena Text Arena Elo Score
สถาปัตยกรรมที่ก้าวล้ำ
หัวใจของ Gemma 3n คือนวัตกรรมทางสถาปัตยกรรมที่ออกแบบมาเพื่อความยืดหยุ่นและประสิทธิภาพสูงสุด
MatFormer: หนึ่งโมเดล หลายขนาด
สถาปัตยกรรม MatFormer (🪆Matryoshka Transformer) เปรียบเสมือนตุ๊กตาแม่ลูกดก ที่โมเดลขนาดใหญ่จะซ้อนโมเดลขนาดเล็กไว้ภายใน ช่วยให้นักพัฒนาสามารถเลือกใช้โมเดลขนาดต่างๆ (E2B หรือ E4B) หรือแม้แต่สร้างขนาดที่กำหนดเอง (Mix-n-Match) เพื่อให้พอดีกับข้อจำกัดของฮาร์ดแวร์ได้อย่างสมบูรณ์แบบ

แผนภาพสถาปัตยกรรม MatFormer
Per-Layer Embeddings (PLE)
PLE คือนวัตกรรมที่ช่วยปลดล็อกประสิทธิภาพหน่วยความจำ โดยพารามิเตอร์ส่วนใหญ่จะถูกโหลดบน CPU ทำให้มีเพียงพารามิเตอร์หลักที่จำเป็นเท่านั้นที่ต้องอยู่ใน VRAM ของ GPU/TPU ผลลัพธ์คือโมเดล 8B สามารถทำงานได้โดยใช้หน่วยความจำเทียบเท่าโมเดล 4B เท่านั้น

ด้วย PLE, Gemma 3n E2B ใช้พารามิเตอร์เพียง ~2B บน Accelerator
Mix-n-Match: ปรับขนาดได้ตามใจ
สำหรับนักพัฒนาที่ต้องการการควบคุมขั้นสูงสุด เทคนิค Mix-n-Match ช่วยให้คุณสามารถสร้างโมเดลขนาดที่กำหนดเองได้อย่างหลากหลายระหว่าง E2B และ E4B โดยการปรับขนาดมิติของเครือข่าย Feed Forward ในแต่ละเลเยอร์ เพื่อหาจุดสมดุลที่ดีที่สุดระหว่างประสิทธิภาพและขนาดโมเดลสำหรับงานของคุณ

คะแนน MMLU สำหรับขนาดโมเดลที่แตกต่างกันโดยใช้ Mix-n-Match
พลังแห่งมัลติโมดัล
Gemma 3n ไม่ได้จำกัดอยู่แค่ข้อความ แต่ยังเข้าใจโลกผ่านเสียงและภาพได้อย่างเหนือชั้น
การทำความเข้าใจเสียง
ขับเคลื่อนด้วย Universal Speech Model (USM) ทำให้ Gemma 3n สามารถถอดเสียง (ASR) และแปลภาษาพูด (AST) ได้โดยตรงบนอุปกรณ์ เหมาะสำหรับแอปพลิเคชันที่ต้องการการตอบสนองแบบเรียลไทม์
MobileNet-V5: การมองเห็นที่ล้ำสมัย
ตัวเข้ารหัสภาพ MobileNet-V5-300M ใหม่ ให้ประสิทธิภาพสูงสุดสำหรับงานมัลติโมดัลบน Edge Devices ประมวลผลได้สูงสุด 60fps ทำให้การวิเคราะห์วิดีโอแบบเรียลไทม์เป็นจริงได้
สร้างสรรค์ร่วมกับชุมชน
พลังที่แท้จริงของ Gemma 3n อยู่ในสิ่งที่นักพัฒนาจะสร้างสรรค์ขึ้น เราภูมิใจที่ได้ร่วมมือกับชุมชนโอเพนซอร์สชั้นนำมากมาย เช่น Hugging Face, llama.cpp, Ollama, NVIDIA และอื่นๆ เพื่อให้แน่ใจว่า Gemma 3n จะเข้าถึงได้และใช้งานง่ายบนทุกแพลตฟอร์มที่คุณชื่นชอบ
Gemma 3n Impact Challenge
เข้าร่วมภารกิจใช้ความสามารถของ Gemma 3n เพื่อสร้างผลิตภัณฑ์ที่ดีต่อโลก ชิงรางวัลมูลค่ารวมกว่า 150,000 ดอลลาร์ เรากำลังมองหาไอเดียที่สร้างผลกระทบได้จริง
เข้าร่วมการแข่งขันเริ่มต้นใช้งาน Gemma 3n วันนี้
พร้อมที่จะสำรวจศักยภาพของ Gemma 3n แล้วหรือยัง? เลือกช่องทางที่เหมาะกับคุณ
ทดลองโดยตรง
ทดลองใช้ Gemma 3n ได้ทันทีผ่าน Google AI Studio ด้วยการคลิกเพียงไม่กี่ครั้ง
ไปที่ AI Studioดาวน์โหลดโมเดล
ค้นหาน้ำหนักโมเดลทั้งหมดได้บนแพลตฟอร์มยอดนิยมอย่าง Hugging Face และ Kaggle
Hugging Faceเรียนรู้และบูรณาการ
เจาะลึกเอกสารประกอบฉบับสมบูรณ์เพื่อเริ่มต้นโปรเจกต์ของคุณได้อย่างรวดเร็ว
อ่านเอกสารเครื่องมือ On-Device
ใช้งานผ่านเครื่องมือ AI บนอุปกรณ์ที่คุณชื่นชอบ เช่น Ollama, MLX, llama.cpp และอื่นๆ
ดูใน Ollamaเครื่องมือพัฒนา
ใช้ประโยชน์จากเฟรมเวิร์กยอดนิยมอย่าง Hugging Face Transformers, NVIDIA NeMo และ Unsloth
บล็อก Hugging Faceปรับใช้บนคลาวด์
มีตัวเลือกการปรับใช้ที่หลากหลาย รวมถึง Google GenAI API และ Vertex AI
Vertex AI Model Garden