“Siri เวอร์ชันใหม่” จะขับเคลื่อนด้วย Gemini AI จาก Google
Apple กำลังพลิกโฉม Siri ด้วยการใช้โมเดล AI ขนาดมหึมา 1.2 ล้านล้านพารามิเตอร์ จาก Google Gemini ซึ่งถือว่าใหญ่กว่ารุ่นเดิมที่ Apple ใช้ถึง 800 เท่า (จาก 1.5 พันล้านพารามิเตอร์) โดยโมเดลใหม่นี้จะทำงานภายใต้ระบบ Private Cloud Compute ที่เน้นความปลอดภัยและความเป็นส่วนตัวของผู้ใช้

Apple ได้ทดสอบโมเดลจาก OpenAI และ Anthropic ก่อนจะเลือก Gemini เป็นแกนหลักในการประมวลผลคำสั่งที่ซับซ้อน ซึ่งจะถูกส่งไปยังคลาวด์แบบเข้ารหัสและไม่เก็บข้อมูลผู้ใช้

Siri ใหม่มี 3 ส่วนหลัก
1️⃣ Query Planner — ตัดสินใจว่าจะใช้ข้อมูลจากแหล่งใด เช่น ปฏิทิน, รูปภาพ, แอป หรือเว็บ
2️⃣ Knowledge Search System — ตอบคำถามทั่วไปโดยไม่ต้องพึ่ง ChatGPT หรือเว็บ
3️⃣ Summarizer — สรุปข้อความหรือเสียง เช่น การแจ้งเตือน, หน้าเว็บ, หรือข้อความใน Safari

Gemini จะรับหน้าที่ในส่วน Query Planner และ Summarizer ส่วน Knowledge Search จะใช้โมเดล LLM ที่อยู่ในเครื่องของ Apple เอง

ความร่วมมือมูลค่าพันล้านดอลลาร์
Apple เตรียมจ่าย Google ราว $1 พันล้านต่อปี เพื่อใช้ Gemini ใน Siri ซึ่งเป็นส่วนหนึ่งของความร่วมมือที่มีอยู่แล้ว เช่น Google จ่าย Apple $20 พันล้านต่อปี เพื่อเป็นเครื่องมือค้นหาเริ่มต้นใน Safari

โครงการนี้มีชื่อภายในว่า Glenwood และนำโดย Mike Rockwell (ผู้สร้าง Vision Pro) และ Craig Federighi (หัวหน้าฝ่ายวิศวกรรมซอฟต์แวร์)

Apple ใช้ Gemini AI จาก Google
ขนาดโมเดล 1.2 ล้านล้านพารามิเตอร์
ใหญ่กว่ารุ่นเดิมของ Apple ถึง 800 เท่า
ทำงานภายใต้ระบบ Private Cloud Compute

Siri ใหม่มี 3 ส่วนหลัก
Query Planner: ตัดสินใจเส้นทางการตอบ
Knowledge Search: ใช้ LLM ในเครื่อง
Summarizer: สรุปข้อความ เสียง และเนื้อหา

ความร่วมมือระหว่าง Apple และ Google
Apple จ่าย Google $1 พันล้านต่อปีเพื่อใช้ Gemini
Google จ่าย Apple $20 พันล้านต่อปีเพื่อสิทธิ์ค้นหาใน Safari

เปิดตัวพร้อม iOS 26.4
Siri ใหม่จะมาพร้อมฟีเจอร์ in-app actions และ context awareness
ใช้โมเดล Gemini เป็น “ไม้เท้า” ชั่วคราวก่อนพัฒนาโมเดลของตัวเอง

ข้อจำกัดของ Siri เดิม
ใช้โมเดลขนาดเล็กเพียง 1.5 พันล้านพารามิเตอร์
ไม่สามารถจัดการคำสั่งซับซ้อนได้ดี

ความเสี่ยงจากการพึ่งพาโมเดลภายนอก
Apple ยังไม่มีโมเดลขนาดใหญ่ของตัวเอง
ต้องพึ่งพา Google ในการประมวลผลคำสั่งสำคัญ

https://wccftech.com/apple-will-use-a-1-2-trillion-parameter-very-expensive-ai-model-from-google-as-a-crutch-for-siri/
🧠📱 “Siri เวอร์ชันใหม่” จะขับเคลื่อนด้วย Gemini AI จาก Google Apple กำลังพลิกโฉม Siri ด้วยการใช้โมเดล AI ขนาดมหึมา 1.2 ล้านล้านพารามิเตอร์ จาก Google Gemini ซึ่งถือว่าใหญ่กว่ารุ่นเดิมที่ Apple ใช้ถึง 800 เท่า (จาก 1.5 พันล้านพารามิเตอร์) โดยโมเดลใหม่นี้จะทำงานภายใต้ระบบ Private Cloud Compute ที่เน้นความปลอดภัยและความเป็นส่วนตัวของผู้ใช้ Apple ได้ทดสอบโมเดลจาก OpenAI และ Anthropic ก่อนจะเลือก Gemini เป็นแกนหลักในการประมวลผลคำสั่งที่ซับซ้อน ซึ่งจะถูกส่งไปยังคลาวด์แบบเข้ารหัสและไม่เก็บข้อมูลผู้ใช้ 🧩 Siri ใหม่มี 3 ส่วนหลัก 1️⃣ Query Planner — ตัดสินใจว่าจะใช้ข้อมูลจากแหล่งใด เช่น ปฏิทิน, รูปภาพ, แอป หรือเว็บ 2️⃣ Knowledge Search System — ตอบคำถามทั่วไปโดยไม่ต้องพึ่ง ChatGPT หรือเว็บ 3️⃣ Summarizer — สรุปข้อความหรือเสียง เช่น การแจ้งเตือน, หน้าเว็บ, หรือข้อความใน Safari Gemini จะรับหน้าที่ในส่วน Query Planner และ Summarizer ส่วน Knowledge Search จะใช้โมเดล LLM ที่อยู่ในเครื่องของ Apple เอง 💰 ความร่วมมือมูลค่าพันล้านดอลลาร์ Apple เตรียมจ่าย Google ราว $1 พันล้านต่อปี เพื่อใช้ Gemini ใน Siri ซึ่งเป็นส่วนหนึ่งของความร่วมมือที่มีอยู่แล้ว เช่น Google จ่าย Apple $20 พันล้านต่อปี เพื่อเป็นเครื่องมือค้นหาเริ่มต้นใน Safari โครงการนี้มีชื่อภายในว่า Glenwood และนำโดย Mike Rockwell (ผู้สร้าง Vision Pro) และ Craig Federighi (หัวหน้าฝ่ายวิศวกรรมซอฟต์แวร์) ✅ Apple ใช้ Gemini AI จาก Google ➡️ ขนาดโมเดล 1.2 ล้านล้านพารามิเตอร์ ➡️ ใหญ่กว่ารุ่นเดิมของ Apple ถึง 800 เท่า ➡️ ทำงานภายใต้ระบบ Private Cloud Compute ✅ Siri ใหม่มี 3 ส่วนหลัก ➡️ Query Planner: ตัดสินใจเส้นทางการตอบ ➡️ Knowledge Search: ใช้ LLM ในเครื่อง ➡️ Summarizer: สรุปข้อความ เสียง และเนื้อหา ✅ ความร่วมมือระหว่าง Apple และ Google ➡️ Apple จ่าย Google $1 พันล้านต่อปีเพื่อใช้ Gemini ➡️ Google จ่าย Apple $20 พันล้านต่อปีเพื่อสิทธิ์ค้นหาใน Safari ✅ เปิดตัวพร้อม iOS 26.4 ➡️ Siri ใหม่จะมาพร้อมฟีเจอร์ in-app actions และ context awareness ➡️ ใช้โมเดล Gemini เป็น “ไม้เท้า” ชั่วคราวก่อนพัฒนาโมเดลของตัวเอง ‼️ ข้อจำกัดของ Siri เดิม ⛔ ใช้โมเดลขนาดเล็กเพียง 1.5 พันล้านพารามิเตอร์ ⛔ ไม่สามารถจัดการคำสั่งซับซ้อนได้ดี ‼️ ความเสี่ยงจากการพึ่งพาโมเดลภายนอก ⛔ Apple ยังไม่มีโมเดลขนาดใหญ่ของตัวเอง ⛔ ต้องพึ่งพา Google ในการประมวลผลคำสั่งสำคัญ https://wccftech.com/apple-will-use-a-1-2-trillion-parameter-very-expensive-ai-model-from-google-as-a-crutch-for-siri/
WCCFTECH.COM
Apple Will Use A 1.2 Trillion-Parameter, Very Expensive AI Model From Google As A Crutch For Siri
The customized Gemini model would "dwarf" the 1.5 billion-parameter, bespoke AI model that Apple currently uses to power Siri in the cloud.
0 Comments 0 Shares 39 Views 0 Reviews