บทความนี้พูดถึงการพัฒนาล่าสุดของ Cerebras Systems โดยเฉพาะการเปิดตัว DeepSeek R1 ซึ่งเป็นโมเดลภาษาใหญ่ที่ลดต้นทุนการฝึกโมเดลถึง 10 เท่า เมื่อเทียบกับโมเดลที่มีอยู่ในตลาดเช่น OpenAI's GPTo1 ทำให้ AI เข้าถึงได้ง่ายขึ้นและแพร่หลายมากขึ้น
Andrew Feldman CEO ของ Cerebras อธิบายว่า ความเร็วของระบบ CS-3 ของบริษัทสามารถรัน DeepSeek ได้เร็วกว่าบริษัทอื่น ๆ ถึง 57 เท่า โดยที่ AI โมเดลอื่นอย่าง OpenAI GPTo1 ใช้เวลานานกว่า 22 วินาทีในการทำงานเดียวกันในขณะที่ DeepSeek ที่รันบน Cerebras ใช้เวลาเพียง 1.5 วินาทีเท่านั้น ความเร็วนี้เป็นผลมาจากการใช้เซมิคอนดักเตอร์ที่ใหญ่ที่สุดในโลก WSE-3 ของบริษัท
นอกจากนี้ Cerebras ยังเน้นย้ำว่าความสำเร็จของ DeepSeek เป็นชัยชนะใหญ่สำหรับ AI ที่โอเพนซอร์ส เนื่องจากทำให้การพัฒนาโมเดลที่ก้าวหน้าโดยใช้ข้อมูลที่มีอยู่เป็นไปได้ง่ายขึ้น
นอกเหนือจากประเด็นเทคโนโลยีแล้ว Feldman ยังได้กล่าวถึงความสำคัญของการลดต้นทุนการคำนวณ ซึ่งทำให้ตลาดของ AI ขยายตัวอย่างมาก ทุกครั้งที่ต้นทุนลดลง ตลาดจะใหญ่ขึ้น อย่างเช่นการลดราคาของคอมพิวเตอร์ x86 ที่ทำให้ขายได้มากขึ้นและถูกใช้งานมากขึ้น
สำหรับอนาคต Feldman คาดการณ์ว่าจะมีการสร้างระบบ AI ที่ใหญ่ขึ้นและมีประสิทธิภาพสูงขึ้นอีกเป็นจำนวนมาก
เปรียบเทียบเหมือนกับที่คุณมีคอมพิวเตอร์หลายเครื่องในบ้าน เช่น โทรศัพท์มือถือ ทีวี เครื่องซักผ้า ฯลฯ การลดต้นทุนการคำนวณจะทำให้ AI แพร่หลายยิ่งขึ้นและเพิ่มขีดความสามารถในการทำงานที่ไม่สามารถทำได้มาก่อน
https://www.zdnet.com/article/cerebras-ceo-on-deepseek-every-time-computing-gets-cheaper-the-market-gets-bigger/
Andrew Feldman CEO ของ Cerebras อธิบายว่า ความเร็วของระบบ CS-3 ของบริษัทสามารถรัน DeepSeek ได้เร็วกว่าบริษัทอื่น ๆ ถึง 57 เท่า โดยที่ AI โมเดลอื่นอย่าง OpenAI GPTo1 ใช้เวลานานกว่า 22 วินาทีในการทำงานเดียวกันในขณะที่ DeepSeek ที่รันบน Cerebras ใช้เวลาเพียง 1.5 วินาทีเท่านั้น ความเร็วนี้เป็นผลมาจากการใช้เซมิคอนดักเตอร์ที่ใหญ่ที่สุดในโลก WSE-3 ของบริษัท
นอกจากนี้ Cerebras ยังเน้นย้ำว่าความสำเร็จของ DeepSeek เป็นชัยชนะใหญ่สำหรับ AI ที่โอเพนซอร์ส เนื่องจากทำให้การพัฒนาโมเดลที่ก้าวหน้าโดยใช้ข้อมูลที่มีอยู่เป็นไปได้ง่ายขึ้น
นอกเหนือจากประเด็นเทคโนโลยีแล้ว Feldman ยังได้กล่าวถึงความสำคัญของการลดต้นทุนการคำนวณ ซึ่งทำให้ตลาดของ AI ขยายตัวอย่างมาก ทุกครั้งที่ต้นทุนลดลง ตลาดจะใหญ่ขึ้น อย่างเช่นการลดราคาของคอมพิวเตอร์ x86 ที่ทำให้ขายได้มากขึ้นและถูกใช้งานมากขึ้น
สำหรับอนาคต Feldman คาดการณ์ว่าจะมีการสร้างระบบ AI ที่ใหญ่ขึ้นและมีประสิทธิภาพสูงขึ้นอีกเป็นจำนวนมาก
เปรียบเทียบเหมือนกับที่คุณมีคอมพิวเตอร์หลายเครื่องในบ้าน เช่น โทรศัพท์มือถือ ทีวี เครื่องซักผ้า ฯลฯ การลดต้นทุนการคำนวณจะทำให้ AI แพร่หลายยิ่งขึ้นและเพิ่มขีดความสามารถในการทำงานที่ไม่สามารถทำได้มาก่อน
https://www.zdnet.com/article/cerebras-ceo-on-deepseek-every-time-computing-gets-cheaper-the-market-gets-bigger/
บทความนี้พูดถึงการพัฒนาล่าสุดของ Cerebras Systems โดยเฉพาะการเปิดตัว DeepSeek R1 ซึ่งเป็นโมเดลภาษาใหญ่ที่ลดต้นทุนการฝึกโมเดลถึง 10 เท่า เมื่อเทียบกับโมเดลที่มีอยู่ในตลาดเช่น OpenAI's GPTo1 ทำให้ AI เข้าถึงได้ง่ายขึ้นและแพร่หลายมากขึ้น
Andrew Feldman CEO ของ Cerebras อธิบายว่า ความเร็วของระบบ CS-3 ของบริษัทสามารถรัน DeepSeek ได้เร็วกว่าบริษัทอื่น ๆ ถึง 57 เท่า โดยที่ AI โมเดลอื่นอย่าง OpenAI GPTo1 ใช้เวลานานกว่า 22 วินาทีในการทำงานเดียวกันในขณะที่ DeepSeek ที่รันบน Cerebras ใช้เวลาเพียง 1.5 วินาทีเท่านั้น ความเร็วนี้เป็นผลมาจากการใช้เซมิคอนดักเตอร์ที่ใหญ่ที่สุดในโลก WSE-3 ของบริษัท
นอกจากนี้ Cerebras ยังเน้นย้ำว่าความสำเร็จของ DeepSeek เป็นชัยชนะใหญ่สำหรับ AI ที่โอเพนซอร์ส เนื่องจากทำให้การพัฒนาโมเดลที่ก้าวหน้าโดยใช้ข้อมูลที่มีอยู่เป็นไปได้ง่ายขึ้น
นอกเหนือจากประเด็นเทคโนโลยีแล้ว Feldman ยังได้กล่าวถึงความสำคัญของการลดต้นทุนการคำนวณ ซึ่งทำให้ตลาดของ AI ขยายตัวอย่างมาก ทุกครั้งที่ต้นทุนลดลง ตลาดจะใหญ่ขึ้น อย่างเช่นการลดราคาของคอมพิวเตอร์ x86 ที่ทำให้ขายได้มากขึ้นและถูกใช้งานมากขึ้น
สำหรับอนาคต Feldman คาดการณ์ว่าจะมีการสร้างระบบ AI ที่ใหญ่ขึ้นและมีประสิทธิภาพสูงขึ้นอีกเป็นจำนวนมาก
เปรียบเทียบเหมือนกับที่คุณมีคอมพิวเตอร์หลายเครื่องในบ้าน เช่น โทรศัพท์มือถือ ทีวี เครื่องซักผ้า ฯลฯ การลดต้นทุนการคำนวณจะทำให้ AI แพร่หลายยิ่งขึ้นและเพิ่มขีดความสามารถในการทำงานที่ไม่สามารถทำได้มาก่อน
https://www.zdnet.com/article/cerebras-ceo-on-deepseek-every-time-computing-gets-cheaper-the-market-gets-bigger/
0 ความคิดเห็น
0 การแบ่งปัน
28 มุมมอง
0 รีวิว