น่าสนใจมากครับ

Exo software ซึ่งเป็นโซลูชันปัญญาประดิษฐ์แบบกระจายที่สามารถทำงานได้แม้กระทั่งบนสมาร์ทโฟนและคอมพิวเตอร์เครื่องเก่าๆ Exo ช่วยลดความจำเป็นในการใช้ระบบที่มีประสิทธิภาพสูงสำหรับการทำงานแบบ inference ของปัญญาประดิษฐ์

โดยปกติแล้ว การรันโมเดลปัญญาประดิษฐ์ขนาดใหญ่ (LLM) เช่น LLaMA, Mistral, LlaVA, Qwen และ DeepSeek ต้องใช้ฮาร์ดแวร์ที่มีประสิทธิภาพสูงและมีหน่วยความจำมาก แต่ Exo ช่วยให้ผู้ใช้สามารถรวมพลังการประมวลผลของอุปกรณ์หลายๆ เครื่อง เช่น คอมพิวเตอร์ สมาร์ทโฟน หรือแม้กระทั่ง Raspberry Pi เพื่อรันโมเดลที่ไม่สามารถเข้าถึงได้มาก่อน

การทำงานของ Exo คล้ายกับโครงการ SETI@home ที่ใช้ระบบคอมพิวเตอร์ของอาสาสมัครในการกระจายภาระงานการคำนวณ โดย Exo ใช้เครือข่ายแบบ peer-to-peer (P2P) ซึ่งไม่จำเป็นต้องใช้ระบบที่มีประสิทธิภาพสูงเพียงเครื่องเดียว แต่สามารถใช้เครื่องหลายๆ เครื่องร่วมกันในการทำงาน

Alex Cheema, ผู้ร่วมก่อตั้ง EXO Labs กล่าวว่า "ข้อจำกัดพื้นฐานของปัญญาประดิษฐ์คือการคำนวณ ถ้าคุณไม่มีการคำนวณที่เพียงพอ คุณก็ไม่สามารถแข่งขันได้ แต่ถ้าคุณสร้างเครือข่ายกระจายนี้ เราอาจจะสามารถทำได้"

Exo สามารถติดตั้งบนระบบปฏิบัติการ Linux, macOS, Android, และ iOS โดย Windows ยังไม่รองรับ การใช้งานต้องการ Python รุ่น 3.12.0 ขึ้นไป พร้อมกับส่วนเสริมเพิ่มเติมสำหรับระบบที่ใช้ Linux และมี GPU ของ NVIDIA

หนึ่งในความสามารถที่โดดเด่นของ Exo คือการที่มันไม่จำเป็นต้องใช้ GPU ที่มีประสิทธิภาพสูง เช่น AI model ที่ต้องการ RAM 16GB สามารถรันบนแล็ปท็อปสองเครื่องที่มี RAM 8GB ได้ การใช้อุปกรณ์ที่มีประสิทธิภาพน้อยกว่าอาจทำให้การทำงานล่าช้าลง แต่ทางผู้พัฒนา Exo ยืนยันว่าผลรวมของการคำนวณจะดีขึ้นเมื่อเพิ่มอุปกรณ์ในเครือข่ายมากขึ้น

การรักษาความปลอดภัยเป็นสิ่งที่สำคัญเมื่อมีการแบ่งภาระงานระหว่างเครื่องหลายๆ เครื่อง ดังนั้น Exo ต้องมีการป้องกันข้อมูลรั่วไหลและการเข้าถึงที่ไม่ได้รับอนุญาต

การใช้ Exo นี้อาจเป็นทางเลือกที่น่าสนใจสำหรับองค์กรที่มีทรัพยากรจำกัดในการใช้ปัญญาประดิษฐ์

https://www.techradar.com/computing/bittorrent-for-llm-exo-software-is-a-distributed-llm-solution-that-can-run-even-on-old-smartphones-and-computers
น่าสนใจมากครับ Exo software ซึ่งเป็นโซลูชันปัญญาประดิษฐ์แบบกระจายที่สามารถทำงานได้แม้กระทั่งบนสมาร์ทโฟนและคอมพิวเตอร์เครื่องเก่าๆ Exo ช่วยลดความจำเป็นในการใช้ระบบที่มีประสิทธิภาพสูงสำหรับการทำงานแบบ inference ของปัญญาประดิษฐ์ โดยปกติแล้ว การรันโมเดลปัญญาประดิษฐ์ขนาดใหญ่ (LLM) เช่น LLaMA, Mistral, LlaVA, Qwen และ DeepSeek ต้องใช้ฮาร์ดแวร์ที่มีประสิทธิภาพสูงและมีหน่วยความจำมาก แต่ Exo ช่วยให้ผู้ใช้สามารถรวมพลังการประมวลผลของอุปกรณ์หลายๆ เครื่อง เช่น คอมพิวเตอร์ สมาร์ทโฟน หรือแม้กระทั่ง Raspberry Pi เพื่อรันโมเดลที่ไม่สามารถเข้าถึงได้มาก่อน การทำงานของ Exo คล้ายกับโครงการ SETI@home ที่ใช้ระบบคอมพิวเตอร์ของอาสาสมัครในการกระจายภาระงานการคำนวณ โดย Exo ใช้เครือข่ายแบบ peer-to-peer (P2P) ซึ่งไม่จำเป็นต้องใช้ระบบที่มีประสิทธิภาพสูงเพียงเครื่องเดียว แต่สามารถใช้เครื่องหลายๆ เครื่องร่วมกันในการทำงาน Alex Cheema, ผู้ร่วมก่อตั้ง EXO Labs กล่าวว่า "ข้อจำกัดพื้นฐานของปัญญาประดิษฐ์คือการคำนวณ ถ้าคุณไม่มีการคำนวณที่เพียงพอ คุณก็ไม่สามารถแข่งขันได้ แต่ถ้าคุณสร้างเครือข่ายกระจายนี้ เราอาจจะสามารถทำได้" Exo สามารถติดตั้งบนระบบปฏิบัติการ Linux, macOS, Android, และ iOS โดย Windows ยังไม่รองรับ การใช้งานต้องการ Python รุ่น 3.12.0 ขึ้นไป พร้อมกับส่วนเสริมเพิ่มเติมสำหรับระบบที่ใช้ Linux และมี GPU ของ NVIDIA หนึ่งในความสามารถที่โดดเด่นของ Exo คือการที่มันไม่จำเป็นต้องใช้ GPU ที่มีประสิทธิภาพสูง เช่น AI model ที่ต้องการ RAM 16GB สามารถรันบนแล็ปท็อปสองเครื่องที่มี RAM 8GB ได้ การใช้อุปกรณ์ที่มีประสิทธิภาพน้อยกว่าอาจทำให้การทำงานล่าช้าลง แต่ทางผู้พัฒนา Exo ยืนยันว่าผลรวมของการคำนวณจะดีขึ้นเมื่อเพิ่มอุปกรณ์ในเครือข่ายมากขึ้น การรักษาความปลอดภัยเป็นสิ่งที่สำคัญเมื่อมีการแบ่งภาระงานระหว่างเครื่องหลายๆ เครื่อง ดังนั้น Exo ต้องมีการป้องกันข้อมูลรั่วไหลและการเข้าถึงที่ไม่ได้รับอนุญาต การใช้ Exo นี้อาจเป็นทางเลือกที่น่าสนใจสำหรับองค์กรที่มีทรัพยากรจำกัดในการใช้ปัญญาประดิษฐ์ https://www.techradar.com/computing/bittorrent-for-llm-exo-software-is-a-distributed-llm-solution-that-can-run-even-on-old-smartphones-and-computers
0 ความคิดเห็น 0 การแบ่งปัน 28 มุมมอง 0 รีวิว