此页面由 Cloud Translation API 翻译。
Switch to English

คู่มือ TensorFlow Lite

TensorFlow Lite เป็นชุดเครื่องมือที่ช่วยให้นักพัฒนาสามารถรันโมเดล TensorFlow บนอุปกรณ์เคลื่อนที่อุปกรณ์ฝังตัวและ IoT ช่วยให้การอนุมานของแมชชีนเลิร์นนิงบนอุปกรณ์มีเวลาแฝงต่ำและขนาดไบนารีที่เล็ก

TensorFlow Lite ประกอบด้วยสององค์ประกอบหลัก:

  • ตัว แปล TensorFlow Lite ซึ่งทำงานรุ่นที่ปรับให้เหมาะสมเป็นพิเศษในฮาร์ดแวร์ประเภทต่างๆรวมถึงโทรศัพท์มือถืออุปกรณ์ Linux ในตัวและไมโครคอนโทรลเลอร์
  • ตัว แปลง TensorFlow Lite ซึ่งแปลงโมเดล TensorFlow เป็นรูปแบบที่มีประสิทธิภาพสำหรับการใช้งานโดยล่ามและสามารถแนะนำการปรับให้เหมาะสมเพื่อปรับปรุงขนาดและประสิทธิภาพไบนารี

การเรียนรู้ของเครื่องที่ขอบ

TensorFlow Lite ได้รับการออกแบบมาเพื่อให้ง่ายต่อการเรียนรู้ของเครื่องบนอุปกรณ์ "ที่ขอบ" ของเครือข่ายแทนที่จะส่งข้อมูลไปมาจากเซิร์ฟเวอร์ สำหรับนักพัฒนาการใช้แมชชีนเลิร์นนิงบนอุปกรณ์สามารถช่วยปรับปรุง:

  • เวลาแฝง: ไม่มีการเดินทางไปยังเซิร์ฟเวอร์
  • ความเป็นส่วนตัว: ไม่จำเป็นต้องออกจากอุปกรณ์
  • การเชื่อมต่อ: การเชื่อมต่ออินเทอร์เน็ตไม่จำเป็นต้องใช้
  • การใช้พลังงาน: การเชื่อมต่อเครือข่ายกำลังหิว

TensorFlow Lite ทำงานร่วมกับอุปกรณ์หลากหลายประเภทตั้งแต่ไมโครคอนโทรลเลอร์ขนาดเล็กไปจนถึงโทรศัพท์มือถือที่ทรงพลัง

เริ่มต้น

หากต้องการเริ่มทำงานกับ TensorFlow Lite บนอุปกรณ์มือถือโปรดไปที่ เริ่มต้น ใช้งาน หากคุณต้องการปรับใช้โมเดล TensorFlow Lite กับไมโครคอนโทรลเลอร์โปรดไปที่ ไมโครคอนโทรลเลอร์

คุณสมบัติหลัก

  • ล่ามได้รับการ ปรับแต่งสำหรับ ML บนอุปกรณ์ รองรับชุดของตัวดำเนินการหลักที่ปรับให้เหมาะสมสำหรับแอปพลิเคชันบนอุปกรณ์และมีขนาดไบนารีที่เล็ก
  • การสนับสนุนแพลตฟอร์มที่หลากหลาย ครอบคลุม อุปกรณ์ Android และ iOS ลินุกซ์ในตัวและไมโครคอนโทรลเลอร์โดยใช้ API ของแพลตฟอร์มเพื่อการอนุมานแบบเร่ง
  • API สำหรับหลายภาษา เช่น Java, Swift, Objective-C, C ++ และ Python
  • ประสิทธิภาพสูง พร้อม การเร่งฮาร์ดแวร์ บนอุปกรณ์ที่รองรับเคอร์เนลที่ปรับให้เหมาะสมกับอุปกรณ์และ การเปิดใช้งานและอคติ ล่วงหน้า
  • เครื่องมือเพิ่มประสิทธิภาพโมเดล รวมถึงการ หาปริมาณ ที่สามารถลดขนาดและเพิ่มประสิทธิภาพของโมเดลโดยไม่ลดทอนความแม่นยำ
  • รูปแบบโมเดลที่มีประสิทธิภาพ โดยใช้ FlatBuffer ที่เหมาะสำหรับขนาดเล็กและพกพาได้
  • แบบจำลองล่วงหน้า สำหรับงานแมชชีนเลิร์นนิงทั่วไปที่สามารถปรับแต่งให้เข้ากับแอปพลิเคชันของคุณได้
  • ตัวอย่างและบทช่วยสอน ที่แสดงวิธีปรับใช้โมเดลแมชชีนเลิร์นนิงบนแพลตฟอร์มที่รองรับ

ขั้นตอนการพัฒนา

เวิร์กโฟลว์สำหรับการใช้ TensorFlow Lite เกี่ยวข้องกับขั้นตอนต่อไปนี้:

  1. เลือกรุ่น

    นำโมเดล TensorFlow ของคุณเองค้นหาโมเดลออนไลน์หรือเลือกโมเดลจากโมเดลที่ ได้รับการฝึกฝน มาแล้วของเราเพื่อส่งเข้าหรือฝึกอบรมใหม่

  2. แปลงโมเดล

    หากคุณใช้โมเดลที่กำหนดเองให้ใช้ตัว แปลง TensorFlow Lite และ Python สองสามบรรทัดเพื่อแปลงเป็นรูปแบบ TensorFlow Lite

  3. ปรับใช้กับอุปกรณ์ของคุณ

    เรียกใช้โมเดลของคุณบนอุปกรณ์ด้วยตัว แปล TensorFlow Lite พร้อม API ในหลายภาษา

  4. ปรับโมเดลของคุณให้เหมาะสม

    ใช้ Model Optimization Toolkit ของเราเพื่อลดขนาดโมเดลของคุณและเพิ่มประสิทธิภาพโดยมีผลกระทบต่อความแม่นยำน้อยที่สุด

หากต้องการเรียนรู้เพิ่มเติมเกี่ยวกับการใช้ TensorFlow Lite ในโครงการของคุณโปรดดู เริ่มต้น ใช้งาน

ข้อ จำกัด ทางเทคนิค

TensorFlow Lite มีแผนจะให้การอนุมานบนอุปกรณ์ที่มีประสิทธิภาพสูงสำหรับรุ่น TensorFlow ใด ๆ อย่างไรก็ตามในปัจจุบันล่าม TensorFlow Lite สนับสนุนชุดย่อยที่ จำกัด ของตัวดำเนินการ TensorFlow ที่ได้รับการปรับให้เหมาะสมสำหรับการใช้งานบนอุปกรณ์ ซึ่งหมายความว่าบางรุ่นต้องมีขั้นตอนเพิ่มเติมเพื่อทำงานกับ TensorFlow Lite

หากต้องการเรียนรู้ว่ามีตัวดำเนินการใดบ้างโปรดดู ความเข้ากันได้ของตัวดำเนินการ

หากโมเดลของคุณใช้ตัวดำเนินการที่ยังไม่ได้รับการสนับสนุนโดยล่าม TensorFlow Lite คุณสามารถใช้ TensorFlow Select เพื่อรวมการดำเนินการ TensorFlow ในโครงสร้าง TensorFlow Lite ของคุณ อย่างไรก็ตามสิ่งนี้จะนำไปสู่ขนาดไบนารีที่เพิ่มขึ้น

ขณะนี้ TensorFlow Lite ไม่รองรับการฝึกอบรมบนอุปกรณ์ แต่อยู่ใน แผนงาน ของเราพร้อมกับการปรับปรุงอื่น ๆ ตามแผน

ขั้นตอนถัดไป

ต้องการเรียนรู้เกี่ยวกับ TensorFlow Lite ต่อไปหรือไม่? ขั้นตอนต่อไปมีดังนี้