Terima kasih telah mendengarkan Google I/O. Lihat semua sesi sesuai permintaan Tonton sesuai permintaan

Deteksi objek, Deteksi objek

Diberikan aliran gambar atau video, model deteksi objek dapat mengidentifikasi kumpulan objek mana yang diketahui mungkin ada dan memberikan informasi tentang posisi mereka di dalam gambar.

Misalnya, tangkapan layar aplikasi contoh ini menunjukkan bagaimana dua objek telah dikenali dan posisinya dianotasi:

Tangkapan layar contoh Android

Memulai

Untuk mempelajari cara menggunakan deteksi objek di aplikasi seluler, jelajahi Contoh aplikasi dan panduan .

Jika Anda menggunakan platform selain Android atau iOS, atau jika Anda sudah terbiasa dengan TensorFlow Lite API , Anda dapat mengunduh model deteksi objek pemula kami dan label yang menyertainya.

Unduh model awal dengan Metadata

Untuk informasi selengkapnya tentang Metadata dan bidang terkait (misalnya: labels.txt ) lihat Membaca metadata dari model

Jika Anda ingin melatih model deteksi kustom untuk tugas Anda sendiri, lihat Penyesuaian model .

Untuk kasus penggunaan berikut, Anda harus menggunakan jenis model yang berbeda:

  • Memprediksi label mana yang kemungkinan besar diwakili oleh gambar (lihat klasifikasi gambar )
  • Memprediksi komposisi gambar, misalnya subjek versus latar belakang (lihat segmentasi )

Contoh aplikasi dan panduan

Jika Anda baru menggunakan TensorFlow Lite dan bekerja dengan Android atau iOS, sebaiknya jelajahi aplikasi contoh berikut yang dapat membantu Anda memulai.

Android

Anda dapat memanfaatkan API out-of-box dari TensorFlow Lite Task Library untuk mengintegrasikan model deteksi objek hanya dalam beberapa baris kode. Anda juga dapat membuat pipeline inferensi kustom sendiri menggunakan TensorFlow Lite Interpreter Java API .

Contoh Android di bawah ini mendemonstrasikan implementasi untuk kedua metode tersebut masing-masing menggunakan pustaka Tugas dan API juru bahasa .

Lihat contoh Android

iOS

Anda dapat mengintegrasikan model menggunakan TensorFlow Lite Interpreter Swift API . Lihat contoh iOS di bawah ini.

Lihat contoh iOS

Deskripsi model

Bagian ini menjelaskan tanda tangan untuk model Single-Shot Detector yang dikonversi ke TensorFlow Lite dari TensorFlow Object Detection API .

Model deteksi objek dilatih untuk mendeteksi keberadaan dan lokasi beberapa kelas objek. Misalnya, sebuah model dapat dilatih dengan gambar yang berisi berbagai potongan buah, beserta label yang menentukan kelas buah yang diwakilinya (misalnya apel, pisang, atau stroberi), dan data yang menentukan di mana setiap objek muncul di foto.

Ketika sebuah gambar selanjutnya diberikan ke model, itu akan menampilkan daftar objek yang dideteksinya, lokasi kotak pembatas yang berisi setiap objek, dan skor yang menunjukkan keyakinan bahwa deteksi itu benar.

Masukan Tanda Tangan

Model mengambil gambar sebagai masukan.

Mari kita asumsikan gambar yang diharapkan berukuran 300x300 piksel, dengan tiga saluran (merah, biru, dan hijau) per piksel. Ini harus dimasukkan ke model sebagai buffer rata dengan nilai 270.000 byte (300x300x3). Jika model dikuantisasi , setiap nilai harus berupa satu byte yang mewakili nilai antara 0 dan 255.

Anda dapat melihat contoh kode aplikasi kami untuk memahami cara melakukan pra-pemrosesan ini di Android.

Keluaran Tanda Tangan

Model mengeluarkan empat larik, dipetakan ke indeks 0-4. Larik 0, 1, dan 2 mendeskripsikan N objek yang terdeteksi, dengan satu elemen di setiap larik yang sesuai dengan setiap objek.

Indeks Nama Keterangan
0 Lokasi Array multidimensi [N][4] nilai floating point antara 0 dan 1, array dalam mewakili kotak pembatas dalam bentuk [atas, kiri, bawah, kanan]
1 Kelas Larik bilangan bulat N (keluaran sebagai nilai floating point) masing-masing menunjukkan indeks label kelas dari file label
2 Skor Array N nilai floating point antara 0 dan 1 mewakili probabilitas bahwa suatu kelas terdeteksi
3 Jumlah deteksi Nilai bilangan bulat dari N

Misalnya, bayangkan sebuah model telah dilatih untuk mendeteksi apel, pisang, dan stroberi. Ketika diberikan gambar, itu akan menampilkan sejumlah hasil deteksi - dalam contoh ini, 5.

Kelas Skor Lokasi
apel 0,92 [18, 21, 57, 63]
pisang 0,88 [100, 30, 180, 150]
Stroberi 0,87 [7, 82, 89, 163]
pisang 0,23 [42, 66, 57, 83]
apel 0,11 [6, 42, 31, 58]

Skor kepercayaan diri

Untuk menginterpretasikan hasil ini, kita dapat melihat skor dan lokasi setiap objek yang terdeteksi. Skor adalah angka antara 0 dan 1 yang menunjukkan keyakinan bahwa objek benar-benar terdeteksi. Semakin mendekati angka 1, semakin percaya diri model tersebut.

Bergantung pada aplikasi Anda, Anda dapat menentukan ambang batas yang di bawahnya Anda akan membuang hasil deteksi. Untuk contoh saat ini, cut-off yang masuk akal adalah skor 0,5 (berarti probabilitas 50% bahwa deteksi valid). Dalam hal ini, dua objek terakhir dalam larik akan diabaikan karena skor kepercayaan tersebut di bawah 0,5:

Kelas Skor Lokasi
apel 0,92 [18, 21, 57, 63]
pisang 0,88 [100, 30, 180, 150]
Stroberi 0,87 [7, 82, 89, 163]
pisang 0,23 [42, 66, 57, 83]
apel 0,11 [6, 42, 31, 58]

Pemotongan yang Anda gunakan harus didasarkan pada apakah Anda lebih nyaman dengan positif palsu (objek yang salah diidentifikasi, atau area gambar yang salah diidentifikasi sebagai objek padahal sebenarnya tidak), atau negatif palsu (objek asli yang terjawab karena kepercayaan diri mereka rendah).

Misalnya, pada gambar berikut, buah pir (yang bukan objek yang dilatih untuk dideteksi oleh model) salah diidentifikasi sebagai "orang". Ini adalah contoh positif palsu yang dapat diabaikan dengan memilih cut-off yang sesuai. Dalam hal ini, batas 0,6 (atau 60%) akan mengecualikan positif palsu.

Cuplikan layar contoh Android menunjukkan positif palsu

Lokasi

Untuk setiap objek yang terdeteksi, model akan mengembalikan larik empat angka yang mewakili persegi panjang pembatas yang mengelilingi posisinya. Untuk model starter yang disediakan, urutan nomornya sebagai berikut:

[ atas, kiri, dasar, Kanan ]

Nilai teratas mewakili jarak tepi atas persegi panjang dari bagian atas gambar, dalam piksel. Nilai kiri mewakili jarak tepi kiri dari kiri gambar masukan. Nilai lainnya mewakili tepi bawah dan kanan dengan cara yang sama.

Tolok ukur kinerja

Angka tolok ukur kinerja untuk model pemula kami dibuat dengan alat yang dijelaskan di sini .

Nama model Ukuran model Perangkat GPU CPU
COCO SSD MobileNet v1 27 Mb Piksel 3 (Android 10) 22 md 46 md*
Piksel 4 (Android 10) 20 md 29 md*
iPhone XS (iOS 12.4.1) 7,6 md 11 md**

* 4 utas digunakan.

** 2 utas digunakan di iPhone untuk hasil kinerja terbaik.

Kustomisasi Model

Model pra-terlatih

Model deteksi yang dioptimalkan untuk seluler dengan berbagai karakteristik latensi dan presisi dapat ditemukan di Kebun Binatang Deteksi . Masing-masing mengikuti tanda tangan input dan output yang dijelaskan di bagian berikut.

Sebagian besar zip unduhan berisi file model.tflite . Jika tidak ada, flatbuffer TensorFlow Lite dapat dibuat menggunakan petunjuk ini . Model SSD dari TF2 Object Detection Zoo juga dapat dikonversi ke TensorFlow Lite menggunakan petunjuk di sini . Penting untuk diperhatikan bahwa model deteksi tidak dapat dikonversi secara langsung menggunakan TensorFlow Lite Converter , karena memerlukan langkah menengah untuk menghasilkan model sumber yang ramah seluler. Skrip yang ditautkan di atas melakukan langkah ini.

Skrip pengekspor TF1 & TF2 memiliki parameter yang dapat mengaktifkan lebih banyak objek keluaran atau pemrosesan pasca yang lebih lambat dan lebih akurat. Harap gunakan --help dengan skrip untuk melihat daftar lengkap argumen yang didukung.

Saat ini, inferensi pada perangkat hanya dioptimalkan dengan model SSD. Dukungan yang lebih baik untuk arsitektur lain seperti CenterNet dan EfficientDet sedang diselidiki.

Bagaimana cara memilih model untuk disesuaikan?

Setiap model hadir dengan presisinya sendiri (dihitung dengan nilai mAP) dan karakteristik latensi. Anda harus memilih model yang bekerja paling baik untuk kasus penggunaan dan perangkat keras yang dimaksudkan. Misalnya, model Edge TPU ideal untuk inferensi pada Edge TPU Google di Pixel 4.

Anda dapat menggunakan alat tolok ukur kami untuk mengevaluasi model dan memilih opsi paling efisien yang tersedia.

Menyempurnakan model pada data khusus

Model terlatih yang kami sediakan dilatih untuk mendeteksi 90 kelas objek. Untuk daftar lengkap kelas, lihat file label di metadata model .

Anda dapat menggunakan teknik yang dikenal sebagai pembelajaran transfer untuk melatih ulang model agar mengenali kelas yang tidak ada di set aslinya. Misalnya, Anda dapat melatih ulang model untuk mendeteksi beberapa jenis sayuran, meskipun hanya ada satu sayuran dalam data pelatihan asli. Untuk melakukannya, Anda memerlukan satu set gambar pelatihan untuk setiap label baru yang ingin Anda latih. Cara yang disarankan adalah menggunakan pustaka TensorFlow Lite Model Maker yang menyederhanakan proses pelatihan model TensorFlow Lite menggunakan kumpulan data khusus, dengan beberapa baris kode. Ini menggunakan pembelajaran transfer untuk mengurangi jumlah data dan waktu pelatihan yang diperlukan. Anda juga dapat belajar dari Colab deteksi beberapa bidikan sebagai contoh penyempurnaan model pra-pelatihan dengan beberapa contoh.

Untuk menyempurnakan set data yang lebih besar, lihat panduan ini untuk melatih model Anda sendiri dengan TensorFlow Object Detection API: TF1 , TF2 . Setelah dilatih, mereka dapat dikonversi ke format ramah TFLite dengan instruksi di sini: TF1 , TF2