Microsoft hari ini mengumumkan bahwa mereka akan membatasi akses pelanggan ke teknologi pengenalan wajah atas nama AI yang bertanggung jawab. Selanjutnya, itu akan menghentikan kemampuan pengenalan wajah yang menyimpulkan keadaan emosi, jenis kelamin, usia, senyum, rambut wajah, rambut, dan riasan untuk alasan privasi.
“Kami telah memperbarui pendekatan kami untuk pengenalan wajah termasuk menambahkan kebijakan Akses Terbatas baru, menghapus pengklasifikasi AI dari atribut sensitif, dan memperkuat investasi kami dalam keadilan dan transparansi,” tulis Sarah Bird dari Microsoft dalam posting pengumuman. “Kami terus memberikan panduan yang konsisten dan jelas tentang penyebaran teknologi pengenalan wajah yang bertanggung jawab dan mengadvokasi undang-undang untuk mengaturnya, tetapi masih banyak yang harus kami lakukan.”
Di antara perubahan yang diumumkan Microsoft hari ini adalah:
Table of Contents
Membatasi akses ke Azure Face API, Computer Vision, dan Pengindeks Video
Ke depannya, pelanggan perlu mengajukan permohonan akses ke Azure Face API, Computer Vision, dan Pengindeks Video. Dan pelanggan lama yang menggunakan kemampuan ini memiliki waktu satu tahun untuk mengajukan dan menerima persetujuan untuk akses lanjutan.
“Akses terbatas menambahkan lapisan pengawasan tambahan pada penggunaan dan penerapan pengenalan wajah untuk memastikan penggunaan layanan ini sejalan dengan Standar AI Bertanggung Jawab Microsoft dan berkontribusi pada manfaat pengguna akhir dan masyarakat bernilai tinggi,” kata Bird. Beberapa kemampuan wajah yang ada, seperti mendeteksi blur, eksposur, kacamata, pose kepala, landmark, kebisingan, oklusi, dan kotak pembatas wajah, akan tetap tersedia secara umum dan tidak memerlukan aplikasi.
Menghentikan kemampuan pengenalan wajah
Kemampuan analisis wajah yang mencoba menyimpulkan keadaan emosional dan atribut identitas seperti jenis kelamin, usia, senyum, rambut wajah, rambut, dan riasan, akan dihentikan. “Klasifikasi emosi secara khusus … menimbulkan pertanyaan penting tentang privasi,” catat Bird. Jadi, deteksi atribut ini tidak akan tersedia lagi untuk pelanggan baru mulai 21 Juni 2022, dan pelanggan yang sudah ada memiliki waktu hingga 30 Juni 2023 untuk menghentikan penggunaan atribut ini sebelum dihentikan.
Memperbarui Standar AI Bertanggung Jawab Microsoft
Microsoft hari ini juga mengumumkan apa yang disebutnya “pembaruan yang berarti pada Standar AI yang Bertanggung Jawab,” kerangka kerjanya untuk membangun sistem AI yang “menghormati nilai-nilai abadi seperti keadilan, keandalan dan keselamatan, privasi dan keamanan, inklusivitas, transparansi, dan akuntabilitas.”
Alat baru untuk pelanggan
“Microsoft menyediakan alat dan sumber daya baru kepada pelanggan untuk membantu mengevaluasi seberapa baik kinerja model terhadap data mereka sendiri dan untuk menggunakan teknologi untuk memahami keterbatasan dalam penerapan mereka sendiri,” Bird menjelaskan. “Pelanggan Azure Cognitive Services sekarang dapat memanfaatkan paket Fairlearn open-source dan Microsoft’s Fairness Dashboard untuk mengukur kewajaran algoritme verifikasi wajah Microsoft pada data mereka sendiri—memungkinkan mereka untuk mengidentifikasi dan mengatasi potensi masalah keadilan yang dapat memengaruhi kelompok demografis yang berbeda sebelum mereka menyebarkan teknologi mereka.”
Memperbarui dokumentasi transparansi
Microsoft juga telah memperbarui dokumentasi transparansinya dengan panduan untuk membantu pelanggan meningkatkan akurasi dan keadilan sistem mereka dengan memasukkan tinjauan manusia untuk mendeteksi dan menyelesaikan kasus kesalahan identifikasi atau kegagalan lainnya, dengan memberikan dukungan kepada orang-orang yang yakin bahwa hasil mereka salah, dan dengan mengidentifikasi dan mengatasi fluktuasi akurasi karena variasi dalam kondisi operasional.
API Kualitas Recognition
Terakhir, Microsoft merilis API Kualitas Pengakuan baru yang menandai masalah dengan pencahayaan, buram, oklusi, atau sudut kepala dalam gambar yang dikirimkan untuk verifikasi wajah. “Kami menyadari beberapa kesalahan yang awalnya dikaitkan dengan masalah keadilan disebabkan oleh kualitas gambar yang buruk,” tulis Bird. “Jika gambar yang dikirimkan seseorang terlalu gelap atau buram, modelnya mungkin tidak dapat mencocokkannya dengan benar. Kami mengakui bahwa kualitas gambar yang buruk ini dapat terkonsentrasi secara tidak adil di antara kelompok demografis.”