Hasil Studi Temukan Sistem Pengenalan Wajah Bias Tentukan Ras dan Gender
A
A
A
NEW YORK - Komputer pada dasarnya merupakan sebuah alat untuk melakukan apa yang diperintahkan oleh orang yang memprogramnya, dan dengan demikian, kadang-kadang mungkin secara tidak sengaja, pengembang dapat memasukkan bias ke dalamnya.
Dalam sebuah studi baru-baru ini yang dilakukan oleh pemerintah Amerika Serikat, mereka telah menemukan bahwa ketika datang ke sistem pengenalan wajah, teknologi ini cenderung memiliki bias terhadap warna kulit dan jenis kelamin, di mana mereka salah mengidentifikasi warna kulit orang lebih daripada orang Kaukasia lainnya.
Selain itu, untuk pencocokan satu lawan satu, tim melihat tingkat positif palsu yang lebih tinggi untuk wajah orang Asia dan Afrika Amerika relatif, terhadap gambar orang Kaukasia. Perbedaannya sering berkisar dari faktor 10 hingga 100 kali, tergantung pada algoritma individu. Dikutip dari laman Ubergizmo, Selasa (24/12/2019),
Sebagai contoh, penelitian ini menemukan bahwa teknologi pengenalan wajah Microsoft memiliki hampir 10 kali lebih banyak hasil positif palsu untuk warna kulit wanita daripada warna kulit pria. Sejak saat itu, Microsoft mengatakan bahwa mereka sedang meninjau laporan tersebut, dan melakukan penyesuaian untuk mengatasinya.
Ini bukan pertama kalinya bahwa teknologi dituduh bias. Beberapa waktu lalu, algoritma di belakang Apple Card juga ditemukan menawarkan batas kredit yang lebih tinggi untuk pria daripada wanita. (Auza Asyani)
Dalam sebuah studi baru-baru ini yang dilakukan oleh pemerintah Amerika Serikat, mereka telah menemukan bahwa ketika datang ke sistem pengenalan wajah, teknologi ini cenderung memiliki bias terhadap warna kulit dan jenis kelamin, di mana mereka salah mengidentifikasi warna kulit orang lebih daripada orang Kaukasia lainnya.
Selain itu, untuk pencocokan satu lawan satu, tim melihat tingkat positif palsu yang lebih tinggi untuk wajah orang Asia dan Afrika Amerika relatif, terhadap gambar orang Kaukasia. Perbedaannya sering berkisar dari faktor 10 hingga 100 kali, tergantung pada algoritma individu. Dikutip dari laman Ubergizmo, Selasa (24/12/2019),
Sebagai contoh, penelitian ini menemukan bahwa teknologi pengenalan wajah Microsoft memiliki hampir 10 kali lebih banyak hasil positif palsu untuk warna kulit wanita daripada warna kulit pria. Sejak saat itu, Microsoft mengatakan bahwa mereka sedang meninjau laporan tersebut, dan melakukan penyesuaian untuk mengatasinya.
Ini bukan pertama kalinya bahwa teknologi dituduh bias. Beberapa waktu lalu, algoritma di belakang Apple Card juga ditemukan menawarkan batas kredit yang lebih tinggi untuk pria daripada wanita. (Auza Asyani)
(wbs)