Bisakah Algoritma Digital Membantu Melindungi Anak-anak Seperti Gabriel Fernandez Dari Pelecehan?

Setiap tahun sekitar 7 juta anak dilaporkan ke otoritas kesejahteraan anak untuk kemungkinan pelecehan, tetapi bagaimana pihak berwenang menentukan apakah anak-anak menyukainya Gabriel Fernandez berada dalam bahaya besar dan membutuhkan intervensi?





Banyak otoritas kesejahteraan anak mengandalkan penilaian risiko yang diberikan oleh staf yang terlatih untuk mengatur saluran telepon tempat dugaan pelecehan dilaporkan, tetapi beberapa percaya mungkin ada cara yang lebih baik.

“Ada banyak literatur yang kami lihat menunjukkan bahwa manusia bukanlah bola kristal yang bagus,” Emily Putnam-Hornstein, direktur Jaringan Data Anak-anak dan seorang profesor di USC, mengatakan dalam seri doku Neflix baru 'The Trials of Gabriel Fernandez.' “Sebaliknya, yang kami katakan adalah mari kita latih algoritme untuk mengidentifikasi anak mana yang cocok dengan profil di mana risiko busur panjang akan menyarankan keterlibatan sistem di masa depan.”



Fernandez adalah seorang anak laki-laki berusia 8 tahun yang dipukuli dan disiksa sampai mati olehnya ibu dan dia pacar , meskipun gurunya dan yang lainnya berulang kali menelepon pihak berwenang yang melaporkan dugaan pelecehan. Seri enam bagian baru membahas kehidupan Fernandez dan kematian yang mengerikan, tetapi juga membahas lebih dalam masalah sistemik dalam sistem kesejahteraan anak yang bisa berperan.



Putnam-Hornstein berpendapat bahwa satu strategi untuk mengidentifikasi anak-anak yang berada pada risiko terbesar secara lebih efektif dapat menggunakan algoritme yang dibuat khusus yang menggunakan catatan administratif dan penggalian data untuk menentukan skor risiko untuk setiap anak.



“Kami sebenarnya memiliki sekitar 6 atau 7 juta anak yang dilaporkan atas dugaan pelecehan atau penelantaran setiap tahun di AS dan secara historis cara kami membuat beberapa keputusan skrining hanya berdasarkan jenis penilaian usus,” katanya. “Pemodelan risiko prediktif hanya mengatakan, 'Tidak, tidak, tidak, mari kita ambil pendekatan yang lebih sistematis dan empiris untuk ini.'”

bagaimana saya bisa menonton saluran oksigen online gratis

Putnam-Hornstein dan Rhema Vaithianathan, direktur bersama di Pusat Analisis Data Sosial , mampu mempraktikkan gagasan tersebut di Allegheny County, Pennsylvania. Pasangan tersebut menggunakan ribuan rujukan penganiayaan anak untuk merancang algoritme yang akan menentukan skor risiko untuk setiap keluarga yang dilaporkan ke layanan perlindungan anak di wilayah tersebut, menurut Pusat Jurnalisme Kesehatan .



“Ada ratusan atau lebih faktor berbeda yang dilihat,” Marc Cherna, direktur Departemen Layanan Kemanusiaan Allegheny County, menjelaskan dalam seri dokumen. “Beberapa contoh dasarnya adalah riwayat kesejahteraan anak, riwayat orang tua, tentu saja penggunaan dan kecanduan narkoba, penyakit mental keluarga, penjara dan hukuman, dan terutama jika ada penyerangan dan hal-hal seperti itu.”

Karena banyaknya jumlah panggilan, otoritas kesejahteraan anak di seluruh negeri ditugaskan untuk menentukan apakah sebuah keluarga harus diperiksa untuk penyelidikan berdasarkan pengaduan, atau disaring.

Pada 2015, 42% dari 4 juta tuduhan yang diterima di seluruh negeri yang melibatkan 7,2 juta anak disaring, menurut The New York Times .

Namun, anak-anak terus meninggal karena pelecehan anak.

Sistem yang digunakan di Allegheny County dirancang untuk lebih akurat memprediksi keluarga mana yang kemungkinan besar memiliki keterlibatan sistem di masa depan melalui analisis data.

“Apa yang dimiliki para penyaring adalah data yang banyak,” kata Vaithianathan kepada The Times. “Tapi, agak sulit untuk menavigasi dan mengetahui faktor mana yang paling penting. Dalam satu panggilan ke C.Y.F. , Anda mungkin memiliki dua anak, tersangka pelaku, Anda akan memiliki ibu, Anda mungkin memiliki orang dewasa lain di rumah - semua orang ini akan memiliki sejarah dalam sistem yang dapat diselidiki oleh orang yang menyaring panggilan. Tapi otak manusia tidak begitu cekatan dalam memanfaatkan dan memahami semua data. '

Alat skrining keluarga Allegheny menggunakan teknik statistik yang disebut 'data mining' untuk melihat pola historis untuk 'mencoba membuat prediksi tentang apa yang mungkin terjadi' dalam kasus tertentu, katanya dalam seri dokumen.

Setiap kasus diberi skor risiko mulai dari satu hingga 20 - mengategorikan setiap kasus sebagai berisiko tinggi, berisiko menengah, atau berisiko rendah.

Rachel Berger, seorang dokter anak di Rumah Sakit Anak Pittsburgh, mengatakan kepada The Times pada tahun 2018 bahwa apa yang membuat analisis prediktif berharga adalah menghilangkan beberapa subjektivitas yang biasanya masuk ke dalam proses.

“Semua anak ini hidup dalam kekacauan,” katanya. “Bagaimana C.Y.F. pilih mana yang paling berbahaya jika semuanya memiliki faktor risiko? Anda tidak dapat mempercayai jumlah subjektivitas yang masuk ke dalam keputusan perlindungan anak. Itulah mengapa saya menyukai analitik prediktif. Ini akhirnya membawa beberapa objektivitas dan sains ke dalam keputusan yang bisa sangat mengubah hidup. '

berapa umur istri ice t coco

Tetapi ada juga kritik yang berpendapat bahwa menggunakan analitik prediktif bergantung pada data yang mungkin sudah bias. Penelitian sebelumnya telah menunjukkan bahwa minoritas dan keluarga berpenghasilan rendah sering terlalu terwakili dalam data yang dikumpulkan, berpotensi menciptakan bias terhadap keluarga Afrika-Amerika atau keluarga minoritas lainnya, menurut seri dokumen.

“Bias manusia dan bias databerjalan seiring satu sama lain, ”Kelly Capatosto, rekan peneliti senior di Institut Kirwan untuk Studi Ras dan Etnis di Universitas Negeri Ohio, mengatakan, menurut Pusat Jurnalisme Kesehatan. “Dengan keputusan ini, kami memikirkan tentang pengawasan dan kontak sistem - dengan polisi, lembaga kesejahteraan anak, lembaga pelayanan kesejahteraan sosial. Ini akan terwakili secara berlebihan di komunitas (berpenghasilan rendah dan minoritas). Ini belum tentu menunjukkan di mana kejadian ini terjadi. '

Erin Dalton, wakil direktur kantor analisis, teknologi, dan perencanaan Allegheny County, mengakui bahwa bias itu mungkin.

“Yang pasti, ada bias di sistem kami. Pelecehan anak dilihat oleh kami dan data kami bukan sebagai fungsi dari pelecehan anak yang sebenarnya, melainkan fungsi dari siapa yang dilaporkan, 'katanya dalam serial Netflix.

Tetapi daerah itu juga mengatakan kepada Pusat Jurnalisme Kesehatan bahwa mereka telah menemukan bahwa menerima tunjangan publik menurunkan skor risiko yang hampir dimiliki keluarganya.

TDaerah ini 'sangat sensitif' terhadap kekhawatiran itu dan sedang melakukan analisis berkelanjutan pada sistem untuk menentukan apakah kelompok telah ditargetkan secara tidak proporsional, kata Cherna dalam seri dokumen tersebut.

Sistem Kabupaten Allegheny dimiliki oleh kabupaten itu sendiri, tetapi ada juga beberapa kritik terhadap sistem penyaringan milik pribadi lainnya.

Departemen Layanan Anak dan Keluarga Illinois mengumumkan pada 2018 bahwa mereka tidak akan lagi menggunakan paket analitik prediktif yang dikembangkan oleh Eckerd Connects, sebuah organisasi nirlaba, dan mitra nirlaba MindShare Technology, sebagian karena perusahaan menolak memberikan rincian faktor-faktor apa. digunakan dalam formula mereka, menurut The Times.

Sistem tersebut dilaporkan mulai menunjuk ribuan anak yang membutuhkan perlindungan segera, memberi lebih dari 4.100 anak Illinois kemungkinan kematian atau cedera sebesar 90 persen atau lebih, The Chicago Tribune dilaporkan pada tahun 2017.

Namun, anak-anak lain yang tidak menerima skor risiko tinggi tetap meninggal karena pelecehan.

'Analisis prediktif (tidak) memprediksi salah satu kasus buruk,' direktur Departemen Anak-anak dan Layanan Keluarga Beverly “B.J.” Walker memberi tahu Tribune. 'Saya telah memutuskan untuk tidak melanjutkan kontrak itu.'

Daniel Hatcher, penulis ' Industri Kemiskinan: Eksploitasi Warga Amerika yang Paling Rentan 'Membandingkan beberapa sistem analitik dengan' kotak hitam ', yang mengatakan dalam seri dokumen bahwa cara mereka membuat keputusan tidak selalu jelas.

'Mereka tidak memiliki cara untuk mengetahui bagaimana mereka benar-benar memutuskan tingkat perawatan yang berdampak besar pada individu,' katanya.

Putnam-Hornstein mengakui bahwa sistem analitik prediktif tidak dapat menentukan perilaku di masa depan, tetapi dia yakin ini adalah alat yang berharga yang memungkinkan para pemeriksa untuk membuat keputusan yang lebih tepat tentang anak-anak mana yang mungkin berisiko terbesar.

“Harapan saya adalah model ini akan membantu sistem kami lebih memperhatikan subset rujukan yang relatif kecil di mana risikonya sangat tinggi dan kami akan dapat mencurahkan lebih banyak sumber daya untuk anak-anak dan keluarga tersebut secara preventif,” katanya, menurut ke Pusat Jurnalisme Kesehatan. “Saya tidak ingin siapa pun menjual pemodelan risiko prediktif secara berlebihan. Ini bukan bola kristal. Itu tidak akan menyelesaikan semua masalah kita. Namun pada margin, jika memungkinkan kami untuk membuat keputusan yang sedikit lebih baik dan mengidentifikasi kasus berisiko tinggi dan menyortirnya dari kasus berisiko rendah dan menyesuaikannya, ini bisa menjadi perkembangan penting di lapangan. '

Pesan Populer