London Underground Mengadopsi Percobaan Pengawasan AI
London Underground deploys AI surveillance experiment https://dailyai.com/2024/02/london-underground-deploys-ai-surveillance-experiment/

By Sang Ruh 10 Feb 2024, 02:56:56 WIB | 👁 184 Programming
London Underground Mengadopsi Percobaan Pengawasan AI

Keterangan Gambar : London Underground M


London Underground melakukan uji coba teknologi AI untuk pengawasan selama satu tahun. Menurut dokumen rinci yang diperoleh oleh WIRED, uji coba ini melibatkan pemantauan ribuan gerakan, perilaku, dan bahasa tubuh penumpang untuk mengidentifikasi potensi aktivitas kriminal dan bahaya keamanan.

Perangkat lunak AI, yang terhubung dengan rekaman CCTV langsung, dilatih untuk mengidentifikasi perilaku agresif, senjata, penggelapan tarif, dan kecelakaan, seperti orang yang mungkin jatuh ke rel.

Mulai dari Oktober 2022 hingga September 2023, Transport for London (TfL) menguji 11 algoritma berbeda di stasiun Tube Willesden Green, yang terletak di sektor barat laut kota.

Polisi Inggris sebelumnya telah bereksperimen dengan pengawasan AI dan melanjutkannya di beberapa acara publik, seperti yang dilakukan pada konser Beyonce tahun lalu. Namun, seringkali tidak efektif, dan kelompok hak asasi manusia telah mengecam teknologi ini, menyebutnya sebagai invasi privasi yang bermasalah dan sumber prasangka dan diskriminasi.

Pada topik tersebut, teknologi video AI memiliki sejarah yang bermasalah, dengan banyak proyek di seluruh dunia yang tidak memenuhi harapan sambil kadang-kadang mengaitkan orang berkulit gelap dengan kejahatan yang tidak mereka lakukan.

Uji coba terbaru ini menandai langkah perdana TfL dalam menggabungkan AI dengan analisis video real-time untuk menghasilkan peringatan bagi tindakan langsung oleh staf di lapangan.

Selama periode uji coba, sekitar 44.000 peringatan dihasilkan, di mana sekitar 19.000 diantar langsung ke staf untuk intervensi.

Berikut adalah hasil lengkapnya:

- Total peringatan: Lebih dari 44.000 peringatan dikeluarkan oleh sistem AI.

- Peringatan real-time kepada staf stasiun: 19.000 diberikan secara real-time kepada staf stasiun untuk tindakan langsung.

- Peringatan penggelapan tarif: Sistem AI menghasilkan 26.000 peringatan terkait aktivitas penggelapan tarif.

- Peringatan kursi roda: Ada 59 peringatan mengenai pengguna kursi roda di stasiun, yang kurang fasilitas akses kursi roda yang memadai.

- Peringatan garis keselamatan: Hampir 2.200 dikeluarkan untuk individu yang melintasi garis keselamatan kuning di platform.

- Peringatan tepi platform: Sistem menghasilkan 39 peringatan untuk orang yang membungkuk di atas tepi platform kereta.

- Peringatan duduk di bangku lama: Hampir 2.000 peringatan untuk individu yang duduk di bangku untuk jangka waktu yang lama, yang bisa menunjukkan berbagai kekhawatiran, termasuk kesejahteraan penumpang atau risiko keamanan.

- Peringatan perilaku agresif: Ada 66 peringatan terkait perilaku agresif, meskipun sistem AI kesulitan mendeteksi insiden tersebut secara dapat diandalkan karena data pelatihan yang tidak memadai.

Tugas AI tersebut diduga melampaui sekadar pengawasan - itu adalah alat multifungsi yang dirancang untuk meningkatkan keselamatan dan keamanan secara keseluruhan dalam lingkungan Tube.

Teknologi ini dikalibrasi untuk mendeteksi berbagai aktivitas, mulai dari akses tidak sah dan kebutuhan bantuan mobilitas hingga mengidentifikasi potensi bahaya seperti sampah atau tumpahan di lantai stasiun.

Namun, sistem AI tidak berperforma baik dalam beberapa skenario, menghasilkan hasil yang salah, seperti menandai anak-anak yang melewati pagar tiket sebagai penggelapan tarif potensial.

Petugas juga diduga ikut serta dalam uji coba dengan memperlihatkan senjata seperti machete dan pistol dalam bidang pandang CCTV (meskipun pada saat stasiun tutup), dengan tujuan untuk melatih AI lebih baik.

Menurut TfL, tujuan utamanya adalah untuk menciptakan lingkungan Tube yang lebih aman dan efisien yang melindungi baik publik maupun staf.

View all comments

Write a comment