Pencucian etika AI

 

Pencucian etika AI

Pencucian etika AI – Tahun lalu, tepat ketika saya mulai meliput kecerdasan buatan, dunia AI mendapat panggilan bangun besar. Ada beberapa kemajuan luar biasa dalam penelitian AI pada 2018 mulai dari penguatan pembelajaran hingga jaringan permusuhan generatif (GAN) hingga pemahaman bahasa alami yang lebih baik. Tetapi pada tahun itu juga terlihat beberapa ilustrasi profil tinggi tentang kerusakan yang dapat ditimbulkan oleh sistem ini ketika mereka diterapkan terlalu cepat.

Sebuah Tesla menabrak Autopilot , menewaskan pengemudi, dan Uber yang mengemudi sendiri jatuh , menewaskan seorang pejalan kaki. Sistem pengenalan wajah komersial sangat berperan dalam mengaudit orang-orang berkulit gelap , tetapi para raksasa teknologi terus menjajakan mereka, kepada para pelanggan termasuk penegak hukum. Pada awal tahun ini, merenungkan peristiwa-peristiwa ini, saya menulis sebuah resolusi untuk komunitas AI: Berhenti memperlakukan AI seperti sihir, dan bertanggung jawab untuk menciptakan, menerapkan, dan mengaturnya secara etis.

Baca Juga : Bagaimana Bisa Personalisasi Menjadi Individualisasi?

Dalam beberapa hal, keinginan saya memang terkabul. Pada 2019, ada lebih banyak pembicaraan tentang etika AI daripada sebelumnya. Lusinan organisasi menghasilkan pedoman etika AI; perusahaan bergegas untuk membentuk tim AI yang bertanggung jawab dan memamerkannya di depan media. Sulit untuk menghadiri konferensi terkait AI lagi tanpa bagian dari pemrograman yang didedikasikan untuk pesan yang berhubungan dengan etika: Bagaimana kita melindungi privasi orang ketika AI membutuhkan begitu banyak data? Bagaimana kita memberdayakan masyarakat yang terpinggirkan daripada mengeksploitasi mereka? Bagaimana kita terus mempercayai media dalam menghadapi disinformasi yang dibuat dan didistribusikan secara algoritmik?

Tetapi bicara saja tidak cukup. Untuk semua layanan bibir yang dibayarkan untuk masalah ini, pedoman etika AI banyak organisasi tetap kabur dan sulit untuk diterapkan. Beberapa perusahaan dapat menunjukkan perubahan nyata pada cara produk dan layanan AI dievaluasi dan disetujui. Kita jatuh ke dalam perangkap etika, di mana tindakan yang tulus digantikan oleh janji-janji yang dangkal. Dalam contoh paling akut, Google membentuk dewan etika AI nominal tanpa hak veto aktual atas proyek yang dipertanyakan, dan dengan beberapa anggota yang inklusi memicu kontroversi. Serangan balasan segera menyebabkan pembubarannya .

Baca Juga : Teknologi Baru Tidak Selalu Lebih Baik

Sementara itu, kebutuhan akan tanggung jawab etis yang lebih besar hanya tumbuh lebih mendesak. Kemajuan yang sama yang dibuat di GAN pada 2018 telah menyebabkan proliferasi deepfake hiper-realistis, yang sekarang digunakan untuk menargetkan wanita dan mengikis kepercayaan orang dalam dokumentasi dan bukti . Temuan-temuan baru telah menjelaskan dampak iklim besar-besaran dari pembelajaran mendalam, tetapi organisasi terus melatih model yang semakin besar dan semakin menguras energi . Para sarjana dan jurnalis juga telah mengungkapkan berapa banyak manusia di balik tirai algoritmik. Industri AI menciptakan kelas pekerja tersembunyi yang sepenuhnya baru moderator isi, pelabel data, transkrip yang bekerja keras dalam kondisi yang seringkali brutal.

Tetapi tidak semua gelap dan suram: 2019 adalah tahun dari pushback akar rumput terbesar melawan Pencucian etika AI berbahaya dari kelompok masyarakat, pembuat kebijakan, dan karyawan teknologi itu sendiri. Beberapa kota termasuk San Francisco dan Oakland, California, dan Somerville, Massachusetts melarang penggunaan pengakuan wajah secara publik , dan undang-undang federal yang diusulkan segera dapat melarangnya dari perumahan umum AS . Karyawan raksasa teknologi seperti Microsoft, Google, dan Salesforce juga semakin vokal menentang penggunaan AI perusahaan mereka untuk melacak migran dan untuk pengawasan drone.

Di dalam komunitas AI, para peneliti juga menggandakan mitigasi AI dan menguji kembali insentif yang mengarah pada konsumsi energi lapangan yang tidak terkendali . Perusahaan menginvestasikan lebih banyak sumber daya untuk melindungi privasi pengguna dan memerangi deepfake dan disinformasi . Para ahli dan pembuat kebijakan bekerja bersama-sama untuk mengusulkan undang-undang baru yang bijaksana yang dimaksudkan untuk mengendalikan konsekuensi yang tidak diinginkan tanpa mengurangi inovasi. Pada pertemuan tahunan terbesar di lapangan tahun ini, saya tersentuh dan kaget dengan banyaknya ceramah, lokakarya, dan poster yang berfokus pada masalah-masalah dunia nyata keduanya yang diciptakan oleh AI dan yang bisa membantu menyelesaikannya.

Jadi inilah harapan saya untuk 2020: bahwa industri dan akademisi mempertahankan momentum ini dan membuat perubahan dari atas ke bawah dan dari atas ke bawah yang menyelaraskan pengembangan AI. Sementara kita masih punya waktu, kita tidak boleh melupakan mimpi yang menggerakkan lapangan. Beberapa dekade yang lalu, manusia memulai pencarian untuk membangun mesin cerdas sehingga suatu hari mereka dapat membantu kita memecahkan beberapa tantangan terberat kita.

 

Related posts