Breaking News

Jika algoritma meradikalisasi penembak adonan kerbau, apakah kesalahan perusahaan?

Jika algoritma meradikalisasi penembak adonan kerbau, apakah kesalahan perusahaan?

Di Pengadilan New York pada 20 Mei, pengacara organisasi nirlaba segalanya untuk keselamatan senjata berpendapat bahwa Meta, Amazon, Discord, Snap, 4chan dan perusahaan media sosial lainnya memiliki tanggung jawab meradikalisasi penembak massal. Perusahaan membela diri terhadap klaim bahwa karakteristik desain masing -masing, termasuk algoritma rekomendasi, mempromosikan konten rasis kepada seorang pria yang membunuh 10 orang pada tahun 2022, kemudian memfasilitasi rencana mematikan mereka. Ini adalah bukti yang sangat suram dari teori hukum yang populer: bahwa jejaring sosial adalah produk yang dapat secara hukum rusak ketika ada yang salah. Jika ini berhasil, Anda dapat mempercayai bagaimana pengadilan menafsirkan Bagian 230, bagian mendasar dari hukum internet.

Pada tahun 2022, Payton Gendron memimpin supermarket puncak di Buffalo, New York, di mana ia melepaskan tembakan terhadap pembeli, menewaskan 10 orang dan melukai tiga lainnya. Gendron mengatakan dia terinspirasi oleh serangan yang sebelumnya termotivasi. Serangan terhadap Twitch disiarkan langsung dan, dalam sebuah manifesto yang panjang dan sebuah surat kabar pribadi yang dipertahankan dalam perselisihan, mengatakan itu sebagian diradikalisasi oleh meme rasis dan sengaja menyerang komunitas warna-ada.

Setiap orang untuk keselamatan senjata membawa banyak tuntutan Selama penembakan pada tahun 2023, menyajikan klaim terhadap penjual senjata, orang tua Gendron dan daftar panjang platform web. Tuduhan terhadap perusahaan yang berbeda bervariasi, tetapi mereka semua menentang beberapa tanggung jawab atas radikalisasi Gendron di jantung perselisihan. Platform Trust Bagian 230 dari Undang -Undang Kehidupan Komunikasi bertahan melawan argumen yang agak rumit. Di AS. tujuan Isi supremasi kulit putih umumnya dilindungi oleh Amandemen Pertama. Tetapi tuntutan -tuntutan ini berpendapat bahwa jika sebuah platform memberinya makan tanpa menghentikan pengguna dalam upaya untuk menjaga mereka ketagihan, itu menjadi tanda produk yang rusak dan, dengan ekstensi, melanggar hukum tanggung jawab produk jika itu menyebabkan kerusakan.

Strategi ini mensyaratkan berargumen bahwa perusahaan membentuk konten pengguna sehingga mereka tidak boleh menerima perlindungan berdasarkan Bagian 230, yang mencegah layanan komputer interaktif bertanggung jawab atas apa yang dipublikasikan pengguna dan bahwa layanan mereka adalah produk yang sesuai dengan hukum tanggung jawab. “Ini bukan gugatan terhadap editor,” kata John Elmore, pengacara pengacara, hakim. “The Copyright Editor materi mereka. Perusahaan yang memproduksi produk paten Bahan -bahannya, dan masing -masing terdakwa ini memiliki paten. “Produk -produk yang dipatenkan ini, Elmore melanjutkan,” berbahaya dan tidak aman “dan, oleh karena itu,” rusak “di bawah hukum tanggung jawab produk -produk New York, yang memungkinkan konsumen untuk mencari kompensasi atas cedera.

Beberapa yang dituduh melakukan teknologi, termasuk Discord dan 4chan, tidak memiliki algoritma pemilik yang disesuaikan dengan pengguna individu, tetapi pernyataan terhadap mereka mengklaim bahwa desain mereka masih menunjuk untuk mengaitkan pengguna dengan cara yang secara diprediksi mendorong kerusakan.

“Komunitas ini mengalami trauma oleh seorang supremasi pemuda kulit putih yang diberi makan dengan kebencian, diradikalisasi oleh platform media sosial di internet,” kata Elmore. “Dia memperoleh kebenciannya terhadap orang -orang yang tidak pernah dia temui, orang -orang yang tidak pernah melakukan apa pun pada keluarganya atau apa pun terhadapnya, tergantung pada video, tulisan dan kelompok yang dengannya dia berhubungan dan memperkenalkan dirinya ke dalam platform ini yang kami tuntut.”

Platform ini, Elmore melanjutkan, memiliki “produk yang dipatenkan” yang “memaksa” Gendron untuk melakukan penembakan massal.

Dalam manifestonya, Gendron menyebut dirinya “nasionalis eko -faskis” dan mengatakan dia telah menginspirasi dirinya sendiri Penembakan massal sebelumnya di Christchurch, Selandia BaruDan El Paso, Texas. Seperti pendahulunya, Gendron menulis bahwa dia khawatir tentang “genosida putih” dan Pengganti yang bagus: Teori konspirasi menuduh bahwa ada plot global untuk menggantikan orang kulit putih dan Eropa dengan orang kulit berwarna, biasanya melalui imigrasi massal.

Gendon Dia menyatakan dirinya bersalah ke posisi negara pembunuhan dan terorisme pada tahun 2022 dan saat ini menjalani hukuman penjara seumur hidup.

Menurut a laporan Oleh Kantor Jaksa Agung New York, yang dikutip oleh pengacara penggugat, Gendron “memercikkan manifestonya dengan meme, lelucon, dan jargon umum di situs web ekstremis dan papan pesan”, sebuah pola yang ditemukan dalam penembakan massal lainnya. Gendron mendorong pembaca untuk mengikuti langkah-langkah mereka dan mendesak para ekstremis untuk menyebarkan pesan mereka secara online, menulis bahwa meme “telah melakukan lebih banyak untuk gerakan etno-nasionalis daripada manifesto mana pun.”

Mengutip manifesto Gendron, Elmore mengatakan kepada para juri bahwa sebelum Gendron adalah “bahan supremasi kulit putih online yang didorong,” Gendron tidak pernah memiliki masalah atau permusuhan terhadap orang kulit hitam. “Ketenaran mendorongnya bahwa algoritma membawa penembak besar lainnya yang ditransmisikan secara online, dan kemudian turun liang.”

Setiap orang untuk keselamatan senjata menuntut hampir selusin perusahaan – termasuk tujuan, Reddit, Amazon, Google, YouTube, Discord dan 4chan, atas dugaan peran mereka dalam penembakan pada tahun 2023. Tahun lalu, seorang hakim federal memungkinkan kostum untuk melanjutkan.

Rasisme, kecanduan dan desain “rusak”

Meme rasis yang dilihat Gendron secara online tidak diragukan lagi merupakan bagian penting dari pengaduan, tetapi penggugat tidak berpendapat bahwa adalah ilegal untuk menunjukkan kepada seseorang yang rasis, supremasi putih atau konten kekerasan. Faktanya, keluhan September 2023 secara eksplisit menunjukkan bahwa penggugat tidak mencoba untuk memegang YouTube “sebagai editor atau pembicara konten yang diterbitkan oleh pihak ketiga”, sebagian karena itu akan memberikan amunisi ke YouTube sehingga permintaan diberhentikan di bagian 230 tanah. Sebaliknya, YouTube menuntut “desainer dan vendor produk media sosial … itu tidak cukup aman dan itu cukup berbahaya untuk penggunaan yang mereka rencanakan.”

Argumennya adalah bahwa sifat adiktif dari algoritma situs web media sosial YouTube, ketika dikombinasikan dengan kesediaannya untuk mengatur isi supremasi kulit putih, membuat mereka tidak aman. “Ada desain yang lebih aman,” kata pengaduan, tetapi YouTube dan platform media sosial lainnya “belum dapat memodifikasi produk mereka sehingga mereka kurang berbahaya karena mereka berusaha memaksimalkan partisipasi dan keuntungan pengguna.”

Penggugat mengajukan keluhan serupa tentang platform lain. Twitch, yang tidak bergantung pada generasi algoritmik, dapat mengubah produk mereka sehingga video tersebut memiliki penundaan waktu, kata Amy Keller, pengacara pengacara, kepada para hakim. Karakteristik pemungutan suara dan karma Reddit menciptakan “siklus umpan balik” yang mendorong penggunaan. 4Chan tidak mengharuskan pengguna untuk mendaftarkan akun, memungkinkan mereka untuk mempublikasikan konten ekstremis secara anonim. “Ada jenis -jenis khusus desain yang rusak yang kita bicarakan dengan masing -masing terdakwa ini,” kata Keller, menambahkan bahwa platform yang memiliki sistem rekomendasi algoritmik adalah “mungkin di bagian atas tumpukan ketika datang ke tanggung jawab.”

Selama persidangan, para hakim bertanya kepada pengacara penggugat apakah algoritma ini selalu berbahaya. “Saya suka kucing kucing dan menonton video kucing; mereka terus mengirimi saya video kucing,” kata salah satu juri. “Ada tujuan yang menguntungkan, bukan? Diperkirakan bahwa tanpa algoritma, beberapa platform ini tidak dapat berhasil. Ada terlalu banyak informasi.”

Setelah menyetujui bahwa ia menyukai video kucing, Glenn Chappell, pengacara pengacara lain, mengatakan masalahnya jatuh pada algoritma “yang dirancang untuk menumbuhkan kecanduan dan kerusakan yang dihasilkan dari jenis mekanisme adiktif yang diketahui.” Dalam kasus tersebut, Chappell mengatakan: “Bagian 230 tidak berlaku.” Masalahnya adalah “fakta bahwa algoritma itu sendiri melakukan konten adiktif,” kata Keller.

Konten Partai Ketiga dan Produk “Cacat”

Sementara itu, pengacara platform berpendapat bahwa mengklasifikasikan konten dengan cara tertentu tidak boleh melucuti perlindungan terhadap konten yang diterbitkan oleh pengguna. Sementara keluhan dapat berargumen bahwa kami tidak mengatakan bahwa layanan web adalah editor atau pembicara, pembelaan platform menanggapi bahwa ini adalah Tetap menjadi kasus pada pidato di mana bagian 230 diterapkan.

“Kasus demi kasus telah mengakui bahwa tidak ada algoritma yang luar biasa untuk penerapan bagian 230,” Eric Shumsky, seorang pengacara target, mengatakan kepada para hakim. Mahkamah Agung mempertimbangkan apakah perlindungan bagian 230 diterapkan pada konten yang direkomendasikan secara algoritma González v. GoogleTetapi pada tahun 2023, Dia menolak kasus ini tanpa mencapai kesimpulan atau mendefinisikan ulang perlindungan yang luas saat ini.

Shumsky berpendapat bahwa sifat algoritma yang dipersonalisasi mencegah mereka menjadi “produk” di bawah hukum. “Layanan bukan produk karena tidak standar,” kata Shumsky. Tidak seperti mobil atau pemotong rumput, “Layanan ini digunakan dan dialami secara berbeda oleh setiap pengguna”, karena platform “mengadaptasi pengalaman berdasarkan tindakan pengguna.” Dengan kata lain, algoritma mungkin telah mempengaruhi Gendron, tetapi kepercayaan Gendron juga memengaruhi algoritma.

Bagian 230 adalah akuntan umum dari pernyataan bahwa perusahaan media sosial harus bertanggung jawab atas bagaimana mereka mengelola aplikasi dan situs web mereka, dan yang terkadang berhasil. Putusan pengadilan 2023 menentukan bahwa Instagram, misalnya, tidak bertanggung jawab atas Merancang layanan Anda dengan cara tertentu Itu memungkinkan pengguna untuk mengirimkan pidato yang berbahaya. Tuduhan “pasti kembali ke kesimpulan akhir bahwa Instagram, untuk beberapa cacat desain, memungkinkan pengguna untuk mempublikasikan konten yang dapat berbahaya bagi orang lain,” kata kegagalan itu.

Namun, tahun lalu, pengadilan banding federal memutuskan bahwa Tiktok harus menghadapi permintaan untuk “tantangan pemadaman viral” beberapa orang tua mengatakan mereka menyebabkan kematian anak -anak mereka. Kemudian, Anderson v. Tiktok, Pengadilan Banding Sirkuit Ketiga menetapkan bahwa Tiktok tidak dapat mengklaim kekebalan Bagian 230, karena algoritma mereka memberi makan pengguna viral tantangan. Pengadilan memutuskan bahwa konten yang direkomendasikan Tiktok kepada penggunanya bukan pidato ketiga yang dihasilkan oleh pengguna lain; adalah Pesta pertama Pidato, karena pengguna melihatnya sebagai hasil dari algoritma yang dipatenkan Tiktok.

Keputusan Sirkuit Ketiga adalah anomali, sehingga ahli dalam Bagian 230 Eric Goldman Dia memanggilnya “gila.” Tetapi ada dorongan hati bersama untuk membatasi perlindungan hukum. Diinginkan legislator konservatif Pencabutan bagian 230Dan semakin banyak pengadilan harus memutuskan apakah jejaring sosial pengguna menjual tagihan barang yang berbahaya, bukan hanya saluran untuk pidato mereka.

Sumber