Google telah mengubah ketentuannya untuk memperjelas bahwa pelanggan dapat menggunakan alat AI generatifnya untuk membuat “keputusan otomatis” di bidang “berisiko tinggi”, seperti layanan kesehatan, selama ada manusia yang terlibat.
Menurut perusahaan diperbarui Menurut Kebijakan Larangan Penggunaan AI Generatif, yang diterbitkan pada hari Selasa, pelanggan dapat menggunakan AI generatif Google untuk membuat “keputusan otomatis” yang dapat memiliki “dampak material yang merugikan terhadap hak-hak individu.” Selama manusia melakukan pengawasan, pelanggan dapat menggunakan AI generatif Google untuk membuat keputusan mengenai pekerjaan, perumahan, asuransi, kesejahteraan sosial, dan area “berisiko tinggi” lainnya.
Dalam konteks AI, keputusan otomatis mengacu pada keputusan yang dibuat oleh sistem AI berdasarkan data faktual dan kesimpulan. Sebuah sistem dapat membuat keputusan otomatis untuk memberikan pinjaman, misalnya, atau memilih kandidat untuk suatu pekerjaan.
Dia mantan Rancangan ketentuan Google menyiratkan larangan total terhadap pengambilan keputusan otomatis yang berisiko tinggi jika melibatkan AI generatif perusahaan. Namun Google mengatakan kepada TechCrunch bahwa pelanggan selalu dapat menggunakan AI generatifnya untuk pengambilan keputusan otomatis, bahkan untuk aplikasi berisiko tinggi, selama ada pengawasan manusia.
“Persyaratan pengawasan manusia selalu ada dalam kebijakan kami, untuk semua domain berisiko tinggi,” kata juru bicara Google saat dihubungi untuk memberikan komentar melalui email. “[W]Kami sedang mengkategorikan ulang beberapa item [in our terms] dan sebutkan beberapa contoh secara lebih eksplisit agar lebih jelas bagi pengguna.”
Saingan utama AI Google, OpenAI dan Anthropic, memiliki aturan yang lebih ketat dalam mengatur penggunaan AI mereka dalam pengambilan keputusan otomatis yang berisiko tinggi. Misalnya, OpenAI melarang penggunaan layanannya untuk pengambilan keputusan otomatis terkait kredit, pekerjaan, perumahan, pendidikan, penilaian sosial, dan asuransi. Anthropic mengizinkan AI-nya digunakan dalam bidang hukum, asuransi, layanan kesehatan, dan area berisiko tinggi lainnya untuk pengambilan keputusan otomatis, namun hanya di bawah pengawasan “profesional berkualifikasi”, dan mengharuskan klien untuk mengungkapkan bahwa mereka menggunakan AI untuk hal ini. tujuan.
AI yang membuat keputusan otomatis yang memengaruhi individu telah mendapat sorotan dari regulator, yang telah menyuarakan kekhawatiran tentang potensi teknologi tersebut untuk mengganggu hasil. Studi menunjukkanMisalnya, AI yang digunakan untuk mengambil keputusan seperti menyetujui permohonan kredit dan hipotek dapat melanggengkan diskriminasi historis.
Kelompok nirlaba Human Rights Watch punya ditelepon khususnya untuk melarang sistem “penilaian sosial”, yang menurut organisasi tersebut dapat mengganggu akses masyarakat terhadap dukungan Jaminan Sosial, membahayakan privasi mereka, dan menampilkan mereka dengan cara yang berbahaya.
Menurut UU AI di UESistem AI yang berisiko tinggi, termasuk sistem yang membuat keputusan kredit dan ketenagakerjaan individu, paling banyak mengalami pengawasan. Penyedia sistem ini harus mendaftar dalam database, melakukan manajemen kualitas dan risiko, mempekerjakan pengawas manusia, dan melaporkan insiden kepada otoritas terkait, dan persyaratan lainnya.
Di Amerika Serikat, Colorado baru-baru ini mengesahkan undang-undang yang mewajibkan pengembang AI untuk mengungkapkan informasi tentang sistem AI yang “berisiko tinggi” dan menerbitkan pernyataan yang merangkum kemampuan dan keterbatasan sistem. Sementara itu, Kota New York melarang pemberi kerja menggunakan alat otomatis untuk menyaring kandidat dalam pengambilan keputusan pekerjaan kecuali alat tersebut telah menjalani audit bias pada tahun sebelumnya.
TechCrunch memiliki buletin yang berfokus pada AI! Daftar di sini untuk menerimanya di kotak masuk Anda setiap hari Rabu.