Breaking News

Industri teknologi mencoba mengurangi prasangka umum AI. Sekarang Trump ingin menyelesaikan usahanya ‘bangun ai’

Industri teknologi mencoba mengurangi prasangka umum AI. Sekarang Trump ingin menyelesaikan usahanya ‘bangun ai’

Cambridge, Massachusetts (AP) – Setelah menarik diri dari keragaman, program ekuitas, dan inklusi mereka, sekarang perusahaan teknologi sekarang dapat menghadapi perhitungan kedua tentang pekerjaan mereka dari AI dalam produk AI.

Di Gedung Putih dan Kongres yang dipimpin oleh Partai Republik, “Bangun AI” telah digantikan Diskriminasi algoritmik damine sebagai masalah yang perlu dipecahkan. Upaya masa lalu untuk “maju dalam ekuitas” dalam pengembangan AI dan menghentikan produksi “hasil berbahaya dan bias” adalah tujuan penyelidikan, menurut kutipan yang dikirim ke Amazon, Google, Meta, Microsoft, OpenAi dan 10 perusahaan teknologi lainnya bulan lalu oleh Komite Kehakiman Kamar.

Dan cabang standar Departemen Perdagangan Amerika Serikat telah menghilangkan menyebutkan keadilan AI, keamanan dan “bertanggung jawab” dalam daya tarik kolaborasi dengan para peneliti eksternal. Sebaliknya, ia diperintahkan kepada para ilmuwan untuk berkonsentrasi pada “mengurangi bias ideologis” dengan cara yang “memungkinkan daya saing manusia yang berkembang dan ekonomis,” menurut salinan dokumen yang diperoleh oleh Associated Press.

Entah bagaimana, pekerja teknologi terbiasa dengan cambuk prioritas yang dipromosikan oleh Washington yang memengaruhi pekerjaan mereka.

Tetapi perubahan terakhir telah menimbulkan kekhawatiran di antara para ahli di lapangan, termasuk sosiolog Universitas Harvard Ellis Monk, yang didekati Google beberapa tahun yang lalu untuk membantu membuat produk mereka lebih inklusif.

Pada saat itu, industri teknologi sudah Saya tahu saya punya masalah Dengan Rama AI yang melatih mesin untuk “melihat” dan memahami gambar -gambarnya. Visi komputer memiliki janji komersial yang luar biasa, tetapi menggemakan prasangka sejarah yang ditemukan dalam teknologi kamar sebelumnya yang menggambarkan orang -orang hitam dan coklat dalam cahaya yang sedikit menyanjung.

“Orang kulit hitam atau kulit yang lebih gelap akan datang dalam gambar dan kadang -kadang kami konyol,” kata Monk, seorang sarjana warna, suatu bentuk diskriminasi berdasarkan warna kulit orang dan karakteristik lainnya.

Google mengadopsi skala warna yang ditemukan oleh Monk yang meningkatkan cara di mana alat gambar IA menggambarkan keragaman nada kulit manusia, mengganti standar dekade yang awalnya dirancang untuk dokter yang merawat pasien dengan dermatologi putih.

“Konsumen pasti memiliki respons positif yang bagus terhadap perubahan,” katanya.

Sekarang Monk bertanya -tanya apakah upaya seperti itu akan berlanjut di masa depan. Meskipun ia tidak percaya bahwa skala warna kulit biarawannya terancam karena sudah dipanggang dalam lusinan produk di Google dan tempat -tempat lain, termasuk telepon kamera, video game, generator gambar kecerdasan buatan, ia dan peneliti lain khawatir bahwa suasana hati baru itu mengerikan inisiatif dan pembiayaan di masa depan sehingga teknologi bekerja lebih baik untuk semua orang.

“Google ingin produknya bekerja untuk semua orang, di India, Cina, Afrika, dll., Bagian itu adalah semacam de-mune,” kata Monk. “Tapi bisakah mereka mengurangi pembiayaan di masa depan untuk jenis proyek ini? Tentu saja, ketika suasana hati politik berubah dan ketika ada banyak tekanan untuk sampai ke pasar dengan sangat cepat.”

Trump telah memotong Ratusan Sains, Teknologi Dan Hibah Pembiayaan Kesehatan Sentuh masalah DEI, tetapi pengaruhnya terhadap pengembangan komersial chatbots dan produk AI lainnya lebih tidak langsung. Ketika menyelidiki perusahaan -perusahaan AI, perwakilan Republik Jim Jordan, presiden Komite Yudisial, mengatakan dia ingin mencari tahu apakah administrasi mantan Presiden Joe Biden “dipaksa atau dikumpulkan dengan” untuk menyensor wacana hukum.

Michael Kratsios, direktur Kantor Kebijakan Ilmu dan Teknologi Gedung Putih dan Teknologi, mengatakan pada acara Texas bulan ini bahwa kebijakan IA Biden “mempromosikan divisi sosial dan redistribusi atas nama ekuitas.”

Pemerintahan Trump menolak untuk membuat Kratsios tersedia untuk wawancara, tetapi mengutip beberapa contoh dari apa yang dia maksudkan. Salah satunya adalah garis strategi penelitian AI era Biden yang mengatakan: “Tanpa kontrol yang memadai, sistem AI dapat memperkuat, melanggengkan atau memperburuk hasil yang tidak adil atau tidak diinginkan untuk individu dan masyarakat.”

Bahkan sebelum Biden mengambil posisi itu, badan penelitian dan anekdot pribadi yang berkembang menarik perhatian terhadap kerusakan bias AI.

Sebuah studi menunjukkan Teknologi mobil otonom mengalami kesulitan mendeteksi pejalan kaki kulit yang lebih gelap, yang menempatkan mereka dalam bahaya yang lebih besar dipukul. Studi lain yang bertanya Generator teks populer dalam gambar AI untuk membuat gambar seorang ahli bedah menemukan bahwa mereka menghasilkan orang kulit putih sekitar 98% dari waktu, jauh lebih tinggi dari proporsi sebenarnya bahkan di bidang yang sangat didominasi oleh pria.

Perangkat lunak tempur untuk membuka ponsel wajah yang salah. Polisi di kota -kota Amerika Pria kulit hitam ditangkap secara tidak adil Berdasarkan kebetulan pengakuan wajah palsu. Dan satu dekade yang lalu, foto Google sendiri mengklasifikasikan gambar dua orang kulit hitam dalam kategori yang diberi label sebagai “gorila.”

Bahkan para ilmuwan pemerintah di pemerintahan pertama Trump disimpulkan pada 2019 Teknologi pengenalan wajah itu bekerja secara tidak merata berdasarkan ras, jenis kelamin atau usia.

Pilihan Biden mempromosikan beberapa perusahaan teknologi untuk mempercepat pendekatan mereka terhadap keadilan AI. CHATGPT 2022 dari kedatangan Openai menambahkan prioritas baru, menghasilkan ledakan komersial dalam aplikasi AI baru untuk menyusun dokumen dan menghasilkan gambar, menekan perusahaan seperti Google untuk memfasilitasi kehati -hatian mereka dan mengejar ketinggalan.

Kemudian datang chatbot Gemini AI dari Google, dan peluncuran produk yang rusak tahun lalu yang akan menjadikannya simbol “Wake AI” yang diharapkan oleh kaum konservatif. Mengarah ke perangkat mereka sendiri, alat AI yang menghasilkan gambar dari pemberitahuan tertulis cenderung melanggengkan akumulasi stereotip dari semua data visual di mana mereka dilatih.

Google tidak berbeda, dan ketika dia diminta untuk mewakili orang -orang dalam beberapa profesi, itu lebih mungkin untuk mendukung wajah dan pria dengan kulit yang lebih ringan, dan, ketika para wanita dipilih, para wanita yang lebih muda, menurut penelitian publik perusahaan.

Google mencoba menempatkan pagar teknis untuk mengurangi perbedaan tersebut sebelum menerapkan generator gambar Gemini AI sedikit lebih dari setahun yang lalu. Ketentuan Kompensasi besarMenempatkan orang -orang kulit berwarna dan wanita di lingkungan historis yang tidak akurat, seperti menanggapi permintaan dari orang tua pendiri Amerika dengan gambar pria dalam pakaian abad ke -18 yang tampaknya berwarna hitam, asli Asia dan Amerika. Google dengan cepat meminta maaf dan sementara mengambil fungsi, tetapi kemarahan menjadi teriakan pertemuan yang diasumsikan oleh hukum politik.

Dengan CEO Google, Susia Pichai, duduk di dekatnya, Wakil Presiden JD Vance menggunakan KTT AI Di Paris, pada bulan Februari, untuk mengecam kemajuan “agenda sosial yang terus terang melalui AI”, menyebutkan saat ketika generator gambar Google “mencoba memberi tahu kami bahwa George Washington berkulit hitam, atau bahwa adonan Amerika Serikat dalam Perang Dunia, pada kenyataannya, wanita.”

“Kita harus mengingat pelajaran dari momen konyol itu,” kata Vance pada pertemuan itu. “Dan yang kita dapatkan adalah bahwa administrasi Trump akan memastikan bahwa sistem AI yang dikembangkan di Amerika Serikat bebas dari bias ideologis dan tidak pernah membatasi hak warga negara kita untuk kebebasan berekspresi.”

Seorang mantan penasihat ilmiah Biden yang menghadiri pidato itu, Alondra Nelson, mengatakan bahwa pendekatan administrasi Trump yang baru dalam “bias ideologis” AI, dengan cara tertentu, merupakan pengakuan waktu kerja untuk mengatasi bias algoritmik yang dapat mempengaruhi perumahan, hipotek, perawatan medis, dan aspek -aspek lain dari kehidupan orang.

“Pada dasarnya, untuk mengatakan bahwa sistem AI bias secara ideologis, yaitu, mengidentifikasi, mengakui dan prihatin dengan masalah bias algoritmik, yang merupakan masalah yang lama dari kita khawatir Rekan bersama dari satu set prinsip untuk melindungi hak -hak sipil dan kebebasan sipil dalam permintaan AI.

Tetapi Nelson tidak melihat banyak ruang untuk kolaborasi di tengah -tengah rekor inisiatif yang adil dari AI.

“Saya pikir di ruang politik ini, sayangnya, itu tidak mungkin,” katanya. “Masalah yang telah dinamai secara berbeda, diskriminasi algoritmik atau bias algoritmik, di satu sisi, dan bias ideologis di sisi lain) sayangnya akan melihat kita sebagai dua masalah yang berbeda.”



Sumber