Breaking News

Kami adalah gremlin baru di mesin AI

Kami adalah gremlin baru di mesin AI

Tetap terinformasi dengan pembaruan gratis

Salah satu kerabat saya mendengarkan beberapa kisah aneh ketika saya bekerja di jalur bantuan perawatan medis selama Covid Pandemic. Karyanya adalah membantu orang yang menelepon untuk menyelesaikan tes aliran samping yang cepat menggunakan jutaan kali selama blokade. Tetapi beberapa orang yang menelepon jelas bingung dengan prosedur ini. “Jadi, saya minum cairan dalam tabung. Apa yang harus saya lakukan sekarang?” Satu bertanya.

Kebingungan pengguna itu dapat menjadi contoh ekstrem dari masalah teknologi umum: bagaimana orang biasa menggunakan produk atau layanan di dunia nyata dapat sangat menyimpang dari niat desainer di laboratorium.

Terkadang penyalahgunaan itu bisa disengaja, baik atau buruk. Misalnya, wartawan organisasi kampanye tanpa batas telah mencoba melindungi kebebasan berekspresi di beberapa negara otoriter yang menyembunyikan konten yang dilarang di dalamnya Minecraft Server video game. Sementara itu, penjahat telah menggunakan printer 3D di rumah untuk memproduksi senjata yang tidak mungkin dilacak. Namun, lebih sering, penyalahgunaan tidak disengaja, seperti halnya tes Covid. Sebut saja masalah penyalahgunaan yang tidak disengaja, atau “imp” untuk menyingkat. Gremlin baru pada mesin bisa menjadi IMP di chatbots.

Ambil chatbots tujuan umum, seperti chatgpt, yang digunakan oleh 17 persen orang Amerika Setidaknya sebulan sekali untuk mendiagnosis diri sendiri masalah kesehatan. Chatbots ini memiliki kemampuan teknologi luar biasa yang akan tampak ajaib beberapa tahun yang lalu. Dalam hal pengetahuan klinis, triase, ringkasan teks dan jawaban atas pertanyaan pasien, model terbaik sekarang dapat cocok dengan dokter manusia, menurut beberapa tes. Dua tahun lalu, misalnya, Seorang ibu di Inggris berhasil menggunakan chatgpt Untuk mengidentifikasi sindrom tali pusat (terkait dengan tulang belakang bifida) pada putranya yang telah dirindukan oleh 17 dokter.

Itu meningkatkan kemungkinan bahwa chatbots ini suatu hari nanti dapat menjadi “pintu utama” baru untuk penyediaan perawatan medis, meningkatkan akses dengan biaya lebih rendah. Minggu ini, Wes Streeting, Menteri Kesehatan Inggris, berjanji Untuk memperbarui aplikasi NHS menggunakan kecerdasan buatan untuk menyediakan “dokter di saku Anda untuk memandu melalui perawatan Anda”. Tetapi cara -cara di mana mereka dapat digunakan dengan lebih baik tidak sama dengan yang paling umum digunakan. Sebuah studi terbaru yang dipimpin oleh Oxford Internet Institute Dia telah menyoroti beberapa cacat yang mengkhawatirkan, dengan pengguna melawannya secara efektif.

Para peneliti mendaftarkan 1.298 peserta dalam esai acak dan terkontrol untuk membuktikan seberapa baik mereka dapat menggunakan chatbots untuk menanggapi 10 skenario medis, termasuk sakit kepala akut, tulang patah dan pneumonia. Peserta diminta untuk mengidentifikasi kondisi kesehatan dan menemukan tindakan yang disarankan. Tiga chatbots digunakan: GPT-4O dari Openai, panggilan meta 3 dan perintah cohere R+, yang memiliki karakteristik yang sedikit berbeda.

Ketika skenario pengujian langsung dimasukkan ke dalam model AI, chatbots dengan benar mengidentifikasi kondisi pada 94,9 persen kasus. Namun, para peserta menjadi jauh lebih buruk: mereka memberikan informasi yang tidak lengkap dan chatbots sering salah memahami indikasi mereka, yang ternyata tingkat keberhasilan turun menjadi hanya 34,5 persen. Kemampuan teknologi model ini tidak berubah, tetapi entri manusia melakukannya, yang menyebabkan output yang sangat berbeda. Yang lebih buruk, peserta uji juga diatasi oleh kelompok kontrol, yang tidak memiliki akses ke chatbots, tetapi berkonsultasi dengan mesin pencari reguler.

Hasil studi tersebut tidak berarti bahwa kita harus berhenti menggunakan chatbots untuk nasihat kesehatan. Tetapi dia menyarankan agar desainer harus lebih memperhatikan bagaimana orang biasa dapat menggunakan layanan mereka. “Insinyur cenderung berpikir bahwa orang menggunakan teknologi secara tidak benar. Oleh karena itu, kerusakan pengguna adalah kesalahan pengguna. Tetapi berpikir tentang keterampilan teknologi pengguna sangat penting untuk dirancang,” kata seorang pendiri perusahaan AI kepada saya. Itu terutama berlaku dengan pengguna yang mencari nasihat medis, banyak dari mereka dapat menjadi putus asa, sakit atau lebih tua yang menunjukkan tanda -tanda kemunduran mental.

Chatbots kesehatan yang paling khusus dapat membantu. Namun, a Studi Universitas Stanford Terbaru Mereka menemukan bahwa beberapa chatbot terapi yang banyak digunakan, yang membantu mengatasi tantangan kesehatan mental, juga dapat “memperkenalkan bias dan kegagalan yang dapat mengakibatkan konsekuensi berbahaya.” Para peneliti menyarankan bahwa lebih banyak pagar harus dimasukkan untuk memperbaiki instruksi pengguna, meminta informasi proaktif untuk memandu interaksi dan berkomunikasi lebih jelas.

Perusahaan teknologi dan pemasok perawatan medis juga harus melakukan lebih banyak tes pengguna dalam kondisi dunia nyata untuk memastikan bahwa model mereka digunakan dengan benar. Mengembangkan teknologi yang kuat adalah satu hal; Belajar menggunakannya secara efektif adalah hal lain yang sangat berbeda. Hati -hati dengan Imps.

John.thornhill@ft.com

Sumber

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *