Harris mengatakan lembaga-lembaga federal harus membuktikan bahwa alat AI mereka tidak merugikan manusia

Badan-badan federal harus membuktikan bahwa alat kecerdasan buatan mereka tidak merugikan orang atau berhenti menggunakannya, berdasarkan peraturan baru yang diumumkan oleh Gedung Putih pada hari Kamis.

“Ketika lembaga pemerintah menggunakan alat kecerdasan buatan, kami akan meminta mereka untuk memverifikasi bahwa alat tersebut tidak membahayakan hak dan keamanan rakyat Amerika,” kata Wakil Presiden Kamala Harris kepada wartawan sebelum pengumuman tersebut.

Pada bulan Desember, setiap entitas harus memiliki serangkaian perlindungan nyata yang memandu segala hal mulai dari layar pengenalan wajah di bandara hingga alat kecerdasan buatan yang membantu memantau jaringan listrik atau menentukan hipotek dan asuransi rumah.

Panduan baru yang dikeluarkan pada hari Kamis oleh Kantor Manajemen dan Anggaran Gedung Putih kepada para kepala lembaga adalah bagian dari perintah eksekutif AI yang ditandatangani oleh Presiden Joe Biden pada bulan Oktober.

Walaupun keputusan umum tersebut bertujuan untuk melindungi sistem AI komersial yang dibuat oleh perusahaan-perusahaan teknologi terkemuka, seperti perusahaan yang mendukung chatbot penghasil AI, arahan hari Kamis ini menargetkan alat-alat yang telah digunakan lembaga-lembaga tersebut selama bertahun-tahun untuk membuat keputusan mengenai imigrasi, perumahan, penitipan anak, dan berbagai hal lainnya. jasa. .

Misalnya, Harris mengatakan bahwa “jika Administrasi Veteran ingin menggunakan AI di rumah sakitnya untuk membantu dokter mendiagnosis pasien, pertama-tama mereka harus membuktikan bahwa AI tidak menghasilkan diagnosis yang bias rasial.”

Pengumuman dari Gedung Putih mengatakan bahwa lembaga-lembaga yang tidak dapat menegakkan perlindungan “harus berhenti menggunakan sistem AI kecuali pemerintah dapat menunjukkan mengapa sistem ini meningkatkan risiko atau hak secara keseluruhan atau menciptakan hambatan yang tidak dapat diatasi terhadap operasi penting mereka.”

Ada dua “persyaratan mengikat” lainnya, kata Harris. Yang pertama adalah bahwa entitas federal harus menunjuk seorang kepala AI dengan “pengalaman, keahlian dan otoritas” untuk mengawasi semua teknologi AI yang digunakan oleh badan tersebut, kata Harris. Alasan lainnya adalah setiap tahun lembaga harus menerbitkan inventarisasi sistem AI mereka yang mencakup penilaian potensi risiko.

Ada beberapa pengecualian untuk badan intelijen dan Departemen Pertahanan, yang memiliki kontroversi tersendiri mengenai penggunaan senjata otonom.

Sumber

LEAVE A REPLY

Please enter your comment!
Please enter your name here