Leksikon tentang AI: NIST AS menyusun standar untuk menjadikan kecerdasan buatan aman dan tepercaya

Leksikon tentang AI: NIST AS menyusun standar untuk menjadikan kecerdasan buatan aman dan tepercaya

Road.co.id

Tidak ada teknologi sejak fisi nuklir yang dapat membentuk masa depan kolektif kita seperti kecerdasan buatan. Oleh karena itu, yang terpenting adalah sistem AI yang aman, terlindungi, dapat dipercaya, dan bertanggung jawab secara sosial. Namun tidak seperti bom atom, perubahan paradigma ini hampir seluruhnya didorong oleh sektor teknologi swasta, yang setidaknya resisten terhadap peraturan. Miliaran orang berada dalam bahaya, sehingga tugas pemerintahan Biden untuk menetapkan standar keamanan AI menjadi sebuah tantangan besar.

Untuk menentukan parameternya, mereka telah memanfaatkan lembaga federal kecil, The National Institute of Standards and Technology. Alat dan tindakan NIST mendefinisikan produk dan layanan mulai dari jam atom hingga teknologi keamanan pemilu dan material nano.

Yang memimpin upaya AI lembaga ini adalah Elham Tabassi, kepala penasihat AI NIST. Dia mendukung Kerangka Manajemen Risiko AI yang diterbitkan 12 bulan lalu yang menjadi dasar perintah eksekutif AI Biden pada 30 Oktober. Laporan ini mengkatalogkan risiko-risiko seperti bias terhadap orang non-kulit putih dan ancaman terhadap privasi.

Kami ada di Saluran WhatsApp. Klik untuk bergabung.

Tabassi, kelahiran Iran, datang ke AS pada tahun 1994 untuk mengambil gelar master di bidang teknik elektro dan bergabung dengan NIST tidak lama kemudian. Dia adalah arsitek utama standar yang digunakan FBI untuk mengukur kualitas gambar sidik jari.

Wawancara dengan Tabassi ini telah diedit agar panjang dan jelasnya.

T: Teknologi AI yang sedang berkembang memiliki kemampuan yang bahkan tidak dipahami oleh pembuatnya. Bahkan belum ada kosakata yang disepakati, teknologinya masih sangat baru. Anda telah menekankan pentingnya menciptakan leksikon tentang AI. Mengapa?

J: Sebagian besar pekerjaan saya adalah di bidang visi komputer dan pembelajaran mesin. Di sana juga, kami memerlukan leksikon bersama agar tidak cepat berubah menjadi perselisihan. Satu istilah dapat memiliki arti yang berbeda bagi orang yang berbeda. Berbicara satu sama lain adalah hal yang umum dalam bidang interdisipliner seperti AI.

T: Anda telah mengatakan bahwa agar pekerjaan Anda berhasil, Anda memerlukan masukan tidak hanya dari ilmuwan dan insinyur komputer tetapi juga dari pengacara, psikolog, filsuf.

J: Sistem AI pada dasarnya bersifat sosio-teknis, dipengaruhi oleh lingkungan dan kondisi penggunaan. Mereka harus diuji dalam kondisi dunia nyata untuk memahami risiko dan dampaknya. Jadi kita memerlukan ilmuwan kognitif, ilmuwan sosial, dan ya, filsuf.

T: Tugas ini merupakan tugas berat bagi sebuah lembaga kecil, di bawah Departemen Perdagangan, yang disebut oleh Washington Post “sangat kekurangan dana dan kekurangan staf.” Berapa banyak orang di NIST yang mengerjakan hal ini?

J: Pertama, saya ingin mengatakan bahwa kami di NIST memiliki sejarah spektakuler dalam berinteraksi dengan komunitas luas. Dalam menyusun kerangka risiko AI, kami mendengarkan lebih dari 240 organisasi berbeda dan mendapatkan sekitar 660 komentar publik. Dari segi kualitas hasil dan dampaknya, kami tidak terlihat kecil. Kami memiliki lebih dari selusin orang di tim dan terus berkembang.

T: Akankah anggaran NIST meningkat dari $1,6 miliar saat ini mengingat misi AI?

J: Kongres menulis ceknya untuk kami dan kami berterima kasih atas dukungannya.

T: Perintah eksekutif memberi Anda waktu hingga bulan Juli untuk membuat perangkat yang menjamin keamanan dan kepercayaan AI. Saya memahami Anda menyebut hal itu sebagai “tenggat waktu yang hampir mustahil” pada sebuah konferensi bulan lalu.

A: Ya, tapi saya segera menambahkan bahwa ini bukan pertama kalinya kami menghadapi tantangan seperti ini, bahwa kami memiliki tim yang brilian, berkomitmen dan bersemangat. Soal tenggat waktu, sepertinya kita tidak memulai dari awal. Pada bulan Juni kami membentuk kelompok kerja publik yang berfokus pada empat rangkaian pedoman berbeda termasuk untuk mengautentikasi konten sintetis.

T: Anggota Komite Sains dan Teknologi DPR mengatakan dalam sebuah surat bulan lalu bahwa mereka mengetahui bahwa NIST bermaksud memberikan hibah atau penghargaan melalui lembaga keamanan AI yang baru – yang menunjukkan kurangnya transparansi. J: Memang benar, kami sedang menjajaki pilihan proses kompetitif untuk mendukung peluang penelitian kooperatif. Kemandirian ilmiah kami sangat penting bagi kami. Meskipun kami menjalankan proses keterlibatan besar-besaran, kami adalah penulis utama dari apa pun yang kami hasilkan. Kami tidak pernah mendelegasikan kepada orang lain.

T: Konsorsium yang dibentuk untuk membantu lembaga keselamatan AI cenderung memicu kontroversi karena keterlibatan industri. Apa yang harus disetujui oleh anggota konsorsium?

J: Kami memasang template untuk perjanjian tersebut di situs web kami pada akhir bulan Desember. Keterbukaan dan transparansi adalah ciri khas kami. Templatnya ada di luar sana.

T: Kerangka kerja risiko AI bersifat sukarela, namun perintah eksekutif mewajibkan sejumlah kewajiban bagi pengembang. Hal ini termasuk mengirimkan model berbahasa besar untuk tim merah pemerintah (menguji risiko dan kerentanan) setelah model tersebut mencapai ambang batas tertentu dalam ukuran dan daya komputasi. Akankah NIST bertanggung jawab menentukan model mana yang mendapat tim merah?

J: Tugas kami adalah memajukan ilmu pengukuran dan standar yang diperlukan untuk pekerjaan ini. Itu akan mencakup beberapa evaluasi. Ini adalah sesuatu yang telah kami lakukan untuk algoritma pengenalan wajah. Sedangkan untuk penugasan (tim merah), NIST tidak akan melakukan hal-hal tersebut. Tugas kita adalah membantu industri mengembangkan standar yang baik secara teknis dan valid secara ilmiah. Kami adalah lembaga non-regulasi, netral dan obyektif.

T: Cara AI dilatih dan batasan yang diterapkan pada AI bisa sangat bervariasi. Dan terkadang fitur-fitur seperti keamanan siber hanya menjadi sebuah renungan. Bagaimana kita menjamin risiko dinilai dan diidentifikasi secara akurat — terutama ketika kita mungkin tidak mengetahui model apa yang telah dirilis ke publik dan telah dilatih?

J: Dalam kerangka kerja manajemen risiko AI, kami membuat taksonomi yang dapat dipercaya, dengan menekankan pentingnya mengatasinya selama perancangan, pengembangan, dan penerapan — termasuk pemantauan dan evaluasi rutin selama siklus hidup sistem AI. Semua orang telah belajar bahwa kita tidak mampu mencoba memperbaiki sistem AI setelah sistem tersebut tidak digunakan lagi. Itu harus dilakukan sedini mungkin.

Dan ya, banyak hal bergantung pada kasus penggunaannya. Ambil pengenalan wajah. Itu satu hal jika saya menggunakannya untuk membuka kunci ponsel saya. Serangkaian persyaratan keamanan, privasi, dan akurasi yang sangat berbeda mulai berlaku ketika, misalnya, penegak hukum menggunakannya untuk mencoba menyelesaikan kejahatan. Pertukaran antara kenyamanan dan keamanan, bias dan privasi — semuanya bergantung pada konteks penggunaan.

Baca juga berita utama hari ini:

Apple Vision Pro dan Masa Depan: Apple sudah membayangkan aplikasi perangkat ini di masa depan, termasuk menggunakannya untuk operasi, perbaikan pesawat, dan mengajar siswa. Ketahui apa yang siap dilakukan gadget di sini.

Penipuan dunia maya menjadi kutukan dalam kehidupan modern. Pada tahun 2022-2023, hampir 94.000 kejahatan dunia maya dilaporkan di Australia, naik 23% dibandingkan tahun sebelumnya. Ketahui cara melindungi diri Anda di sini.

AI untuk kebaikan atau keburukan? Jika AI yang berkembang pesat dapat mencapai tujuan mulianya yaitu keabadian digital — seperti yang diyakini oleh para pendukungnya — apakah AI akan menjadi kekuatan yang membawa kebaikan atau kejahatan? Baca semuanya di sini.

You might also like