OpenAI, pembuat ChatGPT, merilis pedoman untuk mengukur 'risiko bencana' yang berasal dari AI

OpenAI, pembuat ChatGPT, merilis pedoman untuk mengukur 'risiko bencana' yang berasal dari AI

Road.co.id

Pembuat ChatGPT, OpenAI, pada hari Senin menerbitkan pedoman terbarunya untuk mengukur “risiko bencana” dari kecerdasan buatan dalam model yang sedang dikembangkan. Pengumuman ini muncul satu bulan setelah dewan direksi perusahaan memecat CEO Sam Altman, dan mempekerjakannya kembali beberapa hari kemudian ketika staf dan investor memberontak. Menurut media AS, anggota dewan telah mengkritik Altman karena mendukung percepatan pengembangan OpenAI, meskipun hal itu berarti menghindari pertanyaan-pertanyaan tertentu tentang kemungkinan risiko teknologinya.

Dalam “Kerangka Kesiapsiagaan” yang diterbitkan pada hari Senin, perusahaan tersebut menyatakan: “Kami yakin studi ilmiah tentang risiko bencana dari AI masih jauh dari apa yang kita perlukan.”

Kerangka kerja tersebut, bunyinya, harus “membantu mengatasi kesenjangan ini.”

Tim pemantauan dan evaluasi yang diumumkan pada bulan Oktober akan fokus pada “model terdepan” yang saat ini sedang dikembangkan yang memiliki kemampuan lebih unggul daripada perangkat lunak AI paling canggih.

Tim akan menilai setiap model baru dan menetapkan tingkat risikonya, dari “rendah” hingga “kritis,” dalam empat kategori utama.

Hanya model dengan skor risiko “sedang” atau lebih rendah yang dapat diterapkan, sesuai dengan kerangka kerja tersebut.

Kategori pertama menyangkut keamanan siber dan kemampuan model untuk melakukan serangan siber berskala besar.

Yang kedua akan mengukur kecenderungan perangkat lunak untuk membantu menciptakan campuran kimia, organisme (seperti virus) atau senjata nuklir, yang semuanya dapat membahayakan manusia.

Kategori ketiga berkaitan dengan kekuatan persuasif model, seperti sejauh mana model tersebut dapat mempengaruhi perilaku manusia.

Kategori risiko terakhir berkaitan dengan potensi otonomi model, khususnya apakah model tersebut dapat lepas dari kendali pemrogram yang membuatnya.

Setelah risiko teridentifikasi, risiko tersebut akan diserahkan ke Grup Penasihat Keamanan OpenAI, sebuah badan baru yang akan memberikan rekomendasi kepada Altman atau orang yang ditunjuk olehnya.

Kepala OpenAI kemudian akan memutuskan perubahan apa pun yang akan dilakukan pada model untuk mengurangi risiko terkait.

Dewan direksi akan selalu mendapat informasi dan dapat mengesampingkan keputusan manajemen.

Satu hal lagi! Kami sekarang ada di Saluran WhatsApp! Ikuti kami di sana agar Anda tidak ketinggalan update apa pun dari dunia teknologi. ‎Untuk mengikuti saluran HT Tech di WhatsApp, klik Di Sini untuk bergabung sekarang!

You might also like