Kita perlu mengetahui bagaimana perusahaan AI melawan deepfake

Kita perlu mengetahui bagaimana perusahaan AI melawan deepfake

Road.co.id

Ketika orang-orang khawatir tentang kecerdasan buatan, hal ini bukan hanya disebabkan oleh apa yang mereka lihat di masa depan tetapi juga karena apa yang mereka ingat di masa lalu — terutama efek racun dari media sosial. Selama bertahun-tahun, misinformasi dan ujaran kebencian lolos dari sistem kepolisian Facebook dan Twitter dan menyebar ke seluruh dunia. Sekarang deepfake menyusup ke platform yang sama, dan meskipun Facebook masih bertanggung jawab atas penyebaran barang-barang buruk, perusahaan AI yang membuat deepfake juga memiliki peran pembersihan. Sayangnya, sama seperti perusahaan media sosial sebelumnya, mereka melakukan pekerjaan tersebut secara tertutup.

Saya menghubungi selusin perusahaan AI generatif yang alatnya dapat menghasilkan gambar, video, teks, dan suara fotorealistik, untuk menanyakan bagaimana mereka memastikan bahwa penggunanya mematuhi aturan mereka.(1) Sepuluh orang menjawab, semuanya mengonfirmasi bahwa mereka menggunakan perangkat lunak untuk memantau apa yang dihasilkan oleh penggunanya, dan sebagian besar mengatakan ada manusia yang memeriksa sistem tersebut juga. Hampir tidak ada yang setuju untuk mengungkapkan berapa banyak manusia yang ditugaskan mengawasi sistem tersebut.

Dan mengapa mereka harus melakukannya? Berbeda dengan industri lain seperti farmasi, otomotif, dan makanan, perusahaan AI tidak mempunyai kewajiban peraturan untuk mengungkapkan rincian praktik keselamatan mereka. Mereka, seperti halnya perusahaan media sosial, bisa bersikap misterius mengenai pekerjaan tersebut sesuai keinginan mereka, dan hal ini kemungkinan akan tetap terjadi selama bertahun-tahun yang akan datang. Undang-undang AI di Eropa yang akan datang telah menggembar-gemborkan “persyaratan transparansi,” namun tidak jelas apakah undang-undang tersebut akan memaksa perusahaan-perusahaan AI untuk mengaudit praktik keselamatan mereka dengan cara yang sama seperti yang dilakukan oleh produsen mobil dan produsen makanan.

Bagi industri-industri lain tersebut, diperlukan waktu puluhan tahun untuk menerapkan standar keselamatan yang ketat. Namun dunia tidak mampu membiarkan alat AI memiliki kebebasan selama itu ketika alat tersebut berkembang begitu pesat. Midjourney baru-baru ini memperbarui perangkat lunaknya untuk menghasilkan gambar yang sangat fotorealistik sehingga dapat memperlihatkan pori-pori kulit dan garis halus politisi. Pada awal tahun pemilihan umum yang besar ketika hampir separuh penduduk dunia akan melakukan pemungutan suara, kekosongan peraturan yang menganga berarti konten yang dibuat oleh AI dapat berdampak buruk terhadap demokrasi, hak-hak perempuan, seni kreatif, dan banyak lagi.

Berikut beberapa cara untuk mengatasi masalah tersebut. Salah satunya adalah mendorong perusahaan AI agar lebih transparan mengenai praktik keselamatan mereka, yang dimulai dengan mengajukan pertanyaan. Ketika saya menghubungi OpenAI, Microsoft, Midjourney, dan lainnya, saya membuat pertanyaan sederhana: bagaimana Anda menegakkan aturan menggunakan perangkat lunak dan manusia, dan berapa banyak manusia yang melakukan hal tersebut?

Sebagian besar bersedia untuk berbagi beberapa paragraf rincian tentang proses mereka untuk mencegah penyalahgunaan (walaupun dalam istilah hubungan masyarakat yang tidak jelas). OpenAI misalnya, memiliki dua tim yang membantu melatih ulang model AI mereka agar lebih aman atau bereaksi terhadap keluaran yang berbahaya. Perusahaan di balik pembuat gambar kontroversial Stable Diffusion mengatakan mereka menggunakan “filter” keamanan untuk memblokir gambar yang melanggar aturannya, dan moderator manusia memeriksa perintah dan gambar yang ditandai.

Namun, seperti yang dapat Anda lihat dari tabel di atas, hanya sedikit perusahaan yang mengungkapkan berapa banyak orang yang bekerja untuk mengawasi sistem tersebut. Anggaplah manusia ini sebagai pengawas keselamatan internal. Di media sosial, mereka dikenal sebagai moderator konten, dan mereka memainkan peran yang menantang namun penting dalam memeriksa ulang konten yang ditandai oleh algoritme media sosial sebagai rasis, misoginis, atau kekerasan. Facebook memiliki lebih dari 15.000 moderator untuk menjaga integritas situs tanpa menghambat kebebasan pengguna. Ini adalah keseimbangan yang paling baik dilakukan manusia.

Tentu saja, dengan filter keamanan bawaannya, sebagian besar alat AI tidak menghasilkan konten beracun seperti yang dilakukan orang di Facebook. Namun mereka masih bisa membuat diri mereka lebih aman dan dapat dipercaya jika mempekerjakan lebih banyak moderator manusia. Manusia adalah pengganti terbaik dari ketiadaan perangkat lunak yang lebih baik untuk menangkap konten berbahaya, yang sejauh ini terbukti kurang.

Deepfake pornografi dari Taylor Swift dan tiruan suara Presiden Joe Biden serta politisi internasional lainnya telah menjadi viral, dan ini hanyalah beberapa contohnya, yang menggarisbawahi bahwa AI dan perusahaan teknologi tidak cukup berinvestasi dalam bidang keselamatan. Memang benar, mempekerjakan lebih banyak orang untuk membantu mereka menegakkan aturan adalah seperti mendapatkan lebih banyak ember air untuk memadamkan kebakaran rumah. Ini mungkin tidak menyelesaikan seluruh masalah tetapi akan membuat keadaan menjadi lebih baik untuk sementara.

“Jika Anda adalah startup yang membuat alat dengan komponen AI generatif, mempekerjakan manusia di berbagai titik dalam proses pengembangan adalah hal yang sangat bijaksana dan penting,” kata Ben Whitelaw, pendiri Everything in Moderation, sebuah buletin tentang keamanan online .

Beberapa perusahaan AI mengaku hanya memiliki satu atau dua moderator manusia. Perusahaan pembuat video Runway mengatakan penelitinya sendiri yang melakukan pekerjaan tersebut. Descript, yang membuat alat kloning suara yang disebut Overdub, mengatakan pihaknya hanya memeriksa sampel suara yang dikloning untuk memastikan cocok dengan pernyataan persetujuan yang dibacakan oleh pelanggan. Juru bicara startup tersebut berpendapat bahwa memeriksa pekerjaan mereka akan melanggar privasi mereka.

Perusahaan AI memiliki kebebasan tak tertandingi untuk melakukan pekerjaan mereka secara rahasia. Namun jika mereka ingin menjamin kepercayaan masyarakat, regulator, dan masyarakat sipil, mereka berkepentingan untuk membuka tabir untuk menunjukkan bagaimana tepatnya mereka menegakkan peraturan mereka. Mempekerjakan lebih banyak manusia juga bukan ide yang buruk. Terlalu fokus pada balapan untuk menjadikan AI “lebih pintar” sehingga foto palsu terlihat lebih realistis, atau teks lebih lancar, atau suara kloning menjadi lebih meyakinkan, mengancam akan membawa kita semakin jauh ke dalam dunia yang berbahaya dan membingungkan. Lebih baik meningkatkan dan mengungkapkan standar keselamatan tersebut sekarang sebelum semuanya menjadi lebih sulit.

Baca juga berita utama berikut hari ini:

Facebook berantakan? Facebook tidak bisa meniru atau mencapai kemakmuran dua dekade berikutnya. Apakah CEO Mark Zuckerberg mampu melakukannya? Facebook seperti taman hiburan yang ditinggalkan dengan ide-ide yang dieksekusi dengan buruk, kata analis. Menarik? Lihat disini. Lanjutkan, dan bagikan dengan semua orang yang Anda kenal.

Pembelian Twitter oleh Elon Musk Masih Di Pengadilan! Pengadilan ingin Elon Musk bersaksi di hadapan SEC AS mengenai potensi pelanggaran hukum sehubungan dengan pembelian Twitter olehnya. Ketahui keadaan di sini.

Apakah Tesla kekurangan AI Play? Analis menyoroti aspek ini dan bagi Tesla, itu adalah masalah. Beberapa detail menarik di artikel ini. Lihat disini. Jika Anda senang membaca artikel ini, silakan teruskan ke teman dan keluarga Anda.

You might also like