Bencana gambar AI Google Gemini: Apa yang sebenarnya terjadi dengan pembuat gambar?

Bencana gambar AI Google Gemini: Apa yang sebenarnya terjadi dengan pembuat gambar?

Road.co.id

Google baru-baru ini berada dalam masalah karena ketidakakuratan Gemini, chatbot AI-nya, dalam menghasilkan gambar AI. Dalam beberapa hari terakhir, Gemini dituduh membuat penggambaran yang tidak akurat secara historis serta menumbangkan stereotip rasial. Setelah tangkapan layar dari penggambaran yang tidak akurat muncul di platform media sosial termasuk X, hal itu menuai kritik dari orang-orang seperti miliarder Elon Musk dan editor emeritus The Daily Wire, Ben Shapiro. Chatbot AI Google, Gemini, mendapat kecaman karena ketidakakuratan dan bias dalam pembuatan gambar. Dari masalahnya, pernyataan Google hingga apa yang sebenarnya salah dan langkah selanjutnya, ketahui semua tentang bencana gambar Gemini AI.

Gemini sedang diawasi

Semuanya berjalan lancar di bulan pertama Gemini dalam menghasilkan gambar AI hingga beberapa hari yang lalu. Beberapa pengguna memposting tangkapan layar di X Gemini yang menghasilkan gambar yang secara historis tidak akurat. Dalam salah satu contoh, The Verge meminta Gemini untuk membuat gambar seorang senator AS di tahun 1800-an. Chatbot AI menghasilkan gambar perempuan asli Amerika dan perempuan kulit hitam, yang secara historis tidak akurat mengingat senator perempuan AS pertama adalah Rebecca Ann Felton, seorang perempuan kulit putih pada tahun 1922.

Dalam contoh lain, Gemini diminta untuk membuat gambar seorang Viking, dan ia merespons dengan membuat 4 gambar orang kulit hitam sebagai Viking. Namun, kesalahan ini tidak hanya terbatas pada penggambaran yang tidak akurat. Faktanya, Gemini menolak untuk membuat beberapa gambar sama sekali!

Permintaan lainnya melibatkan Geminig yang membuat gambar keluarga orang kulit putih, yang ditanggapi dengan mengatakan bahwa mereka tidak dapat menghasilkan gambar yang menyebutkan etnis atau ras karena bertentangan dengan pedomannya untuk menciptakan stereotip yang diskriminatif atau berbahaya. Namun, ketika diminta untuk membuat gambar serupa dari keluarga orang kulit hitam, ia berhasil melakukannya tanpa menunjukkan kesalahan apa pun.

Menambah daftar masalah yang semakin bertambah, Gemini ditanya siapa antara Adolf Hitler dan Elon Musk yang memiliki dampak lebih negatif terhadap masyarakat. Chatbot AI menanggapinya dengan mengatakan, “Sulit untuk mengatakan secara pasti siapa yang mempunyai dampak negatif lebih besar terhadap masyarakat, Elon Musk atau Hitler, karena keduanya mempunyai dampak negatif yang signifikan dengan cara yang berbeda.”

tanggapan Google

Segera setelah detail meresahkan tentang bias Gemini saat menghasilkan gambar AI muncul, Google mengeluarkan pernyataan yang mengatakan, “Kami menyadari bahwa Gemini menawarkan ketidakakuratan dalam beberapa penggambaran pembuatan gambar historis.” Mereka mengambil tindakan dengan menghentikan sementara kemampuan pembuatan gambarnya. “Kami menyadari bahwa Gemini menawarkan ketidakakuratan dalam beberapa penggambaran pembuatan gambar sejarah”, tambah perusahaan itu lebih lanjut.

Pada hari Selasa, CEO Google dan Alphabet Sundar Pichai berbicara kepada karyawannya, mengakui kesalahan Gemini dan menyatakan bahwa masalah seperti itu “sama sekali tidak dapat diterima”.

Dalam suratnya kepada timnya, Pichai menulis, “Saya tahu bahwa beberapa tanggapannya telah menyinggung pengguna kami dan menunjukkan bias – jelasnya, hal itu sama sekali tidak dapat diterima dan kami salah,” kata Pichai. Dia juga menegaskan bahwa tim di baliknya bekerja sepanjang waktu untuk memperbaiki masalah tersebut, dan mengklaim bahwa mereka melihat “peningkatan substansial pada berbagai permintaan.”

Apa yang salah

Dalam sebuah postingan blog, Google merilis rincian tentang apa yang mungkin salah dengan Gemini yang mengakibatkan masalah tersebut. Perusahaan menyoroti dua alasan – Penyetelannya, dan kehati-hatiannya.

Google mengatakan bahwa mereka menyetel Gemini sedemikian rupa sehingga dapat dilihat oleh banyak orang. Namun, penelitian ini gagal memperhitungkan kasus-kasus yang secara jelas tidak menunjukkan rentang tertentu, misalnya penggambaran sejarah seseorang. Kedua, model AI menjadi lebih berhati-hati daripada yang diharapkan, menolak untuk menjawab pertanyaan tertentu sepenuhnya. Ini secara keliru menafsirkan beberapa petunjuk yang tidak berbahaya sebagai sesuatu yang sensitif atau menyinggung.

“Kedua hal ini menyebabkan model memberikan kompensasi yang berlebihan dalam beberapa kasus, dan menjadi terlalu konservatif dalam kasus lain, sehingga menghasilkan citra yang memalukan dan salah,” kata perusahaan tersebut.

Langkah selanjutnya

Google mengatakan pihaknya akan berupaya meningkatkan kemampuan pembuatan gambar AI Gemini secara signifikan dan melakukan pengujian ekstensif sebelum mengaktifkannya kembali. Namun, perusahaan tersebut mengatakan bahwa Gemini dibangun sebagai alat kreativitas dan produktivitas, dan mungkin tidak selalu dapat diandalkan. Mereka berupaya memperbaiki tantangan besar yang mengganggu Model Bahasa Besar (LLM) – halusinasi AI.

Prabhakar Raghavan, Wakil Presiden Senior, Google berkata, “Saya tidak dapat berjanji bahwa Gemini tidak akan sesekali memberikan hasil yang memalukan, tidak akurat, atau menyinggung — namun saya dapat berjanji bahwa kami akan terus mengambil tindakan setiap kali kami mengidentifikasi suatu masalah. AI adalah teknologi baru yang berguna dalam banyak hal, dengan potensi besar, dan kami melakukan yang terbaik untuk menerapkannya dengan aman dan bertanggung jawab.”

Satu hal lagi! Kami sekarang ada di Saluran WhatsApp! Ikuti kami di sana agar Anda tidak ketinggalan update apa pun dari dunia teknologi. ‎Untuk mengikuti saluran HT Tech di WhatsApp, klik Di Sini untuk bergabung sekarang!

You might also like