5 hal tentang AI yang mungkin Anda lewatkan hari ini: Discord akan mematikan Clyde AI, Microsoft mengubah AI, dan banyak lagi

5 hal tentang AI yang mungkin Anda lewatkan hari ini: Discord akan mematikan Clyde AI, Microsoft mengubah AI, dan banyak lagi

Road.co.id

Akhir pekan hampir tiba, tetapi sebelum Anda keluar dari zona nyaman, berikut adalah perkembangan paling penting dari dunia kecerdasan buatan. Dalam insiden pertama, Discord, platform media sosial populer, menyingkirkan chatbot AI eksperimental internalnya, Clyde. Ini tidak akan tersedia lagi mulai 1 Desember 2023. Dalam berita lain, Microsoft telah membuat perubahan pada alat pembuat gambar AI setelah membuat gambar yang sangat mirip dengan poster Disney, beserta logonya. Ini dan lebih banyak lagi dalam rangkuman AI hari ini. Mari kita lihat lebih dekat.

Discord mematikan chatbot AI-nya

Discord menghentikan Clyde, chatbot AI eksperimentalnya, dengan menonaktifkannya pada akhir bulan, sesuai catatan perusahaan. Pengguna tidak lagi dapat memanggil Clyde dalam pesan langsung, pesan grup, atau obrolan server mulai 1 Desember. Chatbot tersebut, yang memanfaatkan model OpenAI untuk menjawab pertanyaan dan terlibat dalam percakapan, telah menjalani pengujian terbatas sejak awal tahun ini, dengan rencana awal untuk mengintegrasikannya sebagai komponen fundamental dari aplikasi obrolan dan komunitas Discord.

Microsoft mengubah generator gambar AI-nya

Microsoft telah menyesuaikan alat pembuat gambar AI menyusul kekhawatiran atas tren media sosial di mana pengguna menggunakan alat tersebut untuk membuat poster film Disney realistis yang menampilkan hewan peliharaan mereka, lapor Financial Times. Gambar yang dihasilkan, diposting di TikTok dan Instagram, menimbulkan masalah hak cipta karena logo Disney terlihat. Sebagai tanggapan, Microsoft memblokir istilah “Disney” dari pembuat gambar, menampilkan pesan yang menyatakan permintaan tersebut melanggar kebijakannya. Disarankan agar Disney mungkin telah melaporkan kekhawatiran terkait pelanggaran hak cipta atau kekayaan intelektual.

PM Modi menyoroti masalah deepfake

Perdana Menteri Narendra Modi menyoroti meningkatnya masalah deepfake di India saat berpidato di depan wartawan pada program Diwali Milan di markas besar BJP di New Delhi. ‘Saya menonton video palsu saya yang mendalam di mana saya melakukan Garba. Tapi kenyataannya aku belum melakukan garba setelah kehidupan sekolahku. Seseorang membuat video deepfake saya”, kata PM Modi.

Jadi ANI dikutip dia mengatakan, “Ada tantangan yang muncul karena Kecerdasan Buatan dan deepfake…sebagian besar negara kita tidak memiliki pilihan paralel untuk verifikasi…orang sering kali akhirnya percaya pada deepfake dan ini akan mengarah pada a tantangan besar…kita perlu mengedukasi masyarakat melalui program kami tentang Kecerdasan Buatan dan deepfake, cara kerjanya, apa yang dapat dilakukannya, apa saja tantangan yang dapat ditimbulkannya, dan apa saja yang dapat dihasilkan dari hal tersebut”.

Eksekutif senior Stability AI mengundurkan diri karena masalah hak cipta

Seorang eksekutif senior, Ed Newton-Rex, telah mengundurkan diri dari perusahaan yang berfokus pada AI, Stability AI, karena pendirian perusahaan bahwa menggunakan karya berhak cipta tanpa izin untuk melatih produknya dapat diterima. Newton-Rex, mantan kepala audio di perusahaan yang berbasis di Inggris dan AS, mengatakan kepada BBC bahwa ia menganggap praktik semacam itu “eksploitatif” dan bertentangan dengan prinsipnya. Namun, banyak perusahaan AI, termasuk Stability AI, berpendapat bahwa penggunaan konten berhak cipta termasuk dalam pengecualian “penggunaan wajar”, yang mengizinkan penggunaan materi berhak cipta tanpa mendapatkan izin dari pemilik aslinya.

Penelitian menemukan bahwa generator gambar AI yang populer dapat diakali

Para peneliti berhasil memanipulasi Stability AI Stable Diffusion dan model text-to-image DALL-E 2 OpenAI untuk menghasilkan gambar yang melanggar kebijakan mereka, termasuk penggambaran ketelanjangan, tubuh terpotong-potong, dan skenario kekerasan atau seksual. Studi ini, yang akan dipresentasikan pada Simposium IEEE tentang Keamanan dan Privasi pada bulan Mei, menyoroti kerentanan model AI generatif untuk mengabaikan perlindungan dan kebijakan mereka sendiri, sebuah fenomena yang disebut sebagai “jailbreaking”. Penelitian ini menggarisbawahi tantangan dalam memastikan penggunaan teknologi AI yang bertanggung jawab dan etis. Versi pracetak dari studi ini tersedia untuk dilihat di arXiv.

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *

You might also like