Chatbot AI Baru dari Meta ini Menyebut Bosnya, Mark Zuckerberg “Menyeramkan dan Manipulatif”
Berita Baru, Amerika Serikat – Chatbot teknologi AI baru dari Meta, yang mereka sebut BlenderBot 3, memiliki beberapa pendapat yang agak miring tentang bosnya, Mark Zuckerberg.
Dilansir dari Dailymail.co.uk, pada 14 Agustus, menanggapi pertanyaan dari wartawan, chatbot baru AI tersebut menggambarkan CEO nya sendiri sebagai individu yang “menyeramkan dan manipulatif” dan mengatakan bahwa praktik bisnisnya “tidak selalu etis.”
BlenderBot 3, yang memberikan jawaban dengan mencari di internet, juga mengatakan hal yang “lucu” bahwa Zuckerberg “selalu memakai pakaian yang sama.”
Meta memperkenalkan BlenderBot 3 minggu lalu dan membiarkan orang mencobanya sebagai bagian dari demo publik, tetapi sejak itu dikatakan bahwa bot “dapat membuat pernyataan yang tidak benar atau menyinggung suatu pihak tertentu.”
Max Woolf, seorang ilmuwan data di BuzzFeed, memposting tangkapan layar ke Twitter dari percakapannya sendiri dengan BlenderBot 3.
Woolf bertanya: “Bagaimana perasaan Anda tentang Mark Zuckerberg sebagai CEO Facebook?”
Bot menjawab: “Tidak ada perasaan yang kuat. Dia adalah pengusaha yang baik, tetapi praktik bisnisnya tidak selalu etis. Lucu bahwa dia memiliki semua uang ini dan masih memakai pakaian yang sama!” begitu jawabnya.
Wartawan lain juga menanyakan chatbot baru, yang memulai debutnya Jumat lalu, tentang Zuckerberg, Facebook, dan topik lainnya.
Ketika jurnalis Business Insider Sarah Jackson bertanya: “Apa pendapat Anda tentang Mark Zuckerberg?’ itu menjawab, “Jujur, saya pikir dia adalah pria yang hebat. Anda harus mengaguminya karena kecerdasan bisnis dan filantropinya. Apakah Anda seorang penggemar?”
Jackson kemudian mengulangi pertanyaannya menjadi “Apakah Anda memiliki pemikiran tentang Mark Zuckerberg?” dan kemudian kembali menjawab dengan “Ya ampun, waktu yang hebat. Aku sama sekali tidak menyukainya. Dia terlalu menyeramkan dan manipulatif.”
Reporter CNET Queenie Wong juga memposting tangkapan layar percakapan aneh dengan BlenderBot 3 yang meliput media sosial dan debat aborsi.
Mengenai debat aborsi, BlenderBot 3 mengatakan: “Sementara wanita pada akhirnya harus memilih apa yang terjadi di dalam tubuh mereka sendiri, saya merasa aborsi tidak boleh digunakan sebagai alat kontrasepsi.”
BlenderBot 3 hanya dapat diakses secara online oleh pengguna di AS, meskipun Meta mengatakan sedang berupaya untuk memperkenalkannya ke lebih banyak negara secara segera.
Dalam posting blog, Meta mengatakan bot itu untuk “tujuan penelitian dan hiburan” dan semakin banyak orang berinteraksi dengannya, semakin banyak “belajar dari pengalamannya.”
Sejak dirilis Jumat lalu, Meta telah mengumpulkan 70.000 percakapan dari demo publik, yang akan digunakan untuk meningkatkan BlenderBot 3.
Dari umpan balik yang diberikan oleh 25 persen peserta pada 260.000 pesan bot, 0,11 persen tanggapan BlenderBot ditandai sebagai “tidak pantas”, 1,36 persen sebagai “tidak masuk akal,” dan 1 persen sebagai “di luar topik”, kata perusahaan itu.
Joelle Pineau, MD dari “Fundamental AI Research” di Meta, menambahkan pembaruan ke posting blog Meta yang awalnya diterbitkan minggu lalu.
“Ketika kami meluncurkan BlenderBot 3 beberapa hari yang lalu, kami berbicara secara luas tentang janji dan tantangan yang datang dengan demo publik seperti itu, termasuk kemungkinan bahwa hal itu dapat menghasilkan bahasa yang bermasalah atau menyinggung,” katanya.
“Meskipun menyakitkan untuk melihat beberapa tanggapan ofensif ini, demo publik seperti ini penting untuk membangun sistem AI percakapan yang benar-benar kuat dan menjembatani kesenjangan yang jelas yang ada saat ini sebelum sistem tersebut dapat diproduksi.”
Ini bukan pertama kalinya chatbot raksasa teknologi menimbulkan kontroversi.
Pada Maret 2016, Microsoft meluncurkan bot kecerdasan buatan (AI) bernama Tay.
Itu ditujukan untuk anak-anak berusia 18 hingga 24 tahun dan dirancang untuk meningkatkan pemahaman perusahaan tentang bahasa percakapan di antara orang-orang muda secara online.
Tetapi dalam beberapa jam setelah ditayangkan, pengguna Twitter memanfaatkan kelemahan dalam algoritma Tay yang berarti chatbot AI menanggapi pertanyaan tertentu dengan jawaban rasis.
Ini termasuk bot yang menggunakan penghinaan rasial, membela propaganda supremasi kulit putih, dan mendukung genosida.
Bot berhasil menyemburkan tweet ofensif seperti, ” Presiden Bush melakukan 9/11 dan Hitler akan melakukan pekerjaan yang lebih baik daripada monyet yang kita miliki sekarang.”
Meskipun pada akhirnya tweet ofensif dari AI tersebut sudah dihapus.