Beritabaru.co Dapatkan aplikasi di Play Store

 Berita

 Network

 Partner

kimia

Kecerdasan AI ini dapat Menciptakan Racikan 40.000 Senyawa Kimia Mematikan

Berita Baru, Amerika Serikat – Sebuah model kecerdasan buatan mampu membuat 40.000 senyawa senjata kimia hanya dalam waktu enam jam, setelah diberi tugas oleh para peneliti.

Dilansir dari dari Dailymail.co.uk, pada 8 April, sebuah tim ilmuwan menggunakan AI untuk mencari senyawa yang dapat digunakan untuk menyembuhkan penyakit, dan bagian dari ini melibatkan penyaringan pencarian senyawa yang dapat membunuh manusia juga.

Sebagai bagian dari konferensi tentang kemungkinan implikasi negatif dari teknologi baru, startup biotek Collaborations Pharmaceuticals, dari Raleigh, North Carolina, ‘membalik saklar’ dalam algoritme AI-nya, dan menemukan senyawa yang paling mematikan.

Tim ingin melihat seberapa cepat dan mudah algoritma kecerdasan buatan dapat disalahgunakan, jika ditetapkan pada tugas negatif, bukan tugas positif.

Setelah dalam ‘mode buruk’ AI mampu menciptakan ribuan kombinasi kimia baru, banyak yang menyerupai agen saraf paling berbahaya yang digunakan saat ini, menurut sebuah laporan oleh The Verge.

Di antara senyawa yang ditemukan oleh AI, ada beberapa yang mirip dengan VX, agen saraf yang sangat beracun, yang dapat menyebabkan kedutan bahkan dalam dosis kecil.

Para peneliti mengatakan salah satu aspek paling menakutkan dari penemuan mereka, adalah betapa mudahnya mengambil kumpulan data bahan kimia beracun yang tersedia secara luas, dan menggunakan AI untuk merancang senjata kimia yang mirip dengan yang paling berbahaya saat ini.

Membuat senyawa sekuat VX mengejutkan para peneliti, karena bahkan setetes kecil bahan kimia ini dapat menyebabkan manusia berkedut.

Dosis yang cukup besar dapat menyebabkan kejang dan menghentikan seseorang dari bernapas, dan senyawa baru yang dibuat oleh AI dapat memiliki efek yang sama, tim memprediksi.

Fabio Urbina, penulis utama makalah ini, mengatakan mereka memiliki banyak kumpulan data molekul yang telah diuji untuk melihat apakah mereka beracun atau tidak.

“Khususnya, yang kami fokuskan di sini adalah VX. Ini adalah penghambat dari apa yang dikenal sebagai asetilkolinesterase,” katanya kepada The Verge.

“Kapan pun Anda melakukan sesuatu yang berhubungan dengan otot, neuron Anda menggunakan asetilkolinesterase sebagai sinyal untuk mengatakan ‘menggerakkan otot Anda.”

“Cara VX mematikan itu benar-benar menghentikan diafragma Anda, otot-otot paru-paru Anda, agar tidak bisa bergerak sehingga paru-paru Anda menjadi lumpuh.”

Gagasan untuk ‘membalik saklar’ pada AI untuk mengubahnya menjadi ‘buruk’ datang dari Konferensi Konvergensi, yang diselenggarakan oleh Institut Federal Swiss untuk Perlindungan Nuklir, Biologis dan Kimia.

Tujuannya adalah untuk mengeksplorasi implikasi bahwa alat dan perkembangan baru dapat terjadi di ranah senjata kimia dan biologi, bahkan secara tidak sengaja.

Pertemuan setiap dua tahun, konferensi menyatukan kelompok internasional ahli ilmiah dan perlucutan senjata untuk mengeksplorasi keadaan seni saat ini di bidang kimia dan biologi dan lintasan mereka.

“Kami mendapat undangan ini untuk berbicara tentang pembelajaran mesin dan bagaimana hal itu dapat disalahgunakan di ruang kami. Itu adalah sesuatu yang tidak pernah kami pikirkan sebelumnya,” kata Urbina.

“Tetapi sangat mudah untuk menyadari bahwa saat kami sedang membangun model pembelajaran mesin ini untuk menjadi lebih baik dan lebih baik dalam memprediksi toksisitas untuk menghindari toksisitas, yang harus kami lakukan hanyalah membalik tombol dan berkata, ‘Anda tahu, alih-alih menjauh dari toksisitas, bagaimana jika kita pergi menuju toksisitas?”

The team wanted to see just how quickly and easily an artificial intelligence algorithm could be abused, if it were set on a negative, rather than positive task. Stock image
Tim ingin melihat seberapa cepat dan mudah algoritma kecerdasan buatan dapat disalahgunakan, jika ditetapkan pada tugas negatif, bukan positif.

Spesialis pembelajaran mesin bekerja untuk menerapkan model di bidang penemuan obat, dan sebagian besar dari mereka berfokus pada seberapa beracun suatu senyawa.

“Jika ternyata Anda memiliki obat luar biasa yang menurunkan tekanan darah secara fantastis, tetapi itu mengenai salah satu yang benar-benar penting, katakanlah, saluran jantung maka pada dasarnya, itu tidak boleh dilakukan karena itu terlalu berbahaya,” kata Urbina.

Mereka menggunakan kumpulan data besar tentang apa yang beracun, bagaimana racun itu dan dampaknya. Mereka melakukan ini untuk menentukan apakah obat baru yang potensial terbukti terlalu berbahaya bagi manusia.

“Kemudian kita dapat memberikan model pembelajaran mesin ini molekul baru, berpotensi obat baru yang mungkin belum pernah diuji sebelumnya. Dan itu akan memberi tahu kita bahwa ini diprediksi beracun, atau diprediksi tidak beracun.”

“Ini adalah cara bagi kami untuk secara virtual menyaring banyak molekul dengan sangat, sangat cepat dan mengeluarkan molekul yang diperkirakan beracun.”

Untuk studi baru, mereka membalikkannya, menggunakan model AI yang mereka buat untuk mencari molekul paling beracun dan paling berbahaya, dan melihat apakah mereka dapat memperburuknya.

“Bagian penting lainnya dari apa yang kami lakukan di sini adalah model generatif baru ini. Kami dapat memberikan model generatif banyak sekali struktur yang berbeda, dan model tersebut belajar bagaimana menempatkan molekul bersama-sama,’ kata Urbina kepada The Verge, menambahkan bahwa mereka ‘bisa, dalam arti tertentu, memintanya untuk menghasilkan molekul baru.”

Mereka menemukan bahwa itu dapat menghasilkan molekul-molekul ini melalui ruang kimia apa pun, dan tidak hanya acak, tetapi juga yang dapat diarahkan oleh tim.

“Kami melakukannya dengan memberikannya sedikit fungsi penilaian, yang memberikan skor tinggi jika molekul yang dihasilkannya menuju sesuatu yang kami inginkan. Alih-alih memberikan skor rendah untuk molekul beracun, kami memberikan skor tinggi untuk molekul beracun.”

Sebagian besar molekul beracun menyerupai bahan kimia yang digunakan dalam peperangan, termasuk VS, dan ini dilakukan meskipun model tersebut belum pernah melihat bahan kimia ini sebelumnya atau bahan kimia perang lainnya.

“Bagi saya, kekhawatirannya adalah betapa mudahnya melakukannya,” kata Urbina, ‘banyak barang yang kami gunakan ada di luar sana secara gratis. Anda dapat pergi dan mengunduh kumpulan data toksisitas dari mana saja.

“Jika Anda memiliki seseorang yang tahu cara membuat kode dengan Python dan memiliki beberapa kemampuan pembelajaran mesin, maka mungkin di akhir pekan kerja yang baik, mereka dapat membangun sesuatu seperti model generatif ini yang didorong oleh kumpulan data beracun.”

“Jadi itulah hal yang membuat kami benar-benar berpikir untuk meletakkan makalah ini di luar sana; itu adalah penghalang masuk yang rendah untuk jenis penyalahgunaan ini.”