Para pemimpin teknologi dan pakar AI menyerukan moratorium enam bulan pada eksperimen AI yang “di luar kendali”.
Surat terbuka yang ditandatangani oleh para pemimpin teknologi dan peneliti AI terkemuka meminta laboratorium AI dan perusahaan buat “segera menghentikan pekerjaan mereka”. Penanda tangan mirip Steve Wozniak dan Elon Musk setuju bahwa risiko memerlukan setidaknya enam bulan istirahat dari memproduksi teknologi di luar GPT-4 buat menikmati sistem AI yang ada, membuat jadi mungkin orang beradaptasi dan memastikan mereka memberikan keuntungan seluruhnya orang. Surat itu menambahkan bahwa kehati-hatian dan pemikiran ke depan diperlukan buat memastikan keamanan sistem AI — tetapi diabaikan.
Referensi ke GPT-4, model dari OpenAI yang mampu merespons dengan teks ke pesan tertulis atau video, muncul saat perusahaan melakukan perlombaan membangun sistem obrolan kompleks yang memanfaatkan teknologi tersebut. Microsoft, misalnya, baru-baru ini mengonfirmasi bahwa mesin pencari Bing yang diupdate sudah ditenagai oleh model GPT-4 dalam jangka waktu lebih dari tujuh pekan, sementara Google baru-baru ini meluncurkan Bard, sistem AI-nya sendiri yang ditenagai oleh LaMDA. membuat jadi khawatir tentang AI sudah lama ada, tetapi perlombaan riil buat menerapkan teknologi AI paling canggih terlebih dahulu sudah menimbulkan membuat jadi khawatir yang lebih mendesak.
“Sayangnya, tingkat perencanaan dan manajemen ini tak terjadi, meskipun beberapa bulan terakhir sudah menonton AI Labs melakukan lari di luar kendali buat membuat jadi berkembang dan menerapkan otak digital yang lebih kuat yang tak dapat dipahami oleh siapa pun – bahkan pembuatnya -. mengantisipasi atau mengendalikan.” .
Surat tersebut diterbitkan oleh Future of Life Institute (FLI), sebuah organisasi yang didedikasikan buat meminimalkan risiko dan penyalahgunaan teknologi baru. Musk sebelumnya menyumbangkan $10 juta kepada FLI buat dipakai dalam studi keamanan AI. Selain dia dan Wozniak, para penandatangan termasuk sejumlah besar pemimpin global dalam kecerdasan buatan, mirip kepala Pusat Kecerdasan Buatan dan Kebijakan Digital Mark Rotenberg, fisikawan MIT dan kepala Institut hari esok Kehidupan Max Tegmark, dan penulis Yuval Noah Harari. Harari juga ikut menulis opini buat The New York Times Pekan lalu memperingatkan ancaman kecerdasan buatan, bergabung dengan pendiri Humane Technology Center dan sesama penandatangan, Tristan Harris dan Asa Raskin.
Seruan tersebut terdengar mirip langkah selanjutnya dari survei tahun 2022 terhadap lebih dari 700 peneliti pembelajaran mesin, di mana kira-kira separuh responden memberi keterangan ada kemungkinan 10 persen dari “hasil yang sangat buruk” dari AI, termasuk kepunahan manusia. Saat ditanya tentang keamanan dalam penelitian AI, 68 persen peneliti memberi keterangan lebih banyak atau lebih banyak berulang kali yang diwajibkan dilakukan.
Siapa pun yang berbagi keprihatinan tentang kecepatan dan keamanan produksi AI dipersilakan buat menambahkan nama mereka pada surat tersebut. Namun, nama baru belum tentu terverifikasi, jadi penambahan apa pun yang diketahui setelah publikasi awal kemungkinan besar imitasi.
seluruhnya produk yang direkomendasikan oleh Engadget dipilih oleh tim editorial kami, terlepas dari perusahaan induk. Beberapa cerita kami menyertakan tautan afiliasi. jika kamu berbelanja sesuatu melalui salah satu tautan ini, kami dapat memperoleh komisi afiliasi. seluruhnya harga adalah benar pada saat publikasi.
sumber : https://www.engadget.com/tech-leaders-and-ai-experts-demand-a-six-month-pause-on-out-of-control-ai-experiments-114553864.html?src=rss