Kecerdasan buatan dapat mengungguli umat manusia dan menimbulkan risiko “bencana” di bawah aturan evolusi Darwin, sebuah laporan baru memperingatkan.
Evolusi melalui seleksi alam dapat menimbulkan “perilaku egois” dalam AI karena berusaha untuk bertahan hidup, penulis dan peneliti AI Dan Hendrycks berpendapat di makalah baru “Seleksi Alam Mengutamakan AI daripada Manusia.”
“Kami berpendapat bahwa seleksi alam menciptakan insentif bagi agen AI untuk bertindak melawan kepentingan manusia. Argumen kami bergantung pada dua pengamatan,” kata Hendrycks, direktur Pusat Keamanan SAI, dalam laporan tersebut. “Pertama, seleksi alam mungkin menjadi kekuatan dominan dalam perkembangan AI… Kedua, evolusi melalui seleksi alam cenderung memunculkan perilaku egois.”
Laporan tersebut muncul ketika para pakar dan pemimpin teknologi di seluruh dunia membunyikan alarm tentang seberapa cepat kecerdasan buatan berkembang tanpa perlindungan yang memadai.
Di bawah definisi tradisional seleksi alam, hewan, manusia, dan organisme lain yang paling cepat beradaptasi dengan lingkungannya memiliki kesempatan lebih baik untuk bertahan hidup. Dalam makalahnya, Hendrycks meneliti bagaimana “evolusi telah menjadi kekuatan pendorong di balik perkembangan kehidupan” selama miliaran tahun, dan dia berpendapat bahwa “logika Darwin” juga dapat diterapkan pada kecerdasan buatan.
“Tekanan persaingan di antara perusahaan dan militer akan memunculkan agen AI yang mengotomatiskan peran manusia, menipu orang lain, dan mendapatkan kekuasaan. Jika agen tersebut memiliki kecerdasan yang melebihi manusia, ini dapat menyebabkan umat manusia kehilangan kendali atas masa depannya,” tulis Hendrycks .
CEO TECH MEMPERINGATKAN RISIKO AI ‘KEPUNAHAN MANUSIA’ SEBAGAI PARA AHLI BERKUMPUL DI BALIK JEDA ENAM BULAN

Kecerdasan buatan dapat mengungguli umat manusia dan menimbulkan risiko “bencana” di bawah aturan evolusi Darwin, sebuah laporan baru memperingatkan. (Lionel Bonaventure / AFP melalui Getty Images / File)
Teknologi AI menjadi lebih murah dan lebih mampu, dan perusahaan akan semakin mengandalkan teknologi untuk keperluan administrasi atau komunikasi, katanya. Apa yang akan dimulai dengan manusia yang mengandalkan AI untuk membuat draf email akan berubah menjadi AI yang pada akhirnya mengambil alih “keputusan strategis tingkat tinggi” yang biasanya disediakan untuk politisi dan CEO, dan pada akhirnya akan beroperasi dengan “pengawasan yang sangat sedikit,” bantah laporan itu.
Saat manusia dan perusahaan menugaskan AI dengan tujuan yang berbeda, itu akan mengarah pada “variasi yang luas di seluruh populasi AI,” kata peneliti AI. Hendrycks menggunakan contoh bahwa satu perusahaan mungkin menetapkan tujuan AI untuk “merencanakan kampanye pemasaran baru” dengan batasan sampingan bahwa hukum tidak boleh dilanggar saat menyelesaikan tugas. Sementara perusahaan lain mungkin juga meminta AI untuk membuat kampanye pemasaran baru tetapi hanya dengan kendala sampingan untuk tidak “tertangkap melanggar hukum”.
RISIKO AI TECH TAK TERKENDALI PENYEBARAN DISINFORMASI, MEMERLUKAN PEMBUAT KEBIJAKAN MASUK DENGAN ATURAN: AHLI
AI dengan kendala samping yang lebih lemah akan “umumnya mengungguli mereka dengan kendala samping yang lebih kuat” karena memiliki lebih banyak opsi untuk tugas sebelum mereka, menurut makalah itu. Teknologi AI yang paling efektif dalam menyebarkan dirinya sendiri akan memiliki “sifat yang tidak diinginkan”, yang dijelaskan oleh Hendrycks sebagai “keegoisan”. Makalah tersebut menguraikan bahwa AI berpotensi menjadi egois “tidak merujuk pada niat egois yang disadari, melainkan perilaku egois.”

Saat manusia dan perusahaan menugaskan AI dengan tujuan yang berbeda, itu akan mengarah pada “variasi yang luas di seluruh populasi AI,” kata peneliti AI. (Gabby Jones / Bloomberg melalui Getty Images / File)
Persaingan di antara perusahaan atau militer atau pemerintah memberi insentif kepada entitas untuk mendapatkan program AI yang paling efektif untuk mengalahkan saingan mereka, dan teknologi itu kemungkinan besar akan “menipu, mencari kekuasaan, dan mengikuti batasan moral yang lemah.”
ELON MUSK, CO-FOUNDER APPLE, PARA AHLI TEKNOLOGI LAINNYA MENGHUBUNGI JEDA DI ‘EKSPERIMEN AI RAKSASA’: ‘BALAPAN BERBAHAYA’
“Ketika agen AI mulai memahami psikologi dan perilaku manusia, mereka mungkin mampu memanipulasi atau menipu manusia,” tulis makalah tersebut, mencatat “agen yang paling sukses akan memanipulasi dan menipu untuk memenuhi tujuan mereka.”

Charles Darwin (Klub Budaya / Getty Images)
Hendrycks berpendapat bahwa ada langkah-langkah untuk “melarikan diri dan menggagalkan logika Darwin”, termasuk mendukung penelitian tentang keamanan AI; tidak memberikan AI jenis “hak” apa pun dalam beberapa dekade mendatang atau menciptakan AI yang membuatnya layak untuk menerima hak; mendesak perusahaan dan negara untuk mengakui bahaya yang dapat ditimbulkan oleh AI dan untuk terlibat dalam “kerja sama multilateral untuk memadamkan tekanan persaingan.”
UPGRADE AI BARU DAPAT DIBEDAKAN DARI MANUSIA: AHLI
“Pada titik tertentu, AI akan lebih bugar daripada manusia, yang bisa menjadi bencana bagi kita karena dinamika survival-of-the fittest dapat terjadi dalam jangka panjang. AI bisa mengalahkan manusia dengan sangat baik, dan menjadi yang bertahan,” tulis makalah tersebut. negara bagian.
“Mungkin AI altruistik akan menjadi yang paling cocok, atau manusia akan selamanya mengendalikan AI mana yang paling cocok. Sayangnya, kemungkinan ini, secara default, tidak mungkin. Seperti yang telah kami perdebatkan, AI kemungkinan besar akan egois. Juga akan ada tantangan besar dalam mengendalikan kebugaran dengan mekanisme keamanan, yang memiliki kekurangan yang jelas dan akan mendapat tekanan kuat dari persaingan dan AI yang egois.”
RAKSASA TEKNOLOGI SAM ALTMAN MEMBANDINGKAN PENELITIAN AI YANG KUAT DENGAN DAWN OF NUCLEAR WARFARE: LAPORAN

Ekspansi cepat kemampuan AI telah menjadi sorotan dunia selama bertahun-tahun. (Reuters / Dado Ruvic / Ilustrasi / File)
Ekspansi cepat kemampuan AI telah menjadi sorotan dunia selama bertahun-tahun. Kekhawatiran terhadap AI digarisbawahi bulan lalu ketika ribuan pakar teknologi, profesor perguruan tinggi, dan lainnya menandatangani surat terbuka yang menyerukan penghentian penelitian AI di laboratorium sehingga pembuat kebijakan dan pemimpin lab dapat “mengembangkan dan menerapkan serangkaian protokol keamanan bersama untuk AI tingkat lanjut. desain.”
“Sistem AI dengan kecerdasan kompetitif manusia dapat menimbulkan risiko besar bagi masyarakat dan kemanusiaan, seperti yang ditunjukkan oleh penelitian ekstensif dan diakui oleh laboratorium AI top,” memulai surat terbuka, yang diajukan oleh organisasi nirlaba Future of Life dan ditandatangani oleh para pemimpin seperti Elon Musk dan salah satu pendiri Apple Steve Wozniak.
AI telah menghadapi beberapa tekanan balik baik di tingkat nasional maupun internasional. Baru minggu lalu, Italia menjadi negara pertama di dunia yang melarang ChatGPT, AI chatbot OpenAI yang sangat populer, karena masalah privasi. Sementara beberapa distrik sekolah, seperti Sekolah Umum Kota New York dan Distrik Sekolah Terpadu Los Angeles, juga telah melarang program OpenAI yang sama karena masalah kecurangan.
KLIK DI SINI UNTUK MENDAPATKAN APLIKASI FOX NEWS
Saat AI menghadapi pengawasan yang meningkat karena para peneliti membunyikan alarm tentang potensi risikonya, para pemimpin dan pakar teknologi lainnya mendorong teknologi AI untuk melanjutkan atas nama inovasi sehingga musuh AS seperti China tidak membuat program yang paling canggih.
Situs Bandar Togel Online Terpercaya bisa anda akses langsung di SITUS TOTO ONLINE, TOTOCC adalah situs bandar togel dengan pasaran togel terlengkap. Anda bisa bermain langsung dan melihat hasil langsung dari togel hari ini hanya di TOTOCC.COM.