• Fri. Jun 2nd, 2023

Berita Teknologi

Berita Terbaru, Totocc, Togelcc

Pakar AI memperingatkan surat yang ditandatangani Elon Musk tidak cukup jauh, mengatakan ‘secara harfiah semua orang di Bumi akan mati’

Seorang pakar kecerdasan buatan dengan pengalaman lebih dari dua dekade mempelajari keamanan AI mengatakan surat terbuka yang menyerukan moratorium enam bulan untuk mengembangkan sistem AI yang kuat tidak cukup.

Eliezer Yudkowsky, ahli teori keputusan di Machine Intelligence Research Institute, menulis dalam opini baru-baru ini bahwa “jeda” enam bulan untuk mengembangkan “sistem AI yang lebih kuat daripada GPT-4” diminta oleh CEO Tesla Elon Musk dan ratusan inovator dan pakar lainnya meremehkan “keseriusan situasi”. Dia akan melangkah lebih jauh, menerapkan moratorium pada model pembelajaran AI besar baru yang “tidak terbatas dan mendunia”.

Surat yang dikeluarkan oleh Future of Life Institute dan ditandatangani oleh lebih dari 1.000 orang, termasuk Musk dan salah satu pendiri Apple Steve Wozniak, berpendapat bahwa protokol keselamatan perlu dikembangkan oleh pengawas independen untuk memandu masa depan sistem AI.

“Sistem AI yang kuat harus dikembangkan hanya setelah kami yakin bahwa efeknya akan positif dan risikonya dapat dikelola,” kata surat itu. Yudkowsky yakin ini tidak cukup.

ELON MUSK, CO-FOUNDER APPLE, PARA AHLI TEKNOLOGI LAINNYA MENGHUBUNGI JEDA DI ‘EKSPERIMEN AI RAKSASA’: ‘BALAPAN BERBAHAYA’

OpenAI ChatGPT terlihat di ponsel dengan AI Brain terlihat di layar di Brussel pada 22 Januari 2023.

OpenAI ChatGPT terlihat di ponsel dengan AI Brain terlihat di layar di Brussel pada 22 Januari 2023. (Jonathan Raa/NurPhoto melalui Getty Images)

“Masalah utama bukanlah kecerdasan ‘persaingan manusia’ (seperti yang dikatakan dalam surat terbuka); itu adalah apa yang terjadi setelah AI mencapai kecerdasan yang lebih pintar dari manusia,” tulis Yudkowsky untuk Newsweek.

“Banyak peneliti mendalami masalah ini, termasuk saya sendiri, berharap bahwa hasil yang paling mungkin dari membangun AI yang sangat cerdas, dalam situasi apa pun yang jauh seperti saat ini, adalah bahwa setiap orang di Bumi akan mati,” tegasnya. “Tidak seperti dalam ‘mungkin kemungkinan kecil,’ tetapi seperti dalam ‘itu adalah hal yang jelas yang akan terjadi.'”

KECERDASAN BUATAN ‘GODFATHER’ PADA AI YANG MUNGKIN MENGHILANGKAN UMAT MANUSIA: ‘TIDAK TERKENAL’

CEO OpenAI Sam Altman berbicara selama pidato utama yang mengumumkan integrasi ChatGPT untuk Bing di Microsoft di Redmond, Washington, pada 7 Februari 2023. Model pembelajaran GPT-4 baru OpenAI adalah sistem AI tercanggih yang pernah dikembangkan, mampu menghasilkan, mengedit, dan iterasi dengan pengguna pada tugas penulisan kreatif dan teknis.

CEO OpenAI Sam Altman berbicara selama pidato utama yang mengumumkan integrasi ChatGPT untuk Bing di Microsoft di Redmond, Washington, pada 7 Februari 2023. Model pembelajaran GPT-4 baru OpenAI adalah sistem AI tercanggih yang pernah dikembangkan, mampu menghasilkan, mengedit, dan iterasi dengan pengguna pada tugas penulisan kreatif dan teknis. (JASON REDMOND/AFP melalui Getty Images)

Bagi Yudkowsky, masalahnya adalah AI yang lebih cerdas daripada manusia mungkin tidak mematuhi penciptanya dan tidak peduli dengan kehidupan manusia. Jangan berpikir “Terminator” – “Visualisasikan seluruh peradaban alien, berpikir dengan kecepatan jutaan kali manusia, awalnya terbatas pada komputer – di dunia makhluk yang, dari sudut pandangnya, sangat bodoh dan sangat lambat,” tulisnya.

Yudkowsky memperingatkan bahwa tidak ada rencana yang diusulkan untuk berurusan dengan superintelijen yang memutuskan solusi paling optimal untuk masalah apa pun yang ditugaskan untuk menyelesaikannya adalah memusnahkan semua kehidupan di Bumi. Dia juga mengemukakan kekhawatiran bahwa peneliti AI tidak benar-benar tahu apakah model pembelajaran telah menjadi “sadar diri”, dan apakah etis untuk memilikinya jika memang demikian.

DEMOKRAT DAN REPUBLIKA BERGABUNG SEKITAR SERUAN UNTUK MENGATUR PENGEMBANGAN AI: ‘KONGRESS HARUS TERLIBAT’

CEO Tesla, SpaceX dan Twitter Elon Musk dan lebih dari 1.000 pemimpin teknologi dan pakar kecerdasan buatan menyerukan jeda sementara pada pengembangan sistem AI yang lebih kuat daripada GPT-4 OpenAI, memperingatkan risiko bagi masyarakat dan peradaban.

CEO Tesla, SpaceX dan Twitter Elon Musk dan lebih dari 1.000 pemimpin teknologi dan pakar kecerdasan buatan menyerukan jeda sementara pada pengembangan sistem AI yang lebih kuat daripada GPT-4 OpenAI, memperingatkan risiko bagi masyarakat dan peradaban. (Foto AP/Susan Walsh, File)

Enam bulan bukanlah waktu yang cukup untuk menghasilkan sebuah rencana, dia berpendapat: “Butuh lebih dari 60 tahun sejak gagasan Kecerdasan Buatan pertama kali diusulkan dan dipelajari, dan bagi kami untuk mencapai kemampuan saat ini. Memecahkan keamanan kecerdasan manusia super — bukan keamanan yang sempurna, keamanan dalam arti ‘tidak membunuh semua orang secara harfiah’ – bisa memakan waktu paling tidak setengah dari waktu itu.”

Sebaliknya, Yudkowsky mengusulkan kerja sama internasional, bahkan antara saingan seperti AS dan China, untuk menghentikan pengembangan sistem AI yang kuat. Dia mengatakan ini lebih penting daripada “mencegah pertukaran nuklir penuh,” dan bahwa negara-negara bahkan harus mempertimbangkan untuk menggunakan senjata nuklir “jika itu diperlukan untuk mengurangi risiko pelatihan AI yang besar.”

KLIK DI SINI UNTUK MENDAPATKAN APLIKASI FOX NEWS

“Tutup semuanya,” tulis Yudkowsky. “Matikan semua klaster GPU besar (gudang komputer besar tempat AI paling kuat disempurnakan). Matikan semua pelatihan besar yang berjalan. Batasi berapa banyak daya komputasi yang boleh digunakan siapa pun dalam melatih sistem AI, dan memindahkannya ke bawah selama beberapa tahun mendatang untuk mengkompensasi algoritme pelatihan yang lebih efisien. Tidak ada pengecualian untuk pemerintah dan militer.”

Peringatan drastis Yudkowsky datang ketika perangkat lunak kecerdasan buatan terus meningkat popularitasnya. ChatGPT OpenAI baru saja dirilis chatbot kecerdasan buatan yang mengejutkan pengguna dengan kemampuannya membuat lagu, membuat konten, dan bahkan menulis kode.

“Kita harus berhati-hati di sini,” kata CEO OpenAI Sam Altman tentang pendirian perusahaannya awal bulan ini. “Saya pikir orang seharusnya senang bahwa kami sedikit takut akan hal ini.”

Andrea Vacchiano dari Fox News berkontribusi pada laporan ini.

SUMBER / SOURCE

Situs Bandar Togel Online Terpercaya bisa anda akses langsung di SITUS TOTO ONLINE, TOTOCC adalah situs bandar togel dengan pasaran togel terlengkap. Anda bisa bermain langsung dan melihat hasil langsung dari togel hari ini hanya di TOTOCC.COM.

Keyword :
TOTOCC is TOGELCC
TOGELCC is TOTOCC