


Jangan terdedah, tinggalkan AI, dan pergi dari bumi secepat mungkin! Apakah maksud nasihat Hawking?
Jangan aktif mencari makhluk asing! Cuba untuk bergerak dari bumi secepat mungkin! Hentikan pembangunan kecerdasan buatan, jika tidak, ia akan membawa kemusnahan kepada dunia. Di atas adalah tiga nasihat yang ditinggalkan kepada dunia oleh ahli fizik mendiang Stephen Hawking.
Mungkin anda mungkin merasakan bahawa kenyataannya sudah semestinya agak keterlaluan atau mencemaskan. Tetapi pernahkah anda terfikir bagaimana keadaan dunia jika kebimbangannya akhirnya menjadi kenyataan?
Jika anda berminat dengan tamadun luar angkasa, anda pasti pernah mendengar nama SETI. Ia adalah projek percubaan yang menggunakan komputer rangkaian di seluruh dunia untuk mencari tamadun luar angkasa. Sejak penubuhannya pada tahun 1999, ia tidak henti-henti mencari isyarat yang mencurigakan di alam semesta. Dan tidak sabar untuk bertemu dengan beberapa tamadun luar angkasa yang jauh tanpa diduga suatu hari nanti.
Tetapi Hawking percaya bahawa ini terlalu berbahaya. Tahap teknologi dan kecerdasan mana-mana tamadun luar angkasa yang muncul di Bumi akan berada di luar jangkauan manusia.
Ketibaan mereka sudah pasti akan sama seperti semasa Columbus mendarat di benua Amerika beratus tahun dahulu. Apa yang akan dibawanya hanyalah kematian dan kebinasaan.
Selain itu, Hawking juga percaya bahawa kita tidak boleh menghadkan diri kita di bumi sahaja. Pada masa ini, masalah sebenar seperti perubahan iklim, kekurangan sumber, dan pertumbuhan penduduk akan menjadi kekangan utama kepada pembangunan manusia.
Jadi pada pendapat beliau, kita harus pergi dari sini secepat mungkin dan menyebarkan benih tamadun ke planet lain melalui imigrasi antara bintang. Ini adalah cara terbaik untuk memastikan kewujudan jangka panjang umat manusia.
Bukan itu sahaja, beliau juga menyarankan agar tidak membangunkan kecerdasan buatan. Kerana ini mungkin akhirnya membawa kemusnahan kepada manusia. Menurut Hawking, apabila kecerdasan buatan berulang, mereka mungkin akhirnya mengembangkan kesedaran diri. Apabila di luar kawalan, adegan ngeri yang kita lihat dalam filem fiksyen sains hari ini akan menjadi realiti pada masa hadapan.
Walaupun kini, tahap kecerdasan buatan masih jauh daripada mempunyai keupayaan yang begitu menakutkan. Tetapi dengan pembelajaran kendiri dan penambahbaikan yang berterusan, mereka akhirnya akan mengatasi kebijaksanaan manusia. Pada masa itu, orang yang mengawal hasil masa depan seluruh bumi juga akan bertukar tangan.
Sudah tentu, nasihat Hawking tidak menghalang rentak penerokaan manusia. Hari ini, kedua-dua pencarian untuk tamadun luar angkasa dan pembangunan kecerdasan buatan sedang berjalan langkah demi langkah. Musk juga mengumumkan bahawa dia akan bekerjasama dengan NASA untuk menyediakan rancangan imigresen Marikh.
Saya hanya tidak tahu bahawa bagi kita, kita berada di tengah-tengah kemusnahan dan pemergian. Yang mana satu akan datang dahulu?
Atas ialah kandungan terperinci Jangan terdedah, tinggalkan AI, dan pergi dari bumi secepat mungkin! Apakah maksud nasihat Hawking?. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Alat AI Hot

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool
Gambar buka pakaian secara percuma

Clothoff.io
Penyingkiran pakaian AI

AI Hentai Generator
Menjana ai hentai secara percuma.

Artikel Panas

Alat panas

Notepad++7.3.1
Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina
Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1
Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6
Alat pembangunan web visual

SublimeText3 versi Mac
Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Topik panas



Sejak dilancarkan secara terbuka pada November 2022, ChatGPT telah mengalami pertumbuhan yang ketara. Ia telah menjadi alat yang sangat diperlukan untuk banyak perniagaan dan individu, tetapi apabila ChatGPT disepadukan ke dalam kehidupan harian kita dan bekerja secara besar-besaran, orang ramai secara semula jadi akan berfikir: Adakah ChatGPT selamat untuk digunakan? ChatGPT biasanya dianggap selamat disebabkan oleh langkah keselamatan yang meluas, kaedah pengendalian data dan dasar privasi yang dilaksanakan oleh pembangunnya. Walau bagaimanapun, seperti mana-mana teknologi, ChatGPT tidak terlepas daripada isu keselamatan dan kelemahan. Artikel ini akan membantu anda memahami dengan lebih baik keselamatan ChatGPT dan model bahasa AI. Kami akan meneroka aspek seperti kerahsiaan data, privasi pengguna, potensi risiko, peraturan AI dan langkah keselamatan. Akhirnya, anda akan berminat dengan Sembang

"Walaupun saya tahu bahawa penipuan adalah perkara biasa pada masa kini, saya masih tidak percaya bahawa saya benar-benar telah menemuinya pada 23 Mei, pembaca Wu Jia (nama samaran) masih takut apabila mengingati penipuan telekomunikasi yang ditemuinya beberapa hari lalu. Dalam penipuan yang ditemui Wu Jia, penipu itu menggunakan AI untuk menukar wajahnya kepada seseorang yang dikenalinya. Wu Jia bukan sahaja menghadapi penipuan AI yang sukar dikawal dalam kehidupan sehariannya, seorang wartawan dari Beijing Business Daily mendapati bahawa model penipuan telekomunikasi baharu yang menggunakan teknologi AI telah menunjukkan insiden yang tinggi dalam beberapa hari kebelakangan ini hampir 100%." "Topik Teknologi seperti "Pemilik syarikat telah ditipu sebanyak 4.3 juta yuan dalam masa 10 minit" telah menjadi topik carian hangat satu demi satu, yang juga telah mencetuskan perbincangan di kalangan pengguna mengenai penggunaan aplikasi baru. teknologi. Penipuan "AI mengubah wajah" Kecerdasan buatan telah menjadi popular semula, kali ini mengenai penipuan telekomunikasi. Wu Jia

Perkara utama: 1. Isu keselamatan model AI yang besar tidak pernah menjadi isu tunggal Sama seperti pengurusan kesihatan manusia, ia adalah kejuruteraan sistem yang kompleks dan sistematik yang melibatkan pelbagai subjek dan keseluruhan rantaian industri. 2. Keselamatan AI terbahagi kepada: keselamatan model bahasa besar (AISafety), keselamatan model dan model penggunaan (Security for AI), dan kesan pembangunan model bahasa besar pada keselamatan rangkaian sedia ada, yang sepadan dengan individu. keselamatan, keselamatan alam sekitar dan keselamatan sosial yang berbeza. 3. AI, sebagai "spesies baru", memerlukan pemantauan keselamatan semasa proses latihan model besar Apabila model besar akhirnya diperkenalkan ke pasaran, mereka juga memerlukan "pemeriksaan kualiti" selepas pemeriksaan kualiti dan perlu digunakan secara terkawal, ini semua adalah makro untuk menyelesaikan masalah keselamatan

Ramai peneroka dan pengamal dalam bidang AI telah berkumpul untuk berkongsi hasil penyelidikan, bertukar pengalaman praktikal, dan bercakap tentang keindahan sains dan teknologi Persidangan Sumber Pintar Beijing 2023 telah berjaya diadakan baru-baru ini kecerdasan buatan, pemikiran ini bersinar dengan kebijaksanaan Pertukaran, dan menyaksikan evolusi kecerdasan yang menakjubkan dengan beratus-ratus laporan dan perbincangan yang menarik. Di Forum Keselamatan dan Penjajaran AI, ramai pakar dan cendekiawan berkomunikasi Dalam era model besar, cara memastikan sistem kecerdasan buatan yang semakin berkuasa dan serba boleh adalah selamat, boleh dikawal, dan konsisten dengan niat dan nilai manusia. isu yang amat penting. Isu keselamatan ini juga dikenali sebagai masalah penjajaran mesin manusia (AIalignment), dan ia mewakili salah satu cabaran saintifik yang paling mendesak dan bermakna yang dihadapi oleh masyarakat manusia abad ini. Hujah

Negara-negara termasuk UK, AS dan China telah bersetuju dengan konsensus mengenai risiko yang ditimbulkan oleh kecerdasan buatan termaju, berjanji untuk memastikan teknologi dibangunkan dan digunakan dengan selamat. Pada "Sidang Kemuncak Keselamatan Kecerdasan Buatan Global" dua hari kerajaan Britain yang diadakan minggu ini, 28 negara termasuk Brazil, India, Nigeria dan Arab Saudi, serta Kesatuan Eropah, menandatangani perjanjian AI yang dipanggil "Deklarasi Bletchley." Kerajaan UK berkata pengisytiharan itu mencapai matlamat utama sidang kemuncak itu untuk mewujudkan perjanjian dan tanggungjawab bersama mengenai risiko, peluang dan kerjasama antarabangsa yang bergerak ke hadapan dalam keselamatan dan penyelidikan AI yang maju, terutamanya melalui kerjasama saintifik yang lebih luas. Negara yang mengambil bahagian berkongsi pandangan bahawa potensi penyalahgunaan yang disengajakan boleh menimbulkan risiko yang serius dan menyerlahkan kebimbangan terhadap keselamatan siber, bioteknologi, maklumat salah, berat sebelah dan risiko privasi.

Jangan aktif mencari makhluk asing! Cuba untuk menjauh dari bumi secepat mungkin! Hentikan pembangunan kecerdasan buatan, jika tidak, ia akan membawa kemusnahan kepada dunia. Di atas adalah tiga nasihat yang ditinggalkan kepada dunia oleh ahli fizik mendiang Stephen Hawking. Mungkin anda akan berfikir bahawa kenyataannya sudah pasti agak keterlaluan atau mencemaskan. Tetapi pernahkah anda terfikir bagaimana keadaan dunia jika kebimbangannya akhirnya menjadi kenyataan? Jika anda berminat dengan tamadun luar angkasa, anda pasti pernah mendengar nama SETI. Ia adalah projek percubaan yang menggunakan komputer rangkaian di seluruh dunia untuk mencari tamadun luar angkasa. Sejak penubuhannya pada tahun 1999, ia tidak henti-henti mencari isyarat yang mencurigakan di alam semesta. Dan tidak sabar untuk bertemu dengan beberapa tamadun luar angkasa yang jauh tanpa diduga suatu hari nanti. Tetapi Hawking percaya bahawa ini

Pada petang 7 September, di forum "Meneroka Generasi Seterusnya Perisikan Keselamatan" yang diadakan di Persidangan Bund Inklusi 2023, Cloud Security Alliance (CSA) Greater China, organisasi industri antarabangsa yang berwibawa di dunia, mengumumkan penubuhan "AI Kumpulan Kerja Keselamatan". Huayunan dan China Lebih daripada 30 institusi termasuk Institut Penyelidikan Telekomunikasi, Kumpulan Ant, Huawei, Universiti Sains dan Teknologi Elektronik Xi'an dan Pusat Penilaian Teknologi Kewangan Negara Shenzhen menjadi kumpulan pertama penaja. "Kumpulan Kerja Keselamatan AI" komited untuk bersama-sama menyelesaikan masalah keselamatan yang disebabkan oleh perkembangan pesat teknologi AI. Cloud Security Alliance Greater China AI Security Working Group akan diketuai bersama oleh China Telecom Research Institute dan Ant Group Kumpulan kerja tersebut akan mengadakan perusahaan, sekolah, institusi penyelidikan dan unit pengguna yang terlibat dalam huluan dan hiliran rantaian industri kecerdasan buatan. dalam pakatan.

Berita IT House pada 27 Oktober, berdasarkan laporan daripada CNBC, Reuters dan laporan lain, pada hari Khamis waktu tempatan, Perdana Menteri Britain Sunak mengumumkan rancangan untuk menubuhkan Institut Penyelidikan Keselamatan AI pertama di dunia dan mengadakan Institut Penyelidikan Keselamatan AI pada 1-2 November Sidang Kemuncak Keselamatan. Sidang kemuncak itu akan menghimpunkan syarikat AI, kerajaan, masyarakat sivil dan pakar dalam bidang berkaitan dari seluruh dunia untuk membincangkan cara mengurangkan risiko yang ditimbulkan oleh AI melalui tindakan terkoordinasi antarabangsa. Sumber Pexels Sunak berkata dalam ucapannya bahawa institut yang akan ditubuhkan tidak lama lagi ini akan menggalakkan pemahaman dunia tentang keselamatan AI, dan akan menyelidik, menilai dan menguji teknologi AI baharu dengan teliti untuk memahami keupayaan setiap model baharu dan Terokai risiko daripada kemudaratan sosial seperti "berat sebelah dan maklumat salah" kepada "risiko yang paling melampau". Sunak berkata, “AI
