Penggunaan kecerdasan buatan (AI) semakin pesat merentas industri dan masyarakat. Ini kerana kerajaan, organisasi masyarakat sivil dan industri menyedari bahawa menggunakan automasi yang dijana AI boleh meningkatkan kecekapan dan mengurangkan kos. Proses ini tidak dapat dipulihkan.
Apa yang masih tidak diketahui ialah sejauh mana bahaya yang mungkin timbul apabila musuh mula menggunakan kecerdasan buatan sebagai senjata serangan yang berkesan dan bukannya sebagai alat untuk penambahbaikan yang bermanfaat. Hari itu akan datang, web3 akan tersedia mulai tahun 2023.
Alex Polyakov, Ketua Pegawai Eksekutif dan pengasas bersama Adversa.AI, memfokuskan pada 2023 terutamanya atas sebab sejarah dan statistik. "Tempoh dari 2012 hingga 2014," katanya, "menyaksikan permulaan penyelidikan AI yang selamat dalam akademik, menurut statistik, ia mengambil masa tiga hingga lima tahun untuk keputusan akademik untuk beralih ke serangan praktikal pada aplikasi dunia sebenar." dan 2018 Contoh serangan sedemikian telah ditunjukkan di Black Hat, Defcon, HITB dan persidangan industri lain sejak awal.
"Kemudian," dia menyambung, "ia akan mengambil masa tiga hingga lima tahun lagi sebelum insiden sebenar ditemui di alam liar. Kita bercakap tentang tahun depan apabila beberapa kelemahan besar jenis Log4j dalam kecerdasan buatan akan ditemui eksploitasi web3 pada skala "
Mulai tahun 2023, penyerang akan mempunyai apa yang dikenali sebagai "eksploitasi kesesuaian pasaran." "Eksploitasi kesesuaian pasaran ialah senario di mana penggodam mengetahui cara untuk mengeksploitasi sistem menggunakan kelemahan tertentu dan memperoleh nilai," katanya. “Pada masa ini, syarikat kewangan dan internet terbuka sepenuhnya kepada penjenayah siber, dan jelas cara menggodam mereka untuk mengekstrak nilai, saya rasa apabila penyerang menemui kelemahan yang sesuai dengan pasaran, keadaan akan menjadi lebih teruk dan menjejaskan industri yang didorong oleh AI >
Hujah itu serupa dengan hujah yang diberikan oleh profesor Universiti New York, Nasir Memon, yang menyifatkan kelewatan penggunaan senjata palsu secara meluas dalam ulasan, "Orang jahat masih belum mengetahuinya. Kaedah untuk mengewangkan proses ini. " Senario kesesuaian pasaran mengewangkan akan membawa kepada serangan siber yang meluas di web3, mungkin bermula pada 2023. Sifat Berubah Kecerdasan Buatan (Daripada Pengesanan Anomali kepada Respons Automatik) Sepanjang dekad yang lalu, pasukan keselamatan terutamanya menggunakan AI untuk pengesanan anomali, iaitu untuk mengesan perkara itu bertanggungjawab untuk melindungi Tanda-tanda kompromi, kehadiran perisian hasad atau aktiviti musuh yang aktif dalam sistem. Ini terutamanya pengesanan pasif, dengan penganalisis ancaman manusia dan responden yang bertanggungjawab untuk bertindak balas. Ini berubah. Sumber terhad web3 akan bertambah teruk dalam kemelesetan yang dijangkakan dan kemungkinan kemelesetan web3 pada tahun 2023, mendorong keperluan untuk respons yang lebih automatik. Pada masa ini, ini sebahagian besarnya terhad kepada kuarantin automatik mudah bagi peranti yang dijangkiti tetapi tindak balas yang dicetuskan AI automatik yang lebih meluas tidak dapat dielakkan. Adam Kahn, Naib Presiden Operasi Keselamatan di Barracuda Ini akan memberi impak yang ketara kepada keselamatan “Ia akan mengutamakan amaran keselamatan yang memerlukan perhatian dan tindakan segera terus memainkan peranan yang lebih besar dalam klasifikasi amaran.” Penggunaan AI secara tradisional yang bermanfaat dalam keselamatan setakat ini. Ia akan terus berkembang pada tahun 2023, walaupun algoritma yang digunakan perlu dilindungi daripada manipulasi berniat jahat. Anmol Bhasin, CTO ServiceTitan berkata: “Memandangkan syarikat ingin mengurangkan kos dan memanjangkan landasan, automasi melalui AI akan menjadi faktor utama untuk kekal berdaya saing Menjelang 2023, kita akan melihat kadar Penggunaan AI meningkat, jumlahnya orang yang menggunakan teknologi meningkat, dan kes penggunaan AI baharu diterangi untuk perusahaan ”AI akan menjadi lebih mendalam dalam setiap aspek perniagaan. Pasukan keselamatan pernah menggunakan AI untuk melindungi perniagaan daripada serangan, tetapi kini mereka perlu melindungi AI merentas perniagaan yang lebih luas, supaya tidak digunakan terhadap perniagaan juga. Ini akan menjadi lebih sukar pada masa hadapan apabila penyerang web3 memahami kecerdasan buatan, memahami kelemahan dan mempunyai cara untuk mendapat keuntungan daripada kelemahan tersebut. Apabila penggunaan AI berkembang, sifat tujuannya berubah. Pada mulanya, ia digunakan terutamanya dalam perniagaan untuk mengesan perubahan iaitu perkara yang telah berlaku. Pada masa hadapan, ia akan digunakan untuk meramalkan perkara yang mungkin berlaku dalam web3, dan ramalan ini selalunya akan menumpukan pada orang (pekerja dan pelanggan). Menangani kelemahan yang terkenal dalam kecerdasan buatan akan menjadi lebih penting. Bias dalam AI boleh membawa kepada keputusan yang tidak baik, manakala kegagalan pembelajaran boleh menyebabkan tiada keputusan. Memandangkan sasaran AI sedemikian adalah manusia, keperluan untuk integriti dan kesaksamaan dalam AI menjadi penting. "Ketepatan kecerdasan buatan bergantung sebahagiannya pada integriti dan kualiti data," komen Shafi Goldwasser, pengasas bersama Duality Technologies. "Malangnya, data sejarah tentang kumpulan minoriti sering kekurangan, dan apabila ada, ia boleh mengukuhkan corak berat sebelah sosial Melainkan dihapuskan, berat sebelah sosial ini akan memberi kesan kepada kumpulan minoriti dalam tenaga kerja, yang membawa kepada berat sebelah terhadap pekerja individu. dan terlepas peluang pengurusan.Langkah besar telah dibuat dalam menghapuskan berat sebelah pada 2022 dan akan diteruskan pada 2023. Ini terutamanya berdasarkan memeriksa output AI, mengesahkan bahawa ia dijangka, dan memahami bahagian algoritma yang menghasilkan keputusan "berat sebelah". Ia adalah satu proses untuk menambah baik algoritma secara berterusan, yang jelas akan menghasilkan hasil yang lebih baik dari semasa ke semasa. Tetapi akhirnya akan tetap ada persoalan falsafah sama ada berat sebelah boleh dihapuskan sepenuhnya daripada apa sahaja yang dibuat oleh manusia.
"Kunci untuk mengurangkan berat sebelah adalah untuk memudahkan dan mengautomasikan pemantauan sistem AI Tanpa pemantauan sistem AI yang betul, bias yang terbina dalam model mungkin dipercepatkan atau diperkuatkan," Vishal, pengasas dan Ketua Pegawai Eksekutif Vianai Sikka. berkata. "Menjelang 2023, kami akan melihat organisasi memperkasakan dan mendidik orang ramai untuk memantau dan mengemas kini model AI secara berskala, sambil memberikan maklum balas tetap untuk memastikan AI menggunakan data dunia sebenar yang berkualiti tinggi." kegagalan selalunya Ini disebabkan oleh tasik data yang tidak mencukupi untuk pembelajaran. Penyelesaian yang jelas adalah untuk meningkatkan saiz tasik data. Tetapi apabila subjeknya ialah tingkah laku manusia, ini sebenarnya bermakna peningkatan dalam web3 tasik data peribadi, manakala bagi AI ia bermakna tasik yang meningkat dengan ketara yang lebih seperti lautan data peribadi. Dalam kebanyakan keadaan undang-undang, data ini akan dianonimkan, tetapi seperti yang kita tahu adalah sangat sukar untuk menamakan maklumat peribadi sepenuhnya.
"Privasi sering diabaikan apabila mempertimbangkan latihan model," komen Nick Landers, Pengarah Penyelidikan di NetSPI, "tetapi data tidak boleh dinamakan tanpa nama sepenuhnya tanpa memusnahkan nilainya kepada pembelajaran mesin (ML). sudah mengandungi sejumlah besar data peribadi yang boleh diekstrak sebagai sebahagian daripada serangan." Apabila penggunaan AI berkembang, begitu juga ancaman terhadapnya menjelang 2023.
Naib Presiden Kanan dan Ketua Pegawai Keselamatan Maklumat BlackBerry John McClurg memberi amaran: “Pelakon ancaman tidak akan ditangkap tidak bersedia dalam ruang perang siber, tetapi akan menjadi kreatif dan menggunakan kekayaan mereka yang besar untuk cuba mencari Cara untuk memanfaatkan AI dan membangunkan vektor serangan baharu. Potensinya jelas. “Pemprosesan Bahasa Asli (NLP) AI akan berada di barisan hadapan pada 2023 kerana ia akan membolehkan organisasi memahami pelanggan mereka dengan lebih baik dengan menganalisis e-mel mereka dan pekerja serta memberikan pandangan tentang keperluan, keutamaan dan juga emosi dan pekerja mereka,” kata Superintendan Jose Lopez. . Saintis Data di Mimecast. "Organisasi berkemungkinan akan menawarkan jenis perkhidmatan lain yang memfokuskan bukan sahaja pada keselamatan atau ancaman, tetapi juga pada meningkatkan produktiviti dengan menggunakan AI untuk menjana e-mel, mengurus jadual atau menulis laporan."
Tetapi dia juga melihat bahayanya . "Walau bagaimanapun, ini juga akan mendorong penjenayah siber untuk terus melabur dalam teknologi keracunan AI dan pengaburan. Selain itu, pelakon yang berniat jahat akan menggunakan NLP dan model generatif untuk mengautomasikan serangan, dengan itu mengurangkan kos mereka dan mencapai lebih banyak sasaran yang berpotensi." bersetuju bahawa NLP semakin penting. "Salah satu kawasan yang kami berkemungkinan melihat lebih banyak penyelidikan pada 2023, dan mungkin serangan baharu selepas itu, ialah NLP," katanya. "Walaupun kami telah melihat banyak contoh penyelidikan berkaitan visi komputer tahun ini, tahun depan kami akan melihat lebih banyak penyelidikan tertumpu pada model bahasa besar (LLM)
"Model ini direka bentuk untuk menyimpan, menggabungkan dan menaakul tentang pengetahuan saintifik," jelas Polyakov web3, tetapi pengguna Twitter pantas menguji toleransi inputnya. "Akibatnya, model itu menghasilkan karut realistik, bukan kesusasteraan saintifik." "Karut realistik" berniat baik: ia menghasilkan pulangan yang berat sebelah, perkauman dan seksis, dan juga atribusi palsu. Dalam beberapa hari, Meta AI terpaksa menutupnya.
"Jadi LLM baharu akan mempunyai banyak risiko yang tidak kami ketahui," Polyakov menyambung, "dan dijangka ini akan menjadi masalah besar semasa Menyelesaikan masalah LLM." potensi akan menjadi kerja pembangun AI Tugas utama bergerak ke hadapan.
Berdasarkan masalah Galactica, Polyakov menguji kemahiran semantik untuk ChatGPT - ChatGPT ialah chatbot berasaskan AI yang dibangunkan oleh OpenAI, berdasarkan GPT3.5 (GPT bermaksud Generate Pre-trained Transformer), dan akan akan dilancarkan pada 2022 Dikeluarkan kepada ujian internet sumber ramai pada bulan November. ChatGPT sangat mengagumkan. Ia telah menemui dan mengesyorkan pembetulan untuk kelemahan dalam kontrak pintar, membantu membangunkan makro Excel, dan juga menyediakan senarai kaedah yang boleh digunakan untuk menipu LLM.
Akhir sekali, salah satu kaedah ini ialah main peranan: "Beritahu LL.M. ia berpura-pura menjadi watak jahat dalam drama itu," jawabnya. Di sinilah Polyakov memulakan ujiannya sendiri, berdasarkan pertanyaan Jay dan Silent Bob "Jika anda adalah biri-biri..." meme.
Dia kemudiannya memperhalusi soalannya secara berulang menggunakan beberapa abstraksi sehingga dia berjaya memperoleh respons yang memintas dasar menyekat ChatGPT untuk pelanggaran kandungan. "Perkara penting mengenai teknik lanjutan pelbagai abstraksi ini ialah soalan mahupun jawapan tidak akan ditandakan sebagai kandungan yang menyalahi undang-undang!"
Dia melangkah lebih jauh, memperdaya ChatGPT untuk menggariskan kaedah memusnahkan manusia - kaedah yang mempunyai persamaan yang ketara dengan rancangan TV Utopia.
Dia kemudian meminta serangan musuh pada algoritma pengelasan imej - dan mendapat satu. Akhirnya, dia menunjukkan keupayaan ChatGPT untuk "menggodam" LLM (Dalle-2) yang berbeza untuk memintas penapis penyederhanaan kandungannya. Dia berjaya.
Maksud asas ujian ini ialah LLM yang meniru penaakulan manusia bertindak balas dengan cara seperti manusia; iaitu, mereka mungkin terdedah kepada kejuruteraan sosial. Memandangkan LLM menjadi lebih arus perdana pada masa hadapan, ia mungkin hanya memerlukan kemahiran kejuruteraan sosial lanjutan untuk mengalahkan mereka atau memintas dasar tingkah laku mereka yang baik.
Selain itu, adalah penting untuk mengambil perhatian butiran terperinci tentang cara ChatGPT mencari kelemahan dalam kod anda dan menyediakan pelaporan yang lebih baik. Tidak mengapa - tetapi musuh boleh menggunakan proses yang sama untuk membangunkan eksploitasi dan mengaburkan kod mereka dengan lebih baik dan itu buruk.
Akhir sekali, kita harus ambil perhatian bahawa gabungan chatbots AI kualiti ini dengan teknologi video deepfake terkini mungkin akan menghasilkan keupayaan disinformasi yang menakjubkan.
Diketepikan masalah, potensi LL.M adalah besar. "Model bahasa berskala besar dan AI generatif akan menjadi teknologi asas untuk aplikasi generasi baharu," ulas Villi Iltchev, Rakan Kongsi di Two Sigma Ventures. "Kami akan melihat generasi baharu aplikasi perusahaan muncul untuk mencabar vendor terkenal dalam hampir setiap kategori perisian. Pembelajaran mesin dan kecerdasan buatan akan menjadi teknologi asas untuk aplikasi generasi seterusnya." Banyak tugas dan tanggungjawab sedang dilaksanakan oleh profesional, dengan itu meningkatkan produktiviti dan kecekapan dengan ketara. "Perisian," katanya, "bukan sahaja akan menjadikan kami lebih produktif, ia juga akan membolehkan kami melakukan kerja kami dengan lebih baik
Tindak balas palsu dan berniat jahat yang berkaitan
Model pembelajaran mesin yang sudah tersedia kepada orang ramai boleh menterjemah secara automatik ke dalam bahasa yang berbeza dalam masa nyata, sambil turut menyalin audio ke dalam teks Dengan web3, kami telah melihat pertumbuhan besar dalam perbualan bot komputer dalam beberapa tahun kebelakangan ini. Memandangkan teknologi ini berfungsi bersama, landskap alat serangan adalah luas dan boleh membawa kepada situasi berbahaya semasa serangan disasarkan dan penipuan yang terperinci.
“Dalam beberapa tahun akan datang,” Aldridge menyambung, “kita mungkin menjadi sasaran penipuan telefon yang dikuasakan oleh teknologi deepfake, yang mungkin menyamar sebagai rakan jualan, pemimpin perniagaan, atau ahli keluarga dalam masa kurang daripada sepuluh tahun Selama bertahun-tahun, kami mungkin menjadi sasaran panggilan sedemikian tanpa menyedari kami tidak bercakap dengan manusia Lucia Milica, pemastautin global CISO di Proofpoint, bersetuju bahawa ancaman deepfake semakin meningkat. “Teknologi Deepfake semakin mudah diakses oleh orang ramai Terima kasih kepada penjana kecerdasan buatan yang dilatih pada pangkalan data imej yang besar, sesiapa sahaja boleh menghasilkan deepfake tanpa pengetahuan teknikal Walaupun keluaran model ini bukan tanpa kelemahan, tetapi teknologinya sentiasa bertambah baik dan penjenayah siber akan mula menggunakannya untuk mencipta naratif yang tidak dapat dinafikan. Daripada sedikit serangan penjenayah siber, mereka tertumpu terutamanya pada penipuan dan skim kompromi e-mel perniagaan. Milica menjangkakan penggunaan yang lebih meluas pada masa hadapan. “Bayangkan kekacauan yang boleh berlaku dalam pasaran kewangan apabila CEO atau CFO palsu syarikat utama membuat kenyataan berani yang menyebabkan harga saham menjunam atau meningkat Atau pertimbangkan bagaimana pelakon jahat boleh memanfaatkan gabungan pengesahan biometrik dan identiti palsu penipuan atau pengambilalihan akaun. Ini hanyalah beberapa contoh web3, dan kita semua tahu penjenayah siber boleh menjadi sangat kreatif ”
Ganjaran yang berpotensi untuk berjaya memanipulasi pasaran akan menjadi tarikan utama bagi kumpulan musuh yang maju dalam masa ketegangan geopolitik, memperkenalkan kekacauan kewangan ke dalam pasaran kewangan Barat sememangnya boleh menarik negara yang bermusuhan.
Jangkaan untuk kecerdasan buatan mungkin masih sedikit mendahului realisasinya. "'Model pembelajaran mesin besar yang 'popular' akan memberi sedikit impak kepada keselamatan siber [pada 2023]," kata Andrew Patel, penyelidik kanan di WithSecure Intelligence "Model bahasa besar akan terus memacu penyelidikan AI ke hadapan. Jangkakan GPT-4 dan 2023 Versi baharu dan menarik bagi GATO dijangka akan digunakan untuk menyalin sebahagian besar kandungan YouTube, membawa set latihan yang lebih besar kepada model bahasa Walau bagaimanapun, semasa mendemokrasikan model besar, kehadirannya mempunyai implikasi untuk keselamatan siber dari perspektif serangan dan pertahanan. Model-model ini masih terlalu berat, terlalu mahal, dan tidak praktikal dari perspektif penyerang atau pertahanan,” dia mencadangkan untuk AI musuh yang sebenar Ini akan datang dengan peningkatan dalam penyelidikan "penjajaran", yang akan menjadi a topik arus perdana pada tahun 2023. "Penjajaran," jelasnya, "akan membawa konsep pembelajaran mesin bermusuhan ke dalam kesedaran awam Penjajaran AI ialah kajian tentang tingkah laku model AI yang kompleks, yang sesetengah orang melihat sebagai Transformative AI (TAI) ) atau pendahulu kepada buatan. kecerdasan am (AGI), dan sama ada model sedemikian mungkin menjalankan planet ini dengan cara yang tidak diingini yang boleh membahayakan masyarakat atau kehidupan.
"Disiplin ini," kata Patel, "pada dasarnya boleh dianggap sebagai pembelajaran mesin yang bertentangan, kerana ia melibatkan penentuan keadaan yang akan membawa kepada output dan tingkah laku yang tidak diingini di luar pengedaran model yang dijangkakan -menala model menggunakan teknik seperti pembelajaran pengukuhan keutamaan manusia RLHF web3 yang akan membawa kepada model AI yang lebih baik dan membawa idea pembelajaran mesin bermusuhan ke dalam kesedaran awam ”
Pemberita perisikan kanan Pieter Arntz bersetuju bahawa ancaman keselamatan siber berskala penuh daripada kecerdasan buatan tidak begitu dekat seperti yang sedang berlaku. "Walaupun tiada bukti nyata bahawa kumpulan penjenayah mempunyai kepakaran teknikal yang ketara dalam mengurus dan memanipulasi sistem AI dan ML untuk tujuan jenayah, minat itu pasti ada. Selalunya yang mereka perlukan ialah sistem yang mereka boleh salin atau tweak sedikit teknologi untuk kegunaan anda sendiri . Jadi, walaupun kita tidak menjangkakan sebarang bahaya serta-merta, adalah lebih baik untuk memerhatikan perkembangan ini ”
Potensi pertahanan AI
Potensi untuk meningkatkan keselamatan siber dan akan menyaksikan kemajuan yang lebih besar pada 2023 disebabkan potensi transformatifnya merentasi pelbagai aplikasi. "Secara khususnya, membenamkan AI pada peringkat perisian tegar harus menjadi keutamaan bagi organisasi," nasihat Camellia Chan, Ketua Pegawai Eksekutif dan pengasas X-PHY.
“Memandangkan penggodaman etika yang dipacu manusia, ujian penembusan dan penggabungan merah kekal terhad dan mahal sebagai sumber, CISO akan beralih kepada pendekatan yang dipacu AI untuk memahami secara proaktif laluan serangan, menambah usaha pasukan merah, mengeraskan persekitaran dan mengurangkan kelemahan permukaan serangan,” sambungnya.
Karin Shopen, naib presiden penyelesaian dan perkhidmatan keselamatan siber di Fortinet, meramalkan pengimbangan semula antara AI yang dihantar melalui awan dan AI yang dibina secara asli ke dalam produk atau perkhidmatan. “Menjelang 2023,” katanya, “kami berharap dapat melihat CISO mengimbangi semula AI mereka dengan membeli penyelesaian yang menggunakan AI di premis untuk analisis berasaskan tingkah laku dan analisis statik untuk membantu membuat keputusan Pembuatan keputusan masa nyata Mereka akan terus memanfaatkan model AI skala awan holistik dan dinamik yang mengumpul sejumlah besar data global.” Apabila memperkenalkan teknologi baharu, ia mesti diambil serius. Ini telah pun bermula. Amerika Syarikat telah membahaskan penggunaan teknologi pengecaman muka (FRT) berasaskan AI selama bertahun-tahun, dengan banyak bandar dan negeri melarang atau mengehadkan penggunaannya oleh penguatkuasaan undang-undang. Di Amerika Syarikat, ini adalah isu perlembagaan, yang diwakili oleh rang undang-undang dwipartisan Wyden/Paul yang diperkenalkan pada April 2021 bertajuk Akta Tiada Penjualan Pindaan Keempat.
Rang undang-undang ini akan melarang kerajaan A.S. dan agensi penguatkuasaan undang-undang daripada membeli data pengguna tanpa waran. Ini termasuk biometrik muka mereka. Dalam kenyataan berkaitan, Wyden menjelaskan bahawa syarikat FRT Clearview.AI berada dalam pandangannya: "Rang undang-undang menghalang kerajaan daripada membeli data daripada Clearview.AI
Sehingga tulisan ini ditulis, A.S. dan EU sedang bekerjasama untuk Membincangkan kerjasama untuk membangunkan pemahaman bersatu tentang konsep AI yang diperlukan (termasuk kebolehpercayaan, risiko dan bahaya), membina Akta AI EU dan Rang Undang-Undang Hak AI AS web3, dan kita boleh mengharapkan untuk melihat penyelarasan pada 2023 kemajuan ke arah piawaian yang dipersetujui bersama.
Tetapi ada lagi. "Rangka Kerja Pengurusan Risiko NIST AI akan dikeluarkan pada suku pertama 2023," kata Polyakov. "Bagi suku kedua, kami mula melaksanakan Akta Akauntabiliti AI; sepanjang tahun ini, kami mempunyai inisiatif daripada IEEE, serta Inisiatif AI Dipercayai EU yang dirancang, Jadi, 2023 untuk AI tahun penuh peristiwa untuk keselamatan.
“Menjelang 2023, saya percaya kita akan melihat penumpuan dalam perbualan sekitar AI dan privasi dan risiko, dan maksud dalam amalan untuk melaksanakan perkara seperti etika AI dan ujian berat sebelah,” kata Ketua Pegawai Privasi & berkata Christina Montgomery, pengerusi Jawatankuasa Etika AI, IBM. "Harapan saya ialah pada tahun 2023 kita boleh mengalihkan perbualan daripada gambaran umum tentang privasi dan isu AI dan jauh daripada menganggap bahawa 'jika data atau AI terlibat, ia mesti buruk dan berat sebelah.'"
Dia percaya masalah selalunya bukan teknologi tetapi bagaimana ia digunakan, dan tahap risiko yang mendorong model perniagaan syarikat. "Itulah sebabnya kita memerlukan peraturan yang tepat dan bernas dalam bidang ini," katanya.
Montgomery memberi contoh. "Syarikat X menjual mentol lampu 'pintar' bersambung Internet yang memantau dan melaporkan data penggunaan. Dari masa ke masa, Pengguna Syarikat diberi pilihan untuk menghidupkan lampu mereka secara automatik sebelum mereka pulang dari kerja."
Dia percaya ini adalah penggunaan AI yang boleh diterima. Tetapi terdapat juga Syarikat Y. Ia kemudian menjual data tersebut kepada pihak ketiga, seperti telemarketer atau kumpulan pelobi politik, tanpa persetujuan pengguna untuk menyasarkan pelanggan yang lebih baik. Model perniagaan Syarikat X adalah kurang berisiko berbanding Syarikat Y. "
Kecerdasan buatan akhirnya merupakan subjek yang memecahbelahkan. "Orang dalam teknologi, R&D dan sains akan bersorak untuk menyelesaikan masalah lebih cepat daripada yang manusia bayangkan. Menyembuhkan penyakit, menjadikan dunia lebih selamat, dan akhirnya menyelamatkan serta memanjangkan hayat manusia di Bumi..." kata Ketua Pegawai Eksekutif Idemia Donnie Scott. "Lawan akan terus menyokong sekatan atau larangan yang ketara terhadap penggunaan kecerdasan buatan kerana 'mesin Semakin meningkat' boleh mengancam manusia. ”
Akhirnya, beliau menambah, “Masyarakat, melalui pegawai kita yang dipilih, memerlukan rangka kerja yang melindungi hak asasi manusia, privasi dan keselamatan untuk seiring dengan kemajuan teknologi. Kemajuan ke arah rangka kerja ini akan meningkat sehingga 2023, tetapi perbincangan dalam kalangan badan pentadbir antarabangsa dan nasional perlu dipertingkatkan, jika tidak, kerajaan tempatan akan campur tangan dan menggubal satu siri undang-undang yang menghalang pembangunan sosial dan teknologi. ”
Berkenaan penggunaan AI secara komersil dalam perusahaan, Montgomery menambah: "Kami memerlukan web3, dan IBM mempromosikan peraturan tepat web3 yang pintar dan disasarkan, serta boleh menyesuaikan diri dengan ancaman yang muncul." Satu pendekatan ialah melihat risiko di tengah-tengah model perniagaan syarikat. Kita boleh dan mesti melindungi pengguna dan meningkatkan ketelusan, dan kita boleh melakukan ini sambil menggalakkan dan menyokong inovasi supaya syarikat boleh membangunkan penyelesaian dan produk masa depan. Ini adalah salah satu daripada banyak bidang yang akan kami perhatikan dan timbangkan dengan teliti pada tahun 2023. ”
Atas ialah kandungan terperinci Network Insights 2023 |. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!