


Siaran OpenAI tentang cara memastikan keselamatan AI: Peraturan kerajaan adalah perlu
Berita pada 6 April, waktu tempatan di Amerika Syarikat pada hari Rabu, OpenAI menyiarkan siaran yang memperincikan pendekatannya terhadap memastikan keselamatan AI, termasuk menjalankan penilaian keselamatan, meningkatkan perlindungan selepas pelancaran, melindungi kanak-kanak dan menghormati privasi. Syarikat itu berkata memastikan sistem AI dibina, digunakan dan digunakan dengan selamat adalah penting untuk mencapai misinya.
Berikut ialah teks penuh siaran OpenAI:
OpenAI komited untuk memastikan keselamatan AI yang kukuh yang memberi manfaat kepada seramai mungkin orang. Kami tahu bahawa alatan AI kami memberikan banyak bantuan kepada orang ramai hari ini. Pengguna di seluruh dunia telah melaporkan kepada kami bahawa ChatGPT membantu meningkatkan produktiviti mereka, meningkatkan kreativiti mereka dan menyediakan pengalaman pembelajaran yang disesuaikan. Tetapi kami juga menyedari bahawa, seperti mana-mana teknologi, terdapat risiko sebenar yang berkaitan dengan alat ini. Oleh itu, kami bekerja keras untuk memastikan keselamatan di setiap peringkat sistem.
Bina Kecerdasan BuatanSistem
sedang dilancarkan Sebelum sebarang sistem kecerdasan buatan baharu, kami menjalankan ujian yang ketat, meminta pendapat daripada pakar luar dan meningkatkan prestasi model melalui teknik seperti pembelajaran pengukuhan dengan maklum balas manusia. Pada masa yang sama, kami juga telah mewujudkan sistem keselamatan dan pemantauan yang meluas.
Mengambil model terbaharu GPT-4 kami sebagai contoh, selepas menamatkan latihan, kami menjalankan ujian seluruh syarikat sehingga 6 bulan untuk memastikan ia lebih selamat dan boleh dipercayai sebelum dikeluarkan kepada umum.
Kami percaya bahawa sistem kecerdasan buatan yang berkuasa harus menjalani penilaian keselamatan yang ketat. Peraturan adalah perlu untuk memastikan penggunaan meluas amalan ini. Oleh itu, kami terlibat secara aktif dengan kerajaan untuk membincangkan bentuk peraturan yang terbaik.
Belajar daripada penggunaan sebenar dan tingkatkan perlindungan
Kami cuba sedaya upaya untuk mencegah risiko yang boleh dijangka sebelum penggunaan sistem, tetapi pembelajaran di makmal sentiasa terhad. Kami menyelidik dan menguji secara meluas, tetapi tidak dapat meramalkan cara orang boleh menggunakan teknologi kami, atau menyalahgunakannya. Oleh itu, kami percaya bahawa pembelajaran daripada penggunaan dunia sebenar adalah komponen penting dalam mencipta dan mengeluarkan sistem AI yang semakin selamat.
Kami mengeluarkan sistem AI baharu dengan berhati-hati kepada orang ramai secara beransur-ansur, dengan perlindungan yang cukup besar dan terus menambah baik berdasarkan pelajaran yang kami pelajari.
Kami menyediakan model perkhidmatan dan API kami yang paling berkuasa supaya pembangun boleh menyepadukan teknologi terus ke dalam aplikasi mereka. Ini membolehkan kami memantau dan mengambil tindakan ke atas penyalahgunaan dan membangunkan respons. Dengan cara ini, kita boleh mengambil tindakan praktikal dan bukannya hanya membayangkan bagaimana untuk menanganinya secara teori.
Pengalaman dalam penggunaan dunia nyata juga telah mendorong kami untuk membangunkan dasar yang semakin terperinci yang menangani tingkah laku yang menimbulkan risiko sebenar kepada orang ramai, sambil tetap membenarkan teknologi kami digunakan dengan cara yang lebih berfaedah.
Kami percaya bahawa masyarakat memerlukan lebih banyak masa untuk menyesuaikan diri dengan kecerdasan buatan yang semakin berkuasa, dan setiap orang yang terjejas olehnya harus bersuara dalam pembangunan selanjutnya kecerdasan buatan. Penggunaan berulang membantu pihak berkepentingan yang berbeza terlibat dengan lebih berkesan dalam perbualan tentang teknologi AI, dan mempunyai pengalaman tangan pertama menggunakan alat ini adalah penting.
Melindungi kanak-kanak
Salah satu fokus kerja keselamatan kami ialah melindungi kanak-kanak. Kami memerlukan orang yang menggunakan alat kecerdasan buatan kami berumur 18 tahun ke atas, atau 13 tahun ke atas dengan kebenaran ibu bapa. Pada masa ini, kami sedang mengusahakan fungsi pengesahan.
Kami tidak membenarkan teknologi kami digunakan untuk menghasilkan kandungan yang penuh kebencian, gangguan, ganas atau dewasa. GPT-4 terkini adalah 82% kurang berkemungkinan membalas permintaan untuk kandungan terhad berbanding GPT-3.5. Kami mempunyai sistem yang mantap untuk memantau penyalahgunaan. GPT-4 kini tersedia kepada pelanggan ChatGPT Plus, dan kami berharap dapat membenarkan lebih ramai orang mengalaminya dari semasa ke semasa.
Kami telah mengambil langkah penting untuk meminimumkan potensi model kami menghasilkan kandungan yang berbahaya kepada kanak-kanak. Contohnya, apabila pengguna cuba memuat naik bahan penderaan selamat kanak-kanak ke alat penjanaan imej kami, kami menyekatnya dan melaporkan perkara itu kepada Pusat Kebangsaan Kanak-Kanak Hilang dan Dieksploitasi.
Selain perlindungan keselamatan lalai, kami bekerjasama dengan organisasi pembangunan seperti organisasi bukan untung Khan Academy untuk menyesuaikan langkah keselamatan untuk mereka. Khan Academy telah membangunkan pembantu kecerdasan buatan yang boleh berfungsi sebagai tutor maya untuk pelajar dan pembantu bilik darjah untuk guru. Kami juga sedang mengusahakan ciri yang membolehkan pembangun menetapkan piawaian yang lebih ketat untuk output model bagi menyokong lebih baik pembangun dan pengguna yang memerlukan keupayaan sedemikian.
Hormati Privasi
Model bahasa besar kami dilatih pada korpus teks yang luas, termasuk kandungan yang tersedia secara umum, kandungan berlesen dan kandungan yang dihasilkan oleh manusia kandungan yang dijana oleh Moderator . Kami tidak menggunakan data ini untuk menjual perkhidmatan atau pengiklanan kami, kami juga tidak menggunakannya untuk membina profil. Kami hanya menggunakan data ini untuk menjadikan model kami lebih baik dalam membantu orang, seperti menjadikan ChatGPT lebih pintar dengan mengadakan lebih banyak perbualan dengan orang.
Walaupun kebanyakan data latihan kami termasuk maklumat peribadi yang tersedia di web awam, kami mahu model kami belajar tentang dunia secara keseluruhan, bukan individu. Oleh itu, kami komited untuk mengalih keluar maklumat peribadi daripada set data latihan jika boleh, memperhalusi model untuk menafikan permintaan pertanyaan untuk maklumat peribadi dan menjawab permintaan individu untuk memadamkan maklumat peribadi mereka daripada sistem kami. Langkah-langkah ini meminimumkan kemungkinan model kami akan menghasilkan respons yang mengandungi maklumat peribadi.
Meningkatkan ketepatan fakta
Model bahasa besar hari ini boleh meramalkan kemungkinan perkataan seterusnya yang akan digunakan berdasarkan corak sebelumnya dan teks yang dimasukkan pengguna. Tetapi dalam beberapa kes, perkataan yang paling berkemungkinan seterusnya mungkin sebenarnya tidak betul.
Meningkatkan ketepatan fakta ialah salah satu fokus OpenAI dan banyak organisasi penyelidikan AI lain, dan kami sedang membuat kemajuan. Kami meningkatkan ketepatan fakta GPT-4 dengan memanfaatkan maklum balas pengguna pada output ChatGPT yang dibenderakan sebagai tidak betul sebagai sumber data utama. Berbanding dengan GPT-3.5, GPT-4 lebih berkemungkinan menghasilkan kandungan fakta, dengan peningkatan sebanyak 40%.
Kami berusaha untuk menjadi setelus mungkin apabila pengguna mendaftar untuk menggunakan alat untuk mengelakkan kemungkinan respons yang salah daripada ChatGPT. Walau bagaimanapun, kami telah menyedari bahawa terdapat lebih banyak kerja yang perlu dilakukan untuk mengurangkan lagi potensi salah faham dan mendidik orang ramai tentang batasan semasa alat AI ini.
Penyelidikan dan Penglibatan Berterusan
Kami percaya bahawa cara praktikal untuk menangani isu keselamatan AI adalah dengan melaburkan lebih banyak masa dan sumber untuk menyelidik mitigasi yang berkesan dan Mengkalibrasi teknologi dan ujian ia terhadap situasi penyalahgunaan potensi dunia sebenar.
Yang penting, kami percaya bahawa meningkatkan keselamatan dan keupayaan AI harus berlaku serentak. Kerja keselamatan terbaik kami setakat ini adalah hasil daripada bekerja dengan model kami yang paling berkebolehan, kerana mereka lebih baik mengikut arahan pengguna dan lebih mudah untuk memanfaatkan atau "membimbing" mereka.
Kami akan mencipta dan menggunakan model yang lebih berkebolehan dengan lebih berhati-hati dan akan terus memperkukuh langkah berjaga-jaga keselamatan apabila sistem AI berkembang.
Sementara kami menunggu lebih daripada 6 bulan untuk menggunakan GPT-4 untuk memahami dengan lebih baik keupayaan, faedah dan risikonya, kadangkala ia boleh mengambil masa yang lebih lama untuk meningkatkan keselamatan sistem AI. Oleh itu, penggubal dasar dan pembangun AI perlu memastikan bahawa pembangunan dan penggunaan AI dikawal selia secara berkesan di peringkat global supaya tiada siapa yang mengambil jalan pintas untuk kekal di hadapan. Ini adalah cabaran sukar yang memerlukan inovasi teknologi dan institusi, tetapi kami tidak sabar-sabar untuk menyumbang.
Menangani isu keselamatan AI juga memerlukan perbahasan, percubaan dan penglibatan yang meluas, termasuk menetapkan sempadan untuk kelakuan sistem AI. Kami telah dan akan terus menggalakkan kerjasama dan dialog terbuka di kalangan pihak berkepentingan untuk mewujudkan ekosistem AI yang lebih selamat.
Atas ialah kandungan terperinci Siaran OpenAI tentang cara memastikan keselamatan AI: Peraturan kerajaan adalah perlu. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Alat AI Hot

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool
Gambar buka pakaian secara percuma

Clothoff.io
Penyingkiran pakaian AI

AI Hentai Generator
Menjana ai hentai secara percuma.

Artikel Panas

Alat panas

Notepad++7.3.1
Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina
Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1
Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6
Alat pembangunan web visual

SublimeText3 versi Mac
Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Topik panas



DALL-E 3 telah diperkenalkan secara rasmi pada September 2023 sebagai model yang jauh lebih baik daripada pendahulunya. Ia dianggap sebagai salah satu penjana imej AI terbaik setakat ini, mampu mencipta imej dengan perincian yang rumit. Walau bagaimanapun, semasa pelancaran, ia adalah tidak termasuk

Pada tahun 2023, teknologi AI telah menjadi topik hangat dan memberi impak besar kepada pelbagai industri, terutamanya dalam bidang pengaturcaraan. Orang ramai semakin menyedari kepentingan teknologi AI, dan komuniti Spring tidak terkecuali. Dengan kemajuan berterusan teknologi GenAI (General Artificial Intelligence), ia menjadi penting dan mendesak untuk memudahkan penciptaan aplikasi dengan fungsi AI. Dengan latar belakang ini, "SpringAI" muncul, bertujuan untuk memudahkan proses membangunkan aplikasi berfungsi AI, menjadikannya mudah dan intuitif serta mengelakkan kerumitan yang tidak perlu. Melalui "SpringAI", pembangun boleh membina aplikasi dengan lebih mudah dengan fungsi AI, menjadikannya lebih mudah untuk digunakan dan dikendalikan.

OpenAI baru-baru ini mengumumkan pelancaran model benam generasi terbaru mereka embeddingv3, yang mereka dakwa sebagai model benam paling berprestasi dengan prestasi berbilang bahasa yang lebih tinggi. Kumpulan model ini dibahagikan kepada dua jenis: pembenaman teks-3-kecil yang lebih kecil dan pembenaman teks-3-besar yang lebih berkuasa dan lebih besar. Sedikit maklumat didedahkan tentang cara model ini direka bentuk dan dilatih, dan model hanya boleh diakses melalui API berbayar. Jadi terdapat banyak model pembenaman sumber terbuka Tetapi bagaimana model sumber terbuka ini dibandingkan dengan model sumber tertutup OpenAI? Artikel ini akan membandingkan secara empirik prestasi model baharu ini dengan model sumber terbuka. Kami merancang untuk membuat data

Jika jawapan yang diberikan oleh model AI tidak dapat difahami sama sekali, adakah anda berani menggunakannya? Memandangkan sistem pembelajaran mesin digunakan dalam bidang yang lebih penting, menjadi semakin penting untuk menunjukkan sebab kita boleh mempercayai output mereka, dan bila tidak mempercayainya. Satu cara yang mungkin untuk mendapatkan kepercayaan dalam output sistem yang kompleks adalah dengan menghendaki sistem menghasilkan tafsiran outputnya yang boleh dibaca oleh manusia atau sistem lain yang dipercayai, iaitu, difahami sepenuhnya sehingga apa-apa ralat yang mungkin boleh dilakukan. dijumpai. Contohnya, untuk membina kepercayaan dalam sistem kehakiman, kami memerlukan mahkamah memberikan pendapat bertulis yang jelas dan boleh dibaca yang menjelaskan dan menyokong keputusan mereka. Untuk model bahasa yang besar, kita juga boleh menggunakan pendekatan yang sama. Walau bagaimanapun, apabila mengambil pendekatan ini, pastikan model bahasa menjana

Langkah pemasangan: 1. Muat turun perisian ChatGTP dari laman web rasmi ChatGTP atau kedai mudah alih 2. Selepas membukanya, dalam antara muka tetapan, pilih bahasa sebagai bahasa Cina 3. Dalam antara muka permainan, pilih permainan mesin manusia dan tetapkan Spektrum bahasa Cina; 4 Selepas memulakan, masukkan arahan dalam tetingkap sembang untuk berinteraksi dengan perisian.

Pengarang丨Disusun oleh TimAnderson丨Dihasilkan oleh Noah|51CTO Technology Stack (WeChat ID: blog51cto) Projek editor Zed masih dalam peringkat pra-keluaran dan telah menjadi sumber terbuka di bawah lesen AGPL, GPL dan Apache. Editor menampilkan prestasi tinggi dan berbilang pilihan dibantu AI, tetapi pada masa ini hanya tersedia pada platform Mac. Nathan Sobo menjelaskan dalam catatan bahawa dalam asas kod projek Zed di GitHub, bahagian editor dilesenkan di bawah GPL, komponen bahagian pelayan dilesenkan di bawah AGPL dan bahagian GPUI (GPU Accelerated User) The interface) mengguna pakai Lesen Apache2.0. GPUI ialah produk yang dibangunkan oleh pasukan Zed

Tidak lama dahulu, OpenAISora dengan cepat menjadi popular dengan kesan penjanaan video yang menakjubkan Ia menonjol di kalangan ramai model video sastera dan menjadi tumpuan perhatian global. Berikutan pelancaran proses pembiakan inferens latihan Sora dengan pengurangan kos sebanyak 46% 2 minggu lalu, pasukan Colossal-AI telah menggunakan sumber terbuka sepenuhnya model penjanaan video seni bina mirip Sora pertama di dunia "Open-Sora1.0", meliputi keseluruhan proses latihan, termasuk pemprosesan data, semua butiran latihan dan berat model, dan berganding bahu dengan peminat AI global untuk mempromosikan era baharu penciptaan video. Untuk melihat sekilas, mari lihat video bandar yang sibuk yang dihasilkan oleh model "Open-Sora1.0" yang dikeluarkan oleh pasukan Colossal-AI. Buka-Sora1.0

Microsoft dan OpenAI didedahkan akan melabur sejumlah besar wang ke dalam permulaan robot humanoid pada awal tahun ini. Antaranya, Microsoft merancang untuk melabur AS$95 juta, dan OpenAI akan melabur AS$5 juta. Menurut Bloomberg, syarikat itu dijangka mengumpul sejumlah AS$500 juta dalam pusingan ini, dan penilaian pra-wangnya mungkin mencecah AS$1.9 bilion. Apa yang menarik mereka? Mari kita lihat pencapaian robotik syarikat ini terlebih dahulu. Robot ini semuanya berwarna perak dan hitam, dan penampilannya menyerupai imej robot dalam filem fiksyen sains Hollywood: Sekarang, dia meletakkan kapsul kopi ke dalam mesin kopi: Jika ia tidak diletakkan dengan betul, ia akan menyesuaikan dirinya tanpa sebarang kawalan jauh manusia: Walau bagaimanapun, Selepas beberapa ketika, secawan kopi boleh dibawa pergi dan dinikmati: Adakah anda mempunyai ahli keluarga yang mengenalinya Ya, robot ini telah dicipta suatu masa dahulu?
