Pada masa kini, penerokaan dan pelaksanaan AI generatif sudah pasti berkait rapat dengan isu keselamatan. Menurut laporan data baru-baru ini, 49% pemimpin perniagaan percaya bahawa risiko keselamatan telah menjadi isu utama, dan 38% pemimpin perniagaan menyenaraikan ralat manusia/kebocoran data manusia yang disebabkan oleh tidak memahami cara menggunakan alat GPT sebagai cabaran utama .
Walaupun kebimbangan ini sah, faedah kepada pengguna awal akan jauh mengatasi kemungkinan akibat yang menghalang penerokaan ini
Dalam siaran ini, kami akan membantu ahli pasukan dan pelanggan memahami sebab keselamatan tidak boleh dianggap sebagai faktor yang difikirkan semula, tetapi harus menganggapnya sebagai prasyarat untuk penyepaduan AI dan perniagaan, dan meneroka satu siri amalan terbaik dalam aspek ini
Perusahaan telah menyedari bahawa aplikasi AI membawa risiko keselamatan dan kecemasan yang muncul. . Menurut laporan statistik yang dinyatakan sebelum ini, 81% pemimpin perniagaan menyatakan bahawa syarikat mereka telah atau sedang membangunkan dasar pengguna di sekitar AI
Namun, disebabkan perkembangan pesat teknologi ini, aplikasi dan kes penggunaan yang muncul sentiasa berubah , jadi kandungan dasar juga mesti sentiasa dikemas kini untuk bertindak balas terhadap risiko dan cabaran yang timbul pada bila-bila masa.
Untuk meminimumkan risiko keselamatan sambil mempercepatkan penerokaan, sememangnya perlu untuk menyediakan "pengadang" untuk usaha ujian dan pembelajaran. Di samping itu, apabila menggubal dasar yang berkaitan, kita tidak boleh meneruskan secara berasingan Sebaliknya, kita harus meminta sepenuhnya pendapat wakil daripada pelbagai jabatan dalam perusahaan dan memikirkan cara unit berfungsi yang berbeza menggunakan/sama ada mereka boleh menggunakan kecerdasan buatan generatif untuk menangani. risiko keselamatan yang mereka hadapi
Ringkasnya, penerokaan teknologi AI oleh pelbagai jabatan tidak seharusnya dilarang secara kasar. Jika anda mengenakan larangan seluruh perusahaan kerana ketakutan semata-mata, anda tidak perlu risau tentang pesaing memakan bahagian pasaran anda - anda sendiri yang memusnahkan Tembok Besar.
Untuk memastikan AI generatif boleh digunakan dengan selamat, kami harus terlebih dahulu memberikan kebenaran kepada pemaju biasa. Contohnya, mereka boleh diberi akses penuh kepada contoh peribadi Insight GPT, model pembelajaran bahasa yang besar. Di satu pihak, ini boleh membantu menemui kes penggunaan yang berpotensi, dan pada masa yang sama, ujian tekanan boleh dilakukan berdasarkan output untuk terus meningkatkan perkhidmatan AI generatif Kami tidak lama lagi mendapati bahawa ahli pasukan gudang menemui cara untuk meningkatkan kecekapan pengedaran pesanan. Dalam kes khusus ini, ahli meminta skrip untuk ditulis dalam SAP untuk mengautomasikan sebahagian daripada beban kerja. Walaupun berkesan, percubaan ini boleh membawa kepada kemalangan dengan mudah jika perlindungan tidak disediakan dengan betul. Sebagai contoh, jika seorang kakitangan secara tidak sengaja melaksanakan transaksi yang tidak wujud dalam perintah, langkah automatik seterusnya tidak boleh dibatalkan
Dalam proses menggalakkan penerokaan sivil dan mengehadkan risiko sebanyak mungkin, kami perlu mengambil langkah berikut: Jawatankuasa semakan harus mewujudkan garis panduan yang jelas, menjalankan penilaian risiko, dan meningkatkan ketelusan dalam sistem AI. Pada masa yang sama, latihan yang sesuai harus dijalankan untuk mendidik pekerja tentang cara menggunakan AI secara bertanggungjawab dalam senario kerja, terutamanya dengan cara yang jelas untuk menangani isu utama seperti etika, berat sebelah, penyeliaan manusia dan privasi data. Di samping itu, forum dalaman perlu disediakan untuk menggalakkan ahli pasukan berkongsi penemuan dan pengajaran mereka dalam kumpulan inovator syarikat
Mengurangkan risiko "halusinasi"
Walaupun alat GPT pasti akan mengeluarkan beberapa keputusan yang tidak konsisten dengan realiti objektif, kami tidak lama lagi menyedari bahawa jawapan yang salah seperti itu sering kali tergolong dalam kekeliruan pada peringkat perkataan. Sebagai contoh, dalam ujian awal, kami bertanya Insight GPT lagu yang pernah bekerjasama dengan Eddie Van Halen. Jawapan yang betul ialah "Beat It," tetapi jawapannya ialah "Thriller." Tetapi dari perspektif yang lain, "Beat It" sememangnya karya dalam album "Thriller", jadi jawapannya tidak munasabah.
Melakukan ini memastikan kami dapat mengurus dan menyelia kandungan yang dijana AI dengan berkesan untuk mengurangkan risiko isu halusinasi. Pada masa yang sama, kami juga perlu mengukuhkan latihan dan pemantauan sistem AI untuk memastikan kandungan yang dihasilkannya mematuhi dasar dan piawaian yang berkaitan. Hanya melalui langkah-langkah sedemikian kita dapat mengatasi masalah yang mungkin timbul dengan lebih baik apabila menangani beban kerja yang sangat subjektif
Pada masa ini, industri AI generatif masih di peringkat awal Sesiapa yang dapat mengetahui kaedah aplikasi yang bertanggungjawab dan selamat sambil mengurangkan potensi ancaman yang disebabkan oleh kebocoran data, ralat maklumat, berat sebelah dan risiko lain akan dapat mewujudkan Kelebihan teknologi. Perusahaan perlu memastikan bahawa dasar AI mereka terus mengikuti perubahan dalam industri, dan secara beransur-ansur membina kepercayaan pengguna sambil mengekalkan pematuhan dan mengurangkan masalah halusinasi.
Atas ialah kandungan terperinci Bagaimana untuk memajukan penerokaan AI generatif dengan selamat dan boleh dipercayai?. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!