Sejak keluaran ChatGPT pada penghujung tahun 2022, Internet telah dipenuhi dengan pelbagai emosi pesimis dan optimistik. Suka atau benci, kecerdasan buatan akan datang kepada pasukan pembangunan anda. Walaupun anda tidak bercadang untuk membangunkan produk AI atau menggunakan AI untuk membangunkan bot untuk menulis kod, ia masih boleh disepadukan ke dalam alatan dan platform yang digunakan untuk membina, menguji dan menjalankan kod sumber bertulis anda secara manual.
Alat AI menimbulkan risiko unik. Selain itu, risiko ini boleh mengimbangi manfaat produktiviti yang besar untuk mengautomasikan tugas yang pernah memerlukan otak manusia. Risiko ini timbul daripada cara AI dilatih, dibina, dihoskan dan digunakan, yang semuanya berbeza daripada alat perisian lain yang digunakan oleh pembangun. Memahami risiko ialah langkah pertama untuk mengurusnya, dan untuk membantu anda memahami potensi risiko yang berkaitan dengan alatan AI yang akan datang, kami telah menulis beberapa soalan temu bual yang boleh dikira sebagai sebahagian daripada proses orientasi AI.
Soalan ini harus ditanya tanpa mengira jenis AI atau tujuan yang anda harapkan untuk menggunakannya.
1. Di manakah pelayan kecerdasan buatan yang anda pilih akan dihoskan?
AI moden pada masa ini memerlukan perkakasan yang khusus dan mahal untuk melaksanakan tugas hebat yang kita lihat dalam tajuk berita hari ini. Melainkan anda bercadang untuk memperoleh pusat data serba baharu, robot AI anda akan berfungsi dari jauh dan memerlukan pertimbangan keselamatan yang sama seperti pekerja manusia jauh menggunakan akses jauh dan storan data luar tapak.
Apakah perlindungan yang disediakan untuk mengelakkan kehilangan IP apabila kod meninggalkan sempadan? Segala-galanya daripada TV pintar kepada kereta melaporkan data penggunaan kepada pengeluar. Ada yang menggunakan data ini untuk menambah baik perisian mereka, tetapi yang lain menjualnya kepada pengiklan. Fahami dengan tepat cara alat AI anda akan menggunakan atau memproses kod sumber atau data peribadi lain untuk misi utamanya.
2. Adakah input anda akan digunakan untuk latihan kecerdasan buatan pada masa hadapan?
Latihan berterusan model AI akan menjadi bidang yang semakin membimbangkan pemilik dan mereka yang datanya digunakan untuk melatih model. Sebagai contoh, pemilik mungkin mahu menghalang pengiklan daripada memihak bot AI ke arah yang memberi manfaat kepada pelanggan mereka. Artis yang berkongsi karya mereka dalam talian telah disalin gaya mereka oleh bot penjana imej AI, dan mereka bimbang tentang kehilangan atau kecurian identiti pengarang asal mereka.
3.
Kekurangan ChatGPT yang paling terkenal ialah ketidaktepatan keputusannya. Ia dengan yakin akan menegaskan sebagai kebenaran apa yang palsu. Ini dipanggil "ilusi" kecerdasan buatan. Memahami cara dan tempat AI mungkin berhalusinasi boleh membantu mengurusnya apabila ia berlaku.
Selain itu, pemilik dan pembangun AI akan mempunyai set kebimbangan keselamatan mereka sendiri. Kebimbangan baharu ini termasuk ancaman kepada model latihan AI. Ancaman ini boleh menjejaskan keputusannya atau mendedahkan maklumat proprietari tentang cara model berfungsi. Selain itu, model AI perlu antara muka dengan API, web, mudah alih dan aplikasi lain yang perlu dibina dengan selamat.
Pembangun perlu bertanya soalan khusus apabila menggunakan alatan AI, seperti pengimbas keselamatan AI, untuk mengurus risiko yang diperkenalkan semasa pembangunan perisian.
4. Adakah alat AI paling sesuai untuk kes penggunaan ini?
Memahami perkara yang mahir AI dan perkara yang tidak bagus adalah penting. Tugasan boleh dipecahkan lagi kepada "membuat keputusan berdasarkan peraturan yang dipelajari" atau "menulis kandungan yang melepasi peraturan yang dipelajari", lebih baik AI akan lakukan dalam hal ini. Semakin jauh masalah menyimpang, semakin teruk prestasi AI.
Apakah perlindungan yang ada jika alat itu tidak menangkap kandungan atau berhalusinasi ketiadaan?
Jangan sekali-kali memperkenalkan satu titik kegagalan ke dalam proses anda, terutamanya yang menimbulkan halusinasi. Bergantung pada amalan mendalam pertahanan tradisional atau pendekatan "keju Swiss" untuk mengurus risiko, di mana walaupun satu lapisan terlepas masalah, lapisan seterusnya menangkapnya.
Apakah yang diperlukan untuk memantau hasil semakan alat? Masalah ini sebenarnya hanyalah wain lama dalam botol baharu: garis panduan jurnal tradisional dibahagikan kepada dua bahagian. Bahagian pertama adalah untuk menangkap data peristiwa penting, dan bahagian kedua ialah log audit. Sehingga AI semakin matang dan kelemahannya difahami atau dikurangkan, manusia akan kekal penting dalam aliran kerja.
Semakin ramai pembangun "mengupah" ChatGPT untuk menulis kod sumber. Laporan awal menunjukkan bahawa ChatGPT mampu menulis kod sumber dalam banyak bahasa pengaturcaraan dan fasih dalam semua bahasa yang biasa dan dibincangkan secara umum. Tetapi disebabkan oleh latihan dan pengehadan model beta ini, kod yang dihasilkannya tidak selalunya sempurna. Selalunya, ia mengandungi kelemahan logik perniagaan yang mungkin mengubah cara perisian beroperasi, ralat sintaks yang mungkin menggabungkan versi perisian yang berbeza dan isu lain yang kelihatan seperti buatan manusia. Dalam erti kata lain, ChatGPT ialah pembangun junior. Apabila menggunakan kod yang ditulis oleh pembangun junior ini, anda mesti mempertimbangkan cara mengurusnya.
Siapa yang akan menjadi pengurusnya dan memastikan kod tersebut berfungsi, boleh dioptimumkan, berkualiti tinggi dan juga memenuhi piawaian keselamatan? Pembangun muda memerlukan bimbingan daripada pembangun kanan. Setiap baris kod perlu diuji dan ada yang perlu diperbaiki. Walau bagaimanapun, laporan awal menunjukkan bahawa proses membaca pruf ini lebih cepat dan lebih mudah daripada menulis kod dari awal.
5. Adakah ia menyuntik atau mencampurkan semula kod latihan ke dalam pangkalan kod anda?
Ancaman yang lebih berbahaya ialah kadangkala bot AI seperti GitHub Copilot menghasilkan kod sumber yang menyalin sepenuhnya blok kod daripada data latihan mereka. Ini memerlukan alat anti-plagiarisme untuk memastikan risiko hak cipta diurus.
6. Di manakah robot mendapat data latihannya?
Model AI hanya sebaik data latihannya. Jika bot dilatih dengan kod lapuk atau salah, ia juga akan menghasilkan keputusan lapuk dan salah.
7.
Begitu juga, robot AI yang menganalisis kod sumber perlu membawa kod sumber ke kemudahan pemprosesannya. Beri perhatian khusus kepada cara data dilindungi, digunakan dan diproses selepas ia meninggalkan syarikat anda.
Keluaran ChatGPT pada bulan Disember menandakan era baharu dalam pembangunan perisian. Adalah penting untuk menyesuaikan diri dengan perubahan ini dan bukannya diketuk ke tanah olehnya. Semasa anda menggunakan alat baharu ini, fahami bahawa semakin banyak perkara berubah, semakin banyak satu prinsip tetap sama: Lebih baik mencegah insiden keselamatan daripada dihempap satu.
Sumber: www.cio.com
Atas ialah kandungan terperinci Bagaimana Kepintaran Buatan Boleh Memperkasakan Organisasi pada 2023. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!