Berita pada 17 Mac, minggu ini OpenAI mengeluarkan GPT-4. Walaupun AI chatbot terus menambah ciri baharu, kebimbangan semakin meningkat bahawa alat AI juga boleh digunakan untuk tujuan jahat. Pengasas bersama OpenAI dan ketua saintis Ilya Sutskever mengakui dalam temu bual bahawa orang yang mempunyai motif tersembunyi boleh dengan mudah menggunakan kecerdasan buatan untuk menyebabkan bahaya kepada orang lain.
"Model-model ini sangat kuat dan akan menjadi lebih kuat," katanya. "Dalam satu cara, sangat mudah untuk melakukan banyak kemudaratan dengan model ini jika seseorang mahu melakukannya."
Satskover menjelaskan mengapa OpenAI tidak lagi memberikan butiran tentang cara melatih model ini.
Beliau berkata dalam temu bual: "Memandangkan prestasi kecerdasan buatan terus bertambah baik, ada sebab untuk tidak mendedahkannya." "Saya yakin dalam beberapa tahun, ia akan menjadi sangat jelas kepada semua orang bahawa kecerdasan buatan adalah sumber terbuka Ia tidak bijak.”
Ketua Pegawai Eksekutif OpenAI Sam Altman telah menyatakan pandangan yang sama pada masa lalu.
Dalam temu bual awal tahun ini, Altman berkata bahawa apabila ia berkaitan dengan kecerdasan buatan, senario kes terbaik adalah "sangat baik sehingga sukar untuk saya bayangkan, tetapi senario kes terburuk ialah." "matikan kami semua".
Bulan lepas, Altman juga berkata di Twitter bahawa dia percaya alat kecerdasan buatan boleh membantu orang menjadi lebih cekap, sihat dan lebih bijak, tetapi juga menambah bahawa dunia mungkin hampir dengan alat AI yang dahsyat mungkin tidak begitu jauh. jauh, jadi mengawal selia mereka adalah "penting".
Atas ialah kandungan terperinci Mengapa tidak mengumumkan butiran latihan ChatGPT? Pengasas bersama OpenAI: Mudah menyebabkan kemudaratan besar. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!