


Media AS: Musk dan yang lain berhak meminta penggantungan latihan AI dan perlu memperlahankan untuk keselamatan
Menurut berita pada 30 Mac, Ketua Pegawai Eksekutif Tesla Elon Musk dan pengasas bersama Apple Steve Steve Wozniak dan lebih 1,000 yang lain baru-baru ini menandatangani surat terbuka yang menyeru agar moratorium latihan sistem AI lebih berkuasa daripada GPT-4. BI, media dalam talian arus perdana Amerika, percaya bahawa untuk manfaat seluruh masyarakat, pembangunan AI perlu diperlahankan.
Dalam surat terbuka itu, Wozniak, Musk dan lain-lain meminta apabila teknologi AI menjadi semakin berkuasa, pagar keselamatan disediakan dan latihan model AI yang lebih maju digantung. Mereka percaya bahawa untuk model AI yang berkuasa seperti GPT-4 OpenAI, "mereka hanya perlu dibangunkan apabila kami yakin bahawa impaknya adalah positif dan risikonya boleh dikawal."
Sudah tentu, ini bukan kali pertama orang memanggil pagar keselamatan untuk AI. Walau bagaimanapun, apabila AI menjadi lebih kompleks dan maju, seruan untuk berhati-hati semakin meningkat.
James Grimmelmann, profesor undang-undang digital dan maklumat di Universiti Cornell di Amerika Syarikat, berkata: “Melambatkan pembangunan model AI baharu adalah idea yang sangat baik, kerana jika AI akhirnya menjadi Jika ia bermanfaat kepada kami, maka tidak ada salahnya menunggu beberapa bulan atau tahun, kami akan sampai ke penghujungnya, dan jika ia merugikan, maka kami juga membeli masa tambahan untuk mencari cara terbaik untuk bertindak balas dan memahami melawannya. ”
Kebangkitan ChatGPT menyerlahkan potensi bahaya bergerak terlalu pantas
Apabila chatbot OpenAI ChatGPT dilancarkan untuk ujian awam pada November tahun lalu, ia menyebabkan sensasi yang besar. Maklumlah, orang ramai mula mempromosikan keupayaan ChatGPT, dan kesan yang merosakkannya terhadap masyarakat dengan cepat menjadi jelas. ChatGPT mula lulus peperiksaan profesional perubatan, memberikan arahan tentang cara membuat bom, dan juga mencipta alter ego untuk dirinya sendiri.
Semakin banyak kita menggunakan AI, terutamanya alat yang dipanggil kecerdasan buatan generatif (AIGC) seperti ChatGPT atau alat penukaran teks-ke-imej Stable Diffusion, semakin kita melihat kelemahannya dan caranya untuk mewujudkan berat sebelah. potensi, dan betapa kita manusia kelihatan tidak berdaya dalam memanfaatkan kuasanya.
Editor BI Hasan Chowdhury menulis bahawa AI mempunyai potensi untuk "menjadi pengecas turbo, mempercepatkan penyebaran kesilapan kami." Seperti media sosial, ia memanfaatkan manusia yang terbaik dan paling teruk. Tetapi tidak seperti media sosial, AI akan lebih disepadukan ke dalam kehidupan orang ramai.
ChatGPT dan produk AI serupa yang lain sudah cenderung untuk memutarbelitkan maklumat dan membuat kesilapan, sesuatu yang Wozniak perkatakan secara terbuka. Ia terdedah kepada apa yang dipanggil "halusinasi" (maklumat tidak benar), malah Ketua Pegawai Eksekutif OpenAI Sam Altman mengakui bahawa model syarikat itu boleh menghasilkan jawapan perkauman, seksis dan berat sebelah . Stable Diffusion juga telah menghadapi isu hak cipta dan dituduh mencuri inspirasi daripada karya artis digital.
Apabila AI disepadukan ke dalam lebih banyak teknologi setiap hari, kami mungkin memperkenalkan lebih banyak maklumat salah ke dunia pada skala yang lebih besar. Malah tugas yang kelihatan tidak berbahaya kepada AI, seperti membantu merancang percutian, mungkin tidak membuahkan hasil yang boleh dipercayai sepenuhnya.
Sukar untuk membangunkan teknologi AI secara bertanggungjawab apabila pasaran bebas menuntut pembangunan pesat
Untuk jelasnya, AI ialah teknologi yang sangat transformatif, terutamanya seperti ChatGPT AIGC Sebegitu. Tidak ada yang salah dengan membangunkan mesin untuk melakukan kebanyakan kerja yang membosankan yang orang benci.
Walaupun teknologi ini telah mencipta krisis wujud dalam tenaga kerja, teknologi ini juga telah dipuji sebagai alat penyamaan untuk industri teknologi. Juga tiada bukti bahawa ChatGPT sedang bersedia untuk mengetuai pemberontakan bot pada tahun-tahun akan datang.
Banyak syarikat AI mempunyai ahli etika yang terlibat untuk membangunkan teknologi ini secara bertanggungjawab. Tetapi jika tergesa-gesa sesuatu produk mengatasi impak sosialnya, pasukan yang menumpukan pada penciptaan AI dengan selamat tidak akan dapat menyelesaikan kerja dengan aman.
Kelajuan nampaknya merupakan faktor yang tidak boleh diabaikan dalam kegilaan AI ini. OpenAI percaya bahawa jika syarikat itu bergerak dengan cukup pantas, ia boleh menangkis persaingan dan menjadi peneraju dalam ruang AIGC. Itu mendorong Microsoft, Google dan hampir semua syarikat lain untuk mengikutinya.
Mengeluarkan model AI yang berkuasa untuk pengalaman awam sebelum ia bersedia tidak menjadikan teknologi itu lebih baik. Kes penggunaan terbaik untuk AI masih belum ditemui kerana pembangun perlu mengurangkan bunyi yang dihasilkan oleh teknologi yang mereka cipta, dan pengguna terganggu oleh bunyi tersebut.
Bukan semua orang mahu memperlahankan
Surat terbuka daripada Musk dan lain-lain juga telah dikritik oleh orang lain, yang merasakan bahawa ia tidak masuk akal.
Emily M. Bender, seorang profesor di Universiti Washington, berkata di Twitter bahawa Musk dan pemimpin teknologi lain hanya menumpukan pada kuasa AI semasa kitaran gembar-gembur, bukannya kerosakan sebenar yang boleh ditimbulkannya.
Profesor undang-undang digital dan maklumat Cornell University, Grimmelman menambah bahawa pemimpin teknologi yang menandatangani surat terbuka "terlambat tiba" dan membuka kotak Pandora yang boleh membawa akibat kepada diri mereka. Beliau berkata: "Sekarang mereka telah menandatangani surat ini, mereka tidak boleh berpatah balik dan menggunakan dasar yang sama kepada teknologi lain seperti kereta pandu sendiri
Menggantung pembangunan atau mengenakan lebih banyak peraturan juga mungkin tidak akan." mencapai hasil. Tetapi kini, perbualan seolah-olah bertukar. AI telah wujud selama beberapa dekad, mungkin kita boleh menunggu beberapa tahun lagi.
Atas ialah kandungan terperinci Media AS: Musk dan yang lain berhak meminta penggantungan latihan AI dan perlu memperlahankan untuk keselamatan. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Alat AI Hot

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool
Gambar buka pakaian secara percuma

Clothoff.io
Penyingkiran pakaian AI

AI Hentai Generator
Menjana ai hentai secara percuma.

Artikel Panas

Alat panas

Notepad++7.3.1
Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina
Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1
Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6
Alat pembangunan web visual

SublimeText3 versi Mac
Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Topik panas



Pada tahun 2023, teknologi AI telah menjadi topik hangat dan memberi impak besar kepada pelbagai industri, terutamanya dalam bidang pengaturcaraan. Orang ramai semakin menyedari kepentingan teknologi AI, dan komuniti Spring tidak terkecuali. Dengan kemajuan berterusan teknologi GenAI (General Artificial Intelligence), ia menjadi penting dan mendesak untuk memudahkan penciptaan aplikasi dengan fungsi AI. Dengan latar belakang ini, "SpringAI" muncul, bertujuan untuk memudahkan proses membangunkan aplikasi berfungsi AI, menjadikannya mudah dan intuitif serta mengelakkan kerumitan yang tidak perlu. Melalui "SpringAI", pembangun boleh membina aplikasi dengan lebih mudah dengan fungsi AI, menjadikannya lebih mudah untuk digunakan dan dikendalikan.

OpenAI baru-baru ini mengumumkan pelancaran model benam generasi terbaru mereka embeddingv3, yang mereka dakwa sebagai model benam paling berprestasi dengan prestasi berbilang bahasa yang lebih tinggi. Kumpulan model ini dibahagikan kepada dua jenis: pembenaman teks-3-kecil yang lebih kecil dan pembenaman teks-3-besar yang lebih berkuasa dan lebih besar. Sedikit maklumat didedahkan tentang cara model ini direka bentuk dan dilatih, dan model hanya boleh diakses melalui API berbayar. Jadi terdapat banyak model pembenaman sumber terbuka Tetapi bagaimana model sumber terbuka ini dibandingkan dengan model sumber tertutup OpenAI? Artikel ini akan membandingkan secara empirik prestasi model baharu ini dengan model sumber terbuka. Kami merancang untuk membuat data

Jika jawapan yang diberikan oleh model AI tidak dapat difahami sama sekali, adakah anda berani menggunakannya? Memandangkan sistem pembelajaran mesin digunakan dalam bidang yang lebih penting, menjadi semakin penting untuk menunjukkan sebab kita boleh mempercayai output mereka, dan bila tidak mempercayainya. Satu cara yang mungkin untuk mendapatkan kepercayaan dalam output sistem yang kompleks adalah dengan menghendaki sistem menghasilkan tafsiran outputnya yang boleh dibaca oleh manusia atau sistem lain yang dipercayai, iaitu, difahami sepenuhnya sehingga apa-apa ralat yang mungkin boleh dilakukan. dijumpai. Contohnya, untuk membina kepercayaan dalam sistem kehakiman, kami memerlukan mahkamah memberikan pendapat bertulis yang jelas dan boleh dibaca yang menjelaskan dan menyokong keputusan mereka. Untuk model bahasa yang besar, kita juga boleh menggunakan pendekatan yang sama. Walau bagaimanapun, apabila mengambil pendekatan ini, pastikan model bahasa menjana

Pengarang丨Disusun oleh TimAnderson丨Dihasilkan oleh Noah|51CTO Technology Stack (WeChat ID: blog51cto) Projek editor Zed masih dalam peringkat pra-keluaran dan telah menjadi sumber terbuka di bawah lesen AGPL, GPL dan Apache. Editor menampilkan prestasi tinggi dan berbilang pilihan dibantu AI, tetapi pada masa ini hanya tersedia pada platform Mac. Nathan Sobo menjelaskan dalam catatan bahawa dalam asas kod projek Zed di GitHub, bahagian editor dilesenkan di bawah GPL, komponen bahagian pelayan dilesenkan di bawah AGPL dan bahagian GPUI (GPU Accelerated User) The interface) mengguna pakai Lesen Apache2.0. GPUI ialah produk yang dibangunkan oleh pasukan Zed

Tidak lama dahulu, OpenAISora dengan cepat menjadi popular dengan kesan penjanaan video yang menakjubkan Ia menonjol di kalangan ramai model video sastera dan menjadi tumpuan perhatian global. Berikutan pelancaran proses pembiakan inferens latihan Sora dengan pengurangan kos sebanyak 46% 2 minggu lalu, pasukan Colossal-AI telah menggunakan sumber terbuka sepenuhnya model penjanaan video seni bina mirip Sora pertama di dunia "Open-Sora1.0", meliputi keseluruhan proses latihan, termasuk pemprosesan data, semua butiran latihan dan berat model, dan berganding bahu dengan peminat AI global untuk mempromosikan era baharu penciptaan video. Untuk melihat sekilas, mari lihat video bandar yang sibuk yang dihasilkan oleh model "Open-Sora1.0" yang dikeluarkan oleh pasukan Colossal-AI. Buka-Sora1.0

Microsoft dan OpenAI didedahkan akan melabur sejumlah besar wang ke dalam permulaan robot humanoid pada awal tahun ini. Antaranya, Microsoft merancang untuk melabur AS$95 juta, dan OpenAI akan melabur AS$5 juta. Menurut Bloomberg, syarikat itu dijangka mengumpul sejumlah AS$500 juta dalam pusingan ini, dan penilaian pra-wangnya mungkin mencecah AS$1.9 bilion. Apa yang menarik mereka? Mari kita lihat pencapaian robotik syarikat ini terlebih dahulu. Robot ini semuanya berwarna perak dan hitam, dan penampilannya menyerupai imej robot dalam filem fiksyen sains Hollywood: Sekarang, dia meletakkan kapsul kopi ke dalam mesin kopi: Jika ia tidak diletakkan dengan betul, ia akan menyesuaikan dirinya tanpa sebarang kawalan jauh manusia: Walau bagaimanapun, Selepas beberapa ketika, secawan kopi boleh dibawa pergi dan dinikmati: Adakah anda mempunyai ahli keluarga yang mengenalinya Ya, robot ini telah dicipta suatu masa dahulu?

Ollama ialah alat super praktikal yang membolehkan anda menjalankan model sumber terbuka dengan mudah seperti Llama2, Mistral dan Gemma secara tempatan. Dalam artikel ini, saya akan memperkenalkan cara menggunakan Ollama untuk mengvektorkan teks. Jika anda belum memasang Ollama secara tempatan, anda boleh membaca artikel ini. Dalam artikel ini kita akan menggunakan model nomic-embed-text[2]. Ia ialah pengekod teks yang mengatasi prestasi OpenAI text-embedding-ada-002 dan text-embedding-3-small pada konteks pendek dan tugas konteks panjang. Mulakan perkhidmatan nomic-embed-text apabila anda telah berjaya memasang o

Tiba-tiba! OpenAI memecat orang, sebabnya: kebocoran maklumat yang disyaki. Salah satunya ialah Leopold Aschenbrenner, sekutu ketua saintis Ilya yang hilang dan ahli teras pasukan Superalignment. Orang lain juga tidak mudah. Dia ialah Pavel Izmailov, seorang penyelidik dalam pasukan inferens LLM, yang juga bekerja pada pasukan penjajaran super. Tidak jelas maklumat yang dibocorkan oleh kedua-dua lelaki itu. Selepas berita itu didedahkan, ramai netizen menyatakan "agak terkejut": Saya melihat siaran Aschenbrenner tidak lama dahulu dan merasakan bahawa dia semakin meningkat dalam kerjayanya Saya tidak menjangkakan perubahan sedemikian. Sesetengah netizen dalam gambar berfikir: OpenAI kehilangan Aschenbrenner, I
