Microsoft Bing telah meningkatkan keupayaannya untuk menjana imej daripada teks, dan Adobe turut mengeluarkan Firefly hari ini untuk memasuki permainan AI generatif.
Meriah sungguh malam tadi.
Semasa Nvidia GTC sedang berjalan, Google telah membuka Bard secara rasmi untuk ujian dan Microsoft Bing tidak bersendirian di sini.
Hari ini, Microsoft secara rasmi mengumumkan bahawa enjin carian Bing telah disepadukan ke dalam model DALL·E OpenAI, menambah fungsi imej yang dijana AI.
Dengan kata lain, selepas mengakses ChatGPT, Bing sekali lagi mempertingkatkan Pencipta Imej Bingnya untuk membolehkan pengguna menjana imej menggunakan model DALL·E.
“Bagi pengguna yang mempunyai akses Pratonton Bing, Pencipta Imej Bing akan disepadukan sepenuhnya ke dalam pengalaman sembang Bing, dilancarkan pertama kali dalam mod kreatif,” jelas Yusuf Mehdi, ketua pemasaran pengguna di Microsoft. "Dengan memasukkan perihalan imej, menyediakan konteks tambahan seperti lokasi atau aktiviti, dan memilih gaya seni, Pencipta Imej akan menjana imej berdasarkan imaginasi pengguna." >Bing mempunyai tiga mod Respons: mod kreatif, mod seimbang dan mod tepat. Hasil yang dijana oleh Bing dalam mod Kreatif biasanya "asal dan imaginatif", manakala mod Precise mengutamakan ketepatan dan kaitan untuk jawapan yang lebih jujur dan ringkas. Pada masa ini Image Creator hanya boleh digunakan dalam mod kreatif.
Perlu dinyatakan bahawa walaupun anda tidak mempunyai akses kepada versi pratonton Bing, pengguna masih boleh menggunakan Image Creator sahaja untuk mencuba fungsi penjanaan imejnya dengan mengakses terus bing.com/create, yang pada masa ini hanya menyokong input bahasa Inggeris. Microsoft berkata ia akan menyokong lebih banyak input bahasa dari semasa ke semasa.
Selain itu, Microsoft telah melancarkan Cerita visual dan Kad Pengetahuan 2.0 dikuasakan AI baharu dalam Bing. Kami memperkenalkan secara ringkas kepada anda siri penyelidikan DALL·E mengenai imej jana teks OpenAI. Pada 6 Januari 2021, blog OpenAI mengeluarkan dua rangkaian saraf yang menghubungkan teks dan imej: DALL・E dan CLIP. DALL・E boleh terus menjana imej berdasarkan teks, manakala CLIP boleh melengkapkan pemadanan kategori imej dan teks. Pengeluaran kedua-dua kajian ini telah menimbulkan kebimbangan besar dalam masyarakat. Menurut blog itu, DALL・E boleh menukar sejumlah besar konsep yang dinyatakan dalam bentuk bahasa semula jadi kepada imej yang sesuai Ia boleh dikatakan sebagai versi 12 bilion parameter GPT-3, yang boleh menjana imej berdasarkan penerangan teks. DALL・E Contoh. Memandangkan ayat "kerusi berbentuk alpukat", anda boleh mendapatkan imej kerusi alpukat hijau dengan bentuk yang berbeza. 2 bulan kemudian, kertas dan kod DALL·E telah diumumkan.Alamat projek: https://github.com/openai/DALL-E
Alamat kertas: https://arxiv.org /abs/2102.12092
Alamat kertas: https://cdn.openai.com/papers/dall-e-2.pdf
Kali ini akses Bing DALL・E harus dikemas kini dan diulang. Pada tahap tertentu, ini mengimbangi kekurangan pengalaman ChatGPT semasa dalam penjanaan silang mod. Walau bagaimanapun, apabila keupayaan pelbagai mod GPT-4 dibuka, ia mungkin membawa kita lebih banyak pengalaman baharu.
Akhirnya, terdapat satu lagi AI generatif yang dikeluarkan hari ini yang telah menarik perhatian dan perbincangan di kalangan orang dalam industri. Ketika itulah Adobe mengeluarkan Firefly. Ini ialah satu siri model AI generatif untuk ekspresi kreatif yang membolehkan pengguna mengubah suai imej dengan cepat dengan menaip arahan. Pada masa ini, Firefly telah membuka versi beta, dan pembaca yang berminat boleh memohon untuk mengalaminya.Kini, nampaknya semakin ramai pemain memasuki permainan AI generatif, dan persaingan menjadi semakin sengit.
Atas ialah kandungan terperinci Microsoft Bing dipertingkatkan lagi! Sambung kepada model OpenAI DALL·E untuk menjana imej daripada teks. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!