IT House melaporkan pada 24 Mei bahawa Microsoft melancarkan produk perkhidmatan semakan kandungan yang didorong oleh kecerdasan buatan (AI) - Keselamatan Kandungan AI Azure (Perkhidmatan Keselamatan Kandungan Azure AI), bertujuan untuk mengurangkan risiko rasuah dalam persekitaran komuniti .
Produk ini menyediakan satu siri model AI terlatih yang boleh mengesan kandungan negatif yang berkaitan dengan prasangka, kebencian, keganasan, dsb. dalam gambar atau teks, dan boleh memahami serta mengesan gambar atau teks dalam lapan bahasa sebagai ditandakan Keterukan kandungan dijaringkan untuk menunjukkan kepada pengulas manusia kandungan yang memerlukan tindakan.
▲ Laman web rasmi Azure sumber gambar
Perkhidmatan keselamatan kandungan Azure AI dibina dalam perkhidmatan Azure OpenAI dan terbuka kepada pembangun pihak ketiga, menyokong lapan bahasa termasuk Inggeris, Sepanyol, Jerman, Perancis, Cina, Jepun, Portugis dan Itali. Perkhidmatan Azure OpenAI ialah tawaran perkhidmatan tertumpu kepada perusahaan yang diuruskan oleh Microsoft yang menyediakan perusahaan akses kepada teknologi AI Lab OpenAI dan keupayaan tadbir urus tambahan. Berbanding dengan produk lain yang serupa, perkhidmatan keselamatan kandungan Azure AI boleh lebih memahami kandungan teks dan latar belakang budaya, serta lebih tepat apabila memproses data dan kandungan.
Microsoft berkata berbanding produk lain yang serupa, produk ini mempunyai peningkatan ketara dalam konteks kesaksamaan dan pemahaman, tetapi produk ini masih perlu bergantung pada penyemak manusia untuk menandakan data dan kandungan. Ini bermakna bahawa akhirnya keadilannya bergantung kepada manusia. Walaupun semasa memproses data dan menyemak kandungan, penyemak manusia mungkin mempunyai berat sebelah peribadi, jadi berkecuali dan berhemat tidak dapat dicapai sepenuhnya.
Apabila menangani isu yang melibatkan persepsi visual pembelajaran mesin, pada tahun 2015, perisian pengecaman imej AI Google melabelkan orang berwarna (hitam) sebagai orang utan, yang menyebabkan kontroversi besar. Lapan tahun kemudian, gergasi teknologi hari ini masih bimbang tentang "ketepatan politik" "mengulangi kesilapan masa lalu." Awal bulan ini, Ketua Pegawai Eksekutif OpenAI Sam Altman menyeru kerajaan untuk mengawal selia kecerdasan buatan (AI) pada pendengaran jawatankuasa kecil Senat A.S. Beliau menekankan potensi kesilapan dalam teknologi ini dan akibatnya yang serius, yang boleh menyebabkan kerosakan besar di seluruh dunia. IT House mengingatkan kita bahawa walaupun teknologi kecerdasan buatan yang paling canggih mungkin digunakan secara berniat jahat atau tidak betul, jadi adalah penting untuk mengawal selia dan mengawal kecerdasan buatan.
Atas ialah kandungan terperinci Microsoft melancarkan Azure AI Content Safety, yang secara automatik boleh mengesan kandungan dalam talian negatif seperti. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!