


Rang undang-undang kecerdasan buatan baharu Eropah akan mengukuhkan semakan etika
Ketika EU bergerak ke arah melaksanakan Rang Undang-undang Kecerdasan Buatan, isu etika AI seperti berat sebelah, ketelusan dan kebolehjelasan menjadi semakin penting, yang mana Rang Undang-undang itu akan mengawal selia penggunaan kecerdasan buatan dan teknologi pembelajaran mesin merentas semua industri. Pakar AI berkata ini adalah masa yang baik untuk pengguna AI membiasakan diri dengan konsep etika.
Akta Kecerdasan Buatan Eropah versi terbaharu, yang diperkenalkan tahun lepas, sedang bergerak pantas melalui proses semakan dan boleh dilaksanakan seawal 2023. Semasa undang-undang masih dibangunkan, Suruhanjaya Eropah kelihatan bersedia untuk mengorak langkah dalam mengawal selia kecerdasan buatan.
Sebagai contoh, undang-undang akan menetapkan keperluan baharu untuk penggunaan sistem kecerdasan buatan dan melarang kes penggunaan tertentu sepenuhnya. Apa yang dipanggil sistem AI berisiko tinggi, seperti yang digunakan dalam kereta pandu sendiri dan sistem sokongan keputusan untuk pendidikan, imigresen dan pekerjaan, akan memerlukan pengguna menjalankan penilaian impak dan audit aplikasi AI. Sesetengah kes penggunaan AI akan dijejaki rapi dalam pangkalan data, manakala yang lain memerlukan log keluar daripada juruaudit luar sebelum ia boleh digunakan.
Nick Carrel, pengarah perundingan analitik data di EPAM Systems, firma kejuruteraan perisian yang berpangkalan di Newtown, Pa., berkata terdapat keperluan besar untuk ketidakjelasan dan kebolehjelasan sebagai sebahagian daripada penglibatan MLOps atau penglibatan perundingan sains data. . Rang Undang-undang Kecerdasan Buatan EU juga mendorong syarikat untuk mendapatkan pandangan dan jawapan tentang AI beretika, katanya.
"Terdapat banyak permintaan sekarang untuk apa yang dipanggil ML Ops, iaitu sains pengendalian model pembelajaran mesin Kami sangat melihat AI beretika sebagai salah satu asas utama proses ini," kata Carrel. "Kami mempunyai permintaan tambahan daripada pelanggan... sambil mereka mengetahui tentang undang-undang EU yang akan datang mengenai sistem kecerdasan buatan yang akan berkuat kuasa pada akhir tahun ini, dan mereka mahu bersedia
Ketidakjelasan dan kebolehjelasan adalah konsep yang berasingan tetapi berkaitan. Kebolehtafsiran model merujuk kepada sejauh mana manusia boleh memahami dan meramalkan keputusan yang akan dibuat oleh model, manakala kebolehjelasan merujuk kepada kebolehan untuk menerangkan dengan tepat cara model sebenarnya berfungsi. Anda boleh memiliki satu tanpa yang lain, kata Andrey Derevyanka, ketua sains data dan pembelajaran mesin di EPAM Systems.
“Bayangkan anda sedang melakukan beberapa eksperimen, mungkin beberapa eksperimen kimia mencampurkan dua cecair Eksperimen ini terbuka kepada tafsiran kerana, anda melihat apa yang anda lakukan di sini, ditambah dengan item lain dan kami mendapatnya hasilnya,” kata Derevyanka. "Tetapi untuk eksperimen ini boleh ditafsirkan, anda perlu mengetahui tindak balas kimia, anda perlu tahu bagaimana tindak balas dicipta, cara ia berfungsi, dan anda perlu mengetahui butiran dalaman proses itu." Derevyanka berkata, khususnya model pembelajaran mendalam boleh menerangkan tetapi tidak boleh menerangkan situasi tertentu. "Anda mempunyai kotak hitam dan ia berfungsi dengan cara tertentu, tetapi anda tahu anda tidak tahu apa yang ada di dalamnya," katanya. “Tetapi anda boleh menjelaskan: Jika anda memberikan input ini, anda akan mendapat output ini.”
Menghapuskan berat sebelah
Bias ialah satu lagi topik penting dalam hal AI beretika. Adalah mustahil untuk menghapuskan berat sebelah sepenuhnya daripada data, tetapi penting bagi organisasi untuk berusaha untuk menghapuskan berat sebelah daripada model AI, kata Umit Cakmak, ketua data dan amalan AI di EPAM Systems.
"Perkara ini perlu dianalisis dari semasa ke semasa," kata Cakmak. "Ia adalah satu proses kerana berat sebelah dimasukkan ke dalam data sejarah. Tidak ada cara untuk membersihkan berat sebelah daripada data. Jadi sebagai perniagaan, anda perlu menyediakan beberapa proses khusus supaya keputusan anda menjadi lebih baik dari semasa ke semasa, yang akan meningkatkan kualiti data anda dari semasa ke semasa, jadi anda akan menjadi semakin kurang berat sebelah dari semasa ke semasa, Akta SMART akan mengklasifikasikan penggunaan kecerdasan buatan mengikut risiko
Kebolehjelasan adalah penting untuk melibatkan pihak berkepentingan, termasuk juruaudit dalaman atau luaran. serta pelanggan dan eksekutif yang meletakkan reputasi mereka pada risiko Adalah penting untuk mempercayai bahawa model AI tidak akan membuat keputusan yang salah berdasarkan data yang berat sebelah.
Cakmak berkata terdapat banyak contoh dalam literatur tentang bias data yang bocor ke dalam sistem membuat keputusan automatik, termasuk berat sebelah kaum yang muncul dalam model yang digunakan untuk menilai prestasi pekerja atau memilih pemohon pekerjaan daripada resume. Mampu menunjukkan cara model mencapai kesimpulannya adalah penting untuk menunjukkan bahawa langkah telah diambil untuk menghapuskan bias data dalam model.
Cakmak teringat bagaimana kekurangan kebolehjelasan menyebabkan syarikat penjagaan kesihatan meninggalkan sistem AI yang dibangunkan untuk diagnosis kanser. "AI berfungsi sedikit sebanyak, tetapi projek itu dibatalkan kerana mereka tidak dapat membina kepercayaan dan keyakinan dalam algoritma, " katanya. "Jika anda tidak dapat menjelaskan mengapa hasilnya berlaku, maka anda tidak boleh meneruskan rawatan."
Sistem EPAM membantu syarikat melaksanakan kecerdasan buatan dengan cara yang boleh dipercayai. Syarikat itu biasanya mengikut set garis panduan tertentu, bermula dengan cara mengumpul data, kepada cara menyediakan model pembelajaran mesin, kepada cara untuk mengesahkan dan mentafsir model tersebut. Memastikan pasukan AI berjaya melepasi dan mendokumentasikan pemeriksaan ini, atau "pintu kualiti," merupakan elemen penting AI beretika, kata Cakmak.
Akta Etika dan Kecerdasan Buatan
Steven Mills, ketua pegawai etika AI untuk Global GAMMA di Boston Consulting Group, berkata syarikat terbesar dan dikendalikan terbaik sudah menyedari keperluan AI yang bertanggungjawab.
Walau bagaimanapun, apabila Rang Undang-undang AI semakin hampir menjadi undang-undang, kita akan melihat lebih banyak syarikat di seluruh dunia mempercepatkan projek AI yang bertanggungjawab untuk memastikan mereka tidak melanggar persekitaran kawal selia yang berubah-ubah dan jangkaan baharu.
“Terdapat banyak syarikat yang telah mula melaksanakan AI dan menyedari bahawa kami tidak begitu berharap seperti yang kami mahukan tentang semua kemungkinan akibat yang tidak diingini dan kami perlu menanganinya secepat mungkin. mungkin," kata Mills "Ini adalah perkara yang paling penting orang tidak berasa seperti mereka serampangan tentang cara mereka menerapkannya."
Tekanan untuk melaksanakan AI dengan cara yang beretika. bahagian atas organisasi. Dalam sesetengah kes, ia datang daripada pelabur luar yang tidak mahu risiko pelaburan mereka terjejas dengan menggunakan AI dengan cara yang tidak baik, kata Mills.
"Kami melihat trend di mana pelabur, sama ada syarikat awam atau dana teroka, ingin memastikan AI dibina secara bertanggungjawab," katanya "Ia mungkin tidak jelas semua orang, tetapi di sebalik tabir, beberapa VC ini memikirkan di mana mereka meletakkan wang mereka untuk memastikan syarikat pemula ini melakukan perkara dengan cara yang betul." Walaupun butiran Akta Kepintaran Buatan pada masa ini tidak jelas, undang-undang mempunyai berpotensi untuk memberikan kejelasan tentang penggunaan kecerdasan buatan, yang akan memberi manfaat kepada kedua-dua syarikat dan pengguna.
"Reaksi pertama saya ialah ini akan menjadi sangat ketat," kata Carrel, yang melaksanakan model pembelajaran mesin dalam industri perkhidmatan kewangan sebelum menyertai EPAM Systems. "Saya telah cuba menolak sempadan pembuatan keputusan perkhidmatan kewangan selama bertahun-tahun, dan tiba-tiba ada undang-undang yang dikeluarkan yang akan menjejaskan kerja yang kami lakukan.
Tetapi semakin dia melihat perkara yang belum selesai. undang-undang, semakin dia suka apa yang dia lakukan Lihat
“Saya rasa ia juga secara beransur-ansur akan meningkatkan keyakinan orang ramai dalam penggunaan kecerdasan buatan dalam industri yang berbeza,” kata Carrel “Perundangan mengatakan bahawa anda perlu mendaftar tinggi -sistem kecerdasan buatan berisiko di EU Ketahui bahawa di suatu tempat akan ada senarai yang sangat jelas bagi setiap sistem berisiko tinggi AI yang digunakan. Ini memberi banyak kuasa kepada juruaudit, yang bermaksud budak lelaki nakal dan pemain jahat akan dihukum secara beransur-ansur, dan diharapkan dari masa ke masa kami akan mencipta lebih banyak peluang untuk mereka yang ingin menggunakan AI dan pembelajaran mesin untuk tujuan yang lebih baik Orang ramai meninggalkan amalan terbaik. cara yang bertanggungjawab. ”
Atas ialah kandungan terperinci Rang undang-undang kecerdasan buatan baharu Eropah akan mengukuhkan semakan etika. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Alat AI Hot

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool
Gambar buka pakaian secara percuma

Clothoff.io
Penyingkiran pakaian AI

AI Hentai Generator
Menjana ai hentai secara percuma.

Artikel Panas

Alat panas

Notepad++7.3.1
Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina
Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1
Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6
Alat pembangunan web visual

SublimeText3 versi Mac
Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Topik panas

Dalam bidang pembelajaran mesin dan sains data, kebolehtafsiran model sentiasa menjadi tumpuan penyelidik dan pengamal. Dengan aplikasi meluas model yang kompleks seperti kaedah pembelajaran mendalam dan ensemble, memahami proses membuat keputusan model menjadi sangat penting. AI|XAI yang boleh dijelaskan membantu membina kepercayaan dan keyakinan dalam model pembelajaran mesin dengan meningkatkan ketelusan model. Meningkatkan ketelusan model boleh dicapai melalui kaedah seperti penggunaan meluas pelbagai model yang kompleks, serta proses membuat keputusan yang digunakan untuk menerangkan model. Kaedah ini termasuk analisis kepentingan ciri, anggaran selang ramalan model, algoritma kebolehtafsiran tempatan, dsb. Analisis kepentingan ciri boleh menerangkan proses membuat keputusan model dengan menilai tahap pengaruh model ke atas ciri input. Anggaran selang ramalan model

Dalam istilah orang awam, model pembelajaran mesin ialah fungsi matematik yang memetakan data input kepada output yang diramalkan. Secara lebih khusus, model pembelajaran mesin ialah fungsi matematik yang melaraskan parameter model dengan belajar daripada data latihan untuk meminimumkan ralat antara output yang diramalkan dan label sebenar. Terdapat banyak model dalam pembelajaran mesin, seperti model regresi logistik, model pepohon keputusan, model mesin vektor sokongan, dll. Setiap model mempunyai jenis data dan jenis masalah yang berkenaan. Pada masa yang sama, terdapat banyak persamaan antara model yang berbeza, atau terdapat laluan tersembunyi untuk evolusi model. Mengambil perceptron penyambung sebagai contoh, dengan meningkatkan bilangan lapisan tersembunyi perceptron, kita boleh mengubahnya menjadi rangkaian neural yang mendalam. Jika fungsi kernel ditambah pada perceptron, ia boleh ditukar menjadi SVM. yang ini

Artikel ini akan memperkenalkan cara mengenal pasti pemasangan lampau dan kekurangan dalam model pembelajaran mesin secara berkesan melalui keluk pembelajaran. Underfitting dan overfitting 1. Overfitting Jika model terlampau latihan pada data sehingga ia mempelajari bunyi daripadanya, maka model tersebut dikatakan overfitting. Model yang dipasang terlebih dahulu mempelajari setiap contoh dengan sempurna sehingga ia akan salah mengklasifikasikan contoh yang tidak kelihatan/baharu. Untuk model terlampau, kami akan mendapat skor set latihan yang sempurna/hampir sempurna dan set pengesahan/skor ujian yang teruk. Diubah suai sedikit: "Punca overfitting: Gunakan model yang kompleks untuk menyelesaikan masalah mudah dan mengekstrak bunyi daripada data. Kerana set data kecil sebagai set latihan mungkin tidak mewakili perwakilan yang betul bagi semua data. 2. Underfitting Heru

Pada tahun 1950-an, kecerdasan buatan (AI) dilahirkan. Ketika itulah penyelidik mendapati bahawa mesin boleh melakukan tugas seperti manusia, seperti berfikir. Kemudian, pada tahun 1960-an, Jabatan Pertahanan A.S. membiayai kecerdasan buatan dan menubuhkan makmal untuk pembangunan selanjutnya. Penyelidik sedang mencari aplikasi untuk kecerdasan buatan dalam banyak bidang, seperti penerokaan angkasa lepas dan kelangsungan hidup dalam persekitaran yang melampau. Penerokaan angkasa lepas ialah kajian tentang alam semesta, yang meliputi seluruh alam semesta di luar bumi. Angkasa lepas diklasifikasikan sebagai persekitaran yang melampau kerana keadaannya berbeza daripada di Bumi. Untuk terus hidup di angkasa, banyak faktor mesti dipertimbangkan dan langkah berjaga-jaga mesti diambil. Para saintis dan penyelidik percaya bahawa meneroka ruang dan memahami keadaan semasa segala-galanya boleh membantu memahami cara alam semesta berfungsi dan bersedia untuk menghadapi kemungkinan krisis alam sekitar

Cabaran biasa yang dihadapi oleh algoritma pembelajaran mesin dalam C++ termasuk pengurusan memori, multi-threading, pengoptimuman prestasi dan kebolehselenggaraan. Penyelesaian termasuk menggunakan penunjuk pintar, perpustakaan benang moden, arahan SIMD dan perpustakaan pihak ketiga, serta mengikuti garis panduan gaya pengekodan dan menggunakan alat automasi. Kes praktikal menunjukkan cara menggunakan perpustakaan Eigen untuk melaksanakan algoritma regresi linear, mengurus memori dengan berkesan dan menggunakan operasi matriks berprestasi tinggi.

Penterjemah |. Disemak oleh Li Rui |. Chonglou Model kecerdasan buatan (AI) dan pembelajaran mesin (ML) semakin kompleks hari ini, dan output yang dihasilkan oleh model ini adalah kotak hitam – tidak dapat dijelaskan kepada pihak berkepentingan. AI Boleh Dijelaskan (XAI) bertujuan untuk menyelesaikan masalah ini dengan membolehkan pihak berkepentingan memahami cara model ini berfungsi, memastikan mereka memahami cara model ini sebenarnya membuat keputusan, dan memastikan ketelusan dalam sistem AI, Amanah dan akauntabiliti untuk menyelesaikan masalah ini. Artikel ini meneroka pelbagai teknik kecerdasan buatan (XAI) yang boleh dijelaskan untuk menggambarkan prinsip asasnya. Beberapa sebab mengapa AI boleh dijelaskan adalah penting Kepercayaan dan ketelusan: Untuk sistem AI diterima secara meluas dan dipercayai, pengguna perlu memahami cara keputusan dibuat

Potensi aplikasi bahasa Go dalam bidang pembelajaran mesin adalah besar Kelebihannya ialah: Concurrency: Ia menyokong pengaturcaraan selari dan sesuai untuk operasi intensif pengiraan dalam tugas pembelajaran mesin. Kecekapan: Pengumpul sampah dan ciri bahasa memastikan kod itu cekap, walaupun semasa memproses set data yang besar. Kemudahan penggunaan: Sintaksnya ringkas, menjadikannya mudah untuk belajar dan menulis aplikasi pembelajaran mesin.

MetaFAIR bekerjasama dengan Harvard untuk menyediakan rangka kerja penyelidikan baharu untuk mengoptimumkan bias data yang dijana apabila pembelajaran mesin berskala besar dilakukan. Adalah diketahui bahawa latihan model bahasa besar sering mengambil masa berbulan-bulan dan menggunakan ratusan atau bahkan ribuan GPU. Mengambil model LLaMA270B sebagai contoh, latihannya memerlukan sejumlah 1,720,320 jam GPU. Melatih model besar memberikan cabaran sistemik yang unik disebabkan oleh skala dan kerumitan beban kerja ini. Baru-baru ini, banyak institusi telah melaporkan ketidakstabilan dalam proses latihan apabila melatih model AI generatif SOTA Mereka biasanya muncul dalam bentuk lonjakan kerugian Contohnya, model PaLM Google mengalami sehingga 20 lonjakan kerugian semasa proses latihan. Bias berangka adalah punca ketidaktepatan latihan ini,
