


Bagaimana pembelajaran mesin boleh menjimatkan operasi percubaan klinikal berjuta-juta dolar
Sebagai penyedia perkhidmatan percubaan klinikal yang besar, WCG mempunyai pengaruh yang besar pada laluan pasaran bagi banyak ubat dan peranti perubatan. Tetapi sebagai koleksi lebih daripada 30 syarikat yang dahulunya bebas, sukar untuk mendapatkan data yang konsisten untuk menyokong perkhidmatan ini. Di sinilah penyelesaian penguasaan data Tamr membantu.
Sebagai organisasi perkhidmatan klinikal, WCG mengendalikan semua aspek ujian klinikal bagi pihak syarikat farmaseutikal dan pengeluar peranti, daripada sumber manusia dan IT kepada penglibatan pesakit dan semakan etika, untuk lalai Ia menyediakan perkhidmatan kritikal kepada syarikat gergasi farmaseutikal seperti Crocker dan Roche, serta kepada beribu-ribu syarikat permulaan farmaseutikal bersaiz kecil dan sederhana serta kumpulan penyelidikan yang mendapatkan kelulusan kawal selia untuk ubat dan peranti baharu.
Satu-satunya perkhidmatan yang tidak ditawarkan oleh syarikat ialah menjalankan percubaan sebenar. "Kami tidak berbuat demikian," kata Art Morales, ketua pegawai teknologi dan pegawai data syarikat itu.
Sepanjang dekad yang lalu, WCG telah mewujudkan niche yang menguntungkan dalam industri ujian klinikal melalui pengambilalihan 35 syarikat. Setiap syarikat—sesetengahnya berusia lebih daripada 50 tahun—mengkhususkan diri dalam aspek tertentu dalam proses percubaan klinikal. Syarikat-syarikat ini membangunkan aplikasi perisian tersuai mereka sendiri untuk mengautomasikan pelbagai proses perniagaan mereka, menyediakan sumber harta intelek yang sangat berharga.
Mempunyai sistem yang berbeza masuk akal dari perspektif setiap perniagaan individu, tetapi ini menimbulkan cabaran bagi WCG, yang ingin mengekalkan pandangan yang konsisten terhadap semua operasi anak syarikat.
Syarikat pada mulanya cuba menyelesaikan ketidakkonsistenan data secara manual. Satu pasukan yang terdiri daripada kira-kira lima hingga 10 orang bekerja selama dua tahun untuk menghapuskan kesilapan silap, entri pendua dan ralat data lain dalam sistem berbeza yang digunakan oleh 35 anak syarikat. Data yang telah dibersihkan dan diseragamkan disimpan dalam gudang data WCG yang berjalan di awan, di mana ia boleh dianalisis menggunakan pelbagai enjin analisis yang berkuasa.
"Salah satu soalan besar yang kami ada ialah, bagaimana anda menentukan bahawa 'nod' adalah 'nod' yang sama dalam organisasi yang berbeza?" "Dalam sesetengah sistem, mungkin terdapat atau mungkin tiada alamat, atau alamat mungkin dieja dengan salah. Sesetengah data mungkin hilang, dan terdapat banyak ketidakpastian." perlu dibuat satu persatu, proses menguasai data secara manual adalah membosankan dan memakan masa. Syarikat itu membelanjakan berjuta-juta dolar untuk menguasai data, tetapi masih terdapat ketidakkonsistenan dalam data.
Morales sedar mesti ada cara yang lebih baik. Dia mendengar tentang Tamr, alat penguasaan data yang menggunakan pembelajaran mesin untuk mengenal pasti entiti yang diketahui secara automatik dalam set data yang besar.
Penguasaan data berdasarkan pembelajaran mesin
Tamr ialah alat kualiti data yang dilahirkan lapan tahun lalu dan berasal daripada penyelidikan akademik yang dijalankan oleh Mike Stonebraker, seorang saintis komputer terkenal di MIT.
Menurut Anthony Deighton, bekas eksekutif Qlik lama yang kini ketua pegawai produk Tamr, Stonebraker percaya bahawa pembelajaran mesin adalah perlu untuk menyelesaikan isu kualiti data yang berlarutan yang Ia akan menjadi lebih teruk pada skala data besar.
Selama bertahun-tahun, penyelesaian yang ditetapkan untuk dilema ini ialah projek Pengurusan Data Induk (MDM). Daripada bergantung pada setiap sistem individu untuk memastikan semuanya betul, sistem data individu akan mempunyai penunjuk kepada salinan data yang diketahui—"rekod emas", boleh dikatakan.
Pendekatan Rekod Emas boleh menyelesaikan masalah, sekurang-kurangnya itulah yang mereka fikirkan. Walau bagaimanapun, rancangan terbaik berisiko bertukar menjadi habuk sebaik sahaja ia menghadapi realiti. Inilah yang berlaku dengan MDM tradisional.
Bergantung kepada manusia untuk membersihkan dan mengurus data adalah sia-sia. Ini tidak akan berfungsi.
Pemahaman Stonebraker tentang masalah ini ialah menggunakan pembelajaran mesin untuk mengklasifikasikan data, sama seperti Google menggunakan pembelajaran mesin untuk mengklasifikasikan tapak web secara automatik pada hari-hari awal internet, mengalahkan usaha Internet penyusunan manual Yahoo.
Dengan melatih mesin untuk mengenali entiti dalam sistem perniagaan, Tamr menemui cara untuk mencipta rekod emas secara automatik. Kesimpulan utama yang dicapai oleh pasukan ialah apabila orang diminta untuk mengesahkan konsistensi dengan set pilihan yang terhad, mereka melakukan lebih baik daripada apabila mereka dibentangkan dengan berpuluh-puluh atau beratus-ratus pilihan secara serentak.
Rekod Emas Secara Klinikal
Percubaan Tamr WCG bermula pada Mei 2021. Selepas tempoh latihan, perisian Tamr memerhati dan mempelajari cara pekerja menangani perbezaan data.
Sepasukan kakitangan WCG bekerjasama dengan Tamr untuk menyemak dan membersihkan semua sumber data dalam gudang data. Perisian ini mengenal pasti "kluster", dua atau lebih istilah yang bermaksud perkara yang sama dalam aplikasi yang berbeza, dan memuatkannya sebagai rekod emas dalam gudang data awan WCG.
Setiap sumber data dijalankan melalui Tamr sebelum memuatkan data ke dalam gudang data. Sumber data berkisar dalam saiz daripada kira-kira 50,000 rekod hingga lebih 1 juta rekod, dan setiap entiti mungkin mempunyai sekitar 200 lajur. Masalahnya bukan kuantiti, tetapi kerumitan. Selain mempercepatkan proses penguasaan data dengan lebih kurang 4x, alat Tamr menghasilkan lebih banyak data yang standard, yang bermakna lebih jelas untuk operasi perniagaan.
"Apabila anda membersihkan data, kini anda boleh menggunakan data yang lebih bersih untuk mendapatkan cerapan operasi yang lebih baik," kata Morales. "Kami boleh memadankan melalui Salesforce dan aplikasi kami untuk mengetahui ini adalah perkara yang betul. Sebelum ini, jika data tidak dibersihkan, anda akan memadankan 50 peratus. Kini kami boleh memadankan 80 peratus. Jadi, menggunakan perkara yang kami lakukan Perkara mempunyai manfaat operasi yang sangat jelas ”
Tamr tidak boleh berjaya memadankan semua entiti ke dalam kelompok, masih terdapat beberapa kes kelebihan yang memerlukan kepakaran manusia. Dalam kes ini, perisian memberitahu pengendali bahawa ia mempunyai keyakinan yang rendah dalam perlawanan. Tetapi menurut Morales, Tamr sangat pandai mencari padanan yang jelas. Beliau berkata kadar ketepatan adalah kira-kira 95% dari hari pertama.
"Anda perlu menerima bahawa dengan mana-mana projek penguasaan data akan ada ketidakpadanan. Akan ada ralat Jenis I dan Jenis II," katanya. "Alangkah baiknya jika anda dapat mengesan sumber ralat ini daripada... kerana manusia melakukan kesilapan yang sama."
Selain itu, Tamr membantu WCG memahami datanya dengan lebih baik.
Morales berkata pendekatan manual syarikat terhadap penguasaan data menelan belanja berjuta-juta dolar secara keseluruhan, manakala kos Tamr kurang daripada $1 juta. Penambahbaikan dalam kualiti data adalah lebih sukar untuk diukur, tetapi boleh dikatakan lebih penting.
Atas ialah kandungan terperinci Bagaimana pembelajaran mesin boleh menjimatkan operasi percubaan klinikal berjuta-juta dolar. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Alat AI Hot

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool
Gambar buka pakaian secara percuma

Clothoff.io
Penyingkiran pakaian AI

AI Hentai Generator
Menjana ai hentai secara percuma.

Artikel Panas

Alat panas

Notepad++7.3.1
Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina
Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1
Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6
Alat pembangunan web visual

SublimeText3 versi Mac
Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Topik panas



Dalam bidang pembelajaran mesin dan sains data, kebolehtafsiran model sentiasa menjadi tumpuan penyelidik dan pengamal. Dengan aplikasi meluas model yang kompleks seperti kaedah pembelajaran mendalam dan ensemble, memahami proses membuat keputusan model menjadi sangat penting. AI|XAI yang boleh dijelaskan membantu membina kepercayaan dan keyakinan dalam model pembelajaran mesin dengan meningkatkan ketelusan model. Meningkatkan ketelusan model boleh dicapai melalui kaedah seperti penggunaan meluas pelbagai model yang kompleks, serta proses membuat keputusan yang digunakan untuk menerangkan model. Kaedah ini termasuk analisis kepentingan ciri, anggaran selang ramalan model, algoritma kebolehtafsiran tempatan, dsb. Analisis kepentingan ciri boleh menerangkan proses membuat keputusan model dengan menilai tahap pengaruh model ke atas ciri input. Anggaran selang ramalan model

Artikel ini akan memperkenalkan cara mengenal pasti pemasangan lampau dan kekurangan dalam model pembelajaran mesin secara berkesan melalui keluk pembelajaran. Underfitting dan overfitting 1. Overfitting Jika model terlampau latihan pada data sehingga ia mempelajari bunyi daripadanya, maka model tersebut dikatakan overfitting. Model yang dipasang terlebih dahulu mempelajari setiap contoh dengan sempurna sehingga ia akan salah mengklasifikasikan contoh yang tidak kelihatan/baharu. Untuk model terlampau, kami akan mendapat skor set latihan yang sempurna/hampir sempurna dan set pengesahan/skor ujian yang teruk. Diubah suai sedikit: "Punca overfitting: Gunakan model yang kompleks untuk menyelesaikan masalah mudah dan mengekstrak bunyi daripada data. Kerana set data kecil sebagai set latihan mungkin tidak mewakili perwakilan yang betul bagi semua data. 2. Underfitting Heru

Dalam istilah orang awam, model pembelajaran mesin ialah fungsi matematik yang memetakan data input kepada output yang diramalkan. Secara lebih khusus, model pembelajaran mesin ialah fungsi matematik yang melaraskan parameter model dengan belajar daripada data latihan untuk meminimumkan ralat antara output yang diramalkan dan label sebenar. Terdapat banyak model dalam pembelajaran mesin, seperti model regresi logistik, model pepohon keputusan, model mesin vektor sokongan, dll. Setiap model mempunyai jenis data dan jenis masalah yang berkenaan. Pada masa yang sama, terdapat banyak persamaan antara model yang berbeza, atau terdapat laluan tersembunyi untuk evolusi model. Mengambil perceptron penyambung sebagai contoh, dengan meningkatkan bilangan lapisan tersembunyi perceptron, kita boleh mengubahnya menjadi rangkaian neural yang mendalam. Jika fungsi kernel ditambah pada perceptron, ia boleh ditukar menjadi SVM. yang ini

Pada tahun 1950-an, kecerdasan buatan (AI) dilahirkan. Ketika itulah penyelidik mendapati bahawa mesin boleh melakukan tugas seperti manusia, seperti berfikir. Kemudian, pada tahun 1960-an, Jabatan Pertahanan A.S. membiayai kecerdasan buatan dan menubuhkan makmal untuk pembangunan selanjutnya. Penyelidik sedang mencari aplikasi untuk kecerdasan buatan dalam banyak bidang, seperti penerokaan angkasa lepas dan kelangsungan hidup dalam persekitaran yang melampau. Penerokaan angkasa lepas ialah kajian tentang alam semesta, yang meliputi seluruh alam semesta di luar bumi. Angkasa lepas diklasifikasikan sebagai persekitaran yang melampau kerana keadaannya berbeza daripada di Bumi. Untuk terus hidup di angkasa, banyak faktor mesti dipertimbangkan dan langkah berjaga-jaga mesti diambil. Para saintis dan penyelidik percaya bahawa meneroka ruang dan memahami keadaan semasa segala-galanya boleh membantu memahami cara alam semesta berfungsi dan bersedia untuk menghadapi kemungkinan krisis alam sekitar

Cabaran biasa yang dihadapi oleh algoritma pembelajaran mesin dalam C++ termasuk pengurusan memori, multi-threading, pengoptimuman prestasi dan kebolehselenggaraan. Penyelesaian termasuk menggunakan penunjuk pintar, perpustakaan benang moden, arahan SIMD dan perpustakaan pihak ketiga, serta mengikuti garis panduan gaya pengekodan dan menggunakan alat automasi. Kes praktikal menunjukkan cara menggunakan perpustakaan Eigen untuk melaksanakan algoritma regresi linear, mengurus memori dengan berkesan dan menggunakan operasi matriks berprestasi tinggi.

Penterjemah |. Disemak oleh Li Rui |. Chonglou Model kecerdasan buatan (AI) dan pembelajaran mesin (ML) semakin kompleks hari ini, dan output yang dihasilkan oleh model ini adalah kotak hitam – tidak dapat dijelaskan kepada pihak berkepentingan. AI Boleh Dijelaskan (XAI) bertujuan untuk menyelesaikan masalah ini dengan membolehkan pihak berkepentingan memahami cara model ini berfungsi, memastikan mereka memahami cara model ini sebenarnya membuat keputusan, dan memastikan ketelusan dalam sistem AI, Amanah dan akauntabiliti untuk menyelesaikan masalah ini. Artikel ini meneroka pelbagai teknik kecerdasan buatan (XAI) yang boleh dijelaskan untuk menggambarkan prinsip asasnya. Beberapa sebab mengapa AI boleh dijelaskan adalah penting Kepercayaan dan ketelusan: Untuk sistem AI diterima secara meluas dan dipercayai, pengguna perlu memahami cara keputusan dibuat

Pembelajaran mesin ialah cabang penting kecerdasan buatan yang memberikan komputer keupayaan untuk belajar daripada data dan meningkatkan keupayaan mereka tanpa diprogramkan secara eksplisit. Pembelajaran mesin mempunyai pelbagai aplikasi dalam pelbagai bidang, daripada pengecaman imej dan pemprosesan bahasa semula jadi kepada sistem pengesyoran dan pengesanan penipuan, dan ia mengubah cara hidup kita. Terdapat banyak kaedah dan teori yang berbeza dalam bidang pembelajaran mesin, antaranya lima kaedah yang paling berpengaruh dipanggil "Lima Sekolah Pembelajaran Mesin". Lima sekolah utama ialah sekolah simbolik, sekolah sambungan, sekolah evolusi, sekolah Bayesian dan sekolah analogi. 1. Simbolisme, juga dikenali sebagai simbolisme, menekankan penggunaan simbol untuk penaakulan logik dan ekspresi pengetahuan. Aliran pemikiran ini percaya bahawa pembelajaran adalah proses penolakan terbalik, melalui sedia ada

MetaFAIR bekerjasama dengan Harvard untuk menyediakan rangka kerja penyelidikan baharu untuk mengoptimumkan bias data yang dijana apabila pembelajaran mesin berskala besar dilakukan. Adalah diketahui bahawa latihan model bahasa besar sering mengambil masa berbulan-bulan dan menggunakan ratusan atau bahkan ribuan GPU. Mengambil model LLaMA270B sebagai contoh, latihannya memerlukan sejumlah 1,720,320 jam GPU. Melatih model besar memberikan cabaran sistemik yang unik disebabkan oleh skala dan kerumitan beban kerja ini. Baru-baru ini, banyak institusi telah melaporkan ketidakstabilan dalam proses latihan apabila melatih model AI generatif SOTA Mereka biasanya muncul dalam bentuk lonjakan kerugian Contohnya, model PaLM Google mengalami sehingga 20 lonjakan kerugian semasa proses latihan. Bias berangka adalah punca ketidaktepatan latihan ini,
