機械学習はどのようにして臨床試験業務を何百万ドルも節約できるのか
大規模な臨床試験サービスプロバイダーとして、WCG は多くの医薬品や医療機器の市場展開に大きな影響力を持っています。しかし、以前は独立していた 30 社を超える企業が集まっているため、これらのサービスを裏付ける一貫したデータを入手するのは困難です。ここで、Tamr のデータマスタリング ソリューションが役立ちます。
WCG は、臨床サービス組織として、人事や IT から患者エンゲージメントや倫理審査に至るまで、臨床試験のあらゆる側面において製薬会社や機器メーカーを代表しています。は、Crocker や Roche などの大手製薬会社だけでなく、新薬や機器の規制当局の承認を求める数千の中小規模の製薬新興企業や研究グループに重要なサービスを提供しています。
同社が提供していない唯一のサービスは、実際のトライアルの実施です。同社の最高技術責任者兼データ責任者であるアート・モラレス氏は、「私たちはそんなことはしません」と語った。
過去 10 年にわたり、WCG は 35 社の買収を通じて臨床試験業界で収益性の高いニッチ市場を確立してきました。各企業(中には創業 50 年を超える企業もあります)は、臨床試験プロセスの特定の側面を専門としています。これらの企業は、さまざまなビジネス プロセスを自動化する独自のカスタム ソフトウェア アプリケーションを開発し、非常に貴重な知的財産源を提供しています。
異なるシステムを使用することは、個々のビジネスの観点からは理にかなっていますが、すべての子会社業務について一貫したビューを維持したいと考えている WCG にとっては、これが課題となります。
同社は当初、データの不整合を手動で解決しようとしました。約 5 ~ 10 人のチームが 2 年間、35 の子会社が使用する異なるシステムでタイプミス、重複エントリ、その他のデータ エラーを根絶するために取り組みました。クリーンアップされ、標準化されたデータは、クラウド上で実行される WCG データ ウェアハウスに保存され、さまざまな強力な分析エンジンを使用して分析できます。
「私たちが抱えている大きな疑問の 1 つは、ある『ノード』が異なる組織の同じ『ノード』であるとどのように判断するのかということです。」とモラレス氏は説明しました。 「システムによっては、アドレスがある場合もあれば、アドレスがない場合、またはアドレスのスペルが間違っている場合もあります。一部のデータが単に欠落している可能性もあり、非常に多くの不確実性があります。」
なぜならそして、意思決定を 1 つずつ行う必要があるため、データを手動でマスターするプロセスは退屈で時間がかかります。同社はデータをマスターするために数百万ドルを費やしましたが、データには依然として不一致がありました。
モラレス氏は、もっと良い方法があるはずだと気づきました。彼は、機械学習を使用して大規模なデータ セット内の既知のエンティティを自動的に識別するデータ マスタリング ツールである Tamr について聞きました。
機械学習に基づくデータマスタリング
Tamr は 8 年前に誕生したデータ品質ツールで、MIT の有名なコンピューター科学者であるマイク ストーンブレイカーによって行われた学術研究に由来しています。
Stonebraker は、長年にわたるデータ品質の問題を解決するには機械学習が必要であると考えています。ビッグデータの規模になるほど問題はさらに悪化するでしょう。
長年にわたり、このジレンマに対する既定の解決策はマスター データ管理 (MDM) プロジェクトでした。すべてが正しいことを確認するために個々のシステムに依存するのではなく、個々のデータ システムは、データの既知のコピー、いわば「ゴールデン レコード」へのポインターを持ちます。
ゴールデン レコードのアプローチは問題を解決できる、少なくとも彼らはそう考えています。しかし、綿密に練られた計画も、現実に直面すると水泡に帰してしまう危険性があります。これはまさに従来の MDM で起こっていることです。
データのクリーニングと管理を人間に依存するのは無駄です。これではうまくいきません。
この問題に対する Stonebraker の洞察は、インターネットの初期に Google が機械学習を使用して Web サイトを自動的に分類し、Yahoo による手動キュレーションによるインターネットの取り組みを打ち負かしたのと同じように、機械学習を使用してデータを分類することです。
Tamr は、ビジネス システム内のエンティティを認識するようにマシンをトレーニングすることにより、ゴールデン レコードを自動的に作成する方法を発見しました。チームが到達した重要な結論は、限られた選択肢のセットで一貫性を確認するように求められた場合、人々は数十、数百の選択肢を同時に提示された場合よりもはるかに良い結果を出したということでした。
臨床上の黄金記録
WCG の Tamr 試験は 2021 年 5 月に始まりました。一定期間のトレーニングの後、Tamr ソフトウェアは従業員がデータの差異にどのように対処するかを観察し、学習します。
WCG 従業員のチームは Tamr と協力して、データ ウェアハウス内のすべてのデータ ソースを確認し、クレンジングしました。このソフトウェアは、異なるアプリケーションで同じことを意味する 2 つ以上の用語である「クラスター」を識別し、それらをゴールデン レコードとして WCG のクラウド データ ウェアハウスにロードします。
各データ ソースは、データ ウェアハウスにデータをロードする前に、Tamr を通じて実行されます。データ ソースのサイズは、約 50,000 レコードから 100 万レコードを超えるまでの範囲にあり、エンティティごとに約 200 列が含まれる場合があります。問題は量ではなく、複雑さです。 Tamr ツールは、データ マスタリング プロセスを約 4 倍高速化することに加えて、より標準化されたデータを生成するため、ビジネス運営がより明確になります。
「データをクリーンアップすると、よりクリーンなデータを使用して、より優れた運用上の洞察を得ることができるようになります」とモラレス氏は言いました。 「Salesforce とアプリケーションを通じて照合して、これらが正しいかどうかを判断できます。以前は、データがクリーンアップされていない場合、50 パーセントが照合できました。今では 80 パーセントが照合できます。つまり、私たちが行っていることを使用すると、非常に明白な運用上の利点。"
Tamr はすべてのエンティティをクラスターにうまく適合させることができず、人間の専門知識を必要とするいくつかのエッジ ケースが依然として存在します。このような場合、ソフトウェアはオペレータに一致の信頼度が低いことを通知します。しかし、モラレス氏によると、タムル氏は明らかな一致を見つけるのが非常に得意だという。同氏によると、正解率は初日から約95%だったという。
「データマスタリープロジェクトには不一致が存在することを受け入れなければなりません。タイプIとタイプIIのエラーが存在するでしょう」と彼は言いました。 「人間は同じ間違いを犯すので、これらのエラーの原因を追跡できれば良いのですが…。」
さらに、Tamr は、WCG がデータをより深く理解するのに役立ちます。
モラレス氏は、データマスタリングに対する同社の手動アプローチには総額数百万ドルのコストがかかっていたが、Tamr 社のコストは 100 万ドル未満だったと述べました。データ品質の向上を定量化するのは難しいですが、おそらくより重要です。
##
以上が機械学習はどのようにして臨床試験業務を何百万ドルも節約できるのかの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

ホットAIツール

Undresser.AI Undress
リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover
写真から衣服を削除するオンライン AI ツール。

Undress AI Tool
脱衣画像を無料で

Clothoff.io
AI衣類リムーバー

AI Hentai Generator
AIヘンタイを無料で生成します。

人気の記事

ホットツール

メモ帳++7.3.1
使いやすく無料のコードエディター

SublimeText3 中国語版
中国語版、とても使いやすい

ゼンドスタジオ 13.0.1
強力な PHP 統合開発環境

ドリームウィーバー CS6
ビジュアル Web 開発ツール

SublimeText3 Mac版
神レベルのコード編集ソフト(SublimeText3)

ホットトピック









機械学習とデータ サイエンスの分野では、モデルの解釈可能性が常に研究者や実務家に焦点を当ててきました。深層学習やアンサンブル手法などの複雑なモデルが広く適用されるようになったことで、モデルの意思決定プロセスを理解することが特に重要になってきました。 Explainable AI|XAI は、モデルの透明性を高めることで、機械学習モデルに対する信頼と自信を構築するのに役立ちます。モデルの透明性の向上は、複数の複雑なモデルの普及や、モデルを説明するための意思決定プロセスなどの方法によって実現できます。これらの方法には、特徴重要度分析、モデル予測間隔推定、ローカル解釈可能性アルゴリズムなどが含まれます。特徴重要度分析では、入力特徴に対するモデルの影響度を評価することで、モデルの意思決定プロセスを説明できます。モデルの予測間隔の推定

この記事では、学習曲線を通じて機械学習モデルの過学習と過小学習を効果的に特定する方法を紹介します。過小適合と過適合 1. 過適合 モデルがデータからノイズを学習するためにデータ上で過学習されている場合、そのモデルは過適合していると言われます。過学習モデルはすべての例を完璧に学習するため、未確認の新しい例を誤って分類してしまいます。過適合モデルの場合、完璧/ほぼ完璧なトレーニング セット スコアとひどい検証セット/テスト スコアが得られます。若干修正: 「過学習の原因: 複雑なモデルを使用して単純な問題を解決し、データからノイズを抽出します。トレーニング セットとしての小さなデータ セットはすべてのデータを正しく表現できない可能性があるため、2. 過学習の Heru。」

平たく言えば、機械学習モデルは、入力データを予測された出力にマッピングする数学関数です。より具体的には、機械学習モデルは、予測出力と真のラベルの間の誤差を最小限に抑えるために、トレーニング データから学習することによってモデル パラメーターを調整する数学関数です。機械学習には、ロジスティック回帰モデル、デシジョン ツリー モデル、サポート ベクター マシン モデルなど、多くのモデルがあります。各モデルには、適用可能なデータ タイプと問題タイプがあります。同時に、異なるモデル間には多くの共通点があったり、モデル進化の隠れた道が存在したりすることがあります。コネクショニストのパーセプトロンを例にとると、パーセプトロンの隠れ層の数を増やすことで、それをディープ ニューラル ネットワークに変換できます。パーセプトロンにカーネル関数を追加すると、SVM に変換できます。これです

1950 年代に人工知能 (AI) が誕生しました。そのとき、研究者たちは、機械が思考などの人間と同じようなタスクを実行できることを発見しました。その後、1960 年代に米国国防総省は人工知能に資金を提供し、さらなる開発のために研究所を設立しました。研究者たちは、宇宙探査や極限環境での生存など、多くの分野で人工知能の応用を見出しています。宇宙探査は、地球を超えた宇宙全体を対象とする宇宙の研究です。宇宙は地球とは条件が異なるため、極限環境に分類されます。宇宙で生き残るためには、多くの要素を考慮し、予防策を講じる必要があります。科学者や研究者は、宇宙を探索し、あらゆるものの現状を理解することが、宇宙の仕組みを理解し、潜在的な環境危機に備えるのに役立つと信じています。

C++ の機械学習アルゴリズムが直面する一般的な課題には、メモリ管理、マルチスレッド、パフォーマンスの最適化、保守性などがあります。解決策には、スマート ポインター、最新のスレッド ライブラリ、SIMD 命令、サードパーティ ライブラリの使用、コーディング スタイル ガイドラインの遵守、自動化ツールの使用が含まれます。実践的な事例では、Eigen ライブラリを使用して線形回帰アルゴリズムを実装し、メモリを効果的に管理し、高性能の行列演算を使用する方法を示します。

翻訳者 | Li Rui によるレビュー | 今日、人工知能 (AI) および機械学習 (ML) モデルはますます複雑になっており、これらのモデルによって生成される出力はブラックボックスになっており、関係者に説明することができません。 Explainable AI (XAI) は、利害関係者がこれらのモデルがどのように機能するかを理解できるようにし、これらのモデルが実際に意思決定を行う方法を確実に理解できるようにし、AI システムの透明性、信頼性、およびこの問題を解決するための説明責任を確保することで、この問題を解決することを目指しています。この記事では、さまざまな説明可能な人工知能 (XAI) 手法を検討して、その基礎となる原理を説明します。説明可能な AI が重要であるいくつかの理由 信頼と透明性: AI システムが広く受け入れられ、信頼されるためには、ユーザーは意思決定がどのように行われるかを理解する必要があります

機械学習は人工知能の重要な分野であり、明示的にプログラムしなくてもコンピューターにデータから学習して能力を向上させる機能を提供します。機械学習は、画像認識や自然言語処理から、レコメンデーションシステムや不正行為検出に至るまで、さまざまな分野で幅広く応用されており、私たちの生活様式を変えつつあります。機械学習の分野にはさまざまな手法や理論があり、その中で最も影響力のある 5 つの手法は「機械学習の 5 つの流派」と呼ばれています。 5 つの主要な学派は、象徴学派、コネクショニスト学派、進化学派、ベイジアン学派、およびアナロジー学派です。 1. 象徴主義は、象徴主義とも呼ばれ、論理的推論と知識の表現のためのシンボルの使用を強調します。この学派は、学習は既存の既存の要素を介した逆演繹のプロセスであると信じています。

MetaFAIR はハーバード大学と協力して、大規模な機械学習の実行時に生成されるデータの偏りを最適化するための新しい研究フレームワークを提供しました。大規模な言語モデルのトレーニングには数か月かかることが多く、数百、さらには数千の GPU を使用することが知られています。 LLaMA270B モデルを例にとると、そのトレーニングには合計 1,720,320 GPU 時間が必要です。大規模なモデルのトレーニングには、これらのワークロードの規模と複雑さにより、特有のシステム上の課題が生じます。最近、多くの機関が、SOTA 生成 AI モデルをトレーニングする際のトレーニング プロセスの不安定性を報告しています。これらは通常、損失スパイクの形で現れます。たとえば、Google の PaLM モデルでは、トレーニング プロセス中に最大 20 回の損失スパイクが発生しました。数値的なバイアスがこのトレーニングの不正確さの根本原因です。
