生成 AI は企業に革新的な機会をもたらしますが、この新しい時代では、上級管理者はコードの品質を確保し、技術的なコストを削減するために生成 AI の適用に細心の注意を払う必要があります。リスク。経営者は、AI ソリューションの信頼性とセキュリティを慎重に評価し、潜在的な問題をタイムリーに検出して修正するための効果的な監視手段を開発する必要があります。厳格な技術標準と監視メカニズムを確立することで、企業は生成 AI をより効果的に活用して組織を初期段階で変革し、IT 戦略に大きな影響を与えることができます。大規模な言語モデルはエンジニアリングの俊敏性を高めますが、技術的負債の問題も引き起こします。 Red Monk の主席アナリスト兼共同創設者である Stephen O'Grady 氏は、「生成システムはコード生成の速度を上げ、技術的負債の蓄積につながる可能性があります。」
しかし、これを止めるべきではありません。 Salesforce の上級副社長兼最高情報責任者である Juan Perez 氏は、CIO は AI の検討と導入に携わっていたと付け加えました。彼は AI を、適切なガバナンス、セキュリティ管理、メンテナンスとサポート、ライフサイクル管理を必要とするアプリケーションであると考えています。 AI 製品の数が増え続ける中、AI の旅をサポートするには最適なモデルと基礎となるデータを選択することが重要であると同氏は述べました。
正しく適用されれば、生成 AI はより低コストで高品質の製品を生産できます。ウォルグリーン・ブーツ・アライアンスの最高情報責任者のニール・サンプル氏は、「AIがビジネス全体にプラスの影響を与えるかどうかが問題ではなく、影響の程度とスピードが問題だ」と述べ、責任あるAI開発を推進することが重要だと強調した。 、政府の規制とコーポレートガバナンスは最も重要です、それは重要です。
生成 AI: IT 戦略の中心
AI は、ノーコード自動化プラットフォーム会社 Workato の CIO である Carter Busse 氏にとって、今年の IT 戦略の中心です。しかし、AIの可能性はIT分野に限定されるものではなく、顧客サポートや生産性の向上、部門横断的なイノベーションの促進などにも活用できます。 Busse 氏は、「CIO の使命はビジネスの効率的な発展をサポートすることであり、AI は当社が前進するための重要な手段です。」 AI は部門間の業務を大幅に促進し、企業にさらなる価値を生み出し、組織の全体的な発展。
つまり、最新の AI の波の恩恵を受けるのはコード生成だけではありません。クラウドデータウェアハウス会社スノーフレークの最高情報責任者兼最高データ責任者であるサニー・ベディ氏は、従業員の生産性が最も影響を受けていると述べた。同氏は、将来的には全従業員が AI アシスタントと緊密に連携して、新入社員のオンボーディング エクスペリエンスをパーソナライズし、社内コミュニケーションを調整し、革新的なアイデアのプロトタイプを作成するようになるだろうと予測しています。同氏は、大規模言語モデルのすぐに使える機能を活用することで、企業は検索、文書抽出、コンテンツの作成とレビュー、チャットボットなどの業務におけるサードパーティへの依存を減らすこともできると付け加えた。
生成 AI モデルは IT 負債の主な原因ではなく、むしろその適用方法です。 「組織に AI を実装するために選択する側面と実装方法は、技術的負債の発生を避けるために慎重に検討する必要があります。」とサンプル氏は述べ、さらに AI モデルを既存のテクノロジー エコシステムに適用する場合は次のように指摘しました (たとえば、レガシーを使用する場合、接続の変更と生成 AI のスタックへの統合を同時に行うと、技術的負債が蓄積するリスクが高まります。
一方、生成 AI は、正しく使用すれば、レガシー アプリケーションを書き換えたり、バックログ タスクを自動化したりすることで、古い技術的負債を解消するのに役立ちます。とはいえ、CIO は適切なクラウド環境と戦略なしに飛びつくべきではありません。 「組織が生成 AI を導入するのが早すぎると、既存の技術的負債が増大し続けるか、場合によっては長期的な技術的負債になる可能性があります」と、エンタープライズ管理ソフトウェア スイート OnBase を開発するハイランド社の最高情報責任者、スティーブ ワット氏は述べています。 。そこで同氏は、AIを活用した新たな取り組みが崩壊しないように、既存の技術的負債に対処する計画を立てることを推奨している。
当初、企業は AI や大規模な言語モデルを実験するにつれて IT 負債が増加する可能性があります。しかしブッセ氏は、長期的には大規模な言語モデルが負債を減らすだろうと信じているが、それは変化するニーズに動的に対応する AI の能力に依存している。 「AI をビジネス プロセスに組み込むことで、プロセスの変化に迅速に適応できるようになり、技術的負債が削減されます。」と彼は言いました。
最近、AI アシスタントの出現以来、コードの変更とコードの再利用が増加していることが報告書で指摘され、AI によって生成されたコードの品質について疑問が生じています。 Red Monk の O’Grady 氏は、AI によって生成されるコードの品質は、デプロイされたモデル、当面のユースケース、開発者のスキルなど、多くの要因によって左右されると述べました。 「人間の開発者と同じように、AI システムも欠陥のあるコードを出力しており、今後もそうし続けるでしょう。」 たとえば、Sonar の Malagodi 氏は、22 のモデルを調査したところ、これらのモデルは一般にベンチマークでのパフォーマンスが低いことが判明したと評価した最近の Microsoft Research の調査を引用しました。 、トレーニング設定における根本的な盲点を示唆しています。レポートでは、AI アシスタントは機能的なコードを生成できますが、コーディング規約の遵守はもちろんのこと、機能的な正確性を必ずしも超えて、効率、セキュリティ、保守性などの他のコンテキストも考慮できるわけではないと説明しています。
マラゴディ氏は、この分野にはまだ改善の余地がたくさんあると考えています。 「生成 AI はより多くのコード行をより速く生成できますが、品質が良くない場合、プロセスに非常に時間がかかる可能性があります。」と同氏は述べ、CIO と CTO に対し、AI によって生成されたコードが確実に安全であることを保証するために必要な措置を講じるよう求めました。クリーン。 「これは、AI によって生成されたコードが一貫性があり、意図的で、適応性があり、責任があることを意味します。その結果、安全で、保守可能で、信頼性が高く、アクセス可能なソフトウェアが得られます。」
これらのモデルの根幹 品質の問題がコード出力に悪影響を与える可能性がある。クラウドテクノロジーインテリジェンスプラットフォームSnow Softwareの最高情報責任者であるアラステア・プーリー氏は、生成AIは優れた技術的結果を生み出す可能性があるものの、データ品質、モデルアーキテクチャ、トレーニング手順によっては不十分な結果が生じる可能性があると述べた。 「トレーニングが不十分なモデルや予期せぬエッジケースは、出力品質の低下をもたらし、運用上のリスクをもたらし、システムの信頼性を損なう可能性があります。これらすべてにおいて、出力と品質の継続的なレビューと検証が必要です」と同氏は述べています。
Palo Alto Networks の Rajavel 氏は、AI は他のツールと同様であり、結果は使用するツールとその使用方法によって異なると付け加えました。彼女にとって、適切な AI ガバナンスがなければ、選択したモデルは製品アーキテクチャや期待される結果と一致しない低品質の成果物を生み出す可能性があります。彼女は、万能のモデルは存在しないため、もう 1 つの重要な要素は、目の前の仕事にどの AI を選択するかであると付け加えました。
潜在的な AI リスクのリスト
1 つの側面は、悪意のある個人が生成 AI を使用して攻撃を開始するということです。ラジャベル氏は、生成型AIは説得力のあるフィッシングキャンペーンを立案し、偽情報を広めることができるため、サイバー犯罪者がこのテクノロジーを利用して大規模な攻撃を実行し始めていると指摘した。攻撃者は生成 AI ツールやモデル自体を標的にして、データ漏洩やコンテンツ出力の汚染を引き起こす可能性もあります。
O'Grady 氏は次のように述べています:「生成システムには攻撃を加速し支援する可能性がありますが、おそらく多くの企業にとっての最大の懸念は、クローズド ベンダー システムからの個人データの漏洩です。」
Theseこれらの手法を使用すると、非常に説得力のある結果が得られますが、その結果にはエラーが含まれる場合もあります。モデルのエラーに加えてコストへの影響も考慮する必要があり、間違ったモデルを使用したり、消費コストを理解していなかったりすることにより、知らず知らずのうちに、または不必要に AI に多額の費用を費やすことが簡単にありますが、依然として効果的に活用されていません。
ペレス氏は次のように述べています。「AI にはリスクがないわけではありません。最も基本的なユーザーから最も一般的なユーザーまで、誰もがその結果を信頼できるようにするには、人間があらゆる領域を制御してゼロから構築する必要があります」ペレス氏にとってのもう 1 つの未解決の問題は、AI の開発とメンテナンスの所有権であり、多くの IT 従業員が AI モデルとアルゴリズムを実装してトレーニングする時間がないため、IT チームにはイノベーションの需要に対応するというプレッシャーもかかっています。
次に、主流メディアの注目を集める結果があります。それは、AI が人間の労働力に取って代わることです。しかし、生成 AI が IT 業界の雇用にどのような影響を与えるかはまだわかっていません。 「現時点で雇用への影響を予測するのは困難であり、潜在的な懸念だ」とオグラディ氏は語った。
この議論には間違いなく複数の視点がありますが、ウォルグリーンのサンプルは、AI が人類に存亡の脅威をもたらすとは考えていません。むしろ、彼は労働者の生活を改善する生成 AI の可能性について楽観的です。同氏は、「AIが多くの仕事に影響を与えるという否定的な見方があるが、AIが人間をより良くするという肯定的な見方がある。最終的には、AIによって、自動化できる反復作業を人間が行う必要がなくなると思う」と述べた。
AI による不安を軽減する方法はたくさんあります。ペレス氏にとって、生成 AI の品質は、これらのモデルが取り込むデータに依存します。 「高品質で信頼できる AI が必要な場合は、高品質で信頼できるデータが必要です。しかし問題は、データには多くの場合エラーが含まれており、さまざまなソースやさまざまな形式のデータを統合するツールが必要であることです」と同氏は述べています。 . 非構造化データ。彼はまた、単に「ゲームに参加している」だけではなく、人間をもっと運転席に座らせることも強調した。 「私は AI を信頼できるアドバイザーだと考えていますが、唯一の意思決定者ではないと考えています。」
ソフトウェアの品質を維持するには、AIが生成したコードが正しいかどうかを確認する厳しいテストも必要です。この目的を達成するために、マラゴディ氏は企業に対し、静的分析や単体テストなどの「コードクリーン」アプローチを採用し、適切な品質チェックを確保することを推奨しています。 「開発者がクリーン コードのベスト プラクティスに重点を置くと、コードとソフトウェアが安全で、保守可能で、信頼性が高く、アクセスしやすいものであると確信できます。」
Bedi 氏はさらに、どのような新しいテクノロジでも同じように、最初の熱意は次のとおりです。適切な注意を払って調整してください。したがって、IT リーダーは、アーキテクチャのドリフトを検出し、アプリケーションのニーズへの準備をサポートできる可観測性ツールなどの AI アシスタントを効果的に使用する手順を検討する必要があります。
プーリー氏は次のように述べています:「生成 AI は技術進歩の新時代を表しており、正しく管理されれば大きな利益をもたらす可能性があります。しかし、彼は次のように示唆しました。 CIO は、イノベーションと固有のリスクのバランスを取る必要があります。特に、これらのツールの管理されていない使用によって引き起こされるデータ侵害を制限するための管理と利用ガイドラインを導入する必要性が重要です。 「多くの技術的機会と同様、CIO は何か問題が発生した場合に責任を負わされることになります。」
サンプルの場合、規制当局には AI が社会にもたらすリスクに完全に対処する責任があります。一例として、同氏はバイデン政権が新たなAI安全基準を確立するために発令した最近の大統領令を挙げた。もう 1 つの側面は、このペースの速いテクノロジーを管理するための企業ガイドラインの開発を率先して行うことです。たとえば、ウォルグリーンズは、公平性、透明性、セキュリティ、説明可能性などの考慮事項を含む AI に関するガバナンス フレームワークの開発を開始しました。
Workato の Busse 氏は、セキュリティとガバナンスを優先する内部指令を開発することも提唱しています。同氏は、従業員のトレーニング、社内ハンドブックの開発、AI 実験の承認プロセスの導入を推奨しました。プーリー氏は、多くの企業がリスクに対処し、生成 AI のメリットを活用するために AI ワーキング グループを設立していると指摘しました。セキュリティを重視する一部の組織は、より厳格な対策を講じています。オグラディ氏は、浸透を防ぐために、多くの購入者は依然としてオンプレミス システムを優先するだろうと付け加えた。
「CIO は、組織に利益をもたらす方法で生成 AI を特定、構築、実装、使用するための適切なトレーニングとスキルをチームが確実に身につけられるよう、主導権を握る必要があります」とペレス氏は Salesforce のサービスとエンジニアリング チームについて説明しました。は、この強力なテクノロジーの使用に伴うリスクを最小限に抑えるために、AI の入力と出力の間に信頼層を構築しています。
とはいえ、AI の意図的な導入とそのガバナンスも同様に重要です。ハイランドのワット氏は、「組織は、AIが何をするのか、そしてどのようにビジネスに最大限の利益をもたらすのかについて明確なアイデアを持たずに、AIの導入を急いでいる。AIがすべての問題を解決するわけではないため、そのテクノロジーがどの問題を解決できるのかを理解することが重要である」と述べた。問題の解決策を最大限に高める方法を知るには、解決できる問題、および解決できない問題は何かを知ることが重要です。
適切に検討すれば、生成 AI は無数の分野で俊敏性を向上させることができ、CIO は生成 AI がユーザー エクスペリエンスなどの具体的なビジネス成果を達成するために使用されることを期待しています。ペレス氏は、「ジェネレーティブ AI により、企業はかつては不可能だと思われていた顧客向けのエクスペリエンスを生み出すことができるようになります。AI はもはやニッチなチームのための単なるツールではなくなります。誰もが生産性と効率を向上させるために AI を使用する機会を得るでしょう。」
しかし、ユーザー エクスペリエンスのメリットは外部顧客に限定されません。社内の従業員エクスペリエンスにもメリットがあるとラジャベル氏は付け加えた。彼女は、社内データに基づいてトレーニングされた AI アシスタントを使えば、社内の企業ページですでに入手可能な回答を取得するだけで、IT リクエストを半分に削減できる可能性があると予測しています。
Sample 氏によると、Walgreens は生成型 AI 駆動の音声アシスタント、チャットボット、テキスト メッセージを通じて顧客エクスペリエンスも向上させています。電話の量を減らし、顧客満足度を向上させることで、チームメンバーは店内の顧客により集中できるようになります。さらに、同社は AI を導入してサプライチェーン、フロアスペース、在庫管理などの店舗運営を最適化し、リーダーが事業の収益と利益に関する意思決定を行えるように支援しています。しかし、警戒が鍵です。
オグレディ氏は、「これまでのすべてのテクノロジーの波と同様、AI は間違いなく重大な悪影響と付随的損害をもたらすだろう。全体として、AI は開発を加速し、人間の能力を強化するが、同時にそれを大幅に拡大するだろう」と述べた。さまざまな問題の範囲。"
以上がCIO が語る: 企業内で生成 AI を活用する方法の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。