過去数か月の間、人工知能は誰もが話題にする流行語になりました。 AIのペースが着実に加速する中、シリコンバレーの新興企業もフォーチュン500企業も同様に、AIが業界に革命を起こすのを目の当たりにしている。しかし、興奮、進歩、そして AI 洗浄のような危険信号も同じ割合でブームになっています。一部の企業では AI の導入が最小限またはまったく行われていないにもかかわらず、マネートレインに乗って誇大宣伝に便乗したいと考えているため、自社の AI 機能を誇張しています。
このマーケティング戦略には問題もありますが、非 AI スタートアップよりも大きなシード、シリーズ A、シリーズ B の資金調達ラウンドを確保するのに役立ちます。 GlobalData によると、AI スタートアップ企業は昨年だけで 500 億ドル以上のベンチャーキャピタル資金を調達しており、ChatGPT やその他の企業を取り巻く熱狂を考慮すると、その数は今年さらに増加すると予想されています。
これらのスタートアップに資金が注ぎ込まれていることを考えると、AI洗浄現象はさらに激化する一方だろう。米国連邦取引委員会 (FTC) はこの危険性を十分に認識しており、AI 機能を宣伝する際には透明性と正直さを保つようベンダーに警告しています。
FTC の広告業務を担当する弁護士、マイケル・アトルソン氏はブログ投稿で次のように書いています。 「他の害が引き起こされる可能性があり、この種の誇張されたプロパガンダが存在する可能性があります。マーケティング担当者は、製品の有効性について虚偽の主張をしたり、検証不可能な主張をしたりすることが、この業界で生き残るための方法であることを知っています。そして、これがFTCが法律を執行する理由です。」
この複雑な状況では、正規の人工知能ソリューションとマーケティングのからくりを区別するのは非常に困難です。
Deloitte Global Artificial Intelligence Institute のエグゼクティブ ディレクターである Beena Ammanath 氏は、「企業は、自社の AI 製品に関するベンダーの主張に直面した場合、健全な懐疑心を抱く必要があります。他のものと同様、これが次のように聞こえる場合は、本当だとするにはうますぎる話なので、おそらくそれが現実でしょう。」
ドナルド・ウェルチはニューヨーク大学の CIO です。同氏は、CIOとその会社が正しい答えを見つけられなかった場合、彼らが直面する可能性のある結果には、プロジェクトの失敗や遅延、経済的損失、訴訟、風評リスク、そして最終的には解雇などが含まれると述べた。 「この件で幹部が解雇されるのを実際に見てきましたが、それが間違った決断だったとは言えません。」 幸いなことに、間違いを避けるために幹部が使用できる戦略がいくつかあります。
AI 主導のビジネスには熟練した従業員が必要です AI を使用していると主張する企業の審査は、長くて時間のかかるプロセスになる可能性があります。ただし、LinkedIn で検索するなど、ビジネスを評価するための貴重な情報を見つける簡単な方法があります。
Ammanath 氏は次のように述べています:「ベンダーの従業員が受けている AI の経験と教育のレベルをビデオで確認してください。AI ソリューションを開発している企業には、この分野の人材が必要です。つまり、データ サイエンティストとデータ サイエンティストが必要です。エンジニア、これらのエンジニアは、人工知能、機械学習、アルゴリズム開発などにおいて深い経験を持っています。」
CIO は、従業員に注目することに加えて、外部の人工知能の専門家や研究機関の証拠と協力する機会を探すこともできます。このカテゴリには、大学とのパートナーシップ、業界カンファレンスやイベントへの参加、オープンソース AI イニシアチブへの貢献が含まれます。また、ベンダーが同様のプロジェクトやアプリケーションの経験がある場合は、高品質の結果を提供できることが示唆されるため、良い兆候です。
「サプライヤーの履歴を再確認してください」と、ウクライナ系アメリカ人の新興企業 MacPaw のウクライナ系アメリカ人最高技術革新責任者、ヴィラ・トカチェンコ氏は言う。この分野または他の人工知能製品に関する研究論文の出版歴があること。」
#適切に設計されたデータ戦略を探すAI を自社の製品に真に統合する企業には、AI アルゴリズムが必要とするため、適切に設計されたデータ戦略も必要です。高品質のデータを扱う必要があり、データが豊富で関連性が高いほど、より良い結果が得られます。
Ammanath 氏は次のように述べています。「AI システムは大量のデータによって駆動されるため、これらの企業も慎重にデータ戦略を構築し、どのくらいの量のデータがどのソースから収集されるかを説明できる必要があります。」注目すべきもう 1 つの問題は、これらの企業が規制要件を遵守し、高いデータ プライバシーとセキュリティ基準を維持することに十分な努力を払っているかどうかです。一般データ保護規則 (EU GDPR) やカリフォルニア州消費者プライバシー法 (CCPA) などのデータ プライバシー規制の台頭により、組織はデータの取り扱いについて透明性を確保し、個人が個人データを管理できるようにする必要があります。そうでない場合は危険信号です。
自分の主張を裏付ける証拠を求める
このスローガンは魅力的かもしれませんが、冷静に証拠を求めることが役立つ場合があります。 「適切な質問をし、製品の機能の証拠を求めることは、製品が本当に AI を活用しているかどうかを判断するために、マーケティングや販売のレトリックを剥がすために重要です」とアマナス氏は述べています。 AI を活用した特定の製品やサービスを検討する場合、CIO は、モデルがどのようにトレーニングされたか、どのようなアルゴリズムが使用されたか、AI システムが新しいデータにどのように適応するかを尋ねることができます。
Tkachenko 氏は次のように述べています。「ベンダーにどのようなライブラリや AI モデルを使用しているかを尋ねるべきです。ベンダーは単に OpenAI API を呼び出して独自の機能を実装するだけかもしれません。」
管理およびテクノロジー コンサルティング会社 BearingPoint Partner世界的なテクノロジーリーダーのマティアス・ローザー氏もこれに同意します。同氏は、コンポーネントとフレームワークを徹底的に理解する必要があり、評価には「倫理、偏見、実現可能性、知的財産、持続可能性」を含める必要があると付け加えた。
この調査は、CIOが製品の実際の機能と限界をより完全に理解するのに役立つと付け加えた。製品を購入するかどうかを決定するのに役立ちます。
スタートアップに焦点を当てるスタートアップはイノベーションの最前線に自らを位置づけます。しかし、彼らの多くは人工知能の分野の限界を押し広げている一方で、注目とお金を獲得するために単に自分の能力を誇張しているだけかもしれません。
ウクライナ系アメリカ人のスタートアップ Claid.ai の共同創設者兼最高技術責任者である Vlad Pranskevičius 氏は、Let's Enhance の記事で次のように述べています。スタートアップコミュニティ。」 そして、それは最近さらに深刻になってきている、と彼は指摘する。この現象は、人工知能が新たなゴールドラッシュとみなされている現在のような誇大宣伝サイクルにおいては特に危険である、と同氏は付け加えた。
しかし、プランスケヴィチウス氏は、近い将来、人工知能をめぐる規制がさらに厳しくなり、AI洗浄が制御されるようになるだろうと信じている。
技術的な専門知識で評判を築く企業が疑わしい AI ソリューションを取得することは珍しいことではありません。この場合、CIO は何か問題があるはずです。これは「企業のリーダーシップが不十分だった結果」である可能性がある、とウェルチ氏は述べ、「会社はマーケティング上の誇大広告に騙され、IT チームを圧倒し、IT チームは問題を解決するだけになった。」と述べた。現時点で、企業は技術専門家の意見が尊重され、その視点が十分に発揮される協力的な文化を育む必要があります。
同時に、CIO とテクノロジー チームは、社内での評判を高め、彼らの意見が意思決定プロセスに容易に組み込まれるようにする必要があります。これを達成するには、専門知識、プロ意識、ソフトスキルを実証する必要があります。
Sigma Software Group の最高イノベーション責任者、Max Kovtun 氏は次のように述べています。「CIO が AI ウォッシングを検討するのは難しいことではないと思います。より大きな問題は、ビジネス関係者や起業家が AI ウォッシングの使用を推進していることかもしれません」人工知能はどのような形であっても、革新的で最先端であるように見せたいからです。したがって、正しい問題は、ビジネスを始めるというプレッシャーの下で AI 洗浄に身を投じないようにする方法です。」
流行語を超えて
製品やサービスを比較するときは、偏見なくそれらを評価し、その特性を徹底的に見る必要があります。 トカチェンコ氏は、「あなたにとって製品やサービスの唯一の利点が人工知能であるなら、購入する前によく考えるべきです。その価値提案と機能を調査するのが最善であり、ウェルチ氏の同意を理解した場合にのみ使用してください」と述べた。 「彼らが C、C、または Java でシステムを書いているからといって、システムを購入するでしょうか? 私としては、デューデリジェンスの一環として、彼らがコードや会社の存続可能性などを維持できるかどうかを調べたいと思うかもしれません。」
徹底的な評価を行うことは、企業が購入を予定している製品やサービスが自社の目標と一貫して一致しているかどうか、期待どおりの結果を提供できるかどうかを判断するのに役立ちます。
Kovtun 氏は次のように述べています。「テクノロジーが複雑になればなるほど、専門家以外の人がそれを理解するのは難しくなり、そのテクノロジーの適用が正しく意味のあるものであることを検証するのが難しくなります。人工知能を活用することに決めた場合は、あなたの会社にテクノロジーを導入するには、人工知能の分野での経験を持つ知識豊富な専門家を雇ったほうがよいでしょう。そうでないと、あなたの努力が期待する利益をもたらさない可能性があります。」
人工知能をフォローする関連ニュース
AI 関連製品とそれらを取り巻く問題についての情報を常に入手しておくことは、CIO が情報に基づいた意思決定を行うのにも役立ちます。こうすることで、新しいアイデアやテクニックを活用しながら、犯した可能性のある間違いを特定することができます。
アート・トンプソンはデトロイト市の CIO です。同氏は「現時点では十分な教育が行われていないと思う」と述べ、期待以上の効果を期待できる新技術や実験的な技術の罠にはまらないように十分な調査を行うようCIOに助言した。そうなると、「製品の価格変更や交換に時間がかかるため、従業員は大きな痛手を受け、変更への対応が困難になる可能性がある」と同氏は述べた。 「人々が新しいテクノロジーの学習に時間を投資することの難しさは言うまでもありません。」
さらに、AI 関連の最新情報を常に把握しておくことは、CIO が規制の変更や新たな業界標準を予測するのに役立ちます。遵守し、競争上の優位性を維持します。
最新情報を常に把握しておく必要があるのは CIO だけではありません。 「チームを教育するか、専門家を雇用して、関連する機能をポートフォリオに追加してください」とベリングポイントのローザー氏は述べています。今後の新しい規制により、製品またはサービスに真の人工知能テクノロジーが組み込まれているかどうかを判断する CIO のタスクが簡素化される可能性があります。ホワイトハウスは最近、人工知能システムの責任ある設計に関するガイドラインを含む人工知能権利章典を発表しました。今後数年間で、さらに多くの規制が導入される可能性があります。
アマナス氏は、「これらの行動の背後にある前提は、テクノロジーの潜在的な危害から消費者の権利と人道を守ることです。リスクを軽減するには、テクノロジーの潜在的な悪影響を予測する必要があります。」 倫理は単なる思いつきであってはなりません
#企業は新しいテクノロジーの議論に影響を与える傾向があり、潜在的な利点を強調する一方、潜在的なマイナスの影響を軽視することがよくあります。 スイスのザンクト・ガレン大学の博士研究員フィリップ・ディ・サルボ氏は、「テクノロジーがバズワードになると、それが社会にもたらす可能性のある潜在的な有害な影響に焦点が当てられなくなることがよくある。研究によると、 「企業が人工知能に関する議論を推進しており、技術決定論が依然として支配的である」テクノロジーが社会的および文化的変化の主な推進力であるというこの信念は、倫理的および政治的影響をめぐる議論に影を落とし、よりマーケティング的な方向に傾く可能性があります。 -指向の議論。ディ・サルボ氏が言うように、これによって「議論の霧が生じ、これらのテクノロジーとその生産者がさらに曖昧で無責任になる」という。 この問題に対処するために、彼は、AI が実際に何がそうではないのか、何ができないのかを一般の人々に伝えることが重要な課題であると指摘しています。
Di Salvo 氏は次のように述べています。「ChatGPT を含め、今日私たちが目にする人工知能アプリケーションのほとんどは、基本的に大規模な統計およびデータ分析アプリケーションを中心に構築されています。これは可能性としては退屈な定義のように聞こえますが、これは、あらゆる問題を回避するのに役立ちます。 」#出典: www.cio.com
以上がAI ウォッシングの犠牲にならない 9 つの方法の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。