最近、包頭市公安局電気通信サイバー犯罪捜査局は、インテリジェント AI 技術を利用した通信詐欺事件を発表し、被害者は 10 分間で 430 万元をだまし取られ、「AI 詐欺」というトピックがホットな検索になっています。トピック。
AI テクノロジーが成熟するにつれて、リアリティと欺瞞の度合いがますます強くなり、AI 歌手や有名人に似たキャスターなどの容姿や声が「高度に模倣」されると、偽られる可能性があります。それを防ぐ?
生成 AI の標準化における現在の進捗状況は何ですか? AI技術の応用で法的リスクを回避するにはどうすればよいでしょうか?
現在頻繁に発生している侵害や詐欺事件は業界の発展を制限するのでしょうか?
今号の「Tidu Hot Review」では、メディアの上級者を特別に招き、話題の「AI詐欺」について議論していただきます AIが「リリース」された後、どのように「良いこと」をすることができるのでしょうか?ディスカッションが行われ、以下にいくつかのハイライトを紹介します。
自分の容姿や声が「模倣」される場合の注意点について。
北斗金融マネージャーの賈暁君氏は、ツールは中立であり、鍵は使い方にあるとし、「AI詐欺」はその典型的な例だと述べた。一般の人にとって、この種の AI テクノロジーによって生成された不正行為は、特に音声やビデオがシミュレートされている場合に特定することが非常に困難です。
AI詐欺が発生する理由は、本質的には個人情報の漏洩による問題であり、相手は関係者の機密情報を把握し、アカウントや住所などの情報を正確に提供し、アドレス帳も入手することができます。 、それによってユーザーの資金をだまし取ることになります。
一般人は資金に関しては敏感さを保ち、問題がないか注意深くチェックする必要があり、相互検証を行い、自分の財布を注意深く監視するのが最善です。
規制の観点から、タイムリーかつ効果的な注意喚起と予防を提供するために、科学技術人材の導入を強化し、関連する対策技術を革新する必要があります。同時に、プラットフォームのアクセスしきい値を強化し、合理的な傍受措置を講じます。
シンクタンク「ホエール・プラットフォーム」の専門家、郭志良氏は、誰もがAIについて話しているが、人々はAIの利点については多くのことを認識しているが、AIのマイナスの影響についてはほとんど認識していない、と述べた。 10 分で 430 万元がだまし取られました。鍵となるのは、詐欺師が AI の顔を変える技術を使用し、被害者が送金する前にビデオ認証に合格したということです。予期せぬことに、それは詐欺であることが判明しました。高級詐欺。完璧に行動しているように見えました。
その後、銀行の全面的な支援により、10分をかけて不正口座の336万8400元の詐欺資金を横取りすることに成功しましたが、93万1600元の資金はまだ回収中です。 AI詐欺は、音声合成技術とAI変顔技術を併用した非常に巧妙なもので、相手の友人の連絡先情報に侵入し、金銭を騙し取ることに成功することもあります。
AI 時代の到来は、機会と課題をもたらしました。現時点では、詐欺師は新しいテクノロジーを使用して詐欺を行っており、詐欺対策の方法も時代に合わせて対応する必要があります。また、全員の詐欺に対する意識も向上させる必要があります。転送などの機密性の高いコンテンツが関係する場合は、常に全員が警戒する必要があります。 AI時代の到来により、関連法規制の整備が必要となり、テクノロジーの進歩に伴い、規制執行能力や不正行為対策技術も時代に合わせた対応が求められています。
盤古シンクタンクの上級研究員であるジャン・ハン氏は、人工知能技術の発展に伴い、AI詐欺も出現し始めていると述べた。 AI詐欺とは、人工知能技術を利用した詐欺の一種で、攻撃頻度が高く、ターゲットが正確で、欺瞞効果がより効率的であるという利点があり、技術革新の過程における諸刃の剣でもあります。発達。この種の詐欺をどのように見て対応すべきでしょうか?
まず第一に、詐欺事件が頻繁に発生するため、誰もが学習能力を継続的に向上させ、潜在的な詐欺リスクを特定する必要があります。 AI技術により、基礎的なデータ分析、モデルトレーニング、人工知能による意思決定といった犯罪者の攻撃手法が強化されており、消費者がこうした詐欺を防ぐためには、技術的な認識やリスク特定能力を向上させる必要がある。知らない電話に応答する機会を与えないようにし、だまされたり騙されたりしないようにし、プライバシーと財産の安全を守る必要があります。
第二に、企業は自己規律を強化する必要があり、市場基準を導くための監督が必要であり、個人はリスクの予防と管理に対する意識をさらに強化する必要があります。 AI テクノロジーは企業に効率性と競争上の優位性をもたらしますが、イノベーションとコンプライアンスのバランスにも注意を払う必要があり、特にユーザー情報やプライバシーなどの機密分野に関しては、企業は自己規律とコンプライアンス管理を強化する必要があります。規制当局にとっては、市場基準の策定を指導し、そのような違法行為や犯罪行為を防止する必要があります。個人の場合は、公共の安全の管理に積極的に参加し、詐欺防止に関する新しい知識を学び、潜在的な詐欺を特定する能力を高める必要があります。
長期的には、生成大規模モデルの AI トレンドは続くでしょうが、AI をツールとして使用して改善するには、全員が協力する必要があります。 AIの開発プロセスにおいては、技術のコンプライアンスやセキュリティに留意し、AI技術と伝統的な法律、道徳、倫理の実現を促進する必要があります。 AI 開発は、単にスピードと効率を追求するだけではなく、人間性の研究に基づいて、人工知能を使用して社会に貢献するという本来の目的を念頭に置き、AI のパラダイムを探索および最適化し、潜在的な虐待や危害を防止し、AI サウンドの開発に役立ちます。
新経済観察グループの編集長、Bi Xiaojuan 氏は、ことわざにあるように、テクノロジーは常に両刃の剣であると述べました。ここ数年、ビッグデータやシェアリングエコノミーの発展は、経済的、社会的に多大な恩恵をもたらしてきたことがわかりますが、その副産物として、個人のプライバシー情報の大量漏洩、通信ネットワークを利用した詐欺などが多発しています。嫌がらせのテキストメッセージが相次いでいる。しかし、規制上の不備の検査と是正、政策や規制のタイムリーなフォローアップ、予防に対する国民の意識の向上により、同様の詐欺事件はある程度軽減されてきました。
現在、同じプロセスがAIの分野でも行われています。 AI テクノロジーの商業的価値は解放され続けていますが、同時に AI 詐欺師を「空を飛ぶ虎のように」させます。顔の変更、音声シミュレーションなどの手段を通じてユーザーの親戚や友人になりすまして、ほぼ詐欺行為を行う可能性があります。偽物を使って人をだます可能性があるため、ユーザーは見分けがつきにくく、餌に騙されやすくなります。それだけでなく、犯罪者は AI テクノロジーを使用して多数のユーザーを同時に詐欺することができ、被害者にはより広範囲の危害とより大きな財産損失を引き起こす可能性があります。
しかし、彼は一般ユーザーとして、AI の前では決して無力ではありません。第一に、個人財産の危険防止に対する意識を高め、この新しいタイプの詐欺に警戒すること、第二に、個人情報の保護を強化し、非公式アプリや出会い系アプリを大量に登録しないこと、第三に、相手が音声や映像などでお金の貸し借りや送金を要求した場合、相手がどんなに不安を感じていても、可能であれば複数の方法を利用し、オフラインで確認してから送金するようにしましょう。銀行の窓口に行って処理し、残念ながら騙された場合は、できるだけ早く警察に通報し、処理し、該当する銀行に連絡して、損失をできる限り食い止めてください。
法律、規制、監督の観点から、私たちはタイムリーにフォローアップし、AI技術の開発と応用のためのしきい値とファイアウォールを設定し、AIを永久に促進する必要があります。良いニュースは、4月初旬に中国サイバースペース局が「生成型人工知能サービスの管理に関する措置(コメント草案)」を起草し、一般からの意見を公募したことだ。我が国の AI 産業の健全かつ標準化された発展を目指し、混乱や違反を防ぎます。
AI 実践者は、国の規制政策の指示に従い、AI 倫理に対する敏感さを維持し、技術開発と企業責任の統合を達成する必要があります。
業界観察者のWenzi氏は、AIセキュリティに関する研究は2008年にまで遡ることができると述べた。これまでに多くの分野をカバーしてきました。自然言語処理 (NLP) コミュニティを対象とした 2022 年の調査では、AI の意思決定が「少なくとも全面核戦争と同じくらいひどい」災害を引き起こす可能性があることに 37% が同意またはわずかに同意しました。しかし、スタンフォード大学非常勤教授のアンドリュー・ン氏のように、これを「地球に足を踏み入れる前から火星の人口過剰を心配している」ようなものだと反対の声もある。
サミュエル・ボウマン博士の見解は、この問題に対するより適切な理解です - 世界中で AI/ML の研究を停止するのではなく、十分に強力な人工知能がすべて責任ある方法で構築され、展開されるようにする必要があります。システム。インターネット北京日記の創設者である張景科氏は、AI によって高速に生成される大量の情報により、人類は必然的に再び、中国の時代の 100 倍もの偽情報の問題に直面することになると述べました。インターネット情報の爆発。
ほとんどの人を危害から守りたい場合は、従来のニュースと作品の著作権保護モデルを参照できます。つまり、情報発信の場合は出典を明記する必要があり、AIの文章であれば作成者を明記する必要がある。これは、情報拡散仲介業者を排除するためにネットユーザーと資本が支払う必要な代償でもあり、長期的には、監視のない無料情報はもはや公平で効率的ではなくなるでしょう。
生成型 AI の仕様構築の現在の進捗状況はどうなっていますか? AI技術の応用で法的リスクを回避するにはどうすればよいでしょうか?
Duoduoshuo の責任者である Chu Shaojun 氏は、まず第一に、コミュニケーションと世論の分野において、「良いものは外に出ず、悪いものは何千マイルも広がる」と述べました。本質的に新しいものではなく、何千もの詐欺手法の 1 つにすぎません。まず、人気の AI テクノロジーやアプリケーションと結びついているため、簡単に話題になり、あらゆる関係者の注目を集めることができます。新技術や新分野に対してはある程度の排斥運動があり、新技術の監督を要求するが、短期間で再び勃発するだろう。しかし今のところ、新技術や新分野にあまり注目し、時期尚早に監督する必要はありません。結局のところ、新技術や新分野の開発には時間と忍耐が必要であり、場合によってはある程度の「努力」さえ必要です。 「野生の成長」の時間と空間。第二に、新しい分野や新しい技術については、監督や法整備が遅れていることがよくあります。そのためには、企業や業界のさらなる自制心が必要です。事業や技術を開発する際、企業は自らの責任をもっと考慮する必要があります。社会的責任には、より適切な対応が必要です」研究開発および設計段階での予測と予防。同時に、ユーザーや一般視聴者が新技術や新分野を理解し、問題の芽を摘めるよう、ユーザー教育や科学普及を強化すべきである。同時に、ユーザーや視聴者自身も、より多くのことを学び、より注意を払う必要があると同時に、より慎重になって、お金を稼ぐ、お金を借りる、送金するための複数の方法を確認する必要があります。 「パイが空から降ってくる」と信じている。
第三に、新しいテクノロジーは詐欺に使用される可能性がありますが、別の観点から見ると、新しいテクノロジーの出現は詐欺の防止や不正防止にも使用できます。多くの場合、テクノロジーは中立または中立ですが、鍵はそれがどのように適用され、標準化されるかにあります。現在多発している侵害や詐欺事件は、業界の発展を制限するものではなく、業界の標準化された発展を促進するものであり、結局のところ、野蛮な成長の後、ネガティブな事件の多発は、一方では世論の監視を引き起こすことになるでしょうそして当然のことながら、企業や業界の自制心が高まる一方、監督と法整備は間違いなく加速し、最終的には業界はより標準化された発展を促されることになるだろう。
最後に、極端な考え方や過剰な規制的な考え方を防ぐ必要があり、たとえネガティブな出来事が起こったとしても、監督や立法基準が必要である一方で、監督や立法には寛容さや規制への配慮も必要です。業界に十分な発展とスペースを与える時間。結局のところ、全体像を見ると、AI、特に AIGC やその他の分野の今後の発展は、企業業界だけでなく、技術分野における国の発言権にも影響を与える可能性があります。新しい技術を生み出す責任はすべての関係者にあります。より良く、より安定して開発します。
インターネット技術ブロガーのピピトゥイ氏は、AI人工知能技術はますます成熟していると述べていますが、リスクとそれを回避する方法はあるのでしょうか? Tongyi Qianwen 氏の答えは次のとおりです。AI 人工知能技術の発展は、確かに人々に多くの利便性と機会をもたらしましたが、同時にいくつかのリスクと課題ももたらしました。
AI リスクの回避は次の点から始まります。1 つ目はデータ プライバシーです。個人データを収集および使用する場合は、データが悪用されたり漏洩されたりしないように、厳格なプライバシーと保護の規制に従う必要があります。第二に、透明性と説明可能性: AI システムは、人々が自分の意思決定と行動を理解できるように、透明性と説明可能である必要があります。第三に、セキュリティ: 悪意のある攻撃の防止、データのバックアップと復元、エラー修正などを含む、AI システムのセキュリティを確保します。第 4 に、法令順守: AI システムが関連する法律、規制、倫理規範に準拠し、法律との矛盾を回避するようにします。第五に、技術レベル:テクノロジーの悪用や悪用を防ぐために、AIシステムの技術レベルを確保します。最後に、協力と協力: AI システムの開発と適用が公益と社会的責任にかなうものであることを保証するために、他の関係者と協力および協力します。
つまり、AI リスクを回避するには、AI システムの開発、使用、管理が倫理、法律、安全基準に準拠していることを確認する必要があると同時に、AI の健全な発展を促進するために教育と一般の参加を強化する必要があります。テクノロジー。
Zhonhuo International 戦略開発部長の Zheng Yang 氏は、現在の AI 詐欺の主な種類には、音声合成、AI 顔の変更、ビッグデータと AI テクノロジーを使用してターゲットとなる情報を選別およびフィルタリングするものが含まれると述べました。ターゲットグループ。テクノロジーは両刃の剣です。テキスト メッセージによる電話詐欺、アカウント盗難、P2P などの歴史的な経験により、真実が何度も証明されています。つまり、新しいテクノロジーが繰り返されるたびに、際限なくテクノロジー上の詐欺がもたらされるということです。
逆転の発想を使って考えてください。まず第一に、AI 詐欺の核心は、偽物と本物の可能性があるということです。予防と監督の焦点は、AI が生成したコンテンツをより簡単に識別する方法と、一般の人々にどのように許可するかです。 AI テクノロジーの潜在的なリスク (一般常識) についての深い理解。第二に、AI詐欺技術の根幹はデータにあり、個人情報の漏洩や悪用をいかに防ぐかが予防・監督の焦点となる。
また、規制の観点からは、一方では、空の巣作り者や熱狂的なスターチェイサーなどの社会的弱者に対する的確な教育と予防・管理を事前に実施する必要がある。一方で、オンラインデート、デート、ローン、オンラインゲームなどのチャネルは厳しく監視される可能性があります。
あらゆるテクノロジーの市場化のプロセスでは、その社会的価値と経済的価値のバランスが必要です。現在の AI 技術の発展に関する限り、より顕著な社会問題には、プライバシーとデータ保護のリスク、知的財産侵害のリスク、道徳的および倫理的リスクなどが含まれます。これらの問題はAI技術の市場化速度に影響を与えることは避けられませんが、それ自体は技術の実装に必要なプロセスです。
AI テクノロジーが法的リスクを根本的に軽減したい場合、一方では、AI テクノロジーとそのツールの制作会社がプラットフォームを自主規制する必要があります。たとえば、Google が作成したすべての AI 生成画像にラベルを付けるという行為は、そのツールが良い例です。一方、関連部門は、法的境界と責任主体を明確にするために、関連する規制法、規定、標準体系をできるだけ早く確立する必要があり、例えば、中国サイバースペース局が4月に公布した規制では、以下の情報を提供する組織と個人が求められています。 AIサービスはコンテンツ制作者の責任を負う。
Dali Finance の創設者である Wei Li 氏は、AI 詐欺事件に関する現在公開されている情報から判断すると、AI 詐欺に関与する技術は主に深層合成技術であり、AI の顔変更技術、音声 (サウンド) 合成技術、およびテキスト生成モデル。犯罪者は AI の顔を変えるテクノロジーを使用して偽のビデオや写真を作成し、他人になりすまして他人を騙すことができます。
技術レベルでは、多くのテクノロジー企業や研究者が、この種の AI 深層合成コンテンツを「技術的対策」を通じて特定することに積極的に取り組んでいます。これらの「技術的対策」製品は通常、深層学習技術に基づいています。ビデオの特徴を分析し、トレースを処理し、顔の特徴の「不一致」を検出することで、AI によって生成されたビデオを識別します。
法的予防と管理の観点からは、国家機関、プラットフォーム、個人が協力しており、プラットフォームはさまざまな規制要件に従って監査と監視の能力を向上させ続けていますが、個人も常に警戒する必要があります。また、コラボレーションとデータベースの共有を確立したり、確認済みのビデオサンプルを収集して保存したり、AI 詐欺対策同盟やその他の法執行慣行を確立したりすることも必要になる場合があります。
人工知能技術をいかにして「善のための技術」とするかが喫緊の課題となっています。まず、データのプライバシーとセキュリティは非常に重要です。個人情報の悪用や悪用を防ぐためには、人工知能技術の監督と管理を強化する必要があります。第二に、人工知能技術の安全性と信頼性、透明性と公平性を強化する必要があります。最後に、人工知能技術の教育と普及を強化し、国民の科学技術リテラシーと安全意識を向上させ、だまされたり被害に遭わないようにする必要があります。
概要現在頻繁に発生している侵害や詐欺事件は業界の発展を制限するのでしょうか?
メディア幹部の祖登飛氏は、「テクノロジー自体は無害だ。鍵はそれを使う人次第だ」と語った。 AI などの新しいテクノロジーは今日では目新しいものではありませんし、詐欺で金儲けをしようとする「悪者」も、窒息を理由に食事をやめるべきではありません。世界的に見ると、AIはほぼすべての国で精力的に開発が進んでおり、さまざまな分野に応用でき、生産性を解放し、生産効率を向上させることができます。
AI詐欺の根本原因をたどると、個人情報の漏洩が原因です。以前は個人情報の漏洩により、嫌がらせの電話やテキストメッセージの嵐が起こりましたが、今回のAI詐欺と相まって、個人情報の保護はやらなければいけないところまで来ています。さまざまなアプリをダウンロードする際、電話番号、写真、地理的位置などへのアクセスが必要ですが、この情報は関連するソフトウェア会社によって効果的に保護されていますか?それとも、下心を持つ人々によって転売され、利益を得ているのでしょうか?
この新しいタイプの AI 詐欺に対処するには、個人情報の保護、メッセージの検証、送金や支払いをしないなど、さまざまな詐欺対策ブロガーによって広められている知識ポイントに従う必要があります。同時に、関連企業は関連ポリシーを厳格に遵守し、AI技術倫理を向上させ、安全監督措置を強化する必要があります。
Tang Chen マネージャーの Tang Chen 氏は、AIGC の開発プロセスで現れるネガティブなケースは避けられず、AI 詐欺、デジタル ピープル、顔の変更などはすべて人工知能ツールの能力の表れであると述べました。人工知能の発展によってもたらされる悪影響を回避するには、根本的に人工知能を使用できる人を規制する必要があります。 2日前、ステファニー・スン氏は「AIステファニー」が引き起こした著作権論争に対し、「あらゆることが可能であり、すべては問題ではない。純粋な考えを持ち、自分らしくいれば十分だと思う」と述べ、ステファニー・スン氏の対応が高く評価された。優れた文学的才能と大規模なレイアウトの単純な賞賛に加えて、より深い意味は、彼女が人間への自信を示しているということです。これは、人工知能には不可能であるという人間への自信でもあります。短期間で人間に取って代わられる。彼女の心構えは国民にとっても参考になるはずだ。
同様に、このロジックは、人工知能によって変革されているあらゆる業界に当てはまります。 OpenAI CEO のサム アルトマン氏が述べたように、人工知能テクノロジーは私たちが知っている社会を再構築し、「人類がこれまでに開発した最高のテクノロジー」となり、人間の生活を大きく改善する可能性があります。しかし、それに直面することには実際の危険があり、人々はそれを少し怖がることを喜んですべきです。畏敬の念を持ってのみ、人工知能技術を人間の科学技術の発展に利用することができます。このプロセスにおいて、人々が心配しているのはテクノロジーそのものではなく、ステファニー・サン自身が AI であるステファニー・サンについてあまり心配していないのと同じように、テクノロジーを使用する人間の動機です。皆さんはもっと注目すべきです、テクノロジーは何に進化したいですか?そして非テクノロジーは人間を何に変えるのでしょうか?これが問題の本質かもしれません。
「チタンホットコメント」は、チタンメディアが創刊したホットイベント観察コラムで、主に異業種・異ビジネスモデルの発展について独自の見識と深い考察を持つメディアや業界関係者を招き、総合的に紹介するコラムです。多角的な解釈 イベントの影響と重要性。
最新のトレンドに関心があり、独自の意見を持ち、より多くの同じ考えを持つ人々と意見を共有して交換したい場合は、コミュニティ アシスタント「Tidu Hot Review」WeChat を追加してください: taiduzhushou と「Titanium Hot Comments」コミュニティに参加して、価値ある考え方をより多くの人に見てもらえるように、思想家のコミュニティを作成しましょう。
以上が「AI 詐欺」が検索のホットトピックになっていますが、AI が「解放」された後、どのようにして「良いこと」を行うことができるのでしょうか? |チタン度数に対する熱いコメントの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。