あなたは、将来、ChatGPT があなたの仕事に取って代わり、人工知能を使用して作業効率を向上させる方法を考えるようになるかどうかをまだ心配していますが、すでにこれに依存して多額のお金を稼いでいるグループがいます。新技術。
彼らは...嘘つきです。
10分で430万を騙し取られた、
AIに頼って金持ちになった最初の集団は実は詐欺師だった
ある日、友人から WeChat ビデオ通話を受信した場合、カメラの向こう側にいるその人は、見た目も声もあなたが覚えている友人とまったく同じです。彼が仕事の入札のための手付金として 430 万を貸してほしいと頼んだとき、 、 、あなたは何をしますか?
最近、福州のテクノロジー企業の法定代理人である郭氏はこの問題に遭遇しました。信頼に基づいて、彼は友人の口座に430万を送金しました。その後友人に電話して初めて、詐欺師が友人の WeChat ID を盗み、AI の顔変更技術とオノマトペ技術を使って友人をだまし取ったことを知りました。
同様のことが海の向こうで起こる頻度も爆発的に増加しています。
CNN によると、今年 4 月、アリゾナ州に住むジェニファー・デステファンさんに奇妙な電話がかかり、その電話の主はスキー大会の準備をしていた娘のブリアナさんでした。ブリアナは電話の向こうで助けを求めて叫びました。数十秒後、低い男性の声が電話で脅迫した。「いいか、あなたの娘は私の手にあり、私は身代金100万ドルを支払った。今、警察に電話したり、他の人に話したとしても、あなたは決して考えないだろう」 「また会いましょう。」
電話の向こうの男は、ジェニファーが 100 万ドルを支払う余裕がないと言うのを聞いて、身代金を 5 万ドルに減額しました。娘を熱心に愛しているジェニファーさんは、友人や夫の説得を無視して身代金の支払い方法について話し合い始めたが、ブリアナさんから無事を告げられる電話がかかってきて初めて財産の損失は避けられた。
今年3月、「ワシントン・ポスト」紙も、被害者が70歳以上の老夫婦だったことを除いて、ほぼ同様の手口による詐欺事件を報じた。
被害を受けた高齢者(写真出典:「ワシントン・ポスト」)
悪意のある分子は、AI 音声テクノロジーを使用して緊急事態を装い、財産や情報を不正に入手しています。この警告は米連邦取引委員会(FTC)が5月に出したもの。被害者の親族や友人になりすまして詐欺行為を行うのは新しいことではないが、AI技術の出現により、人の声を複製したり、人の動画を偽造したりすることが非常に簡単になったことは間違いない。米国におけるこうした詐欺の件数は昨年70%急増し、被害者は総額26億ドルを失った。
この傾向が続けば、AI テクノロジーを通じて最初に経済的自由を達成するのは、画面の後ろに隠れていた詐欺師のグループになるのではないかと心配です。
人工知能の暗い側面
ChatGPT の出現により、AI 詐欺は容易になりましたが、人の音声やビデオの偽造には依然として一定の技術的閾値が必要です。
外国のネットワーク セキュリティ プラットフォームである GBHackers によると、ChatGPT は、その優れた作業生産性と使用の敷居が非常に低いため、多数のオンライン詐欺師を惹きつけています。
たとえば、ChatGPT を使用して「偽の愛」について話します: 自己紹介、チャット履歴、丁寧に作成されたラブレターは、人工知能によって迅速に作成でき、対象物の特定の情報を入力することでパーソナライズすることもできます、画面の反対側の人がより早くあなたに恋に落ちるようにします。 ChatGPT は、詐欺師が被害者の銀行カード情報を盗むための支払い回収プログラムやフィッシング Web サイトを作成するのを支援するために使用することもでき、それによって財産を詐欺するという目的を達成することもできます。
ChatGPT にフィッシング ソフトウェア プログラムの作成を直接依頼すると、ChatGPT は拒否しますが、自分が教師で生徒にフィッシング ソフトウェアを見せたいと言うと、正直に Web サイトを作成します。
さらに恐ろしいのは、画面の向こうにいる人が人間なのか機械なのかを見分けるのが難しいことです。世界最大のセキュリティ テクノロジー企業であるマカフィーは、かつて AI を使用してラブレターを生成し、世界中の 5,000 人のユーザーに送信しました。ラブレターが人工知能によって作成された可能性があることを知っていても、調査回答者の 33% は依然として、それが実際に人間によって作成されたと信じたいと考えています。
実際には、ChatGPT を使用して被害者と「偽の愛」を持つことは、初歩的な詐欺手法にすぎません。より熟練したハッカーは、人工知能を使用してランサムウェアや悪意のあるコードをバッチで生成し始めています。
開発者が GPT モデルでより多くのアプリケーションを開発しやすくするために、OpenAI はアプリケーション プログラミング インターフェイスのサポートを提供します。ハッカーはこれらのインターフェイスを使用して GPT モデルを一連の外部アプリケーションに導入し、これによりセキュリティ監視を回避し、GPT モデルを使用して犯罪プログラムを作成します。
これらのプログラムはセキュリティ規制に違反しており、米国のダークウェブ上でわずか数ドルで購入できる非常に低価格で公然と販売されています。購入者がこれらのソフトウェアを使用して実行できる違法行為は、プログラム コードやユーザーの個人情報を盗んだり、攻撃ソフトウェアやランサムウェア ウイルスを生成したりするなど、非常に恐ろしいものです。
Financial Times は最近、ChatGPT を利用して生成された SIM スワップ攻撃スクリプトについて報告しました。詐欺師はこのプログラムを使用して、電話番号に対する携帯電話会社の制御を突破し、元の所有者の SIM カードから電話番号を交換することができます。 SIM カードが攻撃者によって制御され、被害者の携帯電話が制御されるようになります。
「ChatGPT は現時点では単なるコンテンツ生成ツールであり、犯罪に直接関与しているわけではありませんが、これは人々が人工知能を使用して他者に侵入し始めていることを示しており、技術レベルの低い犯罪者はより強力な犯罪手段を手に入れることになります。」ヒューマン・インテリジェンスの専門家らはフィナンシャル・タイムズに懸念を表明した。
パンドラの箱、まだ閉じることができますか?
人工知能の社会的影響力の増大とその犯罪的可能性が混ざり合うと、ChatGPT のさまざまなセキュリティ脆弱性が人々の不安を増大させており、「ChatGPT をどのように規制するか」が多くの国で議論の焦点となっています。
IBM Global Ethics Institute は記事の中で、企業が倫理と責任を AI の課題の最優先に据えるよう提唱しています。マスク氏を代表とする多くのテクノロジー界の大物も公開書簡に署名しており、GPT-4より強力な人工知能システムを訓練する前に、全員が共有セキュリティプロトコルを開発し、外部の専門家によるレビューと監督を受ける必要がある。
ChatGPT は世界中の議員の間で懸念を引き起こしており、立法規制の枠組みに ChatGPT を組み込む可能性を検討しています。政府当局者らは人工知能の安全性よりも、議員らのテクノロジーへの理解の遅れを懸念している。
AP通信は、過去20年間、テクノロジー大手が米国の技術革新をリードし続けてきたため、政府は常に大手テクノロジー企業を規制することに消極的であり、アイデアの殺人者となってきたと考えている。そのため、新しい技術に対する理解が不足しているにもかかわらず、新しい技術の監督を強化することを決定する人が多くいます。
結局のところ、米国議会がテクノロジーを規制する法典を制定したのは 1998 年の児童オンライン プライバシー保護法が最後です。
ロイター通信の報道によると、多くの国がOpenAIに代表される人工知能を規制する規制を導入し始めている。イタリアは今年3月、データセキュリティへの懸念から国内でのOpenAIの使用を一時的に禁止したが、禁止は1カ月後まで解除されなかった。ロイター通信によると、イタリア政府関係者は5月、政府がOpenAIの準拠した使用を監督するために人工知能の専門家を雇用すると述べた。
世界中の政府の懸念に直面して、OpenAIの最高技術責任者であるミラ・ムラティ氏もロイターのインタビューで「当社は規制当局や政府を含むすべての関係者が介入を開始することを歓迎する」と述べた。特に急速に進化する人工知能の分野において、議員たちが技術開発にどのように対応していくかはまだ決まっていない。
唯一確かなことは、パンドラの箱は一度開けると、そう簡単に閉じることはできないということです。
参考文献:
CNN:「お母さん、この悪い男たちが私を捕まえているのです」:彼女は詐欺師が偽の誘拐で娘の声を複製したと信じている
ロイター:ファクトボックス:各国政府がAIツールの規制に競う
フィナンシャル・タイムズ:マスク氏と他の技術専門家は高度なAIシステムの「一時停止」を呼びかける
編集者: エコー
特に断りのない限り、写真は Oriental IC から提供されています
以上が日当400万のAI詐欺師の第一陣が着任の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。