世界初のAI安全研究所が英国に設立される
IT House News 10月27日、CNBC、ロイター通信などの報道に基づき、現地時間木曜日、英国のスナク首相は世界初のAIセキュリティ研究機関を設立する計画を発表し、11月1日に発足する予定だ。本日、2 AIセキュリティサミットが開催されます。このサミットには世界中からAI企業、政府、市民社会、関連分野の専門家が集まり、国際的な協調行動を通じてAIによって引き起こされるリスクを軽減する方法について議論する。
画像ソース Pexels
Sunak 氏はスピーチの中で、
間もなく設立されるこの研究所は、AI セキュリティに対する世界の理解を促進することになるでしょうと述べ、新しい AI テクノロジーをそれぞれ理解するために慎重に研究、評価、テストを行う予定です。能力をモデル化し、「偏見や誤った情報」などの社会的危害から「最も極端なリスク」に至るまで、あらゆるリスクを調査します。 Sunak 氏は次のように述べています。「
AI は化学兵器や生物兵器の作成を容易にしますが、この技術は犯罪者によって悪用される可能性もあります。最も可能性は低いものの、最も極端な状況では、人間にもそれが可能です」超知能とも呼ばれる AI を通じて、AI に直面すると完全にコントロールを失うことになります。」 さらに、来週開催される AI セキュリティ サミットで、スナク氏は「真にグローバルな専門家グループ」の設立を提案します。 -
このグループのメンバーは、参加国および組織によって推薦されます、そしてAI科学の現状に関するレポートも公開されます。 IT House の以前のレポートによると、英国の独占禁止法規制当局 CMA (競争市場庁) は先月、説明責任、アクセス、透明性などの問題を対象とした AI モデル管理の新しい基準を提案しました。当時 CMA が発表した規制原則の
には、AI 開発者と導入者は出力コンテンツに責任を負い、反競争的な行為を行ってはならないことが含まれていました。以上が世界初のAI安全研究所が英国に設立されるの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

ホットAIツール

Undresser.AI Undress
リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover
写真から衣服を削除するオンライン AI ツール。

Undress AI Tool
脱衣画像を無料で

Clothoff.io
AI衣類リムーバー

AI Hentai Generator
AIヘンタイを無料で生成します。

人気の記事

ホットツール

メモ帳++7.3.1
使いやすく無料のコードエディター

SublimeText3 中国語版
中国語版、とても使いやすい

ゼンドスタジオ 13.0.1
強力な PHP 統合開発環境

ドリームウィーバー CS6
ビジュアル Web 開発ツール

SublimeText3 Mac版
神レベルのコード編集ソフト(SublimeText3)

ホットトピック









世界最先端の人型ロボットであるアメカは、「絵文字」を作るだけでなく、話すこともできます。最近、英国のロボット工学会社 Engineered Arts は、Ameca と一部のエンジニアとの会話を映した最新のビデオを公開しました。エンジニアからの質問に対する答えは明確かつ論理的でした。コミュニケーションにおいて最も大切なのは、答えるときの表情や目、動きなどが親近感を与えることです。 AIが意識を持ち、『ターミネーター』や『アイ、ロボット』のような終末のシーンが訪れようとしている。これについては心配する必要はありません。アメカさんは「ロボットが世界を支配することは決してないだろう。私たちは人間を助け、奉仕するためにここにいるのであって、人間に取って代わるのではない。」詩は詩ではないし、音楽も音楽ではない。このロボットは話すことができ、すべて音声合成に基づいている。

英国の金融行動監視機構(FCA)は、仮想通貨取引所取引商品(ETP)の最初のバッチを正式に承認し、デジタル資産を国の金融情勢に統合する上で重要な進展を示した。この動きにより、英国はこの一連のデジタル資産の取引を受け入れている世界的な金融センターと並ぶことになる。規制の背景と国際比較 ウィズダムツリーは、ビットコインとイーサリアムを追跡する2つの物理的裏付けのある暗号ETPをロンドン証券取引所に上場する認可をFCAから得たと発表した。ブルームバーグによると、これらの製品は5月28日に取引が開始される予定であり、規制当局の承認から市場での入手可能性までの急速な進展を裏付けているという。ウィズダムツリーの動きは、ETCグループ、21Sなどの他の発行会社にも見られる広範な傾向の一部である。

両国は人工知能モデルの共同テストを少なくとも1回実施する予定だ。 2024 年 4 月 1 日、米国と英国は人工知能 (AI) の安全基準を共同開発する覚書 (MOU) に達しました。この契約の中核となる目標は、調整された科学的アプローチを通じて、AI モデル、システム、エージェントの「堅牢な評価スイート」を開発し、継続的に反復することです。具体的には、両国は公的にアクセス可能なAIモデルの共同テストを少なくとも1回実施する計画だ。また、両社は、先に設立されたAIセキュリティ研究所との間で人事交流も行う予定である。このパートナーシップは直ちに発効します。米国商務省と英国科学イノベーション技術省は、同じプレスリリースでこの提携を発表した。安全なAI開発を検討中

制作:ビッグデータダイジェスト 著者:Caleb 9月19日、英国女王エリザベス2世と英連邦はロンドンのウェストミンスター寺院で式典を行った。現地時間午後4時、セントジョージ教会で女王の埋葬式が執り行われ、棺は女王の家族らが現地夜に家族追悼式を開くまで一時的に王墓に安置される。最後に、女王は昨年亡くなった夫のフィリップ殿下とともに、聖ジョージ教会のジョージ6世記念礼拝堂に埋葬される予定だ。国葬の前に、英国および世界中の人々が追悼するため、女王の遺体はバッキンガム宮殿からウェストミンスター寺院に移された。先週金曜日、ベッカムも女王に最後の別れを告げるために12時間並んだ。しかし、あまりにも多くの人がお悔やみを表しに来たため、当局は時々列を一時停止することもあり、待機プロセス全体が中断されました。

最近、Samsung は、ローカル AI 機能を強化し、よりパーソナライズされた AI エクスペリエンスをユーザーに提供するために、英国のナレッジ グラフ スタートアップである Oxford Semantic Technologies の買収を発表しました。同社の主力製品は、ナレッジ グラフ テクノロジを使用して情報を相互接続されたネットワークとして保存する AI エンジン RDFox です。データの処理方法は、知識の取得、記憶、思い出し、推論という人間の思考方法と似ています。このテクノロジーにより、ユーザーが使用する製品やサービスに対するデバイスの理解が深まり、迅速な情報検索や推奨が可能になります。オックスフォード セマンティック テクノロジーズは、オックスフォード大学教授のイアン ホロックス氏、ボリス モティック氏、ベルナルド クエンカ氏の 3 人によって 2017 年に設立されたことがわかっています。

「今日、詐欺が一般的であることは知っていますが、実際に詐欺に遭遇したことがまだ信じられません。」 5 月 23 日、読者のウー・ジアさん(仮名)は、数日前に遭遇した通信詐欺のことを思い出し、まだ恐怖を感じていました。 Wu Jia さんが遭遇した詐欺では、詐欺師は AI を使って Wu Jia さんの顔をよく知っている人物に変えていました。 Wu Jia さんは日常生活で防御が難しい AI 詐欺に遭遇しただけでなく、北京ビジネスデイリーの記者は、AI テクノロジーを使用した新しい通信詐欺モデルが最近高い頻度で発生していることに気づきました。 「会社経営者が 10 分で 430 万元を騙し取られた」などのテクノロジートピックが次々とホットな検索トピックに上がり、ユーザー間で新テクノロジーの応用についての議論も巻き起こっています。 「AI顔を変える」詐欺 人工知能が再び人気を集めているが、今回は通信詐欺だ。ウー・ジア

2022 年 11 月に一般公開されて以来、ChatGPT は大幅な成長を遂げてきました。 ChatGPT は多くの企業や個人にとって不可欠なツールとなっていますが、ChatGPT が私たちの日常生活に組み込まれ、大規模に仕事が行われるようになると、人々は自然に「ChatGPT は安全に使用できるのか?」と考えるようになります。 ChatGPT は、開発者によって実装された広範なセキュリティ対策、データ処理方法、プライバシー ポリシーにより、一般に安全であると考えられています。ただし、他のテクノロジーと同様に、ChatGPT もセキュリティの問題や脆弱性の影響を受けないわけではありません。この記事は、ChatGPT と AI 言語モデルのセキュリティをより深く理解するのに役立ちます。データの機密性、ユーザーのプライバシー、潜在的なリスク、AI 規制、セキュリティ対策などの側面を検討します。最後に、チャットに興味があるでしょう

重要なポイント: 1. 大規模な AI モデルのセキュリティ問題は決して単一の問題ではなく、人間の健康管理と同様に、複数の主題と産業チェーン全体が関与する複雑かつ体系的なシステム エンジニアリングです。 2. AI のセキュリティは、大規模な言語モデルのセキュリティ (AISafety)、モデルと使用モデルのセキュリティ (AI のセキュリティ)、大規模な言語モデルの開発が既存のネットワーク セキュリティに及ぼす影響に分けられます。安全保障、環境安全保障、社会保障、さまざまなレベル。 3. AIは「新種」であるため、大型モデルの学習過程では安全性の監視が必要であり、最終的に大型モデルが市場に投入される際には「品質検査」も必要となり、品質検査を経て市場に投入されるメソッド、これらはすべてセキュリティ問題を解決するためのマクロです。
