ホームページ > バックエンド開発 > Python チュートリアル > Amazon Bedrock を使用してパーソナライズされた学習コンパニオンを構築する

Amazon Bedrock を使用してパーソナライズされた学習コンパニオンを構築する

Barbara Streisand
リリース: 2025-01-04 20:25:41
オリジナル
648 人が閲覧しました

Building a Personalized Study Companion Using Amazon Bedrock

私は現在修士課程に通っていますが、毎日の学習時間を減らす方法を見つけたいと常々思っていました。出来上がり!私の解決策は、Amazon Bedrock を使用して学習コンパニオンを作成することです。

Amazon Bedrock を活用して、GPT-4 や T5 などの基盤モデル (FM) の力を活用します。

これらのモデルは、量子物理学、機械学習など、修士課程のさまざまなトピックに関するユーザーの質問に答えることができる生成 AI を作成するのに役立ちます。モデルを微調整し、高度なプロンプト エンジニアリングを実装し、検索拡張生成 (RAG) を活用して学生に正確な答えを提供する方法を検討します。

それでは始めましょう!

ステップ 1: AWS で環境をセットアップする

まず、Amazon Bedrock、S3、Lambda にアクセスするために必要なアクセス許可が AWS アカウントに設定されていることを確認します (デビット カードを入力する必要があることが分かった後、大変なことになりました :( ) . Amazon S3、Lambda、Bedrock などの AWS サービスを使用します。

  • 学習資料を保存するための S3 バケットを作成します
  • これにより、モデルは微調整や取得のためにマテリアルにアクセスできるようになります。
  • Amazon S3 コンソールに移動し、「study-materials」などの新しいバケットを作成します。

教育コンテンツを S3 にアップロードします。私の場合は、修士課程に関連する合成データを作成して追加しました。ニーズに基づいて独自のデータセットを作成したり、Kaggle から他のデータセットを追加したりできます。

[
    {
        "topic": "Advanced Economics",
        "question": "How does the Lucas Critique challenge traditional macroeconomic policy analysis?",
        "answer": "The Lucas Critique argues that traditional macroeconomic models' parameters are not policy-invariant because economic agents adjust their behavior based on expected policy changes, making historical relationships unreliable for policy evaluation."
    },
    {
        "topic": "Quantum Physics",
        "question": "Explain quantum entanglement and its implications for quantum computing.",
        "answer": "Quantum entanglement is a physical phenomenon where pairs of particles remain fundamentally connected regardless of distance. This property enables quantum computers to perform certain calculations exponentially faster than classical computers through quantum parallelism and superdense coding."
    },
    {
        "topic": "Advanced Statistics",
        "question": "What is the difference between frequentist and Bayesian approaches to statistical inference?",
        "answer": "Frequentist inference treats parameters as fixed and data as random, using probability to describe long-run frequency of events. Bayesian inference treats parameters as random variables with prior distributions, updated through data to form posterior distributions, allowing direct probability statements about parameters."
    },
    {
        "topic": "Machine Learning",
        "question": "How do transformers solve the long-range dependency problem in sequence modeling?",
        "answer": "Transformers use self-attention mechanisms to directly model relationships between all positions in a sequence, eliminating the need for recurrent connections. This allows parallel processing and better capture of long-range dependencies through multi-head attention and positional encodings."
    },
    {
        "topic": "Molecular Biology",
        "question": "What are the implications of epigenetic inheritance for evolutionary theory?",
        "answer": "Epigenetic inheritance challenges the traditional neo-Darwinian model by demonstrating that heritable changes in gene expression can occur without DNA sequence alterations, suggesting a Lamarckian component to evolution through environmentally-induced modifications."
    },
    {
        "topic": "Advanced Computer Architecture",
        "question": "How do non-volatile memory architectures impact traditional memory hierarchy design?",
        "answer": "Non-volatile memory architectures blur the traditional distinction between storage and memory, enabling persistent memory systems that combine storage durability with memory-like performance, requiring fundamental redesign of memory hierarchies and system software."
    }
]
ログイン後にコピー
ログイン後にコピー

ステップ 2: 基盤モデルに Amazon Bedrock を活用する

Amazon Bedrock を起動します:

  • Amazon Bedrock コンソールに移動します。
  • 新しいプロジェクトを作成し、目的の基盤モデル (GPT-3、T5 など) を選択します。
  • 使用事例を選択してください。この場合は学習仲間です。
  • 微調整オプション (必要な場合) を選択し、微調整のためにデータセット (S3 の教育コンテンツ) をアップロードします。
  • 基礎モデルの微調整:

Bedrock は、データセット上の基礎モデルを自動的に微調整します。たとえば、GPT-3 を使用している場合、Amazon Bedrock は教育コンテンツをより深く理解し、特定のトピックに対する正確な回答を生成するために GPT-3 を適応させます。

Amazon Bedrock SDK を使用してモデルを微調整する簡単な Python コード スニペットを次に示します。

import boto3

# Initialize Bedrock client
client = boto3.client("bedrock-runtime")

# Define S3 path for your dataset
dataset_path = 's3://study-materials/my-educational-dataset.json'

# Fine-tune the model
response = client.start_training(
    modelName="GPT-3",
    datasetLocation=dataset_path,
    trainingParameters={"batch_size": 16, "epochs": 5}
)
print(response)

ログイン後にコピー
ログイン後にコピー

微調整されたモデルの保存: 微調整後、モデルが保存され、デプロイメントの準備が整います。これは、Amazon S3 バケットの Fine-tuned-model という新しいフォルダーの下にあります。

ステップ 3: 検索拡張生成 (RAG) を実装する

1. Amazon Lambda 関数のセットアップ:

  • Lambda はリクエストを処理し、微調整されたモデルと対話してレスポンスを生成します。
  • Lambda 関数は、ユーザーのクエリに基づいて S3 から関連する学習資料を取得し、RAG を使用して正確な回答を生成します。

回答生成用の Lambda コード: 回答の生成に微調整されたモデルを使用するように Lambda 関数を設定する方法の例を次に示します:

[
    {
        "topic": "Advanced Economics",
        "question": "How does the Lucas Critique challenge traditional macroeconomic policy analysis?",
        "answer": "The Lucas Critique argues that traditional macroeconomic models' parameters are not policy-invariant because economic agents adjust their behavior based on expected policy changes, making historical relationships unreliable for policy evaluation."
    },
    {
        "topic": "Quantum Physics",
        "question": "Explain quantum entanglement and its implications for quantum computing.",
        "answer": "Quantum entanglement is a physical phenomenon where pairs of particles remain fundamentally connected regardless of distance. This property enables quantum computers to perform certain calculations exponentially faster than classical computers through quantum parallelism and superdense coding."
    },
    {
        "topic": "Advanced Statistics",
        "question": "What is the difference between frequentist and Bayesian approaches to statistical inference?",
        "answer": "Frequentist inference treats parameters as fixed and data as random, using probability to describe long-run frequency of events. Bayesian inference treats parameters as random variables with prior distributions, updated through data to form posterior distributions, allowing direct probability statements about parameters."
    },
    {
        "topic": "Machine Learning",
        "question": "How do transformers solve the long-range dependency problem in sequence modeling?",
        "answer": "Transformers use self-attention mechanisms to directly model relationships between all positions in a sequence, eliminating the need for recurrent connections. This allows parallel processing and better capture of long-range dependencies through multi-head attention and positional encodings."
    },
    {
        "topic": "Molecular Biology",
        "question": "What are the implications of epigenetic inheritance for evolutionary theory?",
        "answer": "Epigenetic inheritance challenges the traditional neo-Darwinian model by demonstrating that heritable changes in gene expression can occur without DNA sequence alterations, suggesting a Lamarckian component to evolution through environmentally-induced modifications."
    },
    {
        "topic": "Advanced Computer Architecture",
        "question": "How do non-volatile memory architectures impact traditional memory hierarchy design?",
        "answer": "Non-volatile memory architectures blur the traditional distinction between storage and memory, enabling persistent memory systems that combine storage durability with memory-like performance, requiring fundamental redesign of memory hierarchies and system software."
    }
]
ログイン後にコピー
ログイン後にコピー

3. Lambda 関数をデプロイします: この Lambda 関数を AWS にデプロイします。これは、リアルタイムのユーザー クエリを処理するために API Gateway を通じて呼び出されます。

ステップ 4: API ゲートウェイ経由でモデルを公開する

API ゲートウェイの作成:

API Gateway コンソールに移動し、新しい REST API を作成します。
POST エンドポイントを設定して、回答の生成を処理する Lambda 関数を呼び出します。

API をデプロイします:

API をデプロイし、カスタム ドメインまたは AWS のデフォルト URL を使用して一般にアクセスできるようにします。

ステップ 5: Streamlit インターフェイスを構築する

最後に、ユーザーが学習仲間と対話できるようにするシンプルな Streamlit アプリを構築します。

import boto3

# Initialize Bedrock client
client = boto3.client("bedrock-runtime")

# Define S3 path for your dataset
dataset_path = 's3://study-materials/my-educational-dataset.json'

# Fine-tune the model
response = client.start_training(
    modelName="GPT-3",
    datasetLocation=dataset_path,
    trainingParameters={"batch_size": 16, "epochs": 5}
)
print(response)

ログイン後にコピー
ログイン後にコピー

この Streamlit アプリは、AWS EC2 または Elastic Beanstalk でホストできます。

すべてがうまくいけば、おめでとうございます。あなたは勉強仲間になったばかりです。このプロジェクトを評価する必要がある場合は、合成データの例をいくつか追加するか (当然??)、私の目標に完全に一致する別の教育用データセットを入手することができます。

読んでいただきありがとうございます!ご意見をお聞かせください!

以上がAmazon Bedrock を使用してパーソナライズされた学習コンパニオンを構築するの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

ソース:dev.to
このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。
著者別の最新記事
人気のチュートリアル
詳細>
最新のダウンロード
詳細>
ウェブエフェクト
公式サイト
サイト素材
フロントエンドテンプレート