? 대화형 AI 앱을 구축하고 배포하고 싶으신가요 ?? ??? ???????? 그냥 에? ????? ?? ?????
이 튜토리얼에서는 LlamaIndex를 사용하여 Q&A 엔진을 만들고 FastAPI를 사용하여 HTTP를 통해 제공하며 DBOS를 사용하여 서버 없이 클라우드에 배포합니다.
LlamaIndex의 5줄 스타터를 기반으로 하며 클라우드 지원을 위해 4줄만 추가하면 됩니다. 간단하고 빠르며 확장이 가능합니다!
먼저 앱 폴더를 생성하고 가상 환경을 활성화하세요.
python3 -m venv ai-app/.venv cd ai-app source .venv/bin/activate touch main.py
그런 다음 종속성을 설치하고 DBOS 구성 파일을 초기화합니다.
pip install dbos llama-index dbos init --config
다음으로 이 앱을 실행하려면 OpenAI 개발자 계정이 필요합니다. 여기에서 API 키를 받으세요. API 키를 환경 변수로 설정하세요.
export OPENAI_API_KEY=XXXXX
dbos-config.yaml에서 환경 변수를 선언합니다.
env: OPENAI_API_KEY: ${OPENAI_API_KEY}
마지막으로 데이터를 다운로드해 보겠습니다. 이 앱은 Paul Graham의 "What I Worked On"의 텍스트를 사용합니다. 이 링크에서 텍스트를 다운로드하여 앱 폴더의 data/paul_graham_essay.txt에 저장할 수 있습니다.
이제 앱 폴더 구조는 다음과 같습니다.
ai-app/ ├── dbos-config.yaml ├── main.py └── data/ └── paul_graham_essay.txt
이제 LlamaIndex를 사용하여 단 5줄의 코드로 간단한 AI 애플리케이션을 작성해 보겠습니다.
main.py에 다음 코드를 추가하세요.
from llama_index.core import VectorStoreIndex, SimpleDirectoryReader documents = SimpleDirectoryReader("data").load_data() index = VectorStoreIndex.from_documents(documents) query_engine = index.as_query_engine() response = query_engine.query("What did the author do growing up?") print(response)
이 스크립트는 데이터를 로드하고 data/ 폴더 아래 문서에 대한 색인을 생성하며, 색인을 쿼리하여 답변을 생성합니다. 이 스크립트를 실행하면 다음과 같은 응답을 받게 됩니다.
$ python3 main.py The author worked on writing short stories and programming...
이제 HTTP를 통해 응답을 제공하기 위해 FastAPI 엔드포인트를 추가해 보겠습니다. main.py를 다음과 같이 수정하세요.
from llama_index.core import VectorStoreIndex, SimpleDirectoryReader from fastapi import FastAPI app = FastAPI() documents = SimpleDirectoryReader("data").load_data() index = VectorStoreIndex.from_documents(documents) query_engine = index.as_query_engine() @app.get("/") def get_answer(): response = query_engine.query("What did the author do growing up?") return str(response)
이제 fastapi run main.py를 사용하여 앱을 시작할 수 있습니다. 작동하는지 확인하려면 다음 URL을 방문하세요: http://localhost:8000
브라우저 창을 새로 고칠 때마다 결과가 조금씩 다를 수 있습니다!
앱을 DBOS Cloud에 배포하려면 main.py에 두 줄만 추가하면 됩니다.
from llama_index.core import VectorStoreIndex, SimpleDirectoryReader from fastapi import FastAPI from dbos import DBOS app = FastAPI() DBOS(fastapi=app) documents = SimpleDirectoryReader("data").load_data() index = VectorStoreIndex.from_documents(documents) query_engine = index.as_query_engine() @app.get("/") def get_answer(): response = query_engine.query("What did the author do growing up?") return str(response)
아직 DBOS Cloud CLI를 설치하지 않았다면 지금 설치하세요(Node.js 필요).
npm i -g @dbos-inc/dbos-cloud
그런 다음 요구사항.txt에 대한 종속성을 고정하고 DBOS Cloud에 배포합니다.
pip freeze > requirements.txt dbos-cloud app deploy
1분 안에 신청서가 인쇄됩니다.
앱이 작동하는지 확인하려면
축하합니다. 첫 번째 AI 앱을 DBOS Cloud에 성공적으로 배포했습니다! 클라우드 콘솔에서 배포된 앱을 확인할 수 있습니다.
이것은 DBOS 여정의 시작일 뿐입니다. 다음으로, DBOS가 AI 애플리케이션의 확장성과 탄력성을 어떻게 향상시킬 수 있는지 확인해 보세요.
한번 해보고 어떻게 생각하는지 알려주세요 ?
위 내용은 여러 코드로 서버리스 OpenAI 앱 구축 및 배포의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!