目錄
>如果您熟悉OpenAI API進行聊天完成,則必須將模型名稱設置為“ O1-Preview”並提供詳細的提示。這是那麼簡單的。
>提示:“
2。設置
7。創建一個FastApi應用程序
8。使用docker
首頁 科技週邊 人工智慧 Openai O1-preiview教程:構建機器學習項目

Openai O1-preiview教程:構建機器學習項目

Mar 04, 2025 am 09:13 AM

在本教程中,我們將從頭開始創建一個水質分類器應用程序,並使用Docker部署到雲中。 

>我們將首先探索OpenAI O1模型並了解其功能。然後,我們將通過API和CHATGPT訪問該模型,並在開發構建水質分類器應用程序的有效提示之前,先嘗試O1-preiview和O1-Mini版本。 

>輸出後,我們將通過本地執行Python代碼來將O1模型提供的代碼和文件添加到項目文件夾中,然後加載,預處理,訓練和評估。最後,我們將構建一個FastAPI應用程序,並使用Docker將其部署在擁抱面上。

>

如果您是AI的新手,那麼AI基礎知識技能軌道是一個不錯的起點。它將幫助您了解流行的AI主題,例如Chatgpt和大型語言模型。 

Openai O1-preiview教程:構建機器學習項目

>由作者 圖像

開始使用O1-preiview和O1-Mini

>有許多易於訪問的O1型號,但是官方型號是通過OpenAI API或使用Chatgpt Plus或團隊訂閱。 

在本節中,我們將學習如何使用它們來解決複雜的問題。

訪問O1模型

>如果您熟悉OpenAI API進行聊天完成,則必須將模型名稱設置為“ O1-Preview”並提供詳細的提示。這是那麼簡單的。

>要在Chatgpt上訪問它,您必須單擊“模型選擇”下拉選項,然後選擇“ O1-Preview”模型,如下所示。
from openai import OpenAI
client = OpenAI()

response = client.chat.completions.create(
    model="o1-preview",
    messages=[
        {
            "role": "user", 
            "content": "Create an SQL database from scratch, including guides on usage and code everything in Python."
        }
    ]
)

print(response.choices[0].message.content)
登入後複製
登入後複製
登入後複製
登入後複製
登入後複製

Openai O1-preiview教程:構建機器學習項目在chatgpt中使用o1-preview模型

O1模型的提示不同。您必須為其提供多個說明或詳細問題,以充分實現其力量。生成最佳答案可能需要長時間複雜的指示。

>計算歐洲自由職業業務的稅收可能很複雜。我們將使用O1模型來確定我們對西班牙政府的納稅責任。

提示:“

我是西班牙的自由職業者,在美國一家公司工作。在過去的一年中,我賺了12萬美元,我需要計算我所欠的稅款。請考慮我8個月前搬到西班牙。

>響應花費了將近30秒,但響應詳細介紹了。它包括數學方程式,稅收信息以及所有必要的細節,以確定我們欠西班牙政府多少。

響應分為以下部分:

  1. 確定您的稅收居留狀態
  2. >將您的收入轉換為歐元
  3. 計算您的應稅收入
  4. 計算社會保障貢獻
  5. 欠估計稅的總估計
  6. 重要說明
  7. 下一步
審查摘要部分為我們提供了欠政府的大約稅款,這很有幫助。 

Openai O1-preiview教程:構建機器學習項目

>您可以單擊聊天響應中的下拉菜單,以查看思想和決策鏈。 

>我們可以看到該模型在回答您的問題之前了解他的背景,稅收影響和稅收範圍。

Openai O1-preiview教程:構建機器學習項目在chatgpt

中使用O1-Mini模型 O1-MINI模型的準確性較差,但要比O1-preview模型更快。在我們的情況下,我們將使用此模型來創建一個用於數據科學恢復的靜態網站。

>提示:“

請使用Python框架為我的數據科學簡歷創建一個靜態網站。

>不僅創建了一個適當的簡歷網站,而且還為我們提供了有關如何免費在Github頁面上發布的指南。 >

響應分為以下部分:

Pelican簡介Openai O1-preiview教程:構建機器學習項目

>先決條件

設置鵜鶘

選擇一個主題
  1. 創建您的簡歷內容
  2. 構建網站
  3. 與Makefile
  4. 自動化
  5. >部署您的簡歷網站
  6. 增強您的簡歷網站
  7. 其他資源
  8. >在響應中顯示思想鍊是一個很棒的功能。我們可以清楚地看到該模型正在考慮將鵜鶘,燒瓶或雨果用作網絡框架。最後,它選擇了最好的解決方案。
  9. openai o1-preiview教程:構建水質分類器應用程序
  10. >
  11. 在此項目中,我們將使用O1-preiview模型來構建和部署水質分類應用程序。這是一個非常複雜的項目,因為我們將為它提供有關我們想要的內容的詳細描述。
如果您有興趣使用Chatgpt構建數據科學項目,請查看使用CHATGPT進行數據科學項目的指南。您將學習如何使用CHATGPT進行項目計劃,數據分析,數據預處理,模型選擇,超參數調整,開發Web應用程序並部署。

1。及時工程

>我們將在及時工程上花費更多的時間,因為我們要確保將所有項目指令都提供給模型。 Openai O1-preiview教程:構建機器學習項目

提示分為三個部分:
  1. 項目描述:對項目的詳細說明以及我們要構建的內容。 >
  2. 目標和限制:提供目標信息,例如旨在實現90%的準確性。  
  3. >遵循的步驟:提供您要採取的所有必要步驟。例如,使用Kaggle API攝入數據,將指標保存在文件夾中,執行數據分析,培訓和評估模型等等。編寫盡可能多的步驟。
>閱讀chatgpt的初學者指南提示工程,以了解如何在chatgpt中編寫適當的提示並生成所需的結果。迅速的工程是一門藝術,隨著O1模型的引入,已經變得更加必要學習。

提示:“我的項目經理已任務使用https://www.kaggle.com/datasets/adityakadiwal/water-potability提供的Kaggle數據集開發水質應用程序。請提供有關文件,Python軟件包和代碼的所有必要信息,以便我們可以構建一個高度準確的模型。

目標是達到90%的總體準確性。 

請按照構建項目的步驟:

1。使用API​​從Kaggle加載數據集並將其解壓縮到數據文件夾中。

2。預處理數據並執行一些數據分析。將分析數字和文件保存在“指標”文件夾中。

>

3。使用Scikit-Learn框架訓練模型。確保您跟踪實驗並保存模型文件和元數據。使用Skos庫保存模型。 

4。執行詳細的模型評估並保存結果。

>

5。創建一個FastApi應用程序,該應用程序從用戶那裡獲取圖像並預測水的質量。 >

6。確保使用JINJA2模板添加用戶界面。

>

7。使用Docker選項將應用程序部署在擁抱麵線上。

生成的響應為我們提供了加載數據,預處理,訓練和評估模型,創建FastAPI應用程序,創建用戶界面並部署它所需的所有信息。 

問題是它是分散的,我們希望它創建python和html文件,以便我們複製和粘貼代碼。

>現在,我們將將所有代碼轉換為Python和HTML文件,使我們的生活更加輕鬆。

>

後續提示:“請將代碼轉換為Python文件。” 

如我們所見,我們有一個項目結構,其中包含所有文件和代碼。我們要做的就是創建文件夾和文件,然後復制並粘貼代碼。

Openai O1-preiview教程:構建機器學習項目

2。設置

O1模型提供了設置項目目錄所需的所有信息。我們只需要使用代碼編輯器在項目目錄中創建文件夾和文件。 

我們將創建以下文件夾:>

>應用程序:此文件夾將包含FastApi和HTML模板的應用程序文件。
  1. 數據:此文件夾將包含原始數據和預處理數據。
  2. >
  3. >指標:此文件夾將包含模型評估數據和數據分析。
  4. 模型:此文件夾將包含保存的模型和縮放器對象。 >
  5. > src:此文件夾將包含所有可以幫助我們進行加載,處理,培訓和評估的Python文件。
  6. >
  7. >此外,主要目錄將包含Dockerfile,readme和unignts.txt文件。

3。加載數據集

>我們將使用Kaggle API加載水質Kaggle數據集並將其解壓縮到數據文件夾中。 Openai O1-preiview教程:構建機器學習項目

> datadownload_data.py:

運行Python文件將下載數據集,解壓縮並刪除zip文件。 

$ python .srcdownload_data.py

from openai import OpenAI
client = OpenAI()

response = client.chat.completions.create(
    model="o1-preview",
    messages=[
        {
            "role": "user", 
            "content": "Create an SQL database from scratch, including guides on usage and code everything in Python."
        }
    ]
)

print(response.choices[0].message.content)
登入後複製
登入後複製
登入後複製
登入後複製
登入後複製

4。預處理數據並執行數據分析

>預處理python文件將加載數據,清潔,處理丟失的數據,縮放它,然後保存縮放器和預處理數據集。它還將執行數據分析並保存指標和數據可視化。

>
import os

# Ensure the data directory exists
os.makedirs("data", exist_ok=True)

# Download the dataset
os.system("kaggle datasets download -d adityakadiwal/water-potability -p data --unzip")
登入後複製
登入後複製
登入後複製
> datapreprocess_data.py:

>我們獲得了預處理數據和所有數據分析報告。 

Dataset URL: https://www.kaggle.com/datasets/adityakadiwal/water-potability
License(s): CC0-1.0
Downloading water-potability.zip to data
100%|████████████████████████████████████████████████████████████████████████████████| 251k/251k [00:00<00:00, 304kB/s]
100%|████████████████████████████████████████████████████████████████████████████████| 251k/251k [00:00<00:00, 303kB/s]
登入後複製
登入後複製
登入後複製
import os
import pandas as pd
import seaborn as sns
import matplotlib.pyplot as plt
from sklearn.impute import SimpleImputer
from sklearn.preprocessing import StandardScaler
import joblib

# Create directories if they don't exist
os.makedirs("metrics", exist_ok=True)
os.makedirs("models", exist_ok=True)

# Load the dataset
data = pd.read_csv("data/water_potability.csv")

# Check for missing values and save the summary
missing_values = data.isnull().sum()
missing_values.to_csv("metrics/missing_values.csv")

# Statistical summary
stats = data.describe()
stats.to_csv("metrics/data_statistics.csv")

# Pair plot
sns.pairplot(data, hue="Potability")
plt.savefig("metrics/pairplot.png")

# Correlation heatmap
plt.figure(figsize=(10, 8))
sns.heatmap(data.corr(), annot=True)
plt.savefig("metrics/correlation_heatmap.png")

# Handle missing values
imputer = SimpleImputer(strategy="mean")
data_imputed = pd.DataFrame(imputer.fit_transform(data), columns=data.columns)

# Feature scaling
scaler = StandardScaler()
features = data_imputed.drop("Potability", axis=1)
target = data_imputed["Potability"]
features_scaled = scaler.fit_transform(features)

# Save the scaler
joblib.dump(scaler, "models/scaler.joblib")

# Save preprocessed data
preprocessed_data = pd.DataFrame(features_scaled, columns=features.columns)
preprocessed_data["Potability"] = target
preprocessed_data.to_csv("metrics/preprocessed_data.csv", index=False)
登入後複製
登入後複製
登入後複製

5。建築和培訓

>訓練腳本加載了預處理數據,並使用它來訓練隨機的森林分類器。然後,Skope用於保存模型,手動跟踪實驗,然後將模型元數據保存為JSON文件。 Openai O1-preiview教程:構建機器學習項目

> srctrain_model.py:

培訓腳本將生成模型文件和元數據,如下所示。

$ python .\src\preprocess_data.py 
登入後複製
登入後複製
登入後複製
import os
import json
import skops.io as sio
import pandas as pd
from sklearn.model_selection import train_test_split
from sklearn.ensemble import RandomForestClassifier

# Load preprocessed data
data = pd.read_csv("metrics/preprocessed_data.csv")
features = data.drop("Potability", axis=1)
target = data["Potability"]

# Split the data
X_train, X_test, y_train, y_test = train_test_split(
    features, target, test_size=0.2, random_state=42, stratify=target
)

# Train the model
model = RandomForestClassifier(n_estimators=200, random_state=42)
model.fit(X_train, y_train)

# Save the model using skops
os.makedirs("models", exist_ok=True)
sio.dump(model, "models/water_quality_model.skops")

# Track experiments and save metadata
metadata = {
    "model_name": "RandomForestClassifier",
    "parameters": model.get_params(),
    "training_score": model.score(X_train, y_train),
}

with open("models/metadata.json", "w") as f:
    json.dump(metadata, f, indent=4)
登入後複製
登入後複製
6。模型評估

>模型評估腳本加載已處理的數據和保存的模型,以生成分類報告,混亂矩陣,ROC曲線,AUC和整體準確性。所有的指標和數字都保存在指標文件夾中。

> Openai O1-preiview教程:構建機器學習項目> srcevaluate_model.py:

from openai import OpenAI
client = OpenAI()

response = client.chat.completions.create(
    model="o1-preview",
    messages=[
        {
            "role": "user", 
            "content": "Create an SQL database from scratch, including guides on usage and code everything in Python."
        }
    ]
)

print(response.choices[0].message.content)
登入後複製
登入後複製
登入後複製
登入後複製
登入後複製
import os

# Ensure the data directory exists
os.makedirs("data", exist_ok=True)

# Download the dataset
os.system("kaggle datasets download -d adityakadiwal/water-potability -p data --unzip")
登入後複製
登入後複製
登入後複製

>總體準確性不是很好。但是,我們總是可以要求O1模型提高準確性。                                                      

Dataset URL: https://www.kaggle.com/datasets/adityakadiwal/water-potability
License(s): CC0-1.0
Downloading water-potability.zip to data
100%|████████████████████████████████████████████████████████████████████████████████| 251k/251k [00:00<00:00, 304kB/s]
100%|████████████████████████████████████████████████████████████████████████████████| 251k/251k [00:00<00:00, 303kB/s]
登入後複製
登入後複製
登入後複製

指標文件夾包含所有保存的模型評估數字和指標。我們可以手動查看它以詳細了解模型性能。

Openai O1-preiview教程:構建機器學習項目

7。創建一個FastApi應用程序

為了為FastAPI應用程序創建用戶界面,我們需要創建索引和結果頁面。這可以通過在應用程序目錄中創建模板文件夾並添加兩個HTML文件來完成這一點:一個用於主頁,一個用於結果頁面。

>查看FastAPI教程:使用FastApi詳細了解FastAPI框架以及如何在項目中實現它的簡介。 

如果您不熟悉HTML,請不要擔心。您只需要復制和粘貼代碼並信任O1模型即可。 

> appTemplatesform.html:

import os
import pandas as pd
import seaborn as sns
import matplotlib.pyplot as plt
from sklearn.impute import SimpleImputer
from sklearn.preprocessing import StandardScaler
import joblib

# Create directories if they don't exist
os.makedirs("metrics", exist_ok=True)
os.makedirs("models", exist_ok=True)

# Load the dataset
data = pd.read_csv("data/water_potability.csv")

# Check for missing values and save the summary
missing_values = data.isnull().sum()
missing_values.to_csv("metrics/missing_values.csv")

# Statistical summary
stats = data.describe()
stats.to_csv("metrics/data_statistics.csv")

# Pair plot
sns.pairplot(data, hue="Potability")
plt.savefig("metrics/pairplot.png")

# Correlation heatmap
plt.figure(figsize=(10, 8))
sns.heatmap(data.corr(), annot=True)
plt.savefig("metrics/correlation_heatmap.png")

# Handle missing values
imputer = SimpleImputer(strategy="mean")
data_imputed = pd.DataFrame(imputer.fit_transform(data), columns=data.columns)

# Feature scaling
scaler = StandardScaler()
features = data_imputed.drop("Potability", axis=1)
target = data_imputed["Potability"]
features_scaled = scaler.fit_transform(features)

# Save the scaler
joblib.dump(scaler, "models/scaler.joblib")

# Save preprocessed data
preprocessed_data = pd.DataFrame(features_scaled, columns=features.columns)
preprocessed_data["Potability"] = target
preprocessed_data.to_csv("metrics/preprocessed_data.csv", index=False)
登入後複製
登入後複製
登入後複製

> appTemplatesResult.html:

$ python .\src\preprocess_data.py 
登入後複製
登入後複製
登入後複製

主應用程序Python文件具有兩個Python函數:主頁和預測。 “主頁”功能顯示包含輸入框和一個按鈕的歡迎頁面。 “預測”函數會轉換用戶輸入,通過模型運行並顯示結果,指示水是否飲用。

>

> apptemplatesmain.py:

import os
import json
import skops.io as sio
import pandas as pd
from sklearn.model_selection import train_test_split
from sklearn.ensemble import RandomForestClassifier

# Load preprocessed data
data = pd.read_csv("metrics/preprocessed_data.csv")
features = data.drop("Potability", axis=1)
target = data["Potability"]

# Split the data
X_train, X_test, y_train, y_test = train_test_split(
    features, target, test_size=0.2, random_state=42, stratify=target
)

# Train the model
model = RandomForestClassifier(n_estimators=200, random_state=42)
model.fit(X_train, y_train)

# Save the model using skops
os.makedirs("models", exist_ok=True)
sio.dump(model, "models/water_quality_model.skops")

# Track experiments and save metadata
metadata = {
    "model_name": "RandomForestClassifier",
    "parameters": model.get_params(),
    "training_score": model.score(X_train, y_train),
}

with open("models/metadata.json", "w") as f:
    json.dump(metadata, f, indent=4)
登入後複製
登入後複製
我們將首先在本地測試該應用程序,以驗證它是否正在運行。

>

通過使用UVicorn運行Python文件,我們獲得了可以復制並粘貼到我們的瀏覽器中的本地地址。 
$ python .\src\train_model.py 
登入後複製

注意:O1模型也提供了有關如何運行文件的所有信息。

如我們所見,該應用程序正常工作。 

import os
import json
import pandas as pd
import numpy as np
import seaborn as sns
import matplotlib.pyplot as plt
from sklearn.metrics import (
    classification_report,
    confusion_matrix,
    roc_auc_score,
    roc_curve,
)
import skops.io as sio
from sklearn.model_selection import train_test_split

# Load preprocessed data
data = pd.read_csv("metrics/preprocessed_data.csv")
features = data.drop("Potability", axis=1)
target = data["Potability"]

# Split the data
X_train, X_test, y_train, y_test = train_test_split(
    features, target, test_size=0.2, random_state=42, stratify=target
)

# Load the model
model = sio.load("models/water_quality_model.skops")

# Predictions
y_pred = model.predict(X_test)
y_pred_proba = model.predict_proba(X_test)[:, 1]

# Classification report
report = classification_report(y_test, y_pred, output_dict=True)
with open("metrics/classification_report.json", "w") as f:
    json.dump(report, f, indent=4)

# Confusion matrix
cm = confusion_matrix(y_test, y_pred)
sns.heatmap(cm, annot=True, fmt="d")
plt.title("Confusion Matrix")
plt.ylabel("Actual Label")
plt.xlabel("Predicted Label")
plt.savefig("metrics/confusion_matrix.png")

# ROC curve and AUC
fpr, tpr, _ = roc_curve(y_test, y_pred_proba)
roc_auc = roc_auc_score(y_test, y_pred_proba)

plt.figure()
plt.plot(fpr, tpr, label="AUC = %0.2f" % roc_auc)
plt.plot([0, 1], [0, 1], "k--")
plt.legend(loc="lower right")
plt.xlabel("False Positive Rate")
plt.ylabel("True Positive Rate")
plt.title("Receiver Operating Characteristic")
plt.savefig("metrics/roc_curve.png")

# Overall accuracy
accuracy = model.score(X_test, y_test)
print(f"Overall Accuracy: {accuracy * 100:.2f}%")
登入後複製

>讓我們提供隨機值以檢查水質並按預測按鈕。 

Openai O1-preiview教程:構建機器學習項目

結果很棒。它表明水是不可酒的。

Openai O1-preiview教程:構建機器學習項目

>您甚至可以通過在URL之後鍵入“/docs”來測試API並生成結果來訪問FastApi Swagger UI。 

Openai O1-preiview教程:構建機器學習項目

8。使用docker

部署該應用程序在擁抱臉部集線器上

> OpenAI O1模型已經生成了Docker代碼,指南和參考鏈接,以成功地學習如何在擁抱面前部署應用程序。

閱讀數據科學的Docker:一個了解Docker的工作方式的簡介教程。您將學習如何設置Docker,使用Docker命令,Dockerize機器學習應用程序並遵循行業範圍的最佳實踐。

首先,通過單擊“擁抱臉”網站上的個人資料圖片,然後單擊“新空間”按鈕來創建一個新的空間。輸入應用程序名稱,選擇SDK類型(Docker),選擇許可證類型,然後按“創建空間”。

Openai O1-preiview教程:構建機器學習項目

>來源:擁抱臉

>在主頁上提供了使用Docker部署該應用程序的所有說明。

Openai O1-preiview教程:構建機器學習項目

來源:水質分類器

接下來,我們必須克隆存儲庫。

>

在存儲庫中,移動應用程序和模型文件夾。創建一個dockerfile並鍵入以下命令。 O1模型為我們提供了代碼;我們只需要將端口號更改為7860。
from openai import OpenAI
client = OpenAI()

response = client.chat.completions.create(
    model="o1-preview",
    messages=[
        {
            "role": "user", 
            "content": "Create an SQL database from scratch, including guides on usage and code everything in Python."
        }
    ]
)

print(response.choices[0].message.content)
登入後複製
登入後複製
登入後複製
登入後複製
登入後複製
>

> dockerfile:

>創建需求.txt文件,其中包含有關Python軟件包的信息。我們將使用此文件下載並在雲服務器上安裝所有必需的Python軟件包。 >
import os

# Ensure the data directory exists
os.makedirs("data", exist_ok=True)

# Download the dataset
os.system("kaggle datasets download -d adityakadiwal/water-potability -p data --unzip")
登入後複製
登入後複製
登入後複製
>要求.txt:

這是我們的應用存儲庫應該看起來的方式:

Dataset URL: https://www.kaggle.com/datasets/adityakadiwal/water-potability
License(s): CC0-1.0
Downloading water-potability.zip to data
100%|████████████████████████████████████████████████████████████████████████████████| 251k/251k [00:00<00:00, 304kB/s]
100%|████████████████████████████████████████████████████████████████████████████████| 251k/251k [00:00<00:00, 303kB/s]
登入後複製
登入後複製
登入後複製

我們的模型是一個大文件(&GT; 10MB),因此我們需要使用Git LFS跟踪它。安裝git lfs,並使用擴展名“ .skops”跟踪所有文件。 Openai O1-preiview教程:構建機器學習項目>

階段所有更改,使用消息提交,然後將其推向遠程服務器。

import os
import pandas as pd
import seaborn as sns
import matplotlib.pyplot as plt
from sklearn.impute import SimpleImputer
from sklearn.preprocessing import StandardScaler
import joblib

# Create directories if they don't exist
os.makedirs("metrics", exist_ok=True)
os.makedirs("models", exist_ok=True)

# Load the dataset
data = pd.read_csv("data/water_potability.csv")

# Check for missing values and save the summary
missing_values = data.isnull().sum()
missing_values.to_csv("metrics/missing_values.csv")

# Statistical summary
stats = data.describe()
stats.to_csv("metrics/data_statistics.csv")

# Pair plot
sns.pairplot(data, hue="Potability")
plt.savefig("metrics/pairplot.png")

# Correlation heatmap
plt.figure(figsize=(10, 8))
sns.heatmap(data.corr(), annot=True)
plt.savefig("metrics/correlation_heatmap.png")

# Handle missing values
imputer = SimpleImputer(strategy="mean")
data_imputed = pd.DataFrame(imputer.fit_transform(data), columns=data.columns)

# Feature scaling
scaler = StandardScaler()
features = data_imputed.drop("Potability", axis=1)
target = data_imputed["Potability"]
features_scaled = scaler.fit_transform(features)

# Save the scaler
joblib.dump(scaler, "models/scaler.joblib")

# Save preprocessed data
preprocessed_data = pd.DataFrame(features_scaled, columns=features.columns)
preprocessed_data["Potability"] = target
preprocessed_data.to_csv("metrics/preprocessed_data.csv", index=False)
登入後複製
登入後複製
登入後複製

>在擁抱臉上轉到您的應用頁面,您會發現它正在構建容器並安裝所有必要的軟件包。 

$ python .\src\preprocess_data.py 
登入後複製
登入後複製
登入後複製

來源:水質分類器Openai O1-preiview教程:構建機器學習項目

幾分鐘後,該應用程序將準備好使用。它看起來類似於本地應用。讓我們嘗試為其提供樣本值並生成結果。 

來源:水質分類器Openai O1-preiview教程:構建機器學習項目

我們的應用程序正常運行,並產生了預期的結果。

>

來源:水質分類器Openai O1-preiview教程:構建機器學習項目

這個擁抱的面部空間應用程序可供任何人使用,這意味著我們可以使用終端中的curl命令訪問它。 

>輸出:

from openai import OpenAI
client = OpenAI()

response = client.chat.completions.create(
    model="o1-preview",
    messages=[
        {
            "role": "user", 
            "content": "Create an SQL database from scratch, including guides on usage and code everything in Python."
        }
    ]
)

print(response.choices[0].message.content)
登入後複製
登入後複製
登入後複製
登入後複製
登入後複製

所有項目文件,數據,模型和元數據都可以在KingAbzPro/Water-water-app github存儲庫上提供。

作者的意見

O1-Preview模型遠遠優於GPT-4O。它完美地遵循說明,並且無漏洞,因此它生成的代碼已準備就緒。在構建機器學習應用程序時,我只需要進行次要更改,約為5%。最好的部分是,我還從AI模型的決策中學到了為什麼它做出某些選擇的原因。
abid ali ali ali awan

>結論

在本教程中,我們已經看到了OpenAI的O1推理模型的功能。我們建立了一個完整的機器學習項目,只需對代碼進行一些更改,它立即起作用。該模型完美地處理了每個命令,並產生了出色的結果,而無需進行後續說明。

>現在,我們可以訪問O1模型的較小版本,例如O1-Preview和O1 Mini。將來,我們將可以訪問完整的O1模型,這對於構建複雜的項目甚至會更好。關鍵是要提出正確的問題以從模型中獲得最大收益。 使用AI模型

構建機器學習項目很簡單,但是如果您想使其成為職業,則需要了解這些模型的工作原理。沒有這些,很難解決問題或將模型應用於特定的業務需求。為了獲得這種理解,我們建議初學者將機器學習科學家帶入Python職業軌道。它包括21個課程和3個項目,可以教您如何建立和改善不同類型的機器學習模型。

>賺取頂級AI認證

>證明您可以有效,負責任地使用AI。

以上是Openai O1-preiview教程:構建機器學習項目的詳細內容。更多資訊請關注PHP中文網其他相關文章!

本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn

熱AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool

Undress AI Tool

免費脫衣圖片

Clothoff.io

Clothoff.io

AI脫衣器

Video Face Swap

Video Face Swap

使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱工具

記事本++7.3.1

記事本++7.3.1

好用且免費的程式碼編輯器

SublimeText3漢化版

SublimeText3漢化版

中文版,非常好用

禪工作室 13.0.1

禪工作室 13.0.1

強大的PHP整合開發環境

Dreamweaver CS6

Dreamweaver CS6

視覺化網頁開發工具

SublimeText3 Mac版

SublimeText3 Mac版

神級程式碼編輯軟體(SublimeText3)

熱門話題

Java教學
1658
14
CakePHP 教程
1415
52
Laravel 教程
1309
25
PHP教程
1257
29
C# 教程
1231
24
開始使用Meta Llama 3.2 -Analytics Vidhya 開始使用Meta Llama 3.2 -Analytics Vidhya Apr 11, 2025 pm 12:04 PM

Meta的Llama 3.2:多模式和移動AI的飛躍 Meta最近公佈了Llama 3.2,這是AI的重大進步,具有強大的視覺功能和針對移動設備優化的輕量級文本模型。 以成功為基礎

10個生成AI編碼擴展,在VS代碼中,您必須探索 10個生成AI編碼擴展,在VS代碼中,您必須探索 Apr 13, 2025 am 01:14 AM

嘿,編碼忍者!您當天計劃哪些與編碼有關的任務?在您進一步研究此博客之前,我希望您考慮所有與編碼相關的困境,這是將其列出的。 完畢? - 讓&#8217

AV字節:Meta&#039; llama 3.2,Google的雙子座1.5等 AV字節:Meta&#039; llama 3.2,Google的雙子座1.5等 Apr 11, 2025 pm 12:01 PM

本週的AI景觀:進步,道德考慮和監管辯論的旋風。 OpenAI,Google,Meta和Microsoft等主要參與者已經釋放了一系列更新,從開創性的新車型到LE的關鍵轉變

向員工出售AI策略:Shopify首席執行官的宣言 向員工出售AI策略:Shopify首席執行官的宣言 Apr 10, 2025 am 11:19 AM

Shopify首席執行官TobiLütke最近的備忘錄大膽地宣布AI對每位員工的基本期望是公司內部的重大文化轉變。 這不是短暫的趨勢。這是整合到P中的新操作範式

視覺語言模型(VLMS)的綜合指南 視覺語言模型(VLMS)的綜合指南 Apr 12, 2025 am 11:58 AM

介紹 想像一下,穿過​​美術館,周圍是生動的繪畫和雕塑。現在,如果您可以向每一部分提出一個問題並獲得有意義的答案,該怎麼辦?您可能會問:“您在講什麼故事?

GPT-4O vs OpenAI O1:新的Openai模型值得炒作嗎? GPT-4O vs OpenAI O1:新的Openai模型值得炒作嗎? Apr 13, 2025 am 10:18 AM

介紹 Openai已根據備受期待的“草莓”建築發布了其新模型。這種稱為O1的創新模型增強了推理能力,使其可以通過問題進行思考

如何在SQL中添加列? - 分析Vidhya 如何在SQL中添加列? - 分析Vidhya Apr 17, 2025 am 11:43 AM

SQL的Alter表語句:動態地將列添加到數據庫 在數據管理中,SQL的適應性至關重要。 需要即時調整數據庫結構嗎? Alter表語句是您的解決方案。本指南的詳細信息添加了Colu

最新的最佳及時工程技術的年度彙編 最新的最佳及時工程技術的年度彙編 Apr 10, 2025 am 11:22 AM

對於那些可能是我專欄新手的人,我廣泛探討了AI的最新進展,包括體現AI,AI推理,AI中的高科技突破,及時的工程,AI培訓,AI,AI RE RE等主題

See all articles