在这篇博文中,我们将逐步介绍创建一个与 Ollama 的 Llama 3 模型交互的简单聊天应用程序的过程。我们将使用 JavaScript、HTML 和 CSS 作为前端,并使用 Node.js 和 Express 作为后端。最后,您将拥有一个可以运行的聊天应用程序,它将用户消息发送到 AI 模型并实时显示响应。
开始之前,请确保您的计算机上安装了以下软件:
首先,创建一个名为 index.html 的 HTML 文件,它定义我们的聊天应用程序的结构。
<!DOCTYPE html> <html lang="en"> <head> <meta charset="UTF-8"> <meta name="viewport" content="width=device-width, initial-scale=1.0"> <title>Chat with Ollama's Llama 3</title> <link rel="stylesheet" href="styles.css"> </head> <body> <div id="chat-container"> <div id="chat-window"> <div id="messages"></div> </div> <input type="text" id="user-input" placeholder="Type your message here..."> <button id="send-button">Send</button> </div> <script src="script.js"></script> </body> </html>
此 HTML 文件包含聊天消息的容器、用户消息的输入字段和发送按钮。
接下来,创建一个名为 styles.css 的 CSS 文件来设置聊天应用程序的样式。
body { font-family: Arial, sans-serif; display: flex; justify-content: center; align-items: center; height: 100vh; background-color: #f0f0f0; margin: 0; } #chat-container { width: 400px; border: 1px solid #ccc; background-color: #fff; border-radius: 8px; box-shadow: 0 4px 8px rgba(0, 0, 0, 0.1); overflow: hidden; } #chat-window { height: 300px; padding: 10px; overflow-y: auto; border-bottom: 1px solid #ccc; } #messages { display: flex; flex-direction: column; } .message { padding: 8px; margin: 4px 0; border-radius: 4px; } .user-message { align-self: flex-end; background-color: #007bff; color: #fff; } .ai-message { align-self: flex-start; background-color: #e0e0e0; color: #000; } #user-input { width: calc(100% - 60px); padding: 10px; border: none; border-radius: 0; outline: none; } #send-button { width: 60px; padding: 10px; border: none; background-color: #007bff; color: #fff; cursor: pointer; }
此 CSS 文件可确保聊天应用程序看起来干净且现代。
创建一个名为 script.js 的 JavaScript 文件来处理前端功能。
document.getElementById('send-button').addEventListener('click', sendMessage); document.getElementById('user-input').addEventListener('keypress', function (e) { if (e.key === 'Enter') { sendMessage(); } }); function sendMessage() { const userInput = document.getElementById('user-input'); const messageText = userInput.value.trim(); if (messageText === '') return; displayMessage(messageText, 'user-message'); userInput.value = ''; // Send the message to the local AI and get the response getAIResponse(messageText).then(aiResponse => { displayMessage(aiResponse, 'ai-message'); }).catch(error => { console.error('Error:', error); displayMessage('Sorry, something went wrong.', 'ai-message'); }); } function displayMessage(text, className) { const messageElement = document.createElement('div'); messageElement.textContent = text; messageElement.className = `message ${className}`; document.getElementById('messages').appendChild(messageElement); document.getElementById('messages').scrollTop = document.getElementById('messages').scrollHeight; } async function getAIResponse(userMessage) { // Example AJAX call to a local server interacting with Ollama Llama 3 const response = await fetch('http://localhost:5000/ollama', { method: 'POST', headers: { 'Content-Type': 'application/json', }, body: JSON.stringify({ message: userMessage }), }); if (!response.ok) { throw new Error('Network response was not ok'); } const data = await response.json(); return data.response; // Adjust this based on your server's response structure }
此 JavaScript 文件将事件侦听器添加到发送按钮和输入字段,将用户消息发送到后端,并显示用户和 AI 响应。
确保您已安装 Node.js。然后,为后端创建一个 server.js 文件。
安装 Express:
npm install express body-parser
创建 server.js 文件:
const express = require('express'); const bodyParser = require('body-parser'); const app = express(); const port = 5000; app.use(bodyParser.json()); app.post('/ollama', async (req, res) => { const userMessage = req.body.message; // Replace this with actual interaction with Ollama's Llama 3 // This is a placeholder for demonstration purposes const aiResponse = await getLlama3Response(userMessage); res.json({ response: aiResponse }); }); // Placeholder function to simulate AI response async function getLlama3Response(userMessage) { // Replace this with actual API call to Ollama's Llama 3 return `Llama 3 says: ${userMessage}`; } app.listen(port, () => { console.log(`Server running at http://localhost:${port}`); });
运行服务器:
node server.js
在此设置中,您的 Node.js 服务器将处理传入请求,与 Ollama 的 Llama 3 模型交互,并返回响应。
通过执行以下步骤,您已经创建了一个聊天应用程序,该应用程序将用户消息发送到 Ollama 的 Llama 3 模型并显示响应。此设置可以根据您的具体要求和 Llama 3 模型提供的功能进行扩展和定制。
随意探索和增强聊天应用程序的功能。快乐编码!
以上是使用 JavaScript、HTML 和 CSS 与 Ollama 的 Llama odel 构建聊天应用程序的详细内容。更多信息请关注PHP中文网其他相关文章!