Windows on Ollama: LLM(대형 언어 모델)을 로컬에서 실행하기 위한 새로운 도구
최근 OpenAI Translator와 NextChat은 Ollama에서 로컬로 실행되는 대규모 언어 모델을 지원하기 시작했으며, 이는 "초보자" 매니아를 위한 새로운 플레이 방식을 추가합니다.
그리고 Windows(미리보기 버전)에서 Ollama의 출시는 Windows 장치의 AI 개발 방식을 완전히 뒤바꾸었습니다. 이는 AI 분야의 탐험가와 일반 "수질 테스트 플레이어"에게 명확한 길을 안내했습니다.
올라마란 무엇인가요?
Ollama는 AI 모델의 개발 및 사용을 크게 단순화하는 획기적인 인공 지능(AI) 및 기계 학습(ML) 도구 플랫폼입니다.
기술 커뮤니티에서 AI 모델의 하드웨어 구성과 환경 구축은 항상 까다로운 문제였으며 Ollama는 이러한 중요한 요구 사항을 해결하기 위해 등장했습니다.
- 일련의 도구를 제공할 뿐만 아니라 더 중요한 것은 이러한 도구가 사용하기 매우 직관적이고 효율적이라는 것입니다. AI 분야의 전문가이든 이 분야를 처음 접하는 초보자이든 관계없이 다음에서 해당 지원을 찾을 수 있습니다. 올라마.
- Ollama는 단순한 사용 편의성 외에도 더 이상 소수의 사람에게만 국한되지 않는 고급 AI 모델 및 컴퓨팅 리소스에 대한 액세스를 제공합니다. AI 및 ML 커뮤니티에 있어서 Ollama의 탄생은 AI 기술의 대중화를 촉진하고 더 많은 사람들이 자신의 AI 아이디어를 시도하고 실천할 수 있게 하는 이정표입니다.
올라마가 눈에 띄는 이유는 무엇인가요?
많은 AI 도구 중에서 Ollama는 다음과 같은 주요 장점을 가지고 있습니다. 이러한 기능은 고유성을 강조할 뿐만 아니라 AI 개발자와 애호가가 직면하는 가장 일반적인 문제를 해결합니다.
- 자동 하드웨어 가속: Ollama는 Windows 시스템에서 최적의 하드웨어 리소스를 자동으로 식별하고 최대한 활용할 수 있습니다. AVX 및 AVX2와 같은 고급 명령어 세트를 지원하는 NVIDIA GPU 또는 CPU가 장착되어 있든 Ollama는 AI 모델이 보다 효율적으로 실행되도록 목표 최적화를 달성할 수 있습니다. 이를 통해 더 이상 복잡한 하드웨어 구성 문제에 대해 걱정할 필요가 없으며 프로젝트 자체에 더 많은 시간과 에너지를 집중할 수 있습니다.
- 가상화 필요 없음: AI를 개발할 때 가상 머신을 구축하거나 복잡한 소프트웨어 환경을 구성해야 하는 경우가 많았습니다. Ollama를 사용하면 이 모든 것이 더 이상 장애물이 아니며 AI 프로젝트 개발을 직접 시작할 수 있어 전체 프로세스가 간단하고 빨라집니다. 이러한 편리함은 AI 기술을 시도하려는 개인이나 조직의 진입 장벽을 낮춰줍니다.
- 전체 Ollama 모델 라이브러리에 대한 액세스: Ollama는 LLaVA 및 Google의 최신 Gemma 모델과 같은 고급 이미지 인식 모델을 포함하여 풍부한 AI 모델 라이브러리를 사용자에게 제공합니다. 이러한 포괄적인 "무기고"를 통해 우리는 통합을 직접 검색하는 데 시간과 노력을 들이지 않고도 다양한 오픈 소스 모델을 쉽게 시도하고 적용할 수 있습니다. 텍스트 분석, 이미지 처리 또는 기타 AI 작업을 수행하려는 경우 Ollama의 모델 라이브러리는 강력한 지원을 제공할 수 있습니다.
- Ollama의 상주 API: 오늘날 소프트웨어 상호 연결 시대에 AI 기능을 자체 애플리케이션에 통합하는 것은 매우 중요합니다. Ollama의 상주 API는 백그라운드에서 자동으로 실행되어 추가적인 복잡한 설정 없이도 강력한 AI 기능을 프로젝트에 원활하게 연결할 수 있어 이 프로세스를 크게 단순화합니다. 이를 통해 Ollama의 풍부한 AI 기능은 언제든지 준비되며 개발 프로세스에 자연스럽게 통합되어 작업 효율성을 더욱 향상시킬 수 있습니다.
Ollama는 이렇게 세심하게 설계된 기능을 통해 AI 개발의 일반적인 문제를 해결할 뿐만 아니라 더 많은 사람들이 고급 AI 기술에 쉽게 접근하고 적용할 수 있도록 하여 AI의 응용 가능성을 크게 확대합니다.
Windows에서 Ollama 사용하기
AI와 ML의 새로운 시대에 오신 것을 환영합니다! 다음으로, 시작하는 모든 단계를 안내하고 원활한 여행을 위해 몇 가지 실용적인 코드와 명령 예제도 제공하겠습니다.
1단계: 다운로드 및 설치
1Ollama Windows 미리보기 페이지를 방문하여 OllamaSetup.exe
설치 프로그램을 다운로드하세요.
2 파일을 더블클릭하고 "설치"를 클릭하면 설치가 시작됩니다.
3설치가 완료되면 Windows에서 Ollama를 사용할 수 있습니다. 아주 간단하지 않나요?
2단계: Ollama 실행 및 모델 가져오기
Ollama를 시작하고 모델 라이브러리에서 오픈 소스 AI 모델을 얻으려면 다음 단계를 따르세요.
1 "시작" 메뉴에서 Ollama 아이콘을 클릭하세요. 실행 후 작업 표시줄 트레이에 아이콘이 남습니다.
2 작업 표시줄 아이콘을 마우스 오른쪽 버튼으로 클릭하고 "로그 보기"를 선택하여 명령줄 창을 엽니다.
3다음 명령을 실행하여 Ollama를 실행하고 모델을 로드합니다.
으아악위 명령을 실행한 후 Ollama는 초기화를 시작하고 Ollama 모델 라이브러리에서 선택한 모델을 자동으로 가져와 로드합니다. 준비가 되면 지침을 보낼 수 있으며 선택한 모델을 사용하여 이해하고 응답합니다.
modelname
이름을 실행하려는 모델의 이름으로 바꾸십시오. 일반적으로 사용되는 이름은
모델 | 매개변수 | 크기 | 설치 명령 | 출판 조직 |
---|---|---|---|---|
라마 2 | 7B | 3.8GB | ollama run llama2 |
메타 |
코드 라마 | 7B | 3.8GB | ollama run codellama |
메타 |
라마 2 13B | 13B | 7.3GB | ollama run llama2:13b |
메타 |
라마 2 70B | 70B | 39GB | ollama run llama2:70b |
메타 |
미스트랄 | 7B | 4.1GB | ollama run mistral |
미스트랄 AI |
믹스트랄 | 8x7b | 26GB | ollama run mixtral:8x7b |
미스트랄 AI |
파이-2 | 2.7B | 1.7GB | ollama run phi |
마이크로소프트 리서치 |
LLaVA | 7B | 4.5GB | ollama run llava |
Microsoft Research 컬럼비아 대학교 위스콘신 |
젬마 2B | 2B | 1.4GB | ollama run gemma:2b |
구글 |
젬마 7B | 7B | 4.8GB | ollama run gemma:7b |
구글 |
큐웬 4B | 4B | 2.3GB | ollama run qwen:4b |
알리바바 |
큐웬 7B | 7B | 4.5GB | ollama run qwen:7b |
알리바바 |
큐웬 14B | 14B | 8.2GB | ollama run qwen:14b |
알리바바 |
运行 7B 至少需要 8GB 内存,运行 13B 至少需要 16GB 内存。
步骤 3:使用模型
如前所述,Ollama 支持通过各种各样的开源模型来完成不同的任务,下面就来看看怎么使用。
- 基于文本的模型:加载好文本模型后,就可以直接在命令行里输入文字开始与模型「对话」。例如,阿里的 Qwen(通义千问):
- 基于图像的模型:如果你想使用图像处理模型,如 LLaVA 1.6,可以使用以下命令来加载该模型:
ollama run llava1.6
Ollama 会使用你选择的模型来分析这张图片,并给你一些结果,比如图片的内容和分类,图片是否有修改,或者其他的分析等等(取决于所使用的模型)。
步骤 4:连接到 Ollama API
我们不可能只通过命令行来使用,将应用程序连接到 Ollama API 是一个非常重要的步骤。这样就可以把 AI 的功能整合到自己的软件里,或者在 OpenAI Translator 和 NextChat 这类的前端工具中进行调用。
以下是如何连接和使用 Ollama API 的步骤:
- 默认地址和端口:Ollama API 的默认地址是
http://localhost:11434
,可以在安装 Ollama 的系统中直接调用。 - 修改 API 的侦听地址和端口:如果要在网络中提供服务,可以修改 API 的侦听地址和端口。
1右击点击任务栏图标,选择「Quit Ollama」退出后台运行。
2使用Windows + R
快捷键打开「运行」对话框,输出以下命令,然后按Ctrl + Shift + Enter
以管理员权限启动「环境变量」。
C:Windowssystem32rundll32.exe sysdm.cpl, EditEnvironmentVariables
3要更改侦听地址和端口,可以添加以下环境变量:
- 变量名:
OLLAMA_HOST
- 变量值(端口):
:8000
只填写端口号可以同时侦听(所有) IPv4 和 IPv6 的:8000
端口。
要使用 IPv6,需要 Ollama 0.0.20 或更新版本。
4如果安装了多个模型,可以通过OLLAMA_MODELS
变量名来指定默认模型。
5更改完之后,重新运行 Ollama。然后在浏览器中测试访问,验证更改是否成功。
6示例 API 调用: 要使用 Ollama API,可以在自己的程序里发送 HTTP 请求。下面是在「终端」里使用curl
命令给 Gemma 模型发送文字提示的例子:
curl http://192.168.100.10:8000/api/generate -d '{ "model": "gemma:7b", "prompt": "天空为什么是蓝色的?" }'
返回响应的格式,目前只支持 Json 格式。
Ollama 的常用命令有:
# 查看 Ollama 版本 ollama -v # 查看已安装的模型 ollama list # 删除指定模型 ollama rm [modelname] # 模型存储路径 # C:Users\.ollamamodels
按照上述步骤,并参考命令示例,你可以在 Windows 上尽情体验 Ollama 的强大功能。不管是在命令行中直接下达指令,通过 API 将 AI 模型集成到你的软件当中,还是通过前端套壳,Ollama 的大门都已经为你敞开。
Ollama on Windows 的最佳实践
要让 Ollama 在 Windows 上充分发挥最大潜力,需要注意以下几点最佳实践和技巧,这将帮助你优化性能并解决一些常见问题:
Ollama의 성능 최적화:
- 하드웨어 구성 확인: 특히 대형 모델을 실행할 때 장치가 Ollama의 권장 하드웨어 요구 사항을 충족하는지 확인하세요. NVIDIA GPU가 있는 경우 Ollama가 제공하는 자동 하드웨어 가속을 즐길 수도 있어 컴퓨팅 속도가 크게 향상됩니다.
- 드라이버 업데이트: Ollama와의 호환성과 최적의 성능을 보장하려면 그래픽 카드 드라이버를 최신 상태로 유지하세요.
- 시스템 리소스 해제: 대규모 모델을 실행하거나 복잡한 작업을 수행할 때는 불필요한 프로그램을 닫아 시스템 리소스를 해제하세요.
- 올바른 모델 선택: 작업 요구 사항에 따라 올바른 모델을 선택하세요. 대규모 매개변수 모델이 더 정확할 수 있지만 더 높은 컴퓨팅 성능도 필요합니다. 간단한 작업의 경우 작은 매개변수 모델을 사용하는 것이 더 효율적입니다.
올라마 FAQ
설치 문제
- Windows 시스템이 최신인지 확인하세요.
- 소프트웨어를 설치하는 데 필요한 권한이 있는지 확인하세요.
- 설치 프로그램을 관리자 권한으로 실행해 보세요.
모델 로딩 오류
- 입력한 명령어가 맞는지 확인해보세요.
- 모델명이 Ollama 모델 라이브러리의 이름과 일치하는지 확인하세요.
- Ollama 버전을 확인하고 업데이트하세요.
Ollama API 연결 문제
- Ollama가 실행 중인지 확인하세요.
- 수신 주소와 포트를 확인하세요. 특히 포트가 다른 애플리케이션에 의해 사용되고 있는 경우 더욱 그렇습니다.
이 튜토리얼에서는 Ollama 설치, 기본 명령 실행, Ollama 모델 라이브러리 사용, API를 통한 Ollama 연결 등 Windows에서 Ollama를 설치하고 사용하는 방법을 배웠습니다. 올라마(Ollama)에 대해 자세히 알아보고 다양한 모델을 시험해 보시기를 권합니다.
Ollama는 무한한 잠재력을 가지고 있으며 이를 통해 더 많은 가능성을 달성할 수 있습니다!
위 내용은 Windows on Ollama: LLM(대형 언어 모델)을 로컬에서 실행하기 위한 새로운 도구의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

AI Hentai Generator
AI Hentai를 무료로 생성하십시오.

인기 기사

뜨거운 도구

메모장++7.3.1
사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전
중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경

드림위버 CS6
시각적 웹 개발 도구

SublimeText3 Mac 버전
신 수준의 코드 편집 소프트웨어(SublimeText3)

뜨거운 주제











Debian Systems에서 readDIR 함수는 디렉토리 내용을 읽는 데 사용되지만 반환하는 순서는 사전 정의되지 않습니다. 디렉토리에 파일을 정렬하려면 먼저 모든 파일을 읽은 다음 QSORT 기능을 사용하여 정렬해야합니다. 다음 코드는 데비안 시스템에서 readdir 및 qsort를 사용하여 디렉토리 파일을 정렬하는 방법을 보여줍니다.#포함#포함#포함#포함#포함 // QsortIntCompare (constvoid*a, constVoid*b) {returnStrcmp (*(*)

Debian Systems에서 ReadDir 시스템 호출은 디렉토리 내용을 읽는 데 사용됩니다. 성능이 좋지 않은 경우 다음과 같은 최적화 전략을 시도해보십시오. 디렉토리 파일 수를 단순화하십시오. 대규모 디렉토리를 가능한 한 여러 소규모 디렉토리로 나누어 읽기마다 처리 된 항목 수를 줄입니다. 디렉토리 컨텐츠 캐싱 활성화 : 캐시 메커니즘을 구축하고 정기적으로 캐시를 업데이트하거나 디렉토리 컨텐츠가 변경 될 때 캐시를 업데이트하며 readDir로 자주 호출을 줄입니다. 메모리 캐시 (예 : Memcached 또는 Redis) 또는 로컬 캐시 (예 : 파일 또는 데이터베이스)를 고려할 수 있습니다. 효율적인 데이터 구조 채택 : 디렉토리 트래버스를 직접 구현하는 경우 디렉토리 정보를 저장하고 액세스하기 위해보다 효율적인 데이터 구조 (예 : 선형 검색 대신 해시 테이블)를 선택하십시오.

데비안 시스템의 readdir 함수는 디렉토리 컨텐츠를 읽는 데 사용되는 시스템 호출이며 종종 C 프로그래밍에 사용됩니다. 이 기사에서는 ReadDir를 다른 도구와 통합하여 기능을 향상시키는 방법을 설명합니다. 방법 1 : C 언어 프로그램을 파이프 라인과 결합하고 먼저 C 프로그램을 작성하여 readDir 함수를 호출하고 결과를 출력하십시오.#포함#포함#포함#포함#includinTmain (intargc, char*argv []) {dir*dir; structdirent*entry; if (argc! = 2) {

이 기사에서는 데비안 시스템에서 iptables 또는 UFW를 사용하여 방화벽 규칙을 구성하고 Syslog를 사용하여 방화벽 활동을 기록하는 방법에 대해 설명합니다. 방법 1 : iptablesiptables 사용은 데비안 시스템의 강력한 명령 줄 방화벽 도구입니다. 기존 규칙보기 : 다음 명령을 사용하여 현재 iptables 규칙을보십시오. Sudoiptables-L-N-V 특정 IP 액세스 허용 : 예를 들어, IP 주소 192.168.1.100 허용 포트 80 : Sudoiptables-eActip-ptcp-d- 포트80-S192.16

데비안 메일 서버의 방화벽 구성은 서버 보안을 보장하는 데 중요한 단계입니다. 다음은 iptables 및 방화구 사용을 포함하여 일반적으로 사용되는 여러 방화벽 구성 방법입니다. iptables를 사용하여 iptables를 설치하도록 방화벽을 구성하십시오 (아직 설치되지 않은 경우) : sudoapt-getupdatesudoapt-getinstalliptablesview 현재 iptables 규칙 : sudoiptables-l configuration

이 안내서는 데비안 시스템에서 syslog를 사용하는 방법을 배우도록 안내합니다. Syslog는 로깅 시스템 및 응용 프로그램 로그 메시지를위한 Linux 시스템의 핵심 서비스입니다. 관리자가 시스템 활동을 모니터링하고 분석하여 문제를 신속하게 식별하고 해결하는 데 도움이됩니다. 1. syslog에 대한 기본 지식 syslog의 핵심 기능에는 다음이 포함됩니다. 로그 메시지 중앙 수집 및 관리; 다중 로그 출력 형식 및 대상 위치 (예 : 파일 또는 네트워크) 지원; 실시간 로그보기 및 필터링 기능 제공. 2. Syslog 설치 및 구성 (RSYSLOG 사용) Debian 시스템은 기본적으로 RSYSLOG를 사용합니다. 다음 명령으로 설치할 수 있습니다 : sudoaptupdatesud

Debian Systems에서 OpenSSL은 암호화, 암호 해독 및 인증서 관리를위한 중요한 라이브러리입니다. MITM (Man-in-the-Middle Attack)을 방지하려면 다음 측정을 수행 할 수 있습니다. HTTPS 사용 : 모든 네트워크 요청이 HTTP 대신 HTTPS 프로토콜을 사용하도록하십시오. HTTPS는 TLS (Transport Layer Security Protocol)를 사용하여 통신 데이터를 암호화하여 전송 중에 데이터가 도난 당하거나 변조되지 않도록합니다. 서버 인증서 확인 : 클라이언트의 서버 인증서를 수동으로 확인하여 신뢰할 수 있는지 확인하십시오. 서버는 대의원 메소드를 통해 수동으로 확인할 수 있습니다.

이 기사에서는 데비안 시스템에서 Apacheweb 서버의 로깅 레벨을 조정하는 방법에 대해 설명합니다. 구성 파일을 수정하면 Apache가 기록한 로그 정보 수준을 제어 할 수 있습니다. 메소드 1 : 구성 파일을 찾으려면 기본 구성 파일을 수정합니다. 구성 파일 : APACHE2.X의 구성 파일은 일반적으로/etc/apache2/디렉토리에 있습니다. 파일 이름은 설치 방법에 따라 apache2.conf 또는 httpd.conf 일 수 있습니다. 구성 파일 편집 : 텍스트 편집기 (예 : Nano)를 사용하여 루트 권한이있는 구성 파일 열기 : sudonano/etc/apache2/apache2.conf
