Llama 3.2는 최근 Meta의 개발자 컨퍼런스에서 소개되어 인상적인 멀티모달 기능과 Qualcomm 및 MediaTek 하드웨어를 사용하는 모바일 장치에 최적화된 버전을 선보였습니다. 이 혁신을 통해 개발자는 Llama 3.2와 같은 강력한 AI 모델을 모바일 장치에서 실행할 수 있어 보다 효율적이고 비공개이며 반응성이 뛰어난 AI 애플리케이션을 위한 기반을 마련했습니다.
Meta는 Llama 3.2의 네 가지 변종을 출시했습니다.
대형 모델, 특히 11B 및 90B 변형은 이미지 이해 및 차트 추론과 같은 작업에 탁월하며 종종 Claude 3 Haiku와 같은 다른 모델보다 성능이 뛰어나며 어떤 경우에는 GPT-4o-mini와 경쟁하기도 합니다. 반면 경량 1B 및 3B 모델은 텍스트 생성 및 다국어 기능을 위해 설계되었으므로 개인 정보 보호와 효율성이 중요한 온디바이스 애플리케이션에 이상적입니다.
이 가이드에서는 Termux와 Ollama를 사용하여 Android 기기에서 Llama 3.2를 실행하는 방법을 보여 드리겠습니다. Termux는 Android에서 Linux 환경을 제공하고 Ollama는 대규모 모델을 로컬에서 관리하고 실행하는 데 도움을 줍니다.
AI 모델을 로컬에서 실행하면 두 가지 주요 이점이 있습니다.
아직 모바일 기기에서 Llama 3.2와 같은 모델을 원활하게 실행할 수 있는 제품은 많지 않지만 Android의 Linux 환경을 사용하여 탐색할 수 있습니다.
Termux는 Android 기기가 루트 액세스 없이도 Linux 환경을 실행할 수 있게 해주는 터미널 에뮬레이터입니다. 무료로 제공되며 Termux GitHub 페이지에서 다운로드할 수 있습니다.
이 가이드를 보려면 termux-app_v0.119.0-beta.1 apt-android-7-github-debug_arm64-v8a.apk를 다운로드하여 Android 기기에 설치하세요.
Termux를 시작한 후 다음 단계에 따라 환경을 설정하세요.
termux-setup-storage
이 명령을 사용하면 Termux가 Android 기기의 저장소에 액세스하여 파일을 더 쉽게 관리할 수 있습니다.
pkg upgrade
Termux 및 설치된 모든 패키지를 업데이트하라는 메시지가 나타나면 Y를 입력합니다.
pkg install git cmake golang
이러한 패키지에는 버전 제어를 위한 Git, 소프트웨어 구축을 위한 CMake, Ollama가 작성된 프로그래밍 언어인 Go가 포함됩니다.
Ollama는 대형 모델을 로컬에서 운영하기 위한 플랫폼입니다. 설치 및 설정 방법은 다음과 같습니다.
git clone --depth 1 https://github.com/ollama/ollama.git
cd ollama
go generate ./...
go build .
./ollama serve &
이제 Ollama 서버가 백그라운드에서 실행되어 모델과 상호 작용할 수 있습니다.
Android 기기에서 Llama 3.2 모델을 실행하려면 다음 단계를 따르세요.
모델 선택:
Llama 3.2 모델 다운로드 및 실행:
./ollama run llama3.2:3b --verbose
--verbose 플래그는 선택 사항이며 자세한 로그를 제공합니다. 다운로드가 완료되면 모델과 상호 작용을 시작할 수 있습니다.
삼성 S21 Ultra와 같은 기기에서 Llama 3.2를 테스트하는 동안 1B 모델의 성능은 원활했고 3B 모델의 경우 관리가 가능했지만 이전 하드웨어에서는 지연이 나타날 수 있습니다. 성능이 너무 느린 경우 더 작은 1B 모델로 전환하면 응답성이 크게 향상될 수 있습니다.
Ollama를 사용한 후 시스템을 정리할 수 있습니다.
chmod -R 700 ~/go rm -r ~/go
cp ollama/ollama /data/data/com.termux/files/usr/bin/
Now, you can run ollama directly from the terminal.
Llama 3.2 represents a major leap forward in AI technology, bringing powerful, multimodal models to mobile devices. By running these models locally using Termux and Ollama, developers can explore the potential of privacy-first, on-device AI applications that don’t rely on cloud infrastructure. With models like Llama 3.2, the future of mobile AI looks bright, allowing faster, more secure AI solutions across various industries.
以上がAndroid で Llama を実行する: Ollama を使用するステップバイステップ ガイドの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。