목차
1. ChatGPT 관련 기술" > 1. ChatGPT 관련 기술
1. 모델 진화" >1. 모델 진화
2. 이전 모델에는 어떤 문제가 있었나요? " >2. 이전 모델에는 어떤 문제가 있었나요?
3. 학습의 3단계" >3. 학습의 3단계
4. 데이터 구성 및 효과 평가" >4. 데이터 구성 및 효과 평가
2. ChatGPT 기술의 현지화 " > 2. ChatGPT 기술의 현지화
1. 배경 및 문제점 " >1. 배경 및 문제점
2. 솔루션 아이디어 " >2. 솔루션 아이디어
3. 효과 및 실습" >3. 효과 및 실습
3. 국내 오픈소스 대형 모델 " > 3. 국내 오픈소스 대형 모델
1. 중국 오픈소스 모델 " > 1. 중국 오픈소스 모델
2. 자신의 데이터를 기반으로 로컬 모델을 훈련하려면" >2. 자신의 데이터를 기반으로 로컬 모델을 훈련하려면
3. 발생할 수 있는 문제, 격차 및 효과를 더욱 향상시키는 방법" >3. 발생할 수 있는 문제, 격차 및 효과를 더욱 향상시키는 방법
기술 주변기기 일체 포함 ChatGPT 기술의 국산화 시도

ChatGPT 기술의 국산화 시도

Apr 08, 2023 am 11:31 AM
chatgpt openai

ChatGPT 기술의 국산화 시도

이번 공유의 주제는 ChatGPT 기술, 현지화 시도 및 오픈 소스 모델입니다. 공유는 세 부분으로 구성됩니다. 첫 번째 부분은 ChatGPT 관련 기술에 대한 전반적인 소개를 제공합니다. ChatGPT 기술의 발전, 현재 문제, ChatGPT 기술 학습의 세 단계, 데이터 구성 및 효과 평가가 두 번째 부분에서 이루어집니다. 기술 국산화를 위한 우리의 시도에는 실험 중에 직면한 문제, 우리의 생각, 모델의 효과와 적용이 포함됩니다. 세 번째 부분에서는 우리가 출시한 중국 오픈 소스 대형 모델을 소개하고 자체 데이터를 사용하여 학습하는 방법을 소개합니다. 로컬 모델 운영 중 실험 중에 발생할 수 있는 문제, 오픈 소스 고급 모델과의 격차, 모델의 효과를 더욱 향상시키는 방법.

1. ChatGPT 관련 기술

ChatGPT는 일반적인 기능 보조자입니다. 2022년 12월 5일, OpenAI CEO 샘 알트만(Sam Altman)은 소셜 미디어에 ChatGPT가 출시 5일 만에 사용자 100만 명을 돌파했다고 게시했습니다. AI 챗봇 ChatGPT가 폭발적인 인기를 끌며 획기적인 이벤트로 자리 잡았습니다. 마이크로소프트는 지분을 100억 달러 늘리고 곧 마이크로소프트 클라우드에 통합하기 위해 논의 중이다.

ChatGPT 기술의 국산화 시도

위 사진은 두 가지 예를 보여주며 놀라운 결과를 보여줍니다.

ChatGPT가 인기를 끄는 이유는 한편으로는 사용자 의도를 이해하고 다른 한편으로는 대화형 로봇 형태를 통해 더 나은 효과를 얻을 수 있기 때문입니다. 모든 사람.

다음에서는 모델의 진화, 초기 모델의 문제점, ChatGPT 모델 학습의 3단계, ChatGPT 모델 학습의 데이터 구성 및 효과를 소개합니다.

1. 모델 진화

ChatGPT 기술도 여러 세대의 모델을 통해 발전해 왔으며 2019년에는 1억 1700만 개의 모델 매개변수만 사용하여 GPT-2 모델을 제안했습니다. 2020년까지 GPT-3 모델 매개변수는 1,750억 개에 도달했으며, 여러 세대의 모델 업데이트 반복을 통해 ChatGPT 모델이 2022년에 등장할 예정입니다.

ChatGPT 기술의 국산화 시도

2. 이전 모델에는 어떤 문제가 있었나요?

ChatGPT 모델이 나오기 전에는 어떤 문제가 있었나요? 분석을 통해 가장 명백한 문제 중 하나가 정렬 문제라는 것을 알 수 있었습니다. 대형 모델의 생성 능력은 상대적으로 강력하지만 생성된 답변이 사용자의 의도에 맞지 않는 경우가 있습니다. 연구를 통해 정렬 문제의 주된 원인은 언어 모델 훈련의 훈련 목표가 사용자의 의도에 따라 생성하는 것이 아니라 다음 단어를 예측하는 것임을 알 수 있었습니다. 정렬 문제를 해결하기 위해 ChatGPT 모델의 학습 프로세스에 RLHF(Reinforcement Learning from Human Feedback) 프로세스가 추가되었습니다.

3. 학습의 3단계

ChatGPT 모델의 훈련 과정은 3단계로 진행됩니다.

첫 번째 단계는 GPT 모델을 기반으로 한 지도 학습에 실제 사용자 입력을 사용하는 것입니다. 이 과정에서 데이터는 실제 사용자로부터 나오며 데이터 품질은 상대적으로 높고 가치가 높습니다.

두 번째 단계는 쿼리에 대해 서로 다른 모델이 서로 다른 출력 결과를 생성하고 이러한 정렬된 데이터 교육 보상 모델을 사용하는 것입니다.

세 번째 단계는 모델에서 생성된 예비 답변을 보상 모델에 입력하는 것입니다. 보상 모델은 생성된 답변이 사용자의 의도에 부합하면 긍정적인 피드백을 제공합니다. 모델을 점점 더 좋게 만들기 위해 부정적인 피드백을 제공하면 됩니다. 이는 생성된 결과가 인간의 요구에 더 부합하도록 만들기 위해 강화 학습을 도입하는 목적입니다. ChatGPT 모델을 훈련하는 3단계 프로세스는 아래 그림에 나와 있습니다.

ChatGPT 기술의 국산화 시도

4. 데이터 구성 및 효과 평가

모델을 학습하기 전에 사용되는 데이터 세트를 준비해야 합니다. 이 과정에서 데이터 콜드 스타트 ​​문제에 직면하게 됩니다. , 는 다음 세 가지 측면 을 통해 해결할 수 있습니다.

(1) 이전 시스템 사용자가 사용하는 데이터 세트 수집

(2) 주석자가 이전 입력을 기반으로 일부 질문에 주석을 달도록 함 실제 사용자에 의한 유사한 프롬프트 및 출력

(3) 데이터 주석자는 Q&A, 스토리 작성, 생성 등의 몇 가지 프롬프트를 제시합니다.

ChatGPT 모델 교육용 데이터에는 데이터 세트의 세 부분(77k 실제 데이터)이 포함되어 있습니다.

(1) 실제 사용자 프롬프트, 사용자 프롬프트, 모델 응답, 데이터 양을 기반으로 한 지도 학습 데이터 13k입니다.

(2) 보상 모델을 훈련하는 데 사용되는 데이터 세트입니다. 이 부분은 하나의 프롬프트에 해당하는 여러 응답을 정렬하기 위한 것이며 데이터 양은 33k입니다.

(3) 모델 훈련을 위해 강화 학습 기술을 사용한 보상 모델 기반 데이터 세트입니다. 사용자 프롬프트만 필요하고 데이터 양은 31k이며 품질 요구 사항이 높습니다.

ChatGPT 모델 훈련을 마친 후 주로 다음 측면에서 모델에 대한 평가가 상대적으로 충분합니다.

(1) 모델에서 생성된 결과가 사용자의 의도를 충족하는지 여부

(2) 생성된 결과가 사용자가 언급한 제약조건을 충족할 수 있는지

(3) 모델이 고객 서비스 분야에서 좋은 결과를 얻을 수 있는지

GPT 기본 모델은 아래와 같습니다.

2. ChatGPT 기술의 현지화

다음은 ChatGPT 기술의 현지화를 배경과 문제, 솔루션 아이디어, 효과 및 실습의 세 가지 측면에서 소개합니다.

1. 배경 및 문제점

현지화가 필요한 이유는 다음과 같은 측면을 주로 고려합니다.

(1) ChatGPT 기술 자체는 비교적 발전되어 많은 작업에 사용될 수 있습니다. 효과는 상대적으로 좋지만 중국 본토에는 서비스를 제공하지 않습니다.

(2) 국내 기업 수준 고객의 요구 사항을 충족하지 못할 수 있으며 현지화된 기술 지원 및 서비스를 제공하지 못할 수 있습니다.

(3) 가격은 유럽과 미국을 주요 시장으로 미국 달러로 책정되어 있으며 가격이 상대적으로 비싸서 대부분의 국내 사용자가 감당하지 못할 수 있습니다. 테스트 결과 데이터 1개당 비용은 약 0.5위안 정도이며, 데이터량이 많은 고객에게는 상용화가 불가능한 것으로 나타났다.

위의 세 가지 문제로 인해 ChatGPT 기술을 국산화하려고 노력했습니다.

2. 솔루션 아이디어

ChatGPT 기술을 현지화하는 과정에서 분산 전략을 채택했습니다.

첫 번째로 수백억 개의 매개변수를 가진 중국 사전 훈련 모델을 훈련시켰습니다. 두 번째로 10억 개 수준의 작업 데이터에 대해 Prompt를 사용하여 작업 지도 학습을 수행한 다음 모델을 대화형으로 만들었습니다. 대화 또는 인간-컴퓨터 상호 작용 마지막으로 보상 모델 및 사용자 피드백의 강화 학습 RLHF 기술을 소개합니다.

Prompt 다중 작업 학습 모델(PromptCLUE)은 모든 중국어 작업에 대해 제로샷 학습을 지원하는 모델입니다. 이 모델은 통합 모델, 통합 데이터 형식(모든 작업이 프롬프트 형식으로 변환됨), 통합 사용 방법(제로 샘플 형식에서 사용됨)의 세 가지 주요 통합을 달성합니다. 이 모델은 1,000억 개의 중국어 단어 수준 토큰에 대한 비지도 학습을 기반으로 하며, 10억 개 수준의 다운스트림 작업 데이터를 학습하고 1조 5천억 개의 중국어 단어 수준 토큰을 축적했습니다. 20개 이상의 작업(텍스트 이해, 추출, 생성 작업)에서 제로 샘플 사용을 지원합니다.

ChatGPT 기술의 국산화 시도

모델을 대화형으로 만드는 방법, 즉 인간-컴퓨터 상호 작용 형태의 모델로 변환하는 방법은 무엇입니까? 우리는 주로 다음 작업을 수행했습니다.

우선 순서대로 모델이 더 나은 생성 효과를 갖도록 하기 위해 텍스트 이해 및 추출 작업을 제거하여 질문과 대답, 대화 및 생성 작업의 학습을 강화했습니다. 둘째, 대화 모델로 변환한 후 생성 결과는 컨텍스트에 의해 간섭됩니다. 이 문제를 해결하기 위해 우리는 모델이 필요할 때 관련 없는 컨텍스트를 무시할 수 있도록 하는 간섭 방지 데이터를 추가했습니다. 마지막으로 모델이 사용자의 의도를 더 잘 이해할 수 있도록 실제 사용자 피드백 데이터를 기반으로 하는 학습 프로세스를 추가합니다. 아래 그림은 모델을 이용한 단일 라운드 및 다중 라운드 테스트의 형태를 보여줍니다.

ChatGPT 기술의 국산화 시도

3. 효과 및 실습

다음은 모델을 테스트한 결과 ChatGPT 모델과 비교해보면 아직 1~2년 정도의 공백이 있지만, 현재 우리는 몇 가지 유용한 시도를 하여 특정 결과를 얻었으며 대화, 질문 및 답변, 글쓰기 등의 상호작용을 수행할 수 있습니다. 아래 이미지는 테스트 결과를 보여줍니다.

3. 국내 오픈소스 대형 모델

1. 중국 오픈소스 모델

저희가 최근 출시한 메타언어 기능대화 대형 모델(ChatYuan)은 7억 7천만 개의 매개변수를 가지고 있는데, 온라인 버전은 100억 개의 매개변수를 가진 모델이며 Huggingface, ModelScope, Github 및 paddlepaddle을 포함한 여러 플랫폼에서 출시되었습니다. 모델을 로컬로 다운로드하고 사용자 데이터 세트를 기반으로 세부 조정할 수 있습니다. 수억 개의 기능적 대화 다중 라운드 대화 데이터와 결합된 PromptCLUE-large를 기반으로 추가로 훈련됩니다.

ChatGPT 기술의 국산화 시도

ChatGPT 기술의 국산화 시도

위에서는 Huggingface 플랫폼을 예로 들어 모델을 로컬에서 사용하는 방법을 보여줍니다. 플랫폼에서 ChatYuan을 검색하고, 모델을 로드하고, 간단한 패키징을 수행합니다. 샘플을 샘플링할지 여부와 같은 몇 가지 중요한 매개변수가 사용됩니다. 다양한 샘플을 생성해야 하는 경우 샘플링이 필요합니다.

2. 자신의 데이터를 기반으로 로컬 모델을 훈련하려면

먼저 데이터를 입력(Input)과 출력(Output)의 두 부분으로 구성된 통일된 형태로 구성해야 합니다. 단일 질문 및 답변 또는 생성된 입력(입력): 작업 설명 + 입력 텍스트(예: "사용자: Hello n Xiaoyuan:")의 경우 출력(출력)은 시스템이 예측해야 하는 텍스트(예: 예: "안녕하세요! 저는 메타언어 AI입니다..."). 다단계 대화 입력(입력): 작업 설명 + 위 + 입력 텍스트의 경우 출력은 아래 그림의 "Xiaoyuan" 뒤의 내용과 같이 시스템이 예측해야 하는 텍스트를 나타냅니다.

ChatGPT 기술의 국산화 시도

아래 그림은 자신의 데이터를 기반으로 로컬 모델을 훈련시키는 예를 보여줍니다. 이 예에서는 데이터 준비부터 오픈 소스 데이터 다운로드 및 변환은 물론 모델 훈련, 예측, 평가까지 전체 프로세스를 다룹니다. 기본은 pCLUE 다중 작업 데이터 세트입니다. 사용자는 자신의 데이터를 학습에 사용할 수도 있고 pCLUE를 사용하여 사전 학습에 효과를 테스트할 수도 있습니다.

ChatGPT 기술의 국산화 시도

3. 발생할 수 있는 문제, 격차 및 효과를 더욱 향상시키는 방법

ChatYuan과 ChatGPT는 둘 다 채팅이나 전문 분야에서 사용할 수 있는 범용 기능 대화 모델입니다. 법률과 의학으로서, 상호작용과 생성. ChatGPT 모델과 비교하면 여전히 일정한 격차가 있는데, 이는 주로 다음 측면에 반영됩니다.

  • 모델 크기 측면에서, ChatGPT의 매개변수 수는 수천억 개에 달합니다.
  • 학습된 데이터의 양에도 큰 격차가 있으며 ChatYuan 모델은 아직 학습 과정에 있습니다.
  • ChatGPT 모델은 사용자 기반 피드백 강화 학습을 도입했으며, 우리 모델은 아직 도입 과정에 있습니다.
  • 데이터 형식이 올바른지, 생성 과정에서 샘플이 샘플링되었는지, 출력 결과의 길이에 따라 모델 사용 중에 생성 효과 및 텍스트 길이에 문제가 발생할 수 있습니다. max_length 등으로 제어됩니다.

모델 효과를 더욱 향상하려면 다음 측면에서 시작할 수 있습니다.

(1) 비지도 사전 학습 및 대량 사용을 포함한 추가 학습을 위해 업계 데이터와 결합합니다. 고품질 데이터 지도 학습.

(2) 실제 사용자 피드백 데이터를 활용하여 학습하면 분포 차이를 보상할 수 있습니다.

(3) 사용자 의도를 일치시키기 위해 강화 학습을 도입합니다.

(4) 더 큰 모델을 선택하세요. 일반적으로 모델이 클수록 모델 능력이 더 강해집니다.

ChatGPT가 가져온 새로운 기술과 사용 시나리오를 통해 사람들은 AI의 엄청난 잠재력을 볼 수 있습니다. 더 많은 애플리케이션이 업그레이드되어 일부 새로운 애플리케이션에 대한 가능성이 창출될 것입니다.

Yuanyu Intelligence는 대형 모델 서비스 제공업체로서 이 분야에서도 끊임없이 탐구하고 있습니다. 관심 있는 파트너는 당사 웹사이트와 공식 계정에 관심을 가져주시기 바랍니다.

오늘의 나눔은 여기까지입니다. 모두 감사합니다.

위 내용은 ChatGPT 기술의 국산화 시도의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.

핫 AI 도구

Undresser.AI Undress

Undresser.AI Undress

사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover

AI Clothes Remover

사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool

Undress AI Tool

무료로 이미지를 벗다

Clothoff.io

Clothoff.io

AI 옷 제거제

AI Hentai Generator

AI Hentai Generator

AI Hentai를 무료로 생성하십시오.

뜨거운 도구

메모장++7.3.1

메모장++7.3.1

사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전

SublimeText3 중국어 버전

중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기

스튜디오 13.0.1 보내기

강력한 PHP 통합 개발 환경

드림위버 CS6

드림위버 CS6

시각적 웹 개발 도구

SublimeText3 Mac 버전

SublimeText3 Mac 버전

신 수준의 코드 편집 소프트웨어(SublimeText3)

이제 ChatGPT를 사용하면 무료 사용자가 일일 한도가 있는 DALL-E 3를 사용하여 이미지를 생성할 수 있습니다. 이제 ChatGPT를 사용하면 무료 사용자가 일일 한도가 있는 DALL-E 3를 사용하여 이미지를 생성할 수 있습니다. Aug 09, 2024 pm 09:37 PM

DALL-E 3는 이전 모델보다 대폭 개선된 모델로 2023년 9월 공식 출시되었습니다. 복잡한 디테일의 이미지를 생성할 수 있는 현재까지 최고의 AI 이미지 생성기 중 하나로 간주됩니다. 그러나 출시 당시에는 제외되었습니다.

Spring Boot가 OpenAI를 만났을 때 새로운 프로그래밍 패러다임 Spring Boot가 OpenAI를 만났을 때 새로운 프로그래밍 패러다임 Feb 01, 2024 pm 09:18 PM

2023년에는 AI 기술이 화두가 되면서 다양한 산업, 특히 프로그래밍 분야에 큰 영향을 미치고 있다. 사람들은 AI 기술의 중요성을 점점 더 인식하고 있으며 Spring 커뮤니티도 예외는 아닙니다. GenAI(일반 인공 지능) 기술이 지속적으로 발전함에 따라 AI 기능을 갖춘 애플리케이션 생성을 단순화하는 것이 중요하고 시급해졌습니다. 이러한 배경에서 AI 기능 애플리케이션 개발 프로세스를 단순화하고 간단하고 직관적이며 불필요한 복잡성을 피하는 것을 목표로 하는 "SpringAI"가 등장했습니다. 'SpringAI'를 통해 개발자는 AI 기능이 포함된 애플리케이션을 더욱 쉽게 구축할 수 있어 사용 및 운영이 더욱 쉬워진다.

데이터에 가장 적합한 임베딩 모델 선택: OpenAI와 오픈 소스 다국어 임베딩 비교 테스트 데이터에 가장 적합한 임베딩 모델 선택: OpenAI와 오픈 소스 다국어 임베딩 비교 테스트 Feb 26, 2024 pm 06:10 PM

OpenAI는 최근 최신 세대 임베딩 모델 embeddingv3의 출시를 발표했습니다. 이는 더 높은 다국어 성능을 갖춘 가장 성능이 뛰어난 임베딩 모델이라고 주장합니다. 이 모델 배치는 더 작은 text-embeddings-3-small과 더 강력하고 더 큰 text-embeddings-3-large의 두 가지 유형으로 나뉩니다. 이러한 모델이 어떻게 설계되고 학습되는지에 대한 정보는 거의 공개되지 않으며 모델은 유료 API를 통해서만 액세스할 수 있습니다. 그렇다면 오픈소스 임베딩 모델이 많이 있습니다. 그러나 이러한 오픈소스 모델은 OpenAI 폐쇄소스 모델과 어떻게 비교됩니까? 이 기사에서는 이러한 새로운 모델의 성능을 오픈 소스 모델과 실증적으로 비교할 것입니다. 데이터를 만들 계획입니다.

휴대폰에 chatgpt를 설치하는 방법 휴대폰에 chatgpt를 설치하는 방법 Mar 05, 2024 pm 02:31 PM

설치 단계: 1. ChatGTP 공식 웹사이트 또는 모바일 스토어에서 ChatGTP 소프트웨어를 다운로드합니다. 2. 이를 연 후 설정 인터페이스에서 언어를 중국어로 선택합니다. 3. 게임 인터페이스에서 인간-기계 게임을 선택하고 설정합니다. 4. 시작한 후 채팅 창에 명령을 입력하여 소프트웨어와 상호 작용합니다.

OpenAI Super Alignment Team의 사후 작업: 두 개의 대형 모델이 게임을 하고 출력이 더 이해하기 쉬워졌습니다. OpenAI Super Alignment Team의 사후 작업: 두 개의 대형 모델이 게임을 하고 출력이 더 이해하기 쉬워졌습니다. Jul 19, 2024 am 01:29 AM

AI 모델이 내놓은 답변이 전혀 이해하기 어렵다면 감히 사용해 보시겠습니까? 기계 학습 시스템이 더 중요한 영역에서 사용됨에 따라 우리가 그 결과를 신뢰할 수 있는 이유와 신뢰할 수 없는 경우를 보여주는 것이 점점 더 중요해지고 있습니다. 복잡한 시스템의 출력에 대한 신뢰를 얻는 한 가지 가능한 방법은 시스템이 인간이나 다른 신뢰할 수 있는 시스템이 읽을 수 있는 출력 해석을 생성하도록 요구하는 것입니다. 즉, 가능한 오류가 발생할 수 있는 지점까지 완전히 이해할 수 있습니다. 설립하다. 예를 들어, 사법 시스템에 대한 신뢰를 구축하기 위해 우리는 법원이 자신의 결정을 설명하고 뒷받침하는 명확하고 읽기 쉬운 서면 의견을 제공하도록 요구합니다. 대규모 언어 모델의 경우 유사한 접근 방식을 채택할 수도 있습니다. 그러나 이 접근 방식을 사용할 때는 언어 모델이 다음을 생성하는지 확인하세요.

Rust 기반 Zed 편집기는 OpenAI 및 GitHub Copilot에 대한 기본 지원을 포함하여 오픈 소스로 제공되었습니다. Rust 기반 Zed 편집기는 OpenAI 및 GitHub Copilot에 대한 기본 지원을 포함하여 오픈 소스로 제공되었습니다. Feb 01, 2024 pm 02:51 PM

작성자丨컴파일: TimAnderson丨제작: Noah|51CTO Technology Stack(WeChat ID: blog51cto) Zed 편집기 프로젝트는 아직 출시 전 단계에 있으며 AGPL, GPL 및 Apache 라이선스에 따라 오픈 소스로 제공됩니다. 이 편집기는 고성능과 다양한 AI 지원 옵션을 제공하지만 현재는 Mac 플랫폼에서만 사용할 수 있습니다. Nathan Sobo는 게시물에서 GitHub의 Zed 프로젝트 코드 베이스에서 편집기 부분은 GPL에 따라 라이선스가 부여되고 서버 측 구성 요소는 AGPL에 따라 라이선스가 부여되며 GPUI(GPU Accelerated User) 인터페이스) 부분은 GPL에 따라 라이선스가 부여된다고 설명했습니다. Apache2.0 라이센스. GPUI는 Zed 팀에서 개발한 제품입니다.

OpenAI를 기다리지 말고 Open-Sora가 완전한 오픈 소스가 될 때까지 기다리십시오. OpenAI를 기다리지 말고 Open-Sora가 완전한 오픈 소스가 될 때까지 기다리십시오. Mar 18, 2024 pm 08:40 PM

얼마 전 OpenAISOra는 놀라운 비디오 생성 효과로 빠르게 인기를 얻었으며 많은 문학적 비디오 모델들 사이에서 눈에 띄었고 전 세계의 관심의 초점이 되었습니다. Colossal-AI 팀은 2주 전 46% 비용 절감으로 Sora 훈련 추론 재현 프로세스를 출시한 데 이어 세계 최초의 Sora 유사 아키텍처 비디오 생성 모델 "Open-Sora1.0"을 완전 오픈 소스화했습니다. 데이터 처리, 모든 훈련 세부 사항 및 모델 가중치를 포함한 훈련 프로세스를 다루고, 글로벌 AI 애호가들과 협력하여 비디오 제작의 새로운 시대를 촉진합니다. 미리보기로 Colossal-AI 팀이 공개한 'Open-Sora1.0' 모델이 생성한 번화한 도시의 영상을 살펴보겠습니다. 오픈소라1.0

Microsoft와 OpenAI는 휴머노이드 로봇에 1억 달러를 투자할 계획입니다! 네티즌들은 머스크에게 전화하고 있다 Microsoft와 OpenAI는 휴머노이드 로봇에 1억 달러를 투자할 계획입니다! 네티즌들은 머스크에게 전화하고 있다 Feb 01, 2024 am 11:18 AM

마이크로소프트(MS)와 오픈AI(OpenAI)가 올해 초 휴머노이드 로봇 스타트업에 거액을 투자한 것으로 알려졌다. 이 중 마이크로소프트는 9500만달러, 오픈AI는 500만달러를 투자할 계획이다. 블룸버그에 따르면 회사는 이번 라운드에서 총 5억 달러를 조달할 것으로 예상되며, 자금 조달 전 가치는 19억 달러에 이를 수 있습니다. 무엇이 그들을 끌어들이나요? 먼저 이 회사의 로봇공학 성과를 살펴보자. 이 로봇은 온통 은색과 검은색이며, 외관은 헐리우드 공상 과학 블록버스터에 나오는 로봇의 이미지와 유사합니다. 이제 그는 커피 캡슐을 커피 머신에 넣고 있습니다. 올바르게 배치되지 않으면 아무런 문제 없이 스스로 조정됩니다. 휴먼 리모콘 : 하지만 잠시 후 커피 한 잔을 꺼내서 즐길 수 있습니다. 가족 중 혹시 알아본 사람이 있나요? 네, 이 로봇은 얼마 전에 만들어졌습니다.

See all articles