퀵 테크놀로지 뉴스(Quick Technology News) 4월 2일자 언론 보도에 따르면, 최근 논문에서 Apple 연구팀은 기기 측에서 실행할 수 있는 모델 ReALM을 제안했다고 주장했습니다. 이 모델은 일부 측면에서 GPT를 능가할 수 있습니다. ReALM의 매개변수 양은 각각 80M, 250M, 1B 및 3B이며 매우 작으며 휴대폰, 태블릿 및 기타 장치에서 실행하는 데 적합합니다. ReALM은 주로 텍스트에 언급된 다양한 개체(이름, 장소, 조직 등) 간의 참조 관계를 AI가 식별할 수 있도록 하는 프로세스를 연구합니다. 이 논문에서는 엔터티를 세 가지 유형으로 나눕니다. 화면 엔터티: 현재 사용자 화면에 표시되는 콘텐츠를 나타냅니다. 대화 개체(Conversational Entities): 대화와 관련된 콘텐츠를 말합니다. 예를 들어 사용자가 "엄마에게 전화해"라고 말하면 엄마의 연락처 정보가 대화 항목입니다. 배경 개체: 재생 중인 음악이나 곧 울리려는 알람 등 사용자의 현재 작업이나 화면에 표시되는 콘텐츠와 직접적으로 관련되지 않을 수 있는 개체를 의미합니다. 이 논문에서는 대규모 언어 모델이 다양한 작업에서 뛰어난 성능을 발휘하는 것으로 입증되었지만 비대화 엔터티(예: 화면 엔터티, 배경 엔터티)의 참조 문제를 해결하는 데 사용될 때 그 잠재력이 완전히 활용되지 않았다고 말합니다. ReALM은 GPT-3.5 및 GPT-4와의 성능을 비교하는 완전히 새로운 방법으로, 가장 작은 모델은 GPT-4와 동등한 성능을 보이는 반면, 더 큰 모델은 GPT-4를 크게 능가한다는 것을 보여줍니다. 이 연구는 Apple 기기의 Siri 도우미를 개선하여 Siri가 사용자 쿼리의 컨텍스트를 더 잘 이해하고 처리하는 데 사용될 것으로 예상됩니다.
위 내용은 Apple의 AI 증폭 전략은 장치 측 모델이 GPT-4보다 성능이 더 좋다고 주장합니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!