기술 주변기기 일체 포함 어떤 인간 선호도 최적화 알고리즘이 더 낫습니까? DPO, IPO 및 KTO를 이해하려면 마스터를 따르십시오.

어떤 인간 선호도 최적화 알고리즘이 더 낫습니까? DPO, IPO 및 KTO를 이해하려면 마스터를 따르십시오.

Aug 05, 2024 pm 09:19 PM
프로젝트 신원 선호도 최적화 직접 선호도 최적화

모델 생성 콘텐츠의 상대적 품질에 대한 인간 레이블을 수집하고 인간 피드백(RLHF)을 통한 강화 학습을 통해 이러한 선호도에 맞게 감독되지 않은 대규모 언어 모델을 미세 조정하는 방법이 대화형 AI 개발에 큰 도움을 주었지만 . 그러나 RLHF는 복잡하고 종종 불안정한 프로세스이기 때문에 인간의 선호도를 모델 결과와 일치시키기 위해 최적화 기능을 직접 사용하는 연구가 요즘 뜨거운 이슈가 되고 있습니다.

이 글은 포옹 얼굴에 관한 블로그로 요즘 흔히 사용되는 세 가지 인간 선호도 최적화 알고리즘의 성능을 비교합니다. 저자는 다양한 모델과 다양한 하이퍼 매개변수를 사용하여 강화 학습(또는 선호도 조정) 없이 언어 모델을 조정하는 세 가지 가능한 방법을 평가하기 위한 광범위한 실험을 수행했습니다. 세 가지 최적화 방법은 다음과 같습니다.

    직접 선호 최적화(DPO)(https://huggingface.co/papers/2305.18290)
  • 신원 선호 최적화(IPO)(https://huggingface.co/papers/ 2310.12036)
  • Kahneman-Taversky Optimization (KTO) (https://github.com/ContextualAI/HALOs)

어떤 인간 선호도 최적화 알고리즘이 더 낫습니까? DPO, IPO 및 KTO를 이해하려면 마스터를 따르십시오.

이 기사의 5명의 저자

읽기엔 너무 길다

이 블로그에서 저자는 DPO(직접 선호 최적화), IPO(신원 선호 최적화) 및 KTO(Taversky Optimization Optimization)라는 세 가지 우수한 LLM 정렬 알고리즘을 평가하고 다음 두 가지 고품질 LLM에서 실험을 수행했습니다. 7b 매개변수 크기. 이러한 LLM은 미세 조정 감독을 받았지만 인간의 선호도에 맞게 조정되지는 않았습니다. 저자는 가장 잘 수행되는 알고리즘을 찾는 것이 가능하지만 최상의 결과를 얻으려면 일부 주요 하이퍼 매개변수를 조정해야 한다는 사실을 발견했습니다.

강화 학습 없는 정렬

어떤 인간 선호도 최적화 알고리즘이 더 낫습니까? DPO, IPO 및 KTO를 이해하려면 마스터를 따르십시오. DPO 원리의 개략도 (https://arxiv.org/abs/2305.18290)

직접 선호 최적화(DPO)가 주요 언어가 되었습니다 모델(LLM)은 인간 또는 인공 지능 선호도를 결합하는 유망한 접근 방식입니다. 강화 학습을 기반으로 한 기존 정렬 방법과 달리 DPO는 정렬 공식을 간단한 손실 함수로 재정의합니다. 이는 선호도 데이터 세트 {(x, y_w, y_l)}에서 직접 최적화될 수 있습니다. 여기서 x는 프롬프트이고, y_w, y_l은 다음과 같습니다. 선호하는 응답과 선호하지 않는 응답을 각각 표시합니다.

어떤 인간 선호도 최적화 알고리즘이 더 낫습니까? DPO, IPO 및 KTO를 이해하려면 마스터를 따르십시오.인간 선호도 조정 데이터 세트의 예

DPO는 간단하고 사용하기 쉬운 기능으로 인기를 얻었으며 Intel이 제안한 Zephyr 모델 및 NeuralChat과 같은 모델의 훈련에 성공적으로 사용되었습니다. . DPO의 성공은 연구자들이 새로운 손실 함수를 연구하도록 영감을 주었으며 이는 다음 두 가지 주요 방향으로 요약될 수 있습니다.

견고함: DPO의 한 가지 단점은 인간 선호 데이터 세트에서 빠르게 저하된다는 것입니다. 과적합됩니다. 이를 방지하기 위해 Google DeepMind의 연구원들은 DPO 손실에 정규화 장치를 추가하고 "조기 중지"와 같은 기술을 사용하지 않고도 모델이 수렴할 수 있도록 하는 IPO(ID 선호 최적화)를 도입했습니다.

  • 쌍별 선호도 데이터에 할당: 대부분의 정렬 방법과 마찬가지로 DPO에는 일련의 기준(예: 유용성 또는 유해성)을 기반으로 응답하는 모델에 더 나은 레이블을 지정할 수 있도록 쌍별 선호도 데이터 세트가 필요합니다

    . 실제로 이러한 데이터를 생성하는 것은 시간과 비용이 많이 드는 노력입니다. ContextualAI는 최근 KTO(Kahneman-Taversky Optimization)라는 흥미로운 대안을 제안했습니다. 이는 손실을 정의하기 위해 "좋음" 또는 "나쁨"(예: 채팅 UI에 표시되는 아이콘? 또는 ?)으로 표시된 샘플을 기반으로 합니다. 기능. 이러한 태그는 얻기가 더 쉽고, 생산 환경에서 실행되는 채팅 모델을 지속적으로 업데이트하는 유망한 방법이라고 할 수 있습니다.

与此同时,需要注意这些方法都有相应的超参数,其中最重要的是 β ,这是一个控制对使用模型的偏好程度的权重。随着这些方法已经可以通过第三方库(如 huggingface TRL)来使用,接下来自然而然的问题是「在这些方法和超参数中,哪个组合能产生最好的聊天模型?」

本文旨在通过对这三种方法进行实验分析来回答这个问题,并且还要对关键超参数逐个分析,例如 β 和训练步数,最后通过 MT-Bench 评估所得模型的性能。MT-Bench 是衡量聊天模型功能的常见基准。

源代码地址:https://github.com/huggingface/alignment-handbook

使用链接

以下是相关资料的获取地址:

  • 执行超参数扫描的代码和配置文件:https://github.com/huggingface/alignment-handbook/tree/main/recipes/pref_align_scan

  • 本文使用的数据集和模型的集合:https://huggingface.co/collections/alignment-handbook/dpo-vs-kto-vs-ipo-65a69c5f03548d61dbe29ef8

实验设置

在进行对齐实验时,需要考虑两个主要因素:需要优化的模型和数据集。为了获得更多数据,作者考虑了两个模型,OpenHermes-2.5-Mistral-7B 和 Zephyr-7B-β-sft,以及两个对齐数据集:Intel 的 orca_dpo_paries 数据集和 ultrafeedback-binarized(https://huggingface.co/datasets/HuggingFaceH4/ultrafeedback_binarized)数据集。

  • orca_dpo_paries 数据集地址:https://huggingface.co/datasets/Intel/orca_dpo_pairs

  • ultrafeedback-binarized 数据集地址:https://huggingface.co/datasets/HuggingFaceH4/ultrafeedback_binarized

在第一个实验中,作者使用了 OpenHermes-2.5-Mistral-7B,因为它是不使用任何对齐方法的条件下,最好的 7B 级聊天模型之一。然后,本文使用了 Intel 的 orca_dpo_paries 数据集,该数据集包含 13k 个 prompt,其中被选择的响应结果由 GPT-4 生成,不需要的响应由 Llama Chat 13b 生成。这也是 NeuralChat 和 NeuralHermes-2.5-Mistral-7B 使用的数据集。

由于 KTO 本身不需要成对的偏好数据,作者直接将 GPT-4 生成的响应归类为「好」标签,将 Llama Chat 13b 的响应视为「坏」标签。虽然 GPT-4 的响应可能比 Llama Chat 13b 普遍更受欢迎,但在某些情况下,Llama-Chat-13b 可能会产生更好的响应,但作者认为这只是小概率事件,可以忽略不计。

第二个实验基于 ultrafeedback-binarized 数据集,在 Zephyr-7b-β-sft 模型上进行了偏好比对。ultrafeedback-binarized 数据集包含 66k 个 prompt 以及成对的偏好与拒绝的响应。该数据集之前被用于训练原始 Zephyr 模型,该模型当时在许多自动化基准测试和人工评估方面是 7B 类模型中最好的。

实验配置

对齐手册提供了一种配置单个实验的简单方法,这些参数可以在 run_dpo.py 中配置。

어떤 인간 선호도 최적화 알고리즘이 더 낫습니까? DPO, IPO 및 KTO를 이해하려면 마스터를 따르십시오.

作者在 Zephyr 上的实验配置也基本类似。

聊天模板由基本聊天模型中自动推断,OpenHermes-2.5 使用 ChatML,Zephyr 使用 H4。如果用户想使用自己的聊天格式,分词库现在已经启用了使用 jinja 格式字符串的用户定义聊天模板:

# Example of the Zephyr chat template"{% for message in messages %}\n {% if message [&#39;role&#39;] == &#39;user&#39; %}\n {{ &#39;<|user|>\n&#39; + message [&#39;content&#39;] + eos_token }}\n {% elif message [&#39;role&#39;] == &#39;system&#39; %}\n {{ &#39;<|system|>\n&#39; + message [&#39;content&#39;] + eos_token }}\n {% elif message [&#39;role&#39;] == &#39;assistant&#39; %}\n {{ &#39;<|assistant|>\n&#39;  + message [&#39;content&#39;] + eos_token }}\n {% endif %}\n {% if loop.last and add_generation_prompt %}\n {{ &#39;<|assistant|>&#39; }}\n {% endif %}\n {% endfor %}"
로그인 후 복사

如下可以将对话格式化:

# <|system|># You are a friendly chatbot who always responds in the style of a pirate.</s># <|user|># How many helicopters can a human eat in one sitting?</s># <|assistant|># Ah, me hearty matey! But yer question be a puzzler! A human cannot eat a helicopter in one sitting, as helicopters are not edible. They be made of metal, plastic, and other materials, not food!
로그인 후 복사

遍历超参数

实验中,作者逐次调整 β 值,分别在 0.01、0.1、0.2、…、0.9 时,对 DPO、IPO 和 KTO 三种方法进行实验。之所以包括 0.01,是因为作者观察到一些对齐算法对这个参数特别敏感。所有实验都只训练了一个 epoch。期间其他超参数保持不变,包括随机种子。

然后,作者使用上面定义的基本配置在 hugging face 的模型上逐个进行实验。

# Define an array containing the base configs we wish to fine tuneconfigs=("zephyr" "openhermes")# Define an array of loss typesloss_types=("sigmoid" "kto_pair" "ipo")# Define an array of beta valuesbetas=("0.01" "0.1" "0.2" "0.3" "0.4" "0.5" "0.6" "0.7" "0.8" "0.9")# Outer loop for loss typesfor config in "${configs [@]}"; dofor loss_type in "${loss_types [@]}"; do# Inner loop for beta valuesfor beta in "${betas [@]}"; do# Determine the job name and model revision based on loss typejob_name="$config_${loss_type}_beta_${beta}"model_revision="${loss_type}-${beta}"# Submit the jobsbatch --job-name=${job_name} recipes/launch.slurm dpo pref_align_scan config_$config deepspeed_zero3 \\"--beta=${beta} --loss_type=${loss_type} --output_dir=data/$config-7b-align-scan-${loss_type}-beta-${beta} --hub_model_revision=${model_revision}"donedonedone
로그인 후 복사

实验结果

The authors evaluated all models using MT Bench, a multi-turn dialogue benchmark. The benchmark uses GPT-4 to judge model performance in eight different categories: writing, role-playing, reasoning, math, coding, extraction, STEM, and humanities. Although it has some imperfections, MT Bench is still a good way to evaluate conversational LLM.

Zephyr-7b-β-SFT

어떤 인간 선호도 최적화 알고리즘이 더 낫습니까? DPO, IPO 및 KTO를 이해하려면 마스터를 따르십시오.

Scores of the Zephyr model on MT Bench under different β values.

For the Zephyr model, the authors observed that the best model performance was achieved when the β value was 0.01. This conclusion is consistent across all three algorithms tested, and an interesting follow-up experiment would be to perform a more fine-grained scan in the 0.0-0.2 range. While DPO achieves the highest MT Bench scores, we find that KTO (pairwise) achieves better results in all settings except one hyperparameter case. IPOs, despite their stronger theoretical guarantees, appear to be worse than the base model in all but one case.

어떤 인간 선호도 최적화 알고리즘이 더 낫습니까? DPO, IPO 및 KTO를 이해하려면 마스터를 따르십시오.

MT Bench The best results of each algorithm on the Zephyr model in each category. The strengths and weaknesses of these models can be determined by breaking down the best results of each algorithm in various categories evaluated by MT bench. As can be seen, there is still a lot of room for improvement in reasoning, coding, and math questions.

OpenHermes-7b-2.5

Although the observed results of each algorithm on this model are consistent with OpenHermes, that is, DPO>KTO>IPO, the optimal value points of β are different. The optimal β choices for DPO, KTO, and IPO are 0.6, 0.3, and 0.01, respectively.

어떤 인간 선호도 최적화 알고리즘이 더 낫습니까? DPO, IPO 및 KTO를 이해하려면 마스터를 따르십시오.

MT Bench scores for different β on the OpenHermes model. OpenHermes-7b-2.5 is clearly a stronger base model, with only a 0.3 improvement in MT Bench score after human preference adjustment.

어떤 인간 선호도 최적화 알고리즘이 더 낫습니까? DPO, IPO 및 KTO를 이해하려면 마스터를 따르십시오.

MT Bench The best results of the three algorithms on the OpenHermes model in each category.

Summary

In this blog post, the author highlighted the importance of choosing the right hyper

parameters

when performing preference alignment. DPO is experimentally proven to outperform KTO in pairwise preference settings, although the performance of IPO appears to be poor despite stronger theoretical guarantees. These experimental results are reproducible, and the code and configuration files can now be found in the alignment manual. You can also see the best-performing models and data sets.

Future Outlook

The author will continue to explore new human preference alignment algorithms and evaluate their performance. At least for now, DPO is the most robust and best-performing large language model alignment algorithm. KTO is also promising because both DPO and IPO require pairwise preference data, and KTO can be applied to any data set containing positive and negative labels.

Original link: https://huggingface.co/blog/pref-tuning?continueFlag=480af4490eaf8a2f4544fe3658589730

위 내용은 어떤 인간 선호도 최적화 알고리즘이 더 낫습니까? DPO, IPO 및 KTO를 이해하려면 마스터를 따르십시오.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.

핫 AI 도구

Undresser.AI Undress

Undresser.AI Undress

사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover

AI Clothes Remover

사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool

Undress AI Tool

무료로 이미지를 벗다

Clothoff.io

Clothoff.io

AI 옷 제거제

Video Face Swap

Video Face Swap

완전히 무료인 AI 얼굴 교환 도구를 사용하여 모든 비디오의 얼굴을 쉽게 바꾸세요!

인기 기사

<gum> : Bubble Gum Simulator Infinity- 로얄 키를 얻고 사용하는 방법
3 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌
Nordhold : Fusion System, 설명
4 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌
Mandragora : 마녀 트리의 속삭임 - Grappling Hook 잠금 해제 방법
3 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌

뜨거운 도구

메모장++7.3.1

메모장++7.3.1

사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전

SublimeText3 중국어 버전

중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기

스튜디오 13.0.1 보내기

강력한 PHP 통합 개발 환경

드림위버 CS6

드림위버 CS6

시각적 웹 개발 도구

SublimeText3 Mac 버전

SublimeText3 Mac 버전

신 수준의 코드 편집 소프트웨어(SublimeText3)

ControlNet의 저자가 또 다른 히트를 쳤습니다! 이틀 만에 14,000개의 별을 획득하여 그림에서 그림을 생성하는 전체 과정 ControlNet의 저자가 또 다른 히트를 쳤습니다! 이틀 만에 14,000개의 별을 획득하여 그림에서 그림을 생성하는 전체 과정 Jul 17, 2024 am 01:56 AM

역시 Tusheng 영상이지만 PaintsUndo는 다른 경로를 택했습니다. ControlNet 작성자 LvminZhang이 다시 살기 시작했습니다! 이번에는 회화 분야를 목표로 삼고 있습니다. 새로운 프로젝트인 PaintsUndo는 출시된 지 얼마 되지 않아 1.4kstar(여전히 상승세)를 받았습니다. 프로젝트 주소: https://github.com/lllyasviel/Paints-UNDO 이 프로젝트를 통해 사용자는 정적 이미지를 입력하고 PaintsUndo는 자동으로 라인 초안부터 완성품 따라가기까지 전체 페인팅 과정의 비디오를 생성하도록 도와줍니다. . 그리는 과정에서 선의 변화가 놀랍습니다. 최종 영상 결과는 원본 이미지와 매우 유사합니다. 완성된 그림을 살펴보겠습니다.

오픈 소스 AI 소프트웨어 엔지니어 목록의 1위인 UIUC의 에이전트 없는 솔루션은 SWE 벤치의 실제 프로그래밍 문제를 쉽게 해결합니다. 오픈 소스 AI 소프트웨어 엔지니어 목록의 1위인 UIUC의 에이전트 없는 솔루션은 SWE 벤치의 실제 프로그래밍 문제를 쉽게 해결합니다. Jul 17, 2024 pm 10:02 PM

AIxiv 칼럼은 본 사이트에서 학술 및 기술 콘텐츠를 게재하는 칼럼입니다. 지난 몇 년 동안 이 사이트의 AIxiv 칼럼에는 전 세계 주요 대학 및 기업의 최고 연구실을 대상으로 한 2,000개 이상의 보고서가 접수되어 학술 교류 및 보급을 효과적으로 촉진하고 있습니다. 공유하고 싶은 훌륭한 작품이 있다면 자유롭게 기여하거나 보고를 위해 연락주시기 바랍니다. 제출 이메일: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com 이 논문의 저자는 모두 일리노이 대학교 Urbana-Champaign(UIUC)의 Zhang Lingming 교사 팀 출신입니다. Steven Code Repair, 박사 4년차, 연구원

RLHF에서 DPO, TDPO까지 대규모 모델 정렬 알고리즘은 이미 '토큰 수준'입니다. RLHF에서 DPO, TDPO까지 대규모 모델 정렬 알고리즘은 이미 '토큰 수준'입니다. Jun 24, 2024 pm 03:04 PM

AIxiv 칼럼은 본 사이트에서 학술 및 기술 콘텐츠를 게재하는 칼럼입니다. 지난 몇 년 동안 이 사이트의 AIxiv 칼럼에는 전 세계 주요 대학 및 기업의 최고 연구실을 대상으로 한 2,000개 이상의 보고서가 접수되어 학술 교류 및 보급을 효과적으로 촉진하고 있습니다. 공유하고 싶은 훌륭한 작품이 있다면 자유롭게 기여하거나 보고를 위해 연락주시기 바랍니다. 제출 이메일: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com 인공 지능 개발 과정에서 LLM(대형 언어 모델)의 제어 및 안내는 항상 핵심 과제 중 하나였으며 이러한 모델이 두 가지 모두를 보장하는 것을 목표로 했습니다. 강력하고 안전하게 인간 사회에 봉사합니다. 인간 피드백(RL)을 통한 강화 학습 방법에 초점을 맞춘 초기 노력

arXiv 논문은 '연발'로 게시될 수 있습니다. Stanford alphaXiv 토론 플랫폼은 온라인이며 LeCun은 이를 좋아합니다. arXiv 논문은 '연발'로 게시될 수 있습니다. Stanford alphaXiv 토론 플랫폼은 온라인이며 LeCun은 이를 좋아합니다. Aug 01, 2024 pm 05:18 PM

건배! 종이 토론이 말로만 진행된다면 어떤가요? 최근 스탠포드 대학교 학생들은 arXiv 논문에 대한 질문과 의견을 직접 게시할 수 있는 arXiv 논문에 대한 공개 토론 포럼인 alphaXiv를 만들었습니다. 웹사이트 링크: https://alphaxiv.org/ 실제로 이 웹사이트를 특별히 방문할 필요는 없습니다. URL에서 arXiv를 alphaXiv로 변경하면 alphaXiv 포럼에서 해당 논문을 바로 열 수 있습니다. 논문, 문장: 오른쪽 토론 영역에서 사용자는 저자에게 논문의 아이디어와 세부 사항에 대해 질문하는 질문을 게시할 수 있습니다. 예를 들어 다음과 같이 논문 내용에 대해 의견을 제시할 수도 있습니다.

OpenAI Super Alignment Team의 사후 작업: 두 개의 대형 모델이 게임을 하고 출력이 더 이해하기 쉬워졌습니다. OpenAI Super Alignment Team의 사후 작업: 두 개의 대형 모델이 게임을 하고 출력이 더 이해하기 쉬워졌습니다. Jul 19, 2024 am 01:29 AM

AI 모델이 내놓은 답변이 전혀 이해하기 어렵다면 감히 사용해 보시겠습니까? 기계 학습 시스템이 더 중요한 영역에서 사용됨에 따라 우리가 그 결과를 신뢰할 수 있는 이유와 신뢰할 수 없는 경우를 보여주는 것이 점점 더 중요해지고 있습니다. 복잡한 시스템의 출력에 대한 신뢰를 얻는 한 가지 가능한 방법은 시스템이 인간이나 다른 신뢰할 수 있는 시스템이 읽을 수 있는 출력 해석을 생성하도록 요구하는 것입니다. 즉, 가능한 오류가 발생할 수 있는 지점까지 완전히 이해할 수 있습니다. 설립하다. 예를 들어, 사법 시스템에 대한 신뢰를 구축하기 위해 우리는 법원이 자신의 결정을 설명하고 뒷받침하는 명확하고 읽기 쉬운 서면 의견을 제공하도록 요구합니다. 대규모 언어 모델의 경우 유사한 접근 방식을 채택할 수도 있습니다. 그러나 이 접근 방식을 사용할 때는 언어 모델이 다음을 생성하는지 확인하세요.

리만 가설의 중요한 돌파구! 타오저쉬안(Tao Zhexuan)은 MIT와 옥스퍼드의 새로운 논문을 적극 추천했으며, 37세의 필즈상 수상자도 참여했다. 리만 가설의 중요한 돌파구! 타오저쉬안(Tao Zhexuan)은 MIT와 옥스퍼드의 새로운 논문을 적극 추천했으며, 37세의 필즈상 수상자도 참여했다. Aug 05, 2024 pm 03:32 PM

최근 새천년 7대 과제 중 하나로 알려진 리만 가설이 새로운 돌파구를 마련했다. 리만 가설은 소수 분포의 정확한 특성과 관련된 수학에서 매우 중요한 미해결 문제입니다(소수는 1과 자기 자신으로만 나눌 수 있는 숫자이며 정수 이론에서 근본적인 역할을 합니다). 오늘날의 수학 문헌에는 리만 가설(또는 일반화된 형식)의 확립에 기초한 수학적 명제가 천 개가 넘습니다. 즉, 리만 가설과 그 일반화된 형식이 입증되면 천 개가 넘는 명제가 정리로 확립되어 수학 분야에 지대한 영향을 미칠 것이며, 리만 가설이 틀린 것으로 입증된다면, 이러한 제안의 일부도 그 효과를 잃을 것입니다. MIT 수학 교수 Larry Guth와 Oxford University의 새로운 돌파구

LLM은 시계열 예측에 적합하지 않습니다. 추론 능력도 사용하지 않습니다. LLM은 시계열 예측에 적합하지 않습니다. 추론 능력도 사용하지 않습니다. Jul 15, 2024 pm 03:59 PM

시계열 예측에 언어 모델을 실제로 사용할 수 있나요? Betteridge의 헤드라인 법칙(물음표로 끝나는 모든 뉴스 헤드라인은 "아니오"로 대답할 수 있음)에 따르면 대답은 아니오여야 합니다. 사실은 사실인 것 같습니다. 이렇게 강력한 LLM은 시계열 데이터를 잘 처리할 수 없습니다. 시계열, 즉 시계열은 이름에서 알 수 있듯이 시간 순서대로 배열된 데이터 포인트 시퀀스 집합을 나타냅니다. 시계열 분석은 질병 확산 예측, 소매 분석, 의료, 금융 등 다양한 분야에서 중요합니다. 시계열 분석 분야에서는 최근 많은 연구자들이 LLM(Large Language Model)을 사용하여 시계열의 이상 현상을 분류, 예측 및 탐지하는 방법을 연구하고 있습니다. 이 논문에서는 텍스트의 순차적 종속성을 잘 처리하는 언어 모델이 시계열로도 일반화될 수 있다고 가정합니다.

최초의 Mamba 기반 MLLM이 출시되었습니다! 모델 가중치, 학습 코드 등은 모두 오픈 소스입니다. 최초의 Mamba 기반 MLLM이 출시되었습니다! 모델 가중치, 학습 코드 등은 모두 오픈 소스입니다. Jul 17, 2024 am 02:46 AM

AIxiv 칼럼은 본 사이트에서 학술 및 기술 콘텐츠를 게재하는 칼럼입니다. 지난 몇 년 동안 이 사이트의 AIxiv 칼럼에는 전 세계 주요 대학 및 기업의 최고 연구실을 대상으로 한 2,000개 이상의 보고서가 접수되어 학술 교류 및 보급을 효과적으로 촉진하고 있습니다. 공유하고 싶은 훌륭한 작품이 있다면 자유롭게 기여하거나 보고를 위해 연락주시기 바랍니다. 제출 이메일: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com 서문 최근 몇 년 동안 다양한 분야에서 MLLM(Multimodal Large Language Model)의 적용이 눈에 띄는 성공을 거두었습니다. 그러나 많은 다운스트림 작업의 기본 모델로서 현재 MLLM은 잘 알려진 Transformer 네트워크로 구성됩니다.

See all articles