목차
C1. 데이터 세트 전반에 걸친 토큰 세트 변경
C2. 효율적인 노드 간 관계 모델링
C3. 훈련 데이터의 부족
기술 주변기기 일체 포함 '그래프 기반 모델'의 3대 문제점을 최초로 극복했습니다! HKU 오픈 소스 OpenGraph: 제로 샘플 학습은 다양한 다운스트림 작업에 적응합니다.

'그래프 기반 모델'의 3대 문제점을 최초로 극복했습니다! HKU 오픈 소스 OpenGraph: 제로 샘플 학습은 다양한 다운스트림 작업에 적응합니다.

Mar 15, 2024 pm 02:04 PM
데이터 모델 소셜 네트워크

그래프 학습 기술은 추천 시스템, 소셜 네트워크 분석, 인용 네트워크, 교통 네트워크 등 다양한 분야에서 널리 사용되고 있습니다. 이 기술은 복잡한 관계형 데이터를 효율적으로 마이닝하고 학습할 수 있어 데이터 과학자와 엔지니어에게 강력한 도구를 제공합니다. 그래프 학습 알고리즘을 통해 데이터 간의 연관성과 연결을 더 잘 이해할 수 있으며, 이를 통해 데이터 뒤에 숨겨진 법칙과 패턴을 발견하는 데 도움이 됩니다. 실제 응용 분야에서 그래프 학습 기술은 반복적인 메시지 전달 메커니즘을 사용하여 보다 정확하고

그래프 신경망(GNN)을 구축하여 그래프 구조 데이터의 복잡한 고차 관계를 캡처하는 데 도움이 될 수 있습니다. 그래프 학습 애플리케이션.

일반적으로 이런 종류의 엔드투엔드 그래프 신경망은 더 나은 훈련 결과를 얻기 위해 주석이 달린 고품질 데이터가 많이 필요합니다.

최근 몇 년 동안 일부 연구에서는 다양한 자기 지도 학습 작업을 사용하여 레이블이 지정되지 않은 그래프에서 먼저 사전 훈련하는 그래프 모델의 사전 훈련 및 미세 조정(Pre-training and Fine-tuning) 모드를 제안했습니다. 그런 다음 레이블이 지정된 데이터에 대해 소량의 미세 조정을 수행하여 감독 신호가 부족한 문제를 해결합니다. 여기서 자기 지도 학습 작업에는 대조 학습, 마스크 재구성, 로컬 및 글로벌 상호 정보 극대화와 같은 방법이 포함됩니다.

이러한 사전 훈련 방법은 어느 정도 성공하더라도 일반화 기능에 특정 제한이 있습니다. 특히 사전 훈련과 다운스트림 작업 간에 분포 이동이 발생할 때 더욱 그렇습니다.

추천 시스템에서 사전 학습된 모델은 초기 데이터를 기반으로 학습되지만 사용자 선호도와 제품 인기도는 자주 변하므로 새로운 정보에 적응하기 위해 모델을 지속적으로 업데이트해야 합니다.

이 문제를 해결하기 위해 최근 연구에서는 사전 훈련된 모델이 다양한 다운스트림 작업 및 데이터에 더 효과적으로 적응할 수 있도록 그래프 모델에 대한 힌트 미세 조정 방법을 제안했습니다.

위의 연구는 그래프 신경망 모델의 일반화 성능을 촉진했지만 이러한 모델은 가정을 기반으로 합니다. 학습 데이터와 테스트 데이터는 동일한 노드 세트와 특징 공간을 갖습니다.

이로 인해 사전 훈련된 그래프 모델의 적용 범위가 크게 제한됩니다. 따라서 이 기사에서는 그래픽 모델의 일반화 능력을 더욱 향상시키는 방법을 탐구합니다.

우리는 OpenGraph가 일반적인 토폴로지 구조 패턴을 포착하고 테스트 데이터에 대한 제로샷 예측을 달성할 것으로 기대합니다. 이는 순방향 전파 과정을 통해 특징을 효율적으로 추출하고 테스트 그래프 데이터를 정확하게 예측할 수 있음을 의미합니다.

모델의 훈련 과정은 완전히 다른 그래프 데이터에서 수행되며, 훈련 단계에서는 노드, 가장자리, 특징 벡터를 포함한 테스트 그래프의 어떤 요소도 건드리지 않습니다.

그래프 기반 모델의 3대 문제점을 최초로 극복했습니다! HKU 오픈 소스 OpenGraph: 제로 샘플 학습은 다양한 다운스트림 작업에 적응합니다.

이 목표를 달성하려면 이 문서에서는 다음 세 가지 문제를 해결해야 합니다.

C1. 데이터 세트 전반에 걸친 토큰 세트 변경

제로 샘플 그래프 예측의 상당한 어려움 작업은 서로 다른 그래프 데이터가 일반적으로 완전히 다른 그래프 토큰 세트를 갖는다는 것입니다. 특히, 서로 다른 그래프의 노드 세트는 겹치지 않는 경우가 많으며, 서로 다른 그래프 데이터세트는 완전히 다른 노드 기능을 사용하는 경우가 많습니다. 이렇게 하면 모델이 특정 데이터세트의 그래프 토큰에 바인딩된 매개변수를 학습하여 데이터세트 간 예측 작업을 수행하는 것을 방지할 수 있습니다.

C2. 효율적인 노드 간 관계 모델링

그래프 학습 분야에서는 노드 간에 복잡한 종속성이 있는 경우가 많으며, 모델은 노드의 로컬 및 전역 이웃 관계를 종합적으로 고려해야 합니다. 일반 그래프 모델을 구축할 때 중요한 작업은 노드 간의 관계를 효율적으로 모델링할 수 있는 것인데, 이는 대량의 그래프 데이터를 처리할 때 모델 효과와 확장성을 높일 수 있습니다.

C3. 훈련 데이터의 부족

개인 정보 보호, 데이터 수집 비용 및 기타 이유로 인해 데이터 부족 문제는 그래프 학습의 많은 다운스트림 분야에 널리 퍼져 있으며 이로 인해 일반 그래프 모델의 훈련이 부족하기 쉽습니다. 다운스트림 도메인에 대한 이해 부족으로 인해 특정 차선책 훈련 결과에 대한 지원이 부족합니다.

위 문제를 해결하기 위해 홍콩 대학의 연구자들은 제로샷 학습에 능숙하고 다양한 다운스트림 도메인 간에 전환 가능한 토폴로지 구조 패턴을 식별할 수 있는 모델인 OpenGraph를 제안했습니다.

그래프 기반 모델의 3대 문제점을 최초로 극복했습니다! HKU 오픈 소스 OpenGraph: 제로 샘플 학습은 다양한 다운스트림 작업에 적응합니다.

문서 링크: https://arxiv.org/pdf/2403.01121.pdf

소스 코드 링크: https://github.com/HKUDS/OpenGraph

토폴로지 인식 생성 프로젝션 제안된 그래프 토크나이저는 챌린지 C1을 해결하여 통합 그래프 토큰을 생성합니다.

챌린지 C2를 해결하기 위해 확장 가능한 그래프 Transformer가 설계되었습니다. 이 Transformer는 앵커 샘플링을 기반으로 하는 효율적인 self-attention 메커니즘을 갖추고 토큰 시퀀스 샘플링을 포함하여 보다 효율적인 교육을 달성합니다.

C3 과제를 해결하기 위해 우리는 힌트 트리 알고리즘과 Gibbs 샘플링을 사용하여 실제 그래프 구조의 관계형 데이터를 시뮬레이션함으로써 데이터 증강을 위한 대규모 언어 모델을 활용하여 사전 학습을 강화합니다. 여러 그래프 데이터 세트에 대한 광범위한 테스트는 다양한 설정에서 OpenGraph의 뛰어난 일반화 기능을 보여줍니다.

모델 소개

전체 모델 아키텍처는 아래 그림에 표시되어 있으며, 이는 1) 통합 그래프 토크나이저, 2) 확장 가능한 그래프 변환기, 3) 대규모 언어 모델 지식 증류의 세 부분으로 나눌 수 있습니다. .

그래프 기반 모델의 3대 문제점을 최초로 극복했습니다! HKU 오픈 소스 OpenGraph: 제로 샘플 학습은 다양한 다운스트림 작업에 적응합니다.


통합 그래프 토크나이저

다양한 데이터 세트의 노드, 에지 및 기능의 큰 차이에 대처하기 위해 우리의 첫 번째 작업은 통합 그래프를 구축하는 것입니다. 다양한 그래프 데이터를 통합된 토큰 시퀀스로 효과적으로 매핑할 수 있는 토크나이저. 토크나이저에서 각 토큰에는 해당 노드의 정보를 설명하는 의미 벡터가 있습니다.

통일된 노드 표현 공간과 유연한 시퀀스 데이터 구조를 채택하여 다양한 그래프 데이터에 대해 표준화되고 효율적인 토큰화를 수행하고자 합니다.

이 목표를 달성하기 위해 우리의 토크나이저는 매끄러운 토폴로지 정보와 노드 공간에서 잠재 표현 공간으로의 매핑 기능을 사용합니다.

고차 평활 인접 행렬

그래프 토큰화 과정에서는 인접 행렬의 고차 거듭제곱이 입력 중 하나로 사용됩니다. 이 방법은 높은 차수를 얻을 수 있을 뿐만 아니라 그래프 구조의 연결 관계를 정렬할 뿐만 아니라 원래 인접 행렬의 연결 희소성 문제도 해결합니다.

계산 과정에서 라플라시안 정규화가 수행되며, 다양한 차수의 모든 인접 행렬 거듭제곱이 고려됩니다. 구체적인 계산 방법은 다음과 같습니다.

그래프 기반 모델의 3대 문제점을 최초로 극복했습니다! HKU 오픈 소스 OpenGraph: 제로 샘플 학습은 다양한 다운스트림 작업에 적응합니다.

임의 그래프의 토폴로지 인식 매핑

다양한 데이터 세트의 인접 행렬은 차원에서 큰 차이가 있기 때문에 인접 행렬을 입력으로 직접 취한 다음 고정 입력을 사용할 수 없습니다. 차원 신경망 처리.

저희 솔루션은 먼저 인접 행렬을 노드 표현 시퀀스의 형태로 투영한 다음 가변 길이 시퀀스 모델을 사용하여 처리하는 것입니다. 매핑 과정에서 정보 손실을 줄이기 위해 위상 인식 매핑 방법을 제안합니다.

우선, 토폴로지 인식 매핑의 값 범위는 고차원 잠재 표현 공간입니다. 일부 이전 연구에서는 더 큰 잠재 공간 차원을 채택할 때 무작위 매핑조차도 종종 만족스러운 표현을 생성할 수 있다고 지적했습니다.

그래프 구조 정보를 더욱 보존하고 무작위성의 영향을 줄이기 위해 빠른 고유값 분해(SVD)를 사용하여 매핑 기능을 구성합니다. 실제 실험에서는 두 번의 빠른 고유값 분해를 통해 위상 정보를 효과적으로 유지할 수 있으며 결과적인 계산 오버헤드는 다른 모듈에 비해 무시할 수 있습니다.

Scalable Graph Transformer

매개변수가 없는 그래프 토큰화 프로세스 후 OpenGraph는 다양한 특성을 가진 그래프 데이터에 통합 토폴로지 인식 그래프 토큰 표현을 할당합니다. 다음 작업은 훈련 가능한 신경망을 사용하여 노드 간의 복잡한 종속성을 모델링하는 것입니다.

OpenGraph는 복잡한 관계를 모델링하는 강력한 기능을 활용하기 위해 변환기 아키텍처를 채택합니다. 모델 효율성과 성능을 보장하기 위해 다음 두 가지 샘플링 기술을 소개합니다.

토큰 시퀀스 샘플링

그래프 토큰 시퀀스 데이터에는 일반적으로 많은 수의 토큰과 숨겨진 표현 차원이 있으므로 OpenGraph에서 사용하는 그래프 변환기는 입력 토큰 시퀀스를 샘플링하고 현재 교육 배치만 학습합니다. 시간 내 토큰 간의 쌍 관계는 노드 수의 제곱에서 훈련 배치 크기의 제곱으로 모델링해야 하는 관계 쌍의 수를 줄여 훈련에서 그래프 변환기의 시간 및 공간 오버헤드를 크게 줄입니다. 단계. 또한 이 샘플링 방법을 사용하면 모델이 훈련할 때 현재 훈련 배치에 더 많은 주의를 기울일 수 있습니다.

입력 데이터가 샘플링되었지만 초기 그래프 토큰 표현에는 노드 간의 위상 관계가 포함되어 있으므로 샘플링된 토큰 시퀀스는 여전히 전체 그래프의 모든 노드 정보를 어느 정도 반영할 수 있습니다.

self-attention의 앵커 샘플링 방법

토큰 시퀀스 샘플링은 노드 수의 제곱에서 배치 크기의 제곱으로 복잡성을 줄이지만, 제곱 수준의 복잡성은 배치 크기의 제곱에 더 큰 영향을 미칩니다. 배치 크기 제한으로 인해 모델 훈련에 더 큰 배치를 사용할 수 없으므로 전체 훈련 시간과 훈련 안정성에 영향을 미칩니다.

이 문제를 완화하기 위해 OpenGraph의 변환기 부분은 모든 토큰 간의 쌍 관계 모델링을 포기하고 대신 일부 앵커 포인트를 샘플링하고 모든 노드 간의 관계 학습을 두 번 나눕니다.

대언어 모델 지식 증류

데이터 개인 정보 보호 및 기타 이유로 인해 일반 그래프 모델을 학습하기 위해 다양한 분야에서 데이터를 얻는 것은 매우 어렵습니다. LLM(Large Language Model)이 보여주는 놀라운 지식과 이해력을 느끼며, 그 힘을 활용하여 일반 그래프 모델 학습을 위한 다양한 그래프 구조의 데이터를 생성합니다.

저희가 설계한 데이터 확대 메커니즘을 통해 LLM 강화 그래프 데이터가 실제 그래프의 특성에 더욱 근접하게 되므로 증강 데이터의 관련성과 유용성이 향상됩니다.

LLM 기반 노드 생성

그래프를 생성할 때 초기 단계는 특정 애플리케이션 시나리오에 적합한 노드 세트를 생성하는 것입니다. 각 노드에는 후속 에지 생성 프로세스를 용이하게 하는 텍스트 기반 기능 설명이 있습니다.

그러나 실제 시나리오를 다룰 때는 노드 세트의 크기가 크기 때문에 이 작업이 특히 어려울 수 있습니다. 예를 들어, 전자상거래 플랫폼에서 그래프 데이터에는 수십억 개의 제품이 포함될 수 있습니다. 따라서 LLM을 효율적으로 활성화하여 많은 수의 노드를 생성하는 것이 중요한 과제가 됩니다.

위 문제를 해결하기 위해 우리는 일반 노드를 보다 세분화된 하위 범주로 지속적으로 나누는 전략을 채택합니다.

예를 들어 전자상거래 시나리오에서 제품 노드를 생성할 때 먼저 "Taobao와 같은 전자상거래 플랫폼에 있는 모든 제품의 하위 카테고리를 나열합니다."와 유사한 쿼리 프롬프트 LLM을 사용합니다. LLM은 "의류", "가정용 주방용품", "전자 제품"과 같은 하위 카테고리 목록으로 답변했습니다.

그런 다음 LLM에 각 하위 범주를 더욱 구체화하여 반복적인 분할 프로세스를 계속하도록 요청합니다. 이 프로세스는 "의류", "여성 의류", "스웨터", "주머니가 있는 스웨터" 및 "흰색 주머니가 있는 스웨터"라는 레이블이 있는 노드와 같이 실제 인스턴스와 유사한 노드가 있을 때까지 반복됩니다.

프롬프트 트리 알고리즘

노드를 하위 범주로 나누고 세분화된 엔터티를 생성하는 프로세스는 트리와 같은 구조를 따릅니다. 초기 일반 노드(예: "제품", "딥 러닝 논문")는 루트 역할을 하고 세분화된 엔터티는 리프 노드 역할을 합니다. 우리는 이러한 노드를 탐색하고 생성하기 위해 트리 힌트 전략을 채택합니다.

그래프 기반 모델의 3대 문제점을 최초로 극복했습니다! HKU 오픈 소스 OpenGraph: 제로 샘플 학습은 다양한 다운스트림 작업에 적응합니다.

LLM 및 Gibbs 샘플링을 기반으로 한 Edge 생성

Edge를 생성하기 위해 위에서 생성된 노드 세트와 함께 Gibbs 샘플링 알고리즘을 사용합니다. 알고리즘은 무작위 샘플에서 시작하여 매번 반복되며, 현재 샘플을 기반으로 데이터 차원 중 하나를 변경하여 얻은 샘플이 샘플링됩니다.

이 알고리즘의 핵심은 현재 샘플의 조건에서 특정 데이터 차원이 변경되는 조건부 확률을 추정하는 것입니다. 우리는 노드 생성 시 획득한 텍스트 특징을 기반으로 LLM을 통한 확률 추정을 제안합니다.

에지의 집합 공간이 크기 때문에 LLM이 탐색하도록 함으로써 발생하는 막대한 오버헤드를 피하기 위해 먼저 LLM을 사용하여 노드 집합을 특성화한 다음 간단한 유사성 연산자를 사용하여 노드 집합 기반을 특성화합니다. 표현 벡터에 대해 그들 사이의 관계를 계산합니다. 위의 에지 생성 프레임워크 내에서 조정을 위해 다음 세 가지 중요한 기술도 채택합니다.

동적 확률 정규화

LLM 표현의 유사도는 [0, 1] 범위와 크게 다를 수 있으므로 샘플링에 더 적합한 확률 값을 얻기 위해 동적 확률 정규화를 사용합니다. 행동 양식.

이 방법은 샘플링 프로세스 중에 가장 최근의 T' 유사성 추정값을 동적으로 유지하고 해당 평균과 표준편차를 계산한 다음 최종적으로 현재 유사성 추정치를 평균 위아래 두 표준편차의 분포 범위에 매핑합니다. 결과적으로 확률 추정치는 대략 [0, 1]이 됩니다.

노드 지역성 소개

LLM 기반 엣지 생성 방법은 노드의 의미적 유사성을 기반으로 잠재적인 연결 관계를 효과적으로 결정할 수 있습니다.

그러나 실제 그래프에서 중요한 지역성 개념을 무시하면서 의미상 관련된 모든 노드 간에 너무 많은 연결을 생성하는 경향이 있습니다.

실제 세계에서 노드는 일반적으로 노드 하위 집합과 제한된 상호 작용만 하기 때문에 관련 노드의 하위 집합에 연결될 가능성이 더 높습니다. 이 중요한 속성을 모델링하기 위해 에지 생성 중에 지역성을 고려하는 방법이 도입되었습니다.

각 노드에는 지역성 지수가 무작위로 할당됩니다. 두 노드 간의 상호 작용 확률은 지역성 지수의 절대 차이 감쇠에 영향을 받습니다. 노드의 지역성 지수 차이가 클수록 감쇠가 심각해집니다. 될거야.

그래프 토폴로지 패턴 주입

생성된 그래프 데이터가 토폴로지 구조의 패턴과 더욱 일치하도록 하기 위해 첫 번째 그래프 생성 프로세스에서 수정된 노드 표현을 다시 생성합니다.

이 노드 표현은 간단한 그래프 컨볼루션 네트워크를 사용하여 초기 생성된 그래프에서 얻어집니다. 이는 그래프 구조 데이터의 분포 특성을 더 잘 따르고 그래프와 텍스트 공간 간의 분포 이동을 피할 수 있습니다. 마지막으로 수정된 노드 표현을 기반으로 다시 그래프 샘플링을 수행하여 최종 그래프 구조 데이터를 얻습니다.

실험 검증

실험에서는 OpenGraph 모델 훈련을 위해 LLM 기반으로 생성된 데이터 세트만 사용했으며 테스트 데이터 세트는 다양한 응용 시나리오의 실제 데이터 세트이며 노드 분류 및 체인을 포함합니다. 도로 예측 작업에는 두 가지 유형이 있습니다. 실험의 구체적인 설정은 다음과 같습니다.

0-shot 설정

OpenGraph의 제로 샘플 예측 능력을 검증하기 위해 생성된 학습 데이터 세트에 대해 OpenGraph를 테스트한 후 전혀 다른 실제 테스트 데이터 세트를 사용하여 효과 테스트를 수행합니다. 노드, 모서리, 기능 및 레이블 측면에서 훈련 데이터 세트와 테스트 데이터 세트 사이에는 겹치는 부분이 없습니다.

Few-shot 설정

대부분의 기존 방법은 효과적인 제로샷 예측을 수행할 수 없기 때문에 우리는 Few-shot 예측을 사용하여 테스트합니다. 기본 방법은 사전 훈련 데이터로 사전 훈련된 다음 k-shot 샘플을 사용하여 미세 조정된 내용에 대해 훈련, 미세 조정 또는 힌트를 제공할 수 있습니다.

전체 효과 비교

2개의 Task와 총 8개의 테스트 데이터 세트에 대한 테스트 결과는 다음과 같습니다.

그래프 기반 모델의 3대 문제점을 최초로 극복했습니다! HKU 오픈 소스 OpenGraph: 제로 샘플 학습은 다양한 다운스트림 작업에 적응합니다.

관찰할 수 있습니다:

1) 교차 데이터 세트의 경우 OpenGraph의 제로 샘플 예측 효과는 기존 방법보다 더 큰 이점을 갖습니다.

2) 교차 데이터 세트 마이그레이션의 경우 기존 사전 학습 방법은 몇 가지 샘플에 대해 처음부터 학습하는 기본 모델보다 더 나쁜 경우가 있습니다. 이는 교차 데이터를 얻는 그래프 모델의 능력을 반영합니다. 데이터 세트 일반화의 어려움.

그래프 토크나이저 연구

다음으로 이미지 토크나이저 디자인이 효과에 미치는 영향을 살펴보겠습니다. 먼저 인접 행렬 평활화 끝을 조정하고 그것이 효과에 미치는 영향을 테스트했습니다. 효과는 0차에서 심각하게 감쇠되는데, 이는 고차 평활화 사용의 중요성을 나타냅니다.

그래프 기반 모델의 3대 문제점을 최초로 극복했습니다! HKU 오픈 소스 OpenGraph: 제로 샘플 학습은 다양한 다운스트림 작업에 적응합니다.

두 번째로, 토폴로지 인식 매핑 기능을 데이터 세트 전체의 학습 가능한 원-핫 ID 표현, 무작위 매핑, 노드 수준에 따른 학습 가능한 표현을 포함한 다른 간단한 방법으로 대체합니다.

결과는 세 가지 대안 모두 덜 효과적이라는 것을 보여줍니다. 그 중 데이터 세트 전체에 걸쳐 학습하는 id 표현 효과는 기존 작업에서 일반적으로 사용되는 정도 표현 효과도 크게 약화됩니다. 모든 대체 방법이 가장 잘 수행되지만 여전히 토폴로지 인식 매핑에 비해 훨씬 부족합니다.

사전 훈련 데이터 세트 연구

우리는 LLM 기반 지식 증류 방법의 효율성을 검증하기 위해 다양한 사전 훈련 데이터 세트를 사용하여 OpenGraph를 교육하고 다양한 테스트 세트에서 테스트합니다. 효과에.

이 실험에서 비교한 사전 학습 데이터 세트에는 생성 방법만으로 특정 트릭을 제거한 버전과 테스트 데이터 세트와 관련이 없는 두 개의 실제 데이터 세트인 Yelp2018 및 Gowalla, ML과 관련된 데이터 세트가 포함되어 있습니다. 10M 데이터 세트는 결과에서 확인할 수 있습니다.

1) 전반적으로 생성된 데이터 세트는 모든 테스트 데이터에서 더 나은 결과를 생성할 수 있습니다.

2) 테스트한 3세대 기술 모두 상당한 개선 효과가 있습니다.

3) 학습에 실제 데이터 세트(Yelp, Gowalla)를 사용하면 부정적인 영향을 미칠 수 있으며, 이는 서로 다른 실제 데이터 세트 간의 분포 차이로 인해 발생할 수 있습니다.

4) ML-10M은 ML-1M과 ML-10M 모두에서 가장 좋은 결과를 얻었으며, 이는 유사한 훈련 데이터 세트를 사용하면 더 나은 결과를 얻을 수 있음을 보여줍니다.

그래프 기반 모델의 3대 문제점을 최초로 극복했습니다! HKU 오픈 소스 OpenGraph: 제로 샘플 학습은 다양한 다운스트림 작업에 적응합니다.

Transformer의 샘플링 기술에 대한 연구

이 실험은 그래프 변환기 모듈에서 토큰 시퀀스 샘플링(Seq) 및 앵커 샘플링(Anc)에 대한 절제 테스트를 수행했습니다.

그래프 기반 모델의 3대 문제점을 최초로 극복했습니다! HKU 오픈 소스 OpenGraph: 제로 샘플 학습은 다양한 다운스트림 작업에 적응합니다.

결과는 두 가지 샘플링 방법이 훈련 및 테스트 프로세스 중에 모델의 공간 및 시간 오버헤드를 최적화할 수 있음을 보여줍니다. 효과 측면에서 토큰 시퀀스 샘플링은 모델 효과에 긍정적인 영향을 미치는 반면, ddi 데이터 세트의 결과는 앵커 접시 샘플링이 모델 효과에 부정적인 영향을 미치는 것으로 나타났습니다.

결론

이 연구의 주요 초점은 다양한 그래프 구조에서 복잡한 토폴로지 패턴을 정확하게 포착하고 이해할 수 있는 적응성이 뛰어난 프레임워크를 개발하는 것입니다.

제안된 모델의 잠재력을 활용하여 다양한 다운스트림 애플리케이션을 포함한 제로샷 그래프 학습 작업에서 잘 수행될 수 있도록 모델의 일반화 능력을 크게 향상시키는 것을 목표로 합니다.

OpenGraph의 효율성과 견고성을 더욱 향상시키기 위해 확장 가능한 그래프 변환기 아키텍처와 LLM 기반 데이터 증대 메커니즘을 기반으로 모델을 구축했습니다.

여러 벤치마크 데이터 세트에 대한 광범위한 실험을 통해 모델의 뛰어난 일반화 기능을 검증합니다. 본 연구에서는 그래프 기반 모델의 방향으로 사전 탐색을 시도한다.

향후 작업에서 우리는 다양한 그래프에 대한 일반적이고 전환 가능한 구조 패턴을 학습하면서 반사실적 학습 영향으로 시끄러운 연결과 구조를 자동으로 발견할 수 있도록 프레임워크를 강화할 계획입니다.

위 내용은 '그래프 기반 모델'의 3대 문제점을 최초로 극복했습니다! HKU 오픈 소스 OpenGraph: 제로 샘플 학습은 다양한 다운스트림 작업에 적응합니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.

핫 AI 도구

Undresser.AI Undress

Undresser.AI Undress

사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover

AI Clothes Remover

사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool

Undress AI Tool

무료로 이미지를 벗다

Clothoff.io

Clothoff.io

AI 옷 제거제

AI Hentai Generator

AI Hentai Generator

AI Hentai를 무료로 생성하십시오.

인기 기사

R.E.P.O. 에너지 결정과 그들이하는 일 (노란색 크리스탈)
3 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. 최고의 그래픽 설정
3 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. 아무도들을 수없는 경우 오디오를 수정하는 방법
3 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌

뜨거운 도구

메모장++7.3.1

메모장++7.3.1

사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전

SublimeText3 중국어 버전

중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기

스튜디오 13.0.1 보내기

강력한 PHP 통합 개발 환경

드림위버 CS6

드림위버 CS6

시각적 웹 개발 도구

SublimeText3 Mac 버전

SublimeText3 Mac 버전

신 수준의 코드 편집 소프트웨어(SublimeText3)

세계에서 가장 강력한 오픈 소스 MoE 모델이 여기에 있습니다. 중국의 기능은 GPT-4와 비슷하며 가격은 GPT-4-Turbo의 거의 1%에 불과합니다. 세계에서 가장 강력한 오픈 소스 MoE 모델이 여기에 있습니다. 중국의 기능은 GPT-4와 비슷하며 가격은 GPT-4-Turbo의 거의 1%에 불과합니다. May 07, 2024 pm 04:13 PM

기존 컴퓨팅을 능가할 뿐만 아니라 더 낮은 비용으로 더 효율적인 성능을 달성하는 인공 지능 모델을 상상해 보세요. 이것은 공상과학 소설이 아닙니다. DeepSeek-V2[1], 세계에서 가장 강력한 오픈 소스 MoE 모델이 여기에 있습니다. DeepSeek-V2는 경제적인 훈련과 효율적인 추론이라는 특징을 지닌 전문가(MoE) 언어 모델의 강력한 혼합입니다. 이는 236B 매개변수로 구성되며, 그 중 21B는 각 마커를 활성화하는 데 사용됩니다. DeepSeek67B와 비교하여 DeepSeek-V2는 더 강력한 성능을 제공하는 동시에 훈련 비용을 42.5% 절감하고 KV 캐시를 93.3% 줄이며 최대 생성 처리량을 5.76배로 늘립니다. DeepSeek은 일반 인공지능을 연구하는 회사입니다.

MLP를 대체하는 KAN은 오픈소스 프로젝트를 통해 컨볼루션으로 확장되었습니다. MLP를 대체하는 KAN은 오픈소스 프로젝트를 통해 컨볼루션으로 확장되었습니다. Jun 01, 2024 pm 10:03 PM

이달 초 MIT와 기타 기관의 연구자들은 MLP에 대한 매우 유망한 대안인 KAN을 제안했습니다. KAN은 정확성과 해석성 측면에서 MLP보다 뛰어납니다. 그리고 매우 적은 수의 매개변수로 더 많은 수의 매개변수를 사용하여 실행되는 MLP보다 성능이 뛰어날 수 있습니다. 예를 들어 저자는 KAN을 사용하여 더 작은 네트워크와 더 높은 수준의 자동화로 DeepMind의 결과를 재현했다고 밝혔습니다. 구체적으로 DeepMind의 MLP에는 약 300,000개의 매개변수가 있는 반면 KAN에는 약 200개의 매개변수만 있습니다. KAN은 MLP와 같이 강력한 수학적 기반을 가지고 있으며, KAN은 Kolmogorov-Arnold 표현 정리를 기반으로 합니다. 아래 그림과 같이 KAN은

iPhone의 느린 셀룰러 데이터 인터넷 속도: 수정 사항 iPhone의 느린 셀룰러 데이터 인터넷 속도: 수정 사항 May 03, 2024 pm 09:01 PM

지연이 발생하고 iPhone의 모바일 데이터 연결 속도가 느립니까? 일반적으로 휴대폰의 셀룰러 인터넷 강도는 지역, 셀룰러 네트워크 유형, 로밍 유형 등과 같은 여러 요소에 따라 달라집니다. 더 빠르고 안정적인 셀룰러 인터넷 연결을 얻기 위해 할 수 있는 일이 몇 가지 있습니다. 수정 1 – iPhone 강제 다시 시작 때로는 장치를 강제로 다시 시작하면 셀룰러 연결을 포함한 많은 항목이 재설정됩니다. 1단계 – 볼륨 높이기 키를 한 번 눌렀다가 놓습니다. 그런 다음 볼륨 작게 키를 눌렀다가 다시 놓습니다. 2단계 - 프로세스의 다음 부분은 오른쪽에 있는 버튼을 누르는 것입니다. iPhone이 다시 시작되도록 하세요. 셀룰러 데이터를 활성화하고 네트워크 속도를 확인하세요. 다시 확인하세요 수정 2 – 데이터 모드 변경 5G는 더 나은 네트워크 속도를 제공하지만 신호가 약할 때 더 잘 작동합니다

미 공군이 주목할만한 최초의 AI 전투기를 선보였습니다! 전 과정에 걸쳐 장관이 직접 간섭 없이 테스트를 진행했고, 10만 줄의 코드를 21차례 테스트했다. 미 공군이 주목할만한 최초의 AI 전투기를 선보였습니다! 전 과정에 걸쳐 장관이 직접 간섭 없이 테스트를 진행했고, 10만 줄의 코드를 21차례 테스트했다. May 07, 2024 pm 05:00 PM

최근 군계는 미군 전투기가 이제 AI를 활용해 완전 자동 공중전을 완수할 수 있다는 소식에 충격을 받았다. 네, 얼마 전 미군의 AI 전투기가 최초로 공개되면서 그 미스터리가 드러났습니다. 이 전투기의 정식 명칭은 VISTA(Variable Stability Flight Simulator Test Aircraft)로 미 공군 장관이 직접 조종해 일대일 공중전을 모의 실험한 것이다. 5월 2일, 미 공군 장관 프랭크 켄달(Frank Kendall)이 X-62AVISTA를 타고 에드워드 공군 기지에서 이륙했습니다. 1시간의 비행 동안 모든 비행 작업은 AI에 의해 자동으로 완료되었습니다. Kendall은 "지난 수십 년 동안 우리는 자율 공대공 전투의 무한한 잠재력에 대해 생각해 왔지만 항상 도달할 수 없는 것처럼 보였습니다."라고 말했습니다. 그러나 지금은,

공장에서 일하는 테슬라 로봇, 머스크 : 올해 손의 자유도가 22도에 달할 것! 공장에서 일하는 테슬라 로봇, 머스크 : 올해 손의 자유도가 22도에 달할 것! May 06, 2024 pm 04:13 PM

테슬라의 로봇 옵티머스(Optimus)의 최신 영상이 공개됐는데, 이미 공장에서 작동이 가능한 상태다. 정상 속도에서는 배터리(테슬라의 4680 배터리)를 다음과 같이 분류합니다. 공식은 또한 20배 속도로 보이는 모습을 공개했습니다. 작은 "워크스테이션"에서 따고 따고 따고 : 이번에 출시됩니다. 영상에는 옵티머스가 공장에서 이 작업을 전 과정에 걸쳐 사람의 개입 없이 완전히 자율적으로 완료하는 모습이 담겨 있습니다. 그리고 Optimus의 관점에서 보면 자동 오류 수정에 중점을 두고 구부러진 배터리를 집어 넣을 수도 있습니다. NVIDIA 과학자 Jim Fan은 Optimus의 손에 대해 높은 평가를 했습니다. Optimus의 손은 세계의 다섯 손가락 로봇 중 하나입니다. 가장 능숙합니다. 손은 촉각적일 뿐만 아니라

OpenAI 데이터가 필요하지 않습니다. 대규모 코드 모델 목록에 참여하세요! UIUC, StarCoder-15B-Instruct 출시 OpenAI 데이터가 필요하지 않습니다. 대규모 코드 모델 목록에 참여하세요! UIUC, StarCoder-15B-Instruct 출시 Jun 13, 2024 pm 01:59 PM

소프트웨어 기술의 선두에 있는 UIUC Zhang Lingming 그룹은 BigCode 조직의 연구원들과 함께 최근 StarCoder2-15B-Instruct 대규모 코드 모델을 발표했습니다. 이 혁신적인 성과는 코드 생성 작업에서 획기적인 발전을 이루었으며 CodeLlama-70B-Instruct를 성공적으로 능가하고 코드 생성 성능 목록의 최상위에 올랐습니다. StarCoder2-15B-Instruct의 독창성은 순수한 자체 정렬 전략에 있습니다. 전체 훈련 프로세스는 개방적이고 투명하며 완전히 자율적이고 제어 가능합니다. 이 모델은 값비싼 수동 주석에 의존하지 않고 StarCoder-15B 기본 모델을 미세 조정한 것에 대한 응답으로 StarCoder2-15B를 통해 수천 개의 명령을 생성합니다.

DPO를 완전히 능가함: Chen Danqi 팀은 단순 선호도 최적화 SimPO를 제안하고 가장 강력한 8B 오픈 소스 모델도 개선했습니다. DPO를 완전히 능가함: Chen Danqi 팀은 단순 선호도 최적화 SimPO를 제안하고 가장 강력한 8B 오픈 소스 모델도 개선했습니다. Jun 01, 2024 pm 04:41 PM

대규모 언어 모델(LLM)을 인간의 가치와 의도에 맞추려면 인간의 피드백을 학습하여 유용하고 정직하며 무해한지 확인하는 것이 중요합니다. LLM 정렬 측면에서 효과적인 방법은 인간 피드백 기반 강화 학습(RLHF)입니다. RLHF 방법의 결과는 훌륭하지만 몇 가지 최적화 문제가 있습니다. 여기에는 보상 모델을 훈련한 다음 해당 보상을 극대화하기 위해 정책 모델을 최적화하는 것이 포함됩니다. 최근 일부 연구자들은 더 간단한 오프라인 알고리즘을 탐구했는데, 그 중 하나가 직접 선호 최적화(DPO)입니다. DPO는 RLHF의 보상 기능을 매개변수화하여 선호도 데이터를 기반으로 직접 정책 모델을 학습하므로 명시적인 보상 모델이 필요하지 않습니다. 이 방법은 간단하고 안정적입니다.

Yolov10: 자세한 설명, 배포, 적용이 모두 한곳에! Yolov10: 자세한 설명, 배포, 적용이 모두 한곳에! Jun 07, 2024 pm 12:05 PM

1. 소개 지난 몇 년 동안 YOLO는 계산 비용과 감지 성능 간의 효과적인 균형으로 인해 실시간 객체 감지 분야에서 지배적인 패러다임이 되었습니다. 연구원들은 YOLO의 아키텍처 설계, 최적화 목표, 데이터 확장 전략 등을 탐색하여 상당한 진전을 이루었습니다. 동시에 사후 처리를 위해 NMS(비최대 억제)에 의존하면 YOLO의 엔드투엔드 배포가 방해되고 추론 대기 시간에 부정적인 영향을 미칩니다. YOLO에서는 다양한 구성 요소의 설계에 포괄적이고 철저한 검사가 부족하여 상당한 계산 중복이 발생하고 모델 기능이 제한됩니다. 이는 최적이 아닌 효율성을 제공하며 성능 향상을 위한 상대적으로 큰 잠재력을 제공합니다. 이 작업의 목표는 사후 처리와 모델 아키텍처 모두에서 YOLO의 성능 효율성 경계를 더욱 향상시키는 것입니다. 이를 위해

See all articles