CLIP 긴 텍스트 기능이 잠금 해제되고 이미지 검색 작업 성능이 크게 향상되었습니다!
일부 주요 세부정보도 캡처할 수 있습니다. Shanghai Jiao Tong University와 Shanghai AI Laboratory는 새로운 프레임워크인 Long-CLIP을 제안했습니다.
Long-CLIP은 CLIP의 원래 기능 공간을 유지하는 데 기반을 두고 있으며 이미지 생성과 같은 다운스트림 작업에서 플러그 앤 플레이를 통해 미세한 결과를 얻을 수 있습니다. 긴 텍스트의 세분화된 이미지 생성 .
긴 텍스트 이미지 검색이 20% 증가하고, 짧은 텍스트 이미지 검색이 6% 증가했습니다.
CLIP은 시각적 및 텍스트 양식을 정렬하고 강력한 제로샷 일반화 기능을 갖추고 있습니다. 따라서 CLIP은 이미지 분류, 텍스트 이미지 검색, 이미지 생성 등과 같은 다양한 다중 모드 작업에 널리 사용됩니다.
하지만 CLIP의 가장 큰 단점은 긴 텍스트 기능이 부족하다는 것입니다.
우선 절대 위치 인코딩을 사용하기 때문에 CLIP의 텍스트 입력 길이는 토큰 677개로 제한됩니다. 뿐만 아니라, CLIP의 실제 유효 길이는 토큰 20개 미만이라는 사실이 실험을 통해 입증되었습니다. 이는 세밀한 정보를 표현하기에는 턱없이 부족합니다. 그러나 이러한 한계를 극복하기 위해 연구자들은 해결책을 제안했다. 텍스트 입력에 특정 태그를 도입함으로써 모델은 중요한 부분에 집중할 수 있습니다. 입력에서 이러한 토큰의 위치와 수는 사전에 결정되며 20개 토큰을 초과하지 않습니다. 이러한 방식으로 CLIP은 텍스트 입력을 처리할 수 있습니다. 텍스트 측면에 긴 텍스트가 없으면 시각적 측면의 기능도 제한됩니다. 짧은 텍스트만 포함되어 있기 때문에 CLIP의 시각적 인코더는 이미지의 가장 중요한 구성 요소만 추출하고 다양한 세부 사항은 무시합니다. 이는
교차 모달 검색과 같은 세분화된 작업에 매우 해롭습니다. 동시에 긴 텍스트가 부족하여 CLIP은 인과 추론과 같은 복잡한 기능이 없는 BOF(Bag of Feature)와 유사한 간단한 모델링 방법을 채택합니다.
이 문제를 해결하기 위해 연구자들은 Long-CLIP 모델을 제안했습니다.
두 가지 주요 전략을 구체적으로 제안했습니다. 위치 임베딩의 지식 보존 확장과 핵심 구성 요소 정렬(기본 구성 요소 일치)을 추가하는 미세 조정 전략입니다.
지식 보존 위치 인코딩 확장
으로 보간한 다음 긴 텍스트를 통해 미세 조정하는 것입니다. 텍스트. 연구원들은 CLIP의 다양한 위치 인코딩의 훈련 정도가 다르다는 것을 발견했습니다. 학습 텍스트는 주로 짧은 텍스트일 가능성이 높으므로 낮은 위치 코딩은 더 완전히 학습되어 절대 위치를 정확하게 나타낼 수 있는 반면, 높은 위치 코딩은 대략적인 상대 위치만 나타낼 수 있습니다. 따라서 서로 다른 위치에서 코드를 보간하는 비용이 다릅니다.
위의 관찰을 바탕으로 연구원은 처음 20개의 위치 코드를 유지하고 나머지 57개의 위치 코드에 대해 더 큰 비율 λ
2로 보간되었습니다. 계산 공식은 다음과 같이 표현될 수 있습니다.
실험은 다음과 같습니다. 직접 보간에 비해 이 전략은 더 긴 전체 길이를 지원하면서 다양한 작업의 성능을 크게 향상시킬 수 있습니다.
핵심 속성 정렬 미세 조정 추가
구체적으로, 연구자들은 주성분 분석(PCA) 알고리즘을 사용하여 세밀한 이미지 특징에서 핵심 속성을 추출하고, 나머지 속성을 필터링하여 거친 이미지 특징을 재구성한 후 요약된 짧은 텍스트와 비교했습니다. 이 전략에서는 모델이 더 많은 세부 정보(세밀한 정렬)를 포함할 뿐만 아니라 가장 핵심 속성(핵심 구성 요소 추출 및 대략적인 정렬)을 식별하고 모델링해야 합니다.
Δ핵심 속성 정렬의 미세 조정 프로세스 추가
다양한 멀티모달 작업에서 플러그 앤 플레이
예를 들어, 이미지 및 텍스트 검색에서 Long-CLIP은 이미지 및 텍스트 모드에서 보다 세밀한 정보를 캡처할 수 있으므로 유사한 이미지와 텍스트를 구별하는 능력이 향상되고 이미지 및 텍스트 검색 성능이 크게 향상됩니다.
기존의 짧은 텍스트 검색(COCO, Flickr30k)이든 긴 텍스트 검색 작업이든 Long-CLIP은 회상률을 크게 향상시켰습니다.
△짧은 텍스트-이미지 검색 실험 결과
△긴 텍스트-이미지 검색 실험 결과
△긴 텍스트-이미지 검색 시각화, 갈색 텍스트는 둘을 구별하는 주요 세부 사항입니다. Pictures
또한 CLIP의 텍스트 인코더는 stable 확산 계열 등 텍스트-이미지 생성 모델에 자주 사용됩니다. 그러나 긴 텍스트 기능이 부족하기 때문에 이미지를 생성하는 데 사용되는 텍스트 설명은 일반적으로 매우 짧으며 다양한 세부 사항으로 사용자 정의할 수 없습니다.
Long-CLIP은 77개의 토큰 제한을 돌파하고 챕터 수준의 이미지 생성을 달성할 수 있습니다(오른쪽 아래).
세밀한 이미지 생성을 위해 77개의 토큰 내에서 더 많은 세부 사항을 모델링할 수도 있습니다(오른쪽 위).
문서 링크:https://arxiv.org/abs/2403.15378
코드 링크:https://github.com/beichenzbc/Long-CLIP
위 내용은 Shanghai Jiao Tong University의 새로운 프레임워크는 CLIP 긴 텍스트 기능을 잠금 해제하고 다중 모드 생성의 세부 사항을 파악하며 이미지 검색 기능을 크게 향상시킵니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!