GPU는 ChatGPT 볼륨 모델을 실행하며 ControlNet은 AI 그리기를 위한 또 다른 아티팩트입니다.

王林
풀어 주다: 2023-04-15 22:49:01
앞으로
1707명이 탐색했습니다.

카탈로그

TransFormer 모델: 소개 및 카탈로그
  1. 드리프트 인식 동적 신경망이 포함된 단일 GPUMPORAL DMAIN을 갖춘 대규모 언어 모델의 고도로 처리된 세대
  2. 대규모의 물리적으로 정확한 모델링 딥 러닝을 갖춘 실제 양성자 교환막 연료 전지
  3. 사전 훈련된 기초 모델에 대한 종합 조사: BERT에서 ChatGPT까지의 역사
  4. 텍스트-이미지 확산 모델에 조건부 제어 추가
  5. EVA3D: 구성 3D 2D 이미지 컬렉션의 Human Generation
  6. ArXiv Weekly Radiostation: NLP, CV, ML 더 많은 선택된 논문(오디오 포함)
  7. 문서 1: 트랜스포머 모델: 소개 및 카탈로그

저자: Xavier Amatriain

  • 논문 주소: https://arxiv.org/pdf/2302.07730.pdf
  • Abstract: 2016년 출시 이후, Transformer 모델은 시연 자연어 처리, 컴퓨터 비전 등 다른 분야에서도 전례 없는 강점을 보이며 ChatGPT와 같은 기술적 혁신을 촉발한 사람들도 원본 모델을 기반으로 다양한 변형을 제안했습니다.

트랜스포머 어텐션 메커니즘을 기반으로 학계와 업계가 계속해서 새로운 모델을 제안함에 따라 이 방향을 요약하기 어려울 때가 있습니다. 최근 LinkedIn의 AI 제품 전략 책임자인 Xavier Amatriain의 포괄적인 기사가 이 문제를 해결하는 데 도움이 될 수 있습니다.

권장 사항:

이 기사의 목표는 가장 인기 있는 Transformer 모델의 비교적 포괄적이지만 간단한 카탈로그와 분류를 제공하는 것입니다. 또한 Transformer 모델의 가장 중요한 측면과 혁신을 소개합니다. GPU는 ChatGPT 볼륨 모델을 실행하며 ControlNet은 AI 그리기를 위한 또 다른 아티팩트입니다.

논문 2: 단일 GPU를 사용한 대규모 언어 모델의 전체적 생성 추론

저자: Ying Sheng 외

  • 논문 주소: https://github.com / FMInference/FlexGen/blob/main/docs/paper.pdf
  • 요약: 전통적으로 LLM(대형 언어 모델) 추론의 높은 계산 및 메모리 요구 사항으로 인해 여러 고급 AI를 사용해야 했습니다. 훈련용 가속기. 이 연구에서는 LLM 추론 요구 사항을 소비자 등급 GPU로 줄이고 실용적인 성능을 달성하는 방법을 탐구합니다. ,

최근 Stanford University, UC Berkeley, ETH Zurich, Yandex, Moscow State Higher School of Economics, Meta, Carnegie Mellon University 및 기타 기관의 새로운 연구에서는 제한된 A 처리량 세대를 실행하는 방법인 FlexGen을 제안했습니다. GPU 메모리의 LLM용 엔진. 아래 그림은 아래 그림 (b)와 같이 블록 스케줄링을 사용하여 가중치를 재사용하고 I/O를 계산과 겹치는 FlexGen의 설계 아이디어를 보여 주는 반면, 다른 기본 시스템은 다음과 같이 비효율적인 행별 스케줄링을 사용합니다. 아래 그림 (a)에 나와 있습니다.

권장 사항:

ChatGPT 볼륨 모델을 실행하고 지금부터는 GPU 하나만 필요합니다. 여기에 이를 100배 가속하는 방법이 있습니다.

문서 3: 드리프트 인식 동적 신경망을 사용한 임시 도메인 일반화

저자: Guangji Bai 외

  • 논문 주소: https://arxiv.org/pdf/ 2205.106 64 .pdf
  • 요약: 도메인 일반화(DG) 작업에서 도메인 분포가 환경에 따라 지속적으로 변경되는 경우 변경 사항과 모델에 미치는 영향을 정확하게 포착하는 것이 매우 중요합니다. 하지만 이는 매우 어려운 문제이기도 합니다.
  • 이를 위해 에모리 대학교 Zhao Liang 교수팀은 베이지안 이론을 기반으로 하는 시간 영역 일반화 프레임워크 DRAIN을 제안했으며, 재귀 네트워크를 사용하여 시간 차원 영역 분포의 드리프트를 학습하는 동시에 동적 신경망과 그래프 생성을 사용했습니다. 기술의 결합으로 모델의 표현력을 극대화하고, 향후 미지의 분야에 대한 모델 일반화 및 예측을 실현합니다.

    이 작품은 ICLR 2023 Oral(게재 논문 중 상위 5%)에 선정되었습니다. 다음은 DRAIN의 전체 프레임워크에 대한 개략도입니다.

    GPU는 ChatGPT 볼륨 모델을 실행하며 ControlNet은 AI 그리기를 위한 또 다른 아티팩트입니다.

    권장: 드리프트 인식 동적 신경망 축복인 새로운 시간 도메인 일반화 프레임워크는 도메인 일반화 및 적응 방법을 훨씬 능가합니다.

    논문 4: 딥 러닝을 이용한 실제 양성자 교환막 연료전지의 물리적으로 정확한 대규모 모델링

    • 저자: Ying Da Wang 외
    • 논문 주소: https:/ / www.nature.com/articles/s41467-023-35973-8

    요약: 에너지 공급을 확보하고 기후 변화에 대처하기 위해 사람들의 관심은 화석 연료에서 깨끗하고 재생 가능한 에너지로 옮겨졌습니다. 수소는 높은 에너지 밀도와 청정, 저탄소 에너지 특성을 갖고 있어 에너지 전환에서 중요한 역할을 할 수 있습니다. 수소 연료 전지, 특히 양성자 교환막 연료 전지(PEMFC)는 높은 에너지 변환 효율과 배출 제로 작동으로 인해 이러한 녹색 혁명의 핵심입니다.

    PEMFC는 전기화학 공정을 통해 수소를 전기로 변환하며, 반응의 유일한 부산물은 순수한 물입니다. 그러나 물이 셀 밖으로 제대로 흘러나오지 못하고 결과적으로 시스템이 "넘치는" 경우 PEMFC는 비효율적이 될 수 있습니다. 지금까지 연료전지는 너무 작고 복잡하기 때문에 엔지니어들이 연료전지 내부에 물이 배수되거나 축적되는 정확한 방식을 이해하는 것이 어려웠습니다.

    최근 시드니 뉴사우스웨일스대학교 연구팀은 PEMFC의 내부 상태에 대한 이해를 높이고 저해상도 X선에서 고해상도 이미지를 생성할 수 있는 딥러닝 알고리즘(DualEDSR)을 개발했습니다. 마이크로컴퓨터 단층촬영 스캔. 해상도 모델링 이미지. 이 프로세스는 단일 수소 연료 전지에서 테스트되었으며 내부를 정확하게 모델링하고 잠재적으로 효율성을 향상시킬 수 있습니다. 아래 그림은 본 ​​연구에서 생성된 PEMFC 도메인을 보여줍니다.

    GPU는 ChatGPT 볼륨 모델을 실행하며 ControlNet은 AI 그리기를 위한 또 다른 아티팩트입니다.

    추천: 딥 러닝은 연료 전지 내부의 대규모 물리적이고 정확한 모델링을 수행하여 배터리 성능을 향상시키는 데 도움을 줍니다.

    문서 5: 사전 훈련된 기초 모델에 대한 종합 설문조사: BERT에서 ChatGPT까지의 역사

    • 저자: Ce Zhou et al
    • 문서 주소: https://arxiv. org /pdf/2302.09419.pdf

    요약: 약 100페이지에 달하는 이 리뷰는 사전 훈련된 기본 모델의 진화 역사를 샅샅이 뒤져 ChatGPT가 어떻게 단계별로 성공했는지 확인할 수 있습니다.

    추천: BERT부터 ChatGPT까지, 사전 훈련된 대형 모델의 진화 역사를 엮은 100페이지 분량의 리뷰입니다.

    문서 6: 텍스트-이미지 확산 모델에 조건부 제어 추가

    • 저자: Lvmin Zhang 외
    • 논문 주소: https://arxiv.org/pdf / 2302.05543.pdf

    요약: 본 논문에서는 그래프 생성 성능을 향상시키기 위해 추가 조건을 추가하여 확산 모델(예: Stable Diffusion)을 제어할 수 있는 엔드 투 엔드 신경망 아키텍처 ControlNet을 제안합니다. 효과는 선화에서 풀 컬러 이미지를 생성하고 동일한 깊이 구조의 이미지를 생성하며 손 키 포인트를 통해 손 생성을 최적화할 수 있습니다.

    GPU는 ChatGPT 볼륨 모델을 실행하며 ControlNet은 AI 그리기를 위한 또 다른 아티팩트입니다.

    추천: AI는 인간 화가를 물리칠 수 있도록 차원을 줄이고 Vincentian 그래프에 ControlNet을 도입하며 깊이와 가장자리 정보를 완전히 재사용합니다.

    문서 7: EVA3D: 2D 이미지 컬렉션의 구성적 3D 인간 생성

    • 저자: Fangzhou Hong 외
    • 논문 주소: https://arxiv.org/abs/ 2210.0 4888

    요약: ICLR 2023에서 난양기술대학교-SenseTime 공동연구센터 S-Lab 팀은 다양한 자료 모음에서 고해상도 3차원 인체 생성을 학습하는 최초의 방법인 EVA3D를 제안했습니다. 2차원 이미지. NeRF가 제공하는 미분 가능 렌더링 덕분에 최근 3D 생성 모델은 정지된 물체에 대해 놀라운 결과를 얻었습니다. 그러나 인체와 같이 더 복잡하고 변형 가능한 범주에서 3D 생성은 여전히 ​​큰 과제를 안고 있습니다.

    이 논문은 초해상도 모델을 사용하지 않고도 고해상도(512x256) 3D 인체 생성을 달성하는 인체의 효율적인 결합 NeRF 표현을 제안합니다. EVA3D는 4개의 대규모 인체 데이터 세트에서 기존 솔루션을 크게 능가했으며 코드는 오픈 소스였습니다.

    GPU는 ChatGPT 볼륨 모델을 실행하며 ControlNet은 AI 그리기를 위한 또 다른 아티팩트입니다.

    추천: ICLR 2023 스포트라이트 | 2D 이미지 브레인스토밍 3D 인체, 어떤 옷을 입어도 움직임을 바꿀 수 있습니다.

    ArXiv Weekly Radiostation

    Heart of Machine은 Chu Hang, Luo Ruotian, Mei Hongyuan이 시작한 ArXiv Weekly Radiostation과 협력하여 NLP, CV, ML 등 7개 논문을 바탕으로 이번 주에 더 중요한 논문을 선정합니다. 선정된 논문 10개 각 분야별로 논문 요약 소개를 오디오 형식으로 제공합니다.

    7 NLP Papers

    이번 주 NLP 선정 논문 10편은

    1. 대규모 언어 모델을 위한 사고 사슬을 통한 능동적 프롬프트(Tong Zhang 제공)

    2. 운율 기능은 문장 분할 및 구문 분석을 향상시킵니다(Emmanuel Dupoux 제공). . 코로나19 환자의 우울증 조기 발견을 위한 소셜 미디어 탐색(Jie Yang 제공)

    5. 연합 인접 이웃 기계 번역(Enhong Chen 제공)

    6. 그래프주의 용어 (Michael Moortgat)

    7. 10개의 CV 선정 논문은 다음과 같습니다.

    1. MERF: 무한 장면의 실시간 보기 합성을 위한 메모리 효율적인 방사 필드(Richard Szeliski, Andreas Geiger 작성)

    2. 텍스트-이미지 모델(Daniel Cohen-Or)

    3. 10까지 세기 CLIP 교육(Michal Irani) 4. 현실적인 단기 (Wesi Lin에서)

    5. 컨볼루션 신경망을 사용한 섬유 리프팅 로프의 실시간 손상 감지(Moncef Gabbouj에서)

    6. 가벼운 이미지 향상(Chen Change Loy에서)

    7. 제로샷 텍스트 기반 이미지 편집을 위한 지역 인식 확산.  (Xu Changsheng에서)

    8. 개방형 어휘 의미론적 분할을 위한 측면 어댑터 네트워크.  (샹바이에서)

    9. VoxFormer: 카메라 기반 3D 시맨틱 장면 완성을 위한 희소 복셀 변환기.  (Sanja Fidler에서)

    10. 객체 역학 및 상호 작용의 분리를 통한 객체 중심 비디오 예측.  (Sven Behnke에서)

    10 ML Papers

    本周 10 篇 ML 精选论文是:

    1. norflows: 흐름 정규화를 위한 PyTorch 패키지입니다.  (Bernhard Schölkopf에서)

    2. 해석 가능한 다중 에이전트 강화 학습을 위한 개념 학습.  (카티아 시카라에서)

    3. 무작위 교사는 좋은 교사입니다.  (토마스 호프만에서)

    4. 인간의 피드백을 사용하여 텍스트-이미지 모델 정렬.  (Craig Boutilier, Pieter Abbeel 중에서)

    5. 변화는 어렵다: 하위 모집단 변화에 대한 면밀한 조사.  (디나 카타비 중에서)

    6. AlpaServe: 딥 러닝 제공을 위한 모델 병렬성을 사용한 통계적 다중화.  (Zhifeng Chen에서)

    7. 구조화된 행동 공간을 위한 다양한 정책 최적화.  (자홍원에서)

    8. 혼합성의 기하학.  (로버트 C. 윌리엄슨에서)

    9. 딥러닝은 추상화를 배우나요? 체계적인 조사 프레임워크.  (정 난닝에서)

    10. 순차적인 반사실적 위험 최소화.  (Julien Mairal에서)

위 내용은 GPU는 ChatGPT 볼륨 모델을 실행하며 ControlNet은 AI 그리기를 위한 또 다른 아티팩트입니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

관련 라벨:
원천:51cto.com
본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.
최신 이슈
인기 튜토리얼
더>
최신 다운로드
더>
웹 효과
웹사이트 소스 코드
웹사이트 자료
프론트엔드 템플릿