별을 바라보며 무슨 생각을 하시나요?
끈기있게 질문하면 상상도 못했던 답변을 얻을 수 있습니다.
shen
1제곱인치 이내에서 우주 너머까지 새로운 우주를 창조하는 사람들은 천장은 결코 볼 수 없다고 믿습니다.
결단력 있는 사람들은 도착했다고 해서 멈추지 않을 것입니다. 그들은 창조의 속도로 미지의 것을 측정합니다.
Baidu CREATE 2022 컨퍼런스에서는 인간 디자이너와 AIGC가 공동으로 만든 그림을 선보였습니다.
그리고 이 그림에 묘사된 장면처럼 Baidu는 혁신을 멈추지 않았습니다.
컨퍼런스 시작에 Robin Li는 시사점을 주는 관점을 제시했습니다. 즉, 4차 기술 혁명의 상징은 딥 러닝 알고리즘입니다. 딥러닝과 관련된 주요 혁신은 자동차나 인터넷과 마찬가지로 우리 사회에 큰 영향을 미칠 것입니다.
실제로는 내비게이션 지도는 없고 나침반만 있습니다. 바이두도 전반적인 방향을 파악하고 실천을 바탕으로 단계별로 반복하면서 가치 있는 혁신을 내놨다.
컨퍼런스에서 로빈 리가 이런 그림을 보여줬어요. 이 그림은 '위기와 희망'이라는 키워드를 사용해 바이두 AI 그림 플랫폼에서 생성됐다.
이 그림은 우여곡절을 겪으면서도 희망이 가득한 인공지능이 처한 현재의 상황을 잘 표현하고 있습니다.
예, Robin Li는 창작자들이 인공 지능의 황금 10년을 맞이할 것이라는 작년의 견해를 여전히 고수하고 있습니다.
2022년, AIGC가 본격화됩니다.
DALL·E2는 텍스트로 생성된 그림을 일년 내내 인기 있게 만들었습니다. 이후의 Stable Diffusion과 Midjourney는 수많은 사람들의 예술적 영감을 불러일으켰고 심지어 많은 화가들에게 충격을 주기도 했습니다.
DALL·E2와 Google이 출시한 Imagen 모델은 많은 AI 학자들의 연구 참여를 유도했습니다.
ChatGPT는 연말에야 데뷔했지만 '강화 학습'이 부여한 마법으로 전국 카니발 기간 동안 AIGC에서 다시 한 번 돌풍을 일으켰습니다.
사실 바이두연구소는 이미 2022년 초 올해 AIGC의 인기를 예측한 바 있었습니다.
초대규모 사전 학습 모델은 지식 강화, 교차 모달 통합 모델링, 다중 학습 방법의 공진화 추세를 보여주며 점차 실용화되고 있습니다.
예를 들어, AIGC(AI 생성 콘텐츠)는 대형 모델의 교차 모드 종합 기술 역량을 활용하여 창의성을 자극하고 콘텐츠 다양성을 향상하며 제작 비용을 절감하고 대규모 적용을 달성할 수 있습니다.
더욱이 바이두 연구소가 신적인 예측을 한 것은 이번이 처음이 아닙니다. 2020년에는 예상했던 NLP 모델이 GPT-3에서 실현되었고, 2021년에는 예상했던 디지털 인력이 폭발적으로 늘어났습니다.
그리고 이번에 Baidu는 AIGC 분야의 트렌드에 대해 매우 자신감을 갖고 있습니다.
3명의 실력파 크리에이터, 원클릭으로 연출의 꿈을 실현하세요
Create 2022 컨퍼런스에서 Baidu는 거의 모든 링크에 AIGC를 심층적으로 적용했습니다. 노래, 장면, 음성 마인드맵 생성에는 모두 AI가 포함됩니다.
"위기와 희망"을 주제로 로빈 리가 그린 그림은 문화적 지식이 강화된 대규모 크로스 모달 모델 뒤에 등장할 세 명의 재능 있는 창작자들입니다. . 그들 중 하나.
이번 Create 컨퍼런스에서 Baidu 기술위원회 의장 Wu Hua는 특별한 능력을 지닌 세 명의 재능 있는 크리에이터를 소개했습니다.
그들은 재능 있는 시나리오 작가인 Wenxin ERNIE3.0Zeus, 재능 있는 일러스트레이터인 Wenxin ERNIE-ViLG 2.0, 그리고 편집 및 애니메이션 마스터인 VIMER-TCIR입니다.
이 세 명의 재능 있는 창작자와 여러분이 디자인한 가상 배우와 함께 여러분도 감독이 되어 자신만의 영화와 TV 걸작을 만들 수 있습니다!
Wenxin ERNIE 3.0 Zeus 언어 모델이 당신과 영원히 채팅할 것입니다!
ERNIE 3.0 모델 시리즈의 최신 업그레이드인 ERNIE 3.0 Zeus는 레이블이 지정되지 않은 데이터 및 지식 그래프를 학습하는 것 외에도 지속적인 학습을 통해 100가지가 넘는 다양한 형태의 작업 데이터에 대한 포괄적인 숙달을 달성합니다.
일반 지식과 전문 지식에 대한 "두 가지 접근 방식"을 통해 모델의 일반화 능력이 크게 향상되었으며, 다국어 이해든 생성 작업이든 쉽게 처리할 수 있습니다. 진정한 "일반주의자".
독립적 창작, 자유로운 답변, 명제적 대화, 감정 분석, 100개 이상의 계층적 프롬프트까지 ERNIE 3.0 Zeus는 원활하게 처리할 수 있습니다.
Wenxin ERNIE-ViLG 2.0 이미지 생성 대형 모델, 재능 있는 화가, 알고 계시나요?
원신 ERNIE 3.0 제우스가 언어의 주인이라면, ERNIE-ViLG 2.0은 그림의 주인입니다. 설명 텍스트의 문장이나 단락을 기반으로 아름다운 그림을 생성할 수 있습니다.
중국 팁, 그림을 원하는지 물어보세요. 생각할 수 없는 것도 없고, 그릴 수 없는 것도 없습니다. 이 청화백자 전함을 보세요. 훌륭한 예술 작품? 정말 싸우면 총살당할지 모르겠네요...
그리고 이 목표를 달성하려면 모델 자체에 대한 지식을 강화하는 확산 모델 없이는 할 수 없습니다.
그림에서 부각시켜야 할 핵심 요소이자 장식적인 요소인 한 문장이나 몇 문장 안에는 손님을 압도하지 않고 케이크에 더해주는 기능이 있는데, 여기에 지식이 있습니다.
학습 과정에서 ERNIE ViLG 2.0은 최대한 정확한 페인팅을 달성하기 위해 언어, 시각 등의 다중 소스 지식을 도입하여 모델이 언어의 핵심 의미 요소에 더 많은 주의를 기울이도록 안내합니다. 텍스트와 이미지를 분석하고 정확하고 세밀한 의미론적 제어를 달성합니다.
또한 ERNIE ViLG 2.0은 여러 단계에 대해 서로 다른 네트워크(예: 잡음 감소) 모델링 프레임워크를 선택할 수 있어 여러 단계에서 모델 기능에 대한 일관되지 않은 요구 사항 문제를 효과적으로 해결하고 잡음 감소 작업에서 상호 간섭을 줄일 수 있습니다. 이미지 생성 품질이 향상되었습니다.
현실적인 스타일이든, 중국 스타일이든, 국가적 추세이든, 중국 그림 스타일이든 ERNIE-ViLG 2.0은 짧은 중국어 프롬프트를 기반으로 적절하고 다양한 스타일과 생생하고 생생한 이미지를 생성할 수 있습니다.
예를 들어 다음과 같은 화려하고 우아한 "Feast in Heaven"을 생각해 보세요.
ERNIE-ViLG 2.0의 Wen Xin·Yige를 기반으로 하는 종합 과제라고 할 수 있습니다. 그림 스타일은 고대의 정서를 잃지 않으면서 밝고 다채롭습니다.
이제 Baidu의 "Wenxin·Yige" 플랫폼에서 몇 가지 키워드만 입력하면 몇 분 만에 독특한 그림을 얻을 수 있습니다.
Wenxin Big Model은 언어와 이미지 외에도 비디오 콘텐츠 생성 및 편집에서도 재능을 보여줍니다.
영상 콘텐츠 생성 측면에서 대용량 동영상 생성 모델은 사용자가 제공한 설명 텍스트나 이미지를 기반으로 고화질의 부드러운 동영상을 자동으로 생성할 수 있습니다.
시각적 편집 측면에서 VIMER-TCIR 다중 작업 대형 모델은 초해상도, 노이즈 제거, 디블러링, 압축 해제 등 다중 작업을 위한 공동 사전 훈련을 사용하고 동시에 다양한 결과를 달성할 수 있습니다. 다양한 작업의 수정 및 편집.
현재 VIMER-TCIR은 오래된 영화 복원과 같은 장면에 구현되어 운영 효율성을 크게 향상시켰으며 단일 기계로 매일 285,000프레임의 비디오를 복구할 수 있어 오래된 영화 프레임의 복구 문제를 대부분 해결합니다.
AIGC의 물결이 도래했습니다. 앞으로는 AI 그림 그리기, AI 영상 제작 등이 곧 휴대폰으로 사진 찍는 것만큼 쉬워질 것으로 예상됩니다.
AIGC는 지속적인 기술 혁신을 통해 기존 콘텐츠 제작 모델을 전복하고 10분의 1의 비용과 수백, 수천 배의 제작 속도로 고유한 가치와 독립적인 관점을 갖춘 콘텐츠를 만들 것입니다.
대형 모델에 이런 멋진 효과를 내기 위해 Baidu는 연구 개발에 인색하지 않습니다.
지난 10년 동안 총 1,000억 위안이 넘는 투자가 이루어졌으며, 그 중 핵심 R&D 투자가 8분기 연속 핵심 매출의 20% 이상을 차지했습니다.
통계에 따르면 바이두의 2020년 R&D 투자 강도는 18.22%로 민간 기업 500대 중 1위를 차지했습니다. 2021년에는 20.03%로 민간기업 500대 중 2위에 올랐다.
그런데, 이러한 "아낌없는" 투자로 인해 바이두는 인공지능 기반 기술에서도 선두에 설 수 있게 되었습니다.
결국 칩이 막히면 기본 소프트웨어도 막히게 됩니다.
2016년 초 바이두는 '인공지능 운영체제'라고 불리는 페이 패들(Fei Paddle)이라는 딥러닝 프레임워크를 개발하기 시작했습니다.
현재 535만 명의 개발자가 모였고, 67만 개의 모델이 생성되었으며, 번영하는 딥러닝 생태계가 구축되었습니다.
플라잉 패들을 기반으로 한 대형 모델은 자연어 처리 및 컴퓨터 비전과 같은 다중 모드 기능을 효과적으로 통합하고 최적화를 위해 여러 산업 비즈니스 시나리오와 결합할 수 있으며 개발자는 빌딩 블록과 같은 AI 애플리케이션을 구축할 수도 있습니다. AI의 적용 임계값을 낮추세요.
우리는 이미 기사 시작 부분에서 Robin Li가 자율 주행과 같은 분야의 지능형 파견 시스템을 포함하여 딥 러닝과 관련된 주요 혁신을 믿고 있다고 언급했습니다. 수력발전은 상당한 사회적 영향을 미칠 것입니다.
혁신 자체는 어디에서 오는 걸까요? Robin Li의 관점에서 혁신은 피드백에 의해 주도됩니다.
Baidu는 비즈니스 개발에서 "피드백 중심 혁신"에 대한 많은 실제 경험을 보유하고 있습니다. 예를 들어, 바이두 쿤룬 칩이 AI 칩 중 최고의 성능을 보이는 이유는 바로 이 칩이 10년 동안 바이두의 검색 서비스에 최적화되었기 때문입니다.
Baidu의 검색 서비스는 매일 수십억 명의 실제 사용자 요구에 응답하고 매일 1조 개의 심층 의미 추론 및 매칭을 수행하여 가장 현실적이고 시기적절한 피드백을 제공함으로써 대규모 모델과 깊이 있는 학습 프레임워크 및 칩 최적화를 압도합니다. .
현재 바이두는 풀스택 레이아웃(칩 레이어, 프레임워크 레이어, 모델 레이어, 애플리케이션 레이어)을 갖춘 세계에서 몇 안 되는 인공지능 회사 중 하나입니다.
고급 칩 Kunlun부터 Flying Paddle 딥 러닝 프레임워크, Wenxin 사전 학습된 대형 모델까지 모든 수준에서 핵심 자체 개발 기술이 있으며 많은 피드백이 있습니다. 각 계층 간의 지속적인 수집 피드백을 통해 엔드투엔드 최적화를 달성합니다.
각 레이어의 기술 아키텍처는 아래로 갈수록 일반화되고, 위로 갈수록 전문화됩니다.
인공지능이 전문화될수록 산업에 침투해 실물경제 발전에 힘을 실어줄 수 있습니다.
작년 Create 컨퍼런스에서 Robin Li는 다음과 같이 예측했습니다. “기술 적용의 문턱이 계속 낮아짐에 따라 창작자들은 인공 지능의 황금 10년을 맞이하게 될 것입니다.”라고 그는 오늘날에도 여전히 그렇게 생각합니다.
2020년, 로빈 리가 막 사업을 시작했을 때, 그는 인터넷 거품의 붕괴에 직면했고, 세계 시장 가치는 8조가 증발했습니다. 이후 인터넷은 황금의 10년을 맞이했고, 인공지능은 그렇게 될 것입니다. 또한 동일한 상승과 하락을 경험합니다.
그리고 Baidu는 계속해서 사회와 산업을 위한 AI 인재를 양성하고 더 많은 자원을 투자하며 개발자와 협력하여 중국 AI 발전을 위해 최선을 다할 것입니다.
크리에이트 컨퍼런스 마지막에 다시 가상밴드 멤버들이 등장했습니다.
보컬/기타: Xi Jiajia, 드러머: Du Xiaoxiao, 베이스: Ye Youyou, 키보드: Lin Kaikai
Xi Jiajia가 컨퍼런스 개막식에 자신의 그림을 사용할 수 있다고 말했습니다. 보여주기 너무 재미있어요!
그리고 린 카이카이는 프로듀서의 중독에서 벗어났어요. 편곡에 꽤 재능이 있다고 자랑했어요~
Ye Youyou는 자신의 디자인이 실제로 모두의 미학적 포인트를 사로잡았다고 하더군요. 그렇다면 디자인의 어떤 측면이 그녀의 책임이었는가?
Du Xiaoxiao의 추측은 정확했습니다: "Zhiyi"와 "Qianliu" 링크였습니다.
그리고 Du Xiaoxiao는 이미 보도 자료 초안을 작성했다고 말했습니다.
네 멤버의 합동 브레인스토밍 중, 원고 제목이 "쇼킹!" 으로 뜨겁게 달아올랐습니다. 이것은 인간과 기계 사이의 회의이다."
위 내용은 로빈 리가 10년 동안 1000억 달러 이상을 지출했습니다! 500만 명의 개발자가 중국 최대 규모의 딥 러닝 프레임워크를 지원합니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!