- 방향:
- 모두 웹3.0 백엔드 개발 웹 프론트엔드 데이터 베이스 운영 및 유지보수 개발 도구 PHP 프레임워크 일일 프로그램 위챗 애플릿 일반적인 문제 다른 기술 CMS 튜토리얼 Java 시스템 튜토리얼 컴퓨터 튜토리얼 하드웨어 튜토리얼 모바일 튜토리얼 소프트웨어 튜토리얼 모바일 게임 튜토리얼
- 나누다:
-
- 검토! 자율주행 촉진을 위한 기본 모델의 중요한 역할을 종합적으로 요약
- 위 작성 및 저자 개인 이해: 최근 딥러닝 기술의 발전과 획기적인 발전으로 대규모 기반 모델(Foundation Models)이 자연어 처리 및 컴퓨터 비전 분야에서 상당한 성과를 거두었습니다. 자율주행에 기본 모델을 적용하는 것도 시나리오에 대한 이해와 추론을 향상시킬 수 있는 큰 발전 전망을 가지고 있습니다. 풍부한 언어와 시각적 데이터에 대한 사전 학습을 통해 기본 모델은 자율주행 시나리오의 다양한 요소를 이해하고 해석하고 추론을 수행할 수 있으며, 의사 결정 및 계획을 추진하기 위한 언어 및 동작 명령을 제공합니다. 기본 모델은 일상적인 운전 및 데이터 수집 중에 발생할 가능성이 없는 롱테일 분포에서 드물게 실행 가능한 기능을 제공하기 위해 운전 시나리오에 대한 이해를 통해 데이터를 보강할 수 있습니다.
- 일체 포함 923 2024-06-11 17:29:58
-
- 미세 조정을 통해 LLM이 실제로 새로운 것을 배울 수 있습니까? 새로운 지식을 도입하면 모델이 더 많은 환각을 생성할 수 있습니다.
- LLM(대형 언어 모델)은 대규모 텍스트 데이터베이스에서 훈련되어 대량의 실제 지식을 습득합니다. 이 지식은 매개변수에 내장되어 필요할 때 사용할 수 있습니다. 이러한 모델에 대한 지식은 훈련이 끝나면 "구체화"됩니다. 사전 훈련이 끝나면 모델은 실제로 학습을 중단합니다. 모델을 정렬하거나 미세 조정하여 이 지식을 활용하고 사용자 질문에 보다 자연스럽게 응답하는 방법을 알아보세요. 그러나 때로는 모델 지식만으로는 충분하지 않을 때도 있으며, 모델이 RAG를 통해 외부 콘텐츠에 접근할 수 있더라도 미세 조정을 통해 모델을 새로운 도메인에 적응시키는 것이 유익한 것으로 간주됩니다. 이러한 미세 조정은 인간 주석 작성자 또는 기타 LLM 생성자의 입력을 사용하여 수행됩니다. 여기서 모델은 추가적인 실제 지식을 접하고 이를 통합합니다.
- 일체 포함 874 2024-06-11 15:57:20
-
- 100년 간의 글로벌 해양 탈산소화 과정을 공개한 Shanghai Jiao Tong University는 인공 지능을 사용하여 '질식하는 바다'를 재구성했으며 ICML에는 다음이 포함되었습니다.
- 작성자 | 루빈, 한루유 해양용존산소는 해양생태계의 기능을 유지하는 핵심요소입니다. 지구 온난화와 인간 활동의 영향으로 해양은 최근 몇 년간 탈산소화 경향을 보여 왔습니다. 점점 더 질식하는 해양은 어업 개발, 기후 조절 및 기타 측면에 심각한 결과를 초래합니다. 최근에는 Shanghai Jiao Tong University 전자 정보 및 전기 공학부의 Wang Xinbing 및 Gan Xiaoying 교수 팀과 Shanghai Jiao Tong 해양학부의 Zhang Jing 학자, Zhou Lei 교수 및 Zhou Yutao 부교수가 함께 참여했습니다. 대학에서는 희박한 해양 관측 데이터를 기반으로 하는 딥러닝 모델 OxyGenerator를 공동 제안했습니다. 처음으로 1920년부터 2023년까지의 100년 된 전 세계 해양 용존 산소 데이터가 재구성되었으며, 재구성 성능은 전문가 경험이 지배하는 CMIP6 시리즈 수치 모델의 결과를 크게 능가했습니다. 연구 결과 "옥스
- 일체 포함 315 2024-06-11 12:04:58
-
- 스마트 빌딩: YOLOv7 기반 건물 외벽 결함 감지
- 01 전망 요약 현재의 딥러닝 기반 방법은 인식 속도와 모델 복잡성 측면에서 몇 가지 과제에 직면해 있습니다. 건물 외벽 결함 검출의 정확성과 속도를 보장하기 위해 BFD-YOLO라는 향상된 YOLOv7 방법을 연구했습니다. 첫째, YOLOv7의 원래 ELAN 모듈은 경량 MobileOne 모듈로 대체되어 매개변수 수를 줄이고 추론 속도를 높입니다. 둘째, 특징 추출 기능을 향상시키기 위해 좌표 주의 모듈이 모델에 추가됩니다. 다음으로 SCYLLA-IoU는 감지 속도를 높이고 모델의 리콜을 높이는 데 사용됩니다. 마지막으로 공개 데이터 세트를 확장하고 세 가지 일반적인 결함을 포함하는 건물 외관 손상 데이터 세트를 구축했습니다. BFD-YOLO는 다음을 기반으로 합니다.
- 일체 포함 445 2024-06-11 12:01:31
-
- GPT-4o 및 SQL: 자체 아키텍처를 변경하는 대규모 모델의 능력은 얼마나 됩니까?
- 저자 | David Eastman 작성 | Noah 제작 | 51CTO Technology Stack(WeChat ID: blog51cto) LLM(대형 언어 모델)은 자전거를 운전한 적이 없지만 인간 운송 분야에서 운전 행동의 역할을 명확하게 이해합니다. 이는 소프트웨어 개발자가 기술 세계에 대한 이해와 결합된 일종의 의미론적 실제 지식으로 제공하는 것과 유사합니다. 우리는 자연 언어로 간단히 설명함으로써 간단한 서적 게시 SQL 스키마를 생성할 수 있었던 최근 기사에서 이를 명확하게 확인했습니다. 나는 Llama3 생성 스키마의 성능에 만족했지만 이전에 Oracle에 근무했던 동료는 책 출판 스키마가 상당히 친숙한 예라고 지적했습니다.
- 일체 포함 1118 2024-06-11 09:56:49
-
- Sora 'Ke Ling'의 Kuaishou 버전이 테스트용으로 공개되었습니다. 120초가 넘는 비디오를 생성하고 물리학을 더 잘 이해하며 복잡한 움직임을 정확하게 모델링할 수 있습니다.
- 무엇? 주토피아는 국내 AI로 현실이 되는 걸까? 영상과 함께 노출된 것은 '켈링'이라는 국산 대형 영상세대 신형 모델이다. Sora는 유사한 기술 경로를 사용하고 자체 개발한 여러 기술 혁신을 결합하여 크고 합리적인 움직임뿐만 아니라 물리적 세계의 특성을 시뮬레이션하고 강력한 개념적 결합 능력과 상상력을 갖춘 비디오를 제작합니다. 데이터에 따르면 Keling은 최대 1080p의 해상도로 30fps에서 최대 2분의 초장 영상 생성을 지원하며 다양한 화면비를 지원합니다. 또 다른 중요한 점은 Keling이 실험실에서 공개한 데모나 비디오 결과 시연이 아니라 단편 비디오 분야의 선두주자인 Kuaishou가 출시한 제품 수준 애플리케이션이라는 점입니다. 더욱이 백지 작성이 아닌 실용성에 중점을 두고, 출시되자마자 온라인에 진출하는 데 중점을 두고 있다. 콰이잉에서는 커링의 대형 모델이 출시됐다.
- 일체 포함 694 2024-06-11 09:51:48
-
- 구글 검색 알고리즘의 비하인드 스토리가 공개되고, 실명이 포함된 2,500페이지의 문서가 유출됐다! 검색 순위 거짓말 노출
- 최근 구글 내부 문서 2,500페이지가 유출되면서 '인터넷의 가장 강력한 중재자'인 검색이 어떻게 작동하는지가 드러났다. SparkToro의 공동 창립자이자 CEO는 익명의 사람입니다. 그는 자신의 개인 웹사이트에 "익명의 사람이 SEO 담당자 모두가 읽어야 할 수천 페이지의 유출된 Google 검색 API 문서를 나와 공유했습니다"라고 주장했습니다. ! "RandFishkin은 수년 동안 SEO(검색 엔진 최적화, 검색 엔진 최적화) 분야의 최고 대변인으로 활동해 왔으며 "웹사이트 권한"(DomainRating) 개념을 제안했습니다. RandFishkin은 이 분야에서 매우 존경받는 인물이기 때문에
- 일체 포함 988 2024-06-11 09:14:23
-
- AI는 기상이변을 5,000배 더 빠르게 예측합니다! 마이크로소프트, AI의 눈으로 글로벌 폭풍 예측하는 오로라 출시
- 인류 역사 초기부터 인간은 다양한 방법으로 날씨를 예측하고 '하늘의 언어'를 해독하는 데 집착해 왔습니다. 우리는 식물과 구름이 날씨와 관련이 있는 것 같다는 사실을 서서히 발견했습니다. 생산을 위한 인간의 필요뿐만 아니라, 강한 바람에 맞춰 노래하고 달빛 아래에서 시를 낭송해야 하는 필요성 때문이기도 합니다. '얼음과 불의 노래'의 폭풍우 가수는 노래와 구호를 통해 날씨와 폭풍을 예언하고, 사람들은 '날씨를 바꾸는' 초능력을 갖고 싶다는 환상도 품는다. 최근 기상 전문가와 일기예보는 우리가 여전히 체화된 경험과 물리적 세계에서 벗어날 수 없다는 점을 분명히 밝혔지만 이제 AI가 이를 바꾸고 있습니다. 콘텐츠 미세 조정: Microsoft는 데이터로부터 학습하고 예측할 수 있는 최초의 대규모 대기 기본 모델인 Aurora를 출시하여 놀라운 정확도와 효율성을 보여줍니다.
- 일체 포함 809 2024-06-11 09:07:29
-
- Robin Li가 유럽의 AI에 관해 이야기합니다. 저는 GPT-5보다 슈퍼 애플리케이션에 더 관심이 있습니다.
- Zhonggu AI와 서양의 가장 큰 차이점은 적용입니다. 중국에는 수백 가지 기본 모델이 있지만 AI 시대의 슈퍼 애플리케이션이 무엇인지 논의하는 사람들이 점점 늘어나고 있습니다. 애플리케이션은 AI의 급속한 발전을 주도하고 있습니다. 응용 분야의 발전은 기본 모델의 혁신을 촉진하고 인터넷 시대에서 인공 지능 시대로의 전환을 가속화하는 데 도움이 될 수 있습니다. '유럽 AI 봄 페스티벌 갈라' 메인 포럼에서 로빈 리(Robin Li)가 이번 컨퍼런스에 초대된 유일한 중국 기업가로서 다시 한 번 중국 AI를 '대변'했습니다. 프랑스 파리에서 개최되는 이번 컨퍼런스의 정식 명칭은 '유럽 과학기술혁신전시회(Viva Technology)'로, 유럽 최대 규모의 기술 행사 중 하나이다. 올해 참가 연사로는 Robin Li 외에도 Musk와 Turing Award 수상자 Yoshua Be가 있습니다.
- 일체 포함 552 2024-06-10 22:55:23
-
- 다기능 RNA 분석, Transformer 기반 Baidu 팀의 RNA 언어 모델이 Nature 하위 저널에 게재됨
- Editor | Radish 핵심 사전 훈련된 언어 모델은 뉴클레오티드 서열 분석에 좋은 가능성을 보여줬지만, 다양한 작업에서 잘 수행되는 다기능 모델을 달성하기 위해 사전 훈련된 단일 가중치 세트를 사용하는 데에는 여전히 어려움이 있습니다. Baidu Big Data Lab(BDL)과 Shanghai Jiao Tong University 팀은 Transformer 아키텍처를 기반으로 하는 RNA 중심 사전 훈련 모델인 RNAErnie를 개발했습니다. 연구원들은 7개 데이터 세트와 5개 작업에 대해 모델을 평가하여 지도 학습과 비지도 학습 모두에서 RNAErnie의 우수성을 입증했습니다. RNAErnie는 분류 정확도를 1.8%, 상호작용 예측 정확도를 2.2%, 구조 예측 F1 점수를 3.3% 향상시켜 기준선을 넘어섰습니다.
- 일체 포함 563 2024-06-10 22:21:12
-
- 투명한! 올바른 기계 학습 알고리즘을 선택하는 방법
- 알고리즘 선택 고려 사항 작업에 적합한 기계 학습 알고리즘을 선택하려면 여러 요소가 필요하며 각 요소는 최종 결정에 중요한 영향을 미칠 수 있습니다. 다음은 의사 결정 과정에서 명심해야 할 몇 가지 측면입니다. 1. 데이터 세트의 크기 및 품질: 기계 학습 알고리즘은 입력 데이터에 대한 요구 사항이 다릅니다. 일부 알고리즘은 작은 데이터 세트에서 잘 작동하는 반면 다른 알고리즘은 대규모 데이터 세트에서 잘 작동합니다. 또한 데이터의 정확성, 완전성 및 대표성도 중요합니다. 1. 데이터 세트 특성 데이터 세트의 특성은 알고리즘 선택에 매우 중요합니다. 데이터 세트의 크기, 포함된 데이터 요소의 유형, 데이터가 구조화되었는지 또는 구조화되지 않았는지 여부와 같은 요소가 모두 핵심 요소입니다. 구조화된 데이터에 대한 알고리즘을 구조화되지 않은 데이터 문제에 적용한다고 상상해 보십시오. 아마 그리 멀지는 않을 것입니다! 대규모 데이터 세트에는 다음이 필요합니다.
- 일체 포함 816 2024-06-10 22:18:30
-
- NVIDIA Riva를 사용하여 기업 수준의 중국어 음성 AI 서비스를 신속하게 배포하고 최적화 및 가속화하세요.
- 1. Riva 개요 1. 개요Riva는 NVIDIA가 실시간 SpeechAI 서비스를 위해 출시한 SDK입니다. 고도로 사용자 정의 가능한 도구이며 GPU 가속을 사용합니다. 사전 훈련된 많은 모델이 NGC에서 제공됩니다. 이러한 모델은 즉시 사용할 수 있으며 Riva에서 제공하는 ASR 및 TTS 솔루션을 사용하여 직접 배포할 수 있습니다. 특정 분야의 요구 사항을 충족하거나 맞춤형 기능을 개발하기 위해 사용자는 NeMo를 사용하여 이러한 모델을 재교육하거나 미세 조정할 수도 있습니다. 이를 통해 모델의 성능이 더욱 향상되고 사용자 요구에 더 잘 적응할 수 있게 됩니다. Riva+Skills는 GPU 가속 실시간 스트리밍 음성 인식을 활용하는 고도로 사용자 정의 가능한 도구입니다.
- 일체 포함 1051 2024-06-10 21:57:48
-
- 매우 강하다! 꼭 알아야 할 10가지 머신러닝 알고리즘
- 1. 선형 회귀 선형 회귀는 예측 모델링을 위해 가장 간단하고 가장 널리 사용되는 기계 학습 알고리즘 중 하나입니다. 하나 이상의 독립 변수를 기반으로 종속 변수의 값을 예측하는 데 사용되는 지도 학습 알고리즘입니다. 선형 회귀 정의의 핵심은 관찰된 데이터에 선형 모델을 맞추는 것입니다. 선형 모델은 다음 방정식으로 표현됩니다. 종속 변수(예측하려는 변수)는 독립 변수(예측에 사용하는 변수)는 선의 기울기는 y절편(예측에 사용되는 변수)입니다. 선과 y축의 교차점) 선형 회귀 알고리즘에는 데이터 포인트를 통해 가장 적합한 선을 찾는 작업이 포함됩니다. 이는 일반적으로 관찰된 값과 예측된 값 사이의 제곱 차이를 최소화하여 수행됩니다. 평가 지표 평균 제곱 오류(MSE): 측정 오류 제곱의 평균입니다. 값이 낮을수록 좋습니다. R 제곱: 근을 의미합니다.
- 일체 포함 938 2024-06-10 21:53:52
-
- AI 사용 | Kimi를 사용하여 100,000개 이상의 기사가 포함된 '미친' 카피라이팅 작성
- 기계의 힘에 관한 보고서 편집자: Wenhua 대형 모델과 AIGC로 대표되는 인공지능의 물결은 우리가 살고 일하는 방식을 조용히 변화시키고 있지만 대부분의 사람들은 여전히 그것을 어떻게 사용하는지 모릅니다. 이에 직관적이고 흥미롭고 간결한 인공지능 활용 사례를 통해 AI 활용 방법을 자세히 소개하고 모두의 사고를 자극하고자 'AI in Use' 칼럼을 론칭하게 됐다. 또한 독자들이 혁신적인 실제 사용 사례를 제출하는 것을 환영합니다. 요즘은 교통체증을 위해 다들 대머리가 될 정도로 걱정이 많습니다. 오늘은 Amway가 트래픽을 얻는 방법에 대해 알아 보겠습니다. AI를 사용하여 공개 계정에 대한 "미친" 카피라이팅을 작성하고 기사당 100,000개 이상의 카피라이팅을 받으세요. 이러한 유형의 카피라이팅 공개 계정에는 따라야 할 루틴이 있습니다. 1. 흥미로운 제목 2. 심각한 질병에 걸린 것처럼 보이는 일부 카피라이팅 3. 치유되거나 재미있을 수 있는 몇 장의 사진 여기에는 A가 사용됩니다.
- 일체 포함 1005 2024-06-10 21:22:30
-
- RAG 외에도 대형 모델의 착각을 없애는 5가지 방법이 있습니다.
- 51CTO Technology Stack에서 제작(WeChat ID: blog51cto) LLM이 환각, 즉 부정확하거나 오해의 소지가 있거나 의미 없는 정보를 생성할 수 있다는 것은 잘 알려져 있습니다. 흥미롭게도 OpenAI CEO인 Sam Altman과 같은 일부 사람들은 AI 상상력을 창의성으로 보는 반면, 다른 사람들은 상상력이 새로운 과학적 발견을 만드는 데 도움이 될 수 있다고 믿습니다. 그러나 대부분의 경우 정답을 제시하는 것이 중요하며 환각은 특징이 아니라 결함입니다. 그렇다면 LLM에 대한 환상을 줄이는 방법은 무엇입니까? 긴 맥락? 조각? 미세 조정? 실제로 긴 컨텍스트 LLM은 완벽하지 않으며 벡터 검색 RAG는 만족스럽지 않으며 미세 조정에는 고유한 과제와 한계가 있습니다. 다음은 사용할 수 있는 몇 가지입니다.
- 일체 포함 1328 2024-06-10 20:25:51