- 방향:
- 모두 웹3.0 백엔드 개발 웹 프론트엔드 데이터 베이스 운영 및 유지보수 개발 도구 PHP 프레임워크 일일 프로그램 위챗 애플릿 일반적인 문제 다른 기술 CMS 튜토리얼 Java 시스템 튜토리얼 컴퓨터 튜토리얼 하드웨어 튜토리얼 모바일 튜토리얼 소프트웨어 튜토리얼 모바일 게임 튜토리얼
- 나누다:
-
- 서로 다른 데이터 세트에는 서로 다른 스케일링 법칙이 있습니까? 그리고 압축 알고리즘으로 예측할 수 있습니다.
- 일반적으로 신경망을 훈련하는 데 필요한 계산이 많을수록 성능이 향상됩니다. 계산을 확장할 때는 모델 매개변수 수를 늘리거나 데이터 세트 크기를 늘리는 것 중 하나를 결정해야 합니다. 이 두 가지 요소는 고정된 계산 예산 내에서 평가되어야 합니다. 모델 매개변수 수를 늘리는 것의 장점은 모델의 복잡성과 표현 능력을 향상시켜 훈련 데이터를 더 잘 맞출 수 있다는 것입니다. 그러나 매개변수가 너무 많으면 과적합이 발생하여 보이지 않는 데이터에 대한 모델 성능이 저하될 수 있습니다. 반면에 데이터 세트 크기를 확장하면 모델의 일반화 능력이 향상되고 과적합 문제가 줄어들 수 있습니다. 매개변수와 데이터를 적절하게 할당하는 한 고정된 컴퓨팅 예산 내에서 성능을 극대화할 수 있습니다. 이전의 많은 연구에서는 신경 언어 모델의 확장을 탐구했습니다.
- 일체 포함 614 2024-06-07 17:51:01
-
- 우한 시민들은 자율 주행을 높이 평가하며 시 교통국: 선두 기업과 협력하여 지능형 커넥티드 자동차 산업을 위한 새로운 청사진을 만들다
- "우한시는 지능형 커넥티드 차량 산업의 발전을 매우 중요하게 생각하며 지능형 커넥티드 차량을 위한 1,000km 이상의 개방 도로를 연속적으로 개설했습니다. 선도적인 지능형 커넥티드 차량 회사가 우한에 정착하고 함께 협력하여 새로운 청사진을 만들도록 장려합니다. Baidu Carrot 자율주행 산업의 선두 기업인 Kuaipao는 우한의 지능형 커넥티드 자동차 산업 발전에 큰 중요성을 두고 있으며 우한 경제 개발구에 정착한 이후 자율주행 서비스에 깊이 관여해 왔습니다. Baidu Luobo Kuaipao는 더 많은 시민들이 자율주행 기술이 가져온 기술적 매력을 느낄 수 있도록 계속해서 자율주행 체험 서비스를 홍보할 것입니다. "5월 30일 우한시 교통국은 긍정적 홍보 강화에 대한 시민들의 요구에 부응했습니다. 자율주행으로 많은 관심을 끌었습니다. 위에 언급된 시민은 그의 메시지에서 다음과 같이 말했습니다.
- 일체 포함 311 2024-06-07 17:31:02
-
- Hot ChatTTS는 오픈소스 음성 상한선을 돌파하고 3일 만에 별 9,000개를 획득했습니다.
- 사람 간 소통의 미래는 이런 모습일까요? 최근 ChatTTS라는 텍스트 음성 변환 프로젝트가 인기를 끌며 큰 관심을 끌었습니다. 단 3일 만에 GitHub에서 별 9.2,000개를 얻었습니다. 프로젝트 주소: https://github.com/2noise/ChatTTS/tree/main 저자 자신도 x에서 ChatTTS가 오픈 소스 한계를 돌파했다고 말했습니다. 그러나 현재 오픈 소스인 것은 SFT가 감독하고 미세 조정하지 않은 기본 모델일 뿐입니다. 이 프로젝트는 텍스트를 음성으로 변환하며 그 효과는 다음과 같습니다. ChatTTS는 중국어를 말할 수 있을 뿐만 아니라 영어도 지원하므로 웃음, 음성 등을 추가할 수 있습니다.
- 일체 포함 543 2024-06-07 17:10:54
-
- 획기적인 CVM 알고리즘으로 40년 이상의 계산 문제를 해결합니다! 컴퓨터 과학자가 동전을 던져 '햄릿'이라는 고유한 단어를 알아냈습니다.
- 계산하는 것은 간단해 보이지만 실제로는 매우 어렵습니다. 야생동물 인구조사를 실시하기 위해 깨끗한 열대우림으로 이동했다고 상상해 보세요. 동물을 볼 때마다 사진을 찍어보세요. 디지털 카메라는 추적된 동물의 총 수만 기록하는데, 고유한 동물의 수에 관심이 있지만 통계가 없습니다. 그렇다면 이 독특한 동물 집단에 접근하는 가장 좋은 방법은 무엇입니까? 이 시점에서 지금부터 세기 시작하고 마지막으로 사진의 새로운 종을 목록과 비교해야 합니다. 그러나 이 일반적인 계산 방법은 최대 수십억 개의 항목에 달하는 정보에 적합하지 않은 경우가 있습니다. 인도 통계 연구소, UNL 및 싱가포르 국립 대학교의 컴퓨터 과학자들이 새로운 알고리즘인 CVM을 제안했습니다. 긴 목록에 있는 다양한 항목의 계산을 대략적으로 계산할 수 있습니다.
- 일체 포함 920 2024-06-07 15:44:57
-
- Baidu 권장 리소스 콜드 스타트 연습
- 1. 콘텐츠 콜드 스타트 개념 및 과제 Baidu Feed Recommendation은 월간 사용자 수가 수억 명에 달하는 종합적인 정보 흐름 추천 플랫폼입니다. 플랫폼은 그래픽, 비디오, 업데이트, 미니 프로그램, Q&A 등 다양한 콘텐츠 유형을 다룹니다. 단일 또는 이중 컬럼과 유사한 클릭 앤 클릭 추천을 제공할 뿐만 아니라 비디오 몰입과 같은 다양한 추천 형태도 포함합니다. 동시에 추천 시스템은 C측 사용자 경험만 포함하는 것이 아닌 다중 이해관계자 시스템입니다. 콘텐츠 제작자는 추천 시스템에서 중요한 역할을 합니다. Baidu Feed에는 매일 엄청난 양의 콘텐츠를 생산하는 수많은 활동적인 실무자가 있습니다. 콘텐츠 플랫폼 추천 시스템의 핵심은 사용자 측면에서 모두가 윈윈(win-win)할 수 있는 상황을 달성하는 것입니다. 플랫폼은 지속적으로 고품질의 신선하고 다양한 콘텐츠를 사용자에게 추천하여 더 많은 사용자를 유치하고 더 많은 시간을 기여해야 합니다. ; 작성자 측의 경우
- 일체 포함 578 2024-06-07 15:08:43
-
- Claude 3에서 수백만 개의 특징을 추출하고 처음으로 대형 모델의 '사고'를 자세히 이해합니다.
- Anthropic은 인공 지능 모델의 내부 작동 방식을 이해하는 데 상당한 진전을 이루었다고 방금 발표했습니다. Anthropic은 ClaudeSonnet에서 수백만 개의 고유함수 개념을 표현하는 방법을 확인했습니다. 이는 현대 생산 수준의 대규모 언어 모델에 대한 최초의 상세한 이해입니다. 이러한 해석 가능성은 획기적인 인공 지능 모델의 안전성을 향상하는 데 도움이 될 것입니다. 연구 논문: https://transformer-circuits.pub/2024/scaling-monosemanticity/index.html 현재 우리는 일반적으로 인공지능 모델을 블랙박스로 간주합니다. 뭔가 들어가면 응답이 나오지만 그렇지 않습니다. 이유를 분명히 하세요.
- 일체 포함 616 2024-06-07 13:37:45
-
- 연구원들은 기계 학습을 사용하여 고출력 레이저 실험을 최적화합니다.
- 고강도, 고반복 레이저는 초당 여러 번 연속해서 강력한 빛을 방출할 수 있습니다. 상업용 핵융합 에너지 발전소와 첨단 연료 기반 방사선원은 이러한 레이저에 의존합니다. 그러나 이러한 급속한 시스템을 관리하기에는 인간의 반응 시간이 부족하여 적용이 까다롭습니다. 이러한 문제를 해결하기 위해 과학자들은 고강도 작업을 실시간으로 모니터링할 수 있는 자동화 및 인공 지능의 힘을 활용할 수 있는 다양한 방법을 찾고 있습니다. 로렌스 리버모어 국립연구소(LLNL), 프라운호퍼 레이저기술연구소(ILT), 미국 오로라 인프라스트럭처(ELIERIC) 연구진이 체코에서 머신러닝(ML)을 이용해 고출력 레이저를 최적화하는 실험을 진행하고 있다. 그들의 목표는 레이저의 효율성을 높여서 레이저의 효율성을 높이는 것입니다.
- 일체 포함 659 2024-06-07 13:03:20
-
- Devin을 능가하는 Yao Ban은 OpenCSG를 이끌고 대형 모델 프로그래밍 분야에서 새로운 세계 기록을 세웠습니다.
- 중국의 대형 모델 스타트업 OpenCSG가 출시한 StarShipCodeGenAgent가 혁신을 통해 WEBench(Real Independent Program Evaluation of Large Models) 순위에서 세계 2위를 달성했습니다. 동시에 GPT-4o 모델을 기반으로 최고기록(SOTA)을 생성했다. (단어 수: 37) SWEBench 평가는 실제 프로그래밍 시나리오와 매우 유사하며 매우 어렵습니다. 이를 위해서는 모델이 요구 사항을 이해하고 여러 기능/클래스 간의 변경 사항을 조정해야 할 뿐만 아니라 모델이 실행 환경과 상호 작용해야 합니다. 매우 긴 컨텍스트를 처리하고 원격 프로그램을 실행합니다. 매우 전통적인 코드 생성 작업을 위한 복잡한 논리적 추론입니다. 이 어려운 실제 테스트에서 업계 최고 수준의 GPT4와 Devin도
- 일체 포함 621 2024-06-07 12:36:29
-
- Yolov10: 자세한 설명, 배포, 적용이 모두 한곳에!
- 1. 소개 지난 몇 년 동안 YOLO는 계산 비용과 감지 성능 간의 효과적인 균형으로 인해 실시간 객체 감지 분야에서 지배적인 패러다임이 되었습니다. 연구원들은 YOLO의 아키텍처 설계, 최적화 목표, 데이터 확장 전략 등을 탐색하여 상당한 진전을 이루었습니다. 동시에 사후 처리를 위해 NMS(비최대 억제)에 의존하면 YOLO의 엔드투엔드 배포가 방해되고 추론 대기 시간에 부정적인 영향을 미칩니다. YOLO에서는 다양한 구성 요소의 설계에 포괄적이고 철저한 검사가 부족하여 상당한 계산 중복이 발생하고 모델 기능이 제한됩니다. 이는 최적이 아닌 효율성을 제공하며 성능 향상을 위한 상대적으로 큰 잠재력을 제공합니다. 이 작업의 목표는 사후 처리와 모델 아키텍처 모두에서 YOLO의 성능 효율성 경계를 더욱 향상시키는 것입니다. 이를 위해
- 일체 포함 905 2024-06-07 12:05:27
-
- 최초의 GPU 고급 언어인 대규모 병렬 처리는 Python 작성과 유사하며 별 8500개를 받았습니다.
- 컴퓨터 과학의 핵심에 대한 거의 10년 간의 끊임없는 노력과 심층적인 연구 끝에 사람들은 마침내 GPU에서 고급 언어를 실행한다는 꿈을 실현했습니다. 지난 주말, Bend라는 프로그래밍 언어가 오픈소스 커뮤니티에서 열띤 토론을 촉발했고, GitHub의 스타 수가 8,500명을 넘었습니다. GitHub: https://github.com/HigherOrderCO/Bend 대규모 병렬 고급 프로그래밍 언어로서 아직 연구 단계에 있지만 제안된 아이디어는 이미 사람들을 놀라게 했습니다. Bend를 사용하면 10년의 경험을 가진 C/CUDA 전문가가 아니더라도 멀티 코어 CPU/GPU용 병렬 코드를 작성할 수 있습니다. Python과 같은 느낌입니다.
- 일체 포함 1116 2024-06-07 12:03:58
-
- 메모리 스토리지 기반 Elasticsearch 배포 - 1억 개 이상의 데이터, 전체 텍스트 검색 100ms 응답
- 1. 호스트에 메모리 저장소 디렉토리를 마운트합니다. mkdir/mnt/memory_storage를 마운트합니다. tmpfs 파일 시스템 mount-ttmpfs-osize=800Gtmpfs/mnt/memory_storage를 마운트합니다. , 100G 스토리지를 사용하면 100G의 메모리를 차지합니다. 호스트 노드에는 2T 메모리가 있고 여기에는 Elasticsearch 데이터를 저장하기 위해 800G 메모리가 할당됩니다. mkdir/mnt/memory_storage/elasticsearch-data-es-jfs-prod-es-defaul 디렉터리를 미리 생성합니다.
- 일체 포함 515 2024-06-07 11:11:48
-
- Karpathy의 새로운 튜토리얼이 입소문이 나고 네티즌들은 서둘러 그에게 H100: GPT-2 훈련을 처음부터 다시 만들기를 제공합니다.
- 마스터 Karpathy는 더 이상 C 언어를 사용하여 Llama를 만드는 데 만족하지 않습니다! 그가 스스로 던진 최근 과제는 GPT-2의 기본 버전부터 시작하여 OpenAI의 고전적인 결과를 재현하는 것이었습니다. 챌린지의 성공 자체는 의외의 것이 아니지만, 훈련을 완료하는데 드는 비용은 미화 20달러, 90분에 불과하고, 손실과 평가가 원래 버전을 뛰어넘었습니다, 그냥! 가지다! 가리키다! 통과하다! 가리키다! 알았어요! . 뿐만 아니라, 그는 재생산 과정에 대한 완전한 튜토리얼을 작성했고, 아니나 다를까, 그것은 다시 인기를 얻었습니다. Karpathy는 A100 클라우드 서비스를 직접 임대했기 때문에 1억 2400만 버전 교육 비용은 US$20입니다. 그러나 누군가가 튜토리얼을 따르고 H100을 실행하여 훈련 시간이 단축되었을 뿐만 아니라 비용도 절약되었습니다. 43분 만에 완료되었으며 비용은 미화 14달러에 불과했습니다. 게다가 Karpathy는 자신의 주머니에서 2달러를 지불하기도 했습니다.
- 일체 포함 480 2024-06-07 10:29:25
-
- 7가지 멋진 GenAI 및 LLM 기술 인터뷰 질문
- AIGC에 대해 자세히 알아보려면 다음을 방문하세요. 51CTOAI.x 커뮤니티 https://www.51cto.com/aigc/Translator|Jingyan Reviewer|Chonglou는 인터넷 어디에서나 볼 수 있는 전통적인 문제 은행과 다릅니다. 고정관념에서 벗어나 생각해야 합니다. LLM(대형 언어 모델)은 데이터 과학, 생성 인공 지능(GenAI) 및 인공 지능 분야에서 점점 더 중요해지고 있습니다. 이러한 복잡한 알고리즘은 인간의 기술을 향상시키고 많은 산업 분야에서 효율성과 혁신을 촉진하여 기업이 경쟁력을 유지하는 데 핵심이 됩니다. LLM은 자연어 처리, 텍스트 생성, 음성 인식 및 추천 시스템과 같은 분야에서 광범위하게 사용될 수 있습니다. LLM은 대량의 데이터로부터 학습하여 텍스트를 생성할 수 있습니다.
- 일체 포함 553 2024-06-07 10:06:29
-
- OpenHarmony에서 대규모 언어 모델을 로컬로 배포
- 이 기사는 제2회 OpenHarmony 기술 컨퍼런스에서 시연된 "OpenHarmony에서 대규모 언어 모델의 로컬 배포" 결과를 오픈 소스로 제공합니다. 오픈 소스 주소: https://gitee.com/openharmony-sig/tpc_c_cplusplus/blob/master/thirdparty /InferLLM/docs/hap_integrate.md. 구현 아이디어와 단계는 경량 LLM 모델 추론 프레임워크 InferLLM을 OpenHarmony 표준 시스템에 이식하고 OpenHarmony에서 실행할 수 있는 바이너리 제품을 컴파일하는 것입니다. InferLLM은 간단하고 효율적인 L입니다.
- 일체 포함 910 2024-06-07 10:02:23
-
- 혁신에 초점을 맞춘 인텔, 새로운 Xeon® 브랜드 전략 출시
- 브랜드는 기업의 사명과 발전을 상징하는 동시에 제품 특성과 시장 인지도를 담고 있습니다. 오늘 인텔 GTC 기술 체험 센터에서 열린 인텔® 제온® 6 에너지 효율적인 코어 프로세서 출시 행사에서 인텔사의 글로벌 부사장 겸 최고 마케팅 책임자인 브렛 한나스(Brett Hannath)는 새로운 인텔® 제온® 브랜드 출시를 발표했습니다. . Brett Hannath는 새로운 Intel® Xeon® 브랜드 전략이 혁신에 초점을 맞추고 보다 간결한 이름과 더 깊은 의미로 제품 브랜드 특성을 부여하며 시장에서 Xeon 브랜드의 인지도를 강화할 것이라고 말했습니다. 혁신적인 기술을 통합함으로써 우리는 고성능, 고효율, 고품질 및 높은 안전 기능을 통해 업계 파트너와 사용자를 위한 새로운 경험을 창출합니다. Intel® Xeon® 브랜드는 1998년 출시 이후
- 일체 포함 916 2024-06-07 09:29:48