- 방향:
- 모두 웹3.0 백엔드 개발 웹 프론트엔드 데이터 베이스 운영 및 유지보수 개발 도구 PHP 프레임워크 일일 프로그램 위챗 애플릿 일반적인 문제 다른 기술 CMS 튜토리얼 Java 시스템 튜토리얼 컴퓨터 튜토리얼 하드웨어 튜토리얼 모바일 튜토리얼 소프트웨어 튜토리얼 모바일 게임 튜토리얼
- 나누다:
-
- 획기적인 CVM 알고리즘으로 40년 이상의 계산 문제를 해결합니다! 컴퓨터 과학자가 동전을 던져 '햄릿'이라는 고유한 단어를 알아냈습니다.
- 계산하는 것은 간단해 보이지만 실제로는 매우 어렵습니다. 야생동물 인구조사를 실시하기 위해 깨끗한 열대우림으로 이동했다고 상상해 보세요. 동물을 볼 때마다 사진을 찍어보세요. 디지털 카메라는 추적된 동물의 총 수만 기록하는데, 고유한 동물의 수에 관심이 있지만 통계가 없습니다. 그렇다면 이 독특한 동물 집단에 접근하는 가장 좋은 방법은 무엇입니까? 이 시점에서 지금부터 세기 시작하고 마지막으로 사진의 새로운 종을 목록과 비교해야 합니다. 그러나 이 일반적인 계산 방법은 최대 수십억 개의 항목에 달하는 정보에 적합하지 않은 경우가 있습니다. 인도 통계 연구소, UNL 및 싱가포르 국립 대학교의 컴퓨터 과학자들이 새로운 알고리즘인 CVM을 제안했습니다. 긴 목록에 있는 다양한 항목의 계산을 대략적으로 계산할 수 있습니다.
- 일체 포함 1104 2024-06-07 15:44:57
-
- Baidu 권장 리소스 콜드 스타트 연습
- 1. 콘텐츠 콜드 스타트 개념 및 과제 Baidu Feed Recommendation은 월간 사용자 수가 수억 명에 달하는 종합적인 정보 흐름 추천 플랫폼입니다. 플랫폼은 그래픽, 비디오, 업데이트, 미니 프로그램, Q&A 등 다양한 콘텐츠 유형을 다룹니다. 단일 또는 이중 컬럼과 유사한 클릭 앤 클릭 추천을 제공할 뿐만 아니라 비디오 몰입과 같은 다양한 추천 형태도 포함합니다. 동시에 추천 시스템은 C측 사용자 경험만 포함하는 것이 아닌 다중 이해관계자 시스템입니다. 콘텐츠 제작자는 추천 시스템에서 중요한 역할을 합니다. Baidu Feed에는 매일 엄청난 양의 콘텐츠를 생산하는 수많은 활동적인 실무자가 있습니다. 콘텐츠 플랫폼 추천 시스템의 핵심은 사용자 측면에서 모두가 윈윈(win-win)할 수 있는 상황을 달성하는 것입니다. 플랫폼은 지속적으로 고품질의 신선하고 다양한 콘텐츠를 사용자에게 추천하여 더 많은 사용자를 유치하고 더 많은 시간을 기여해야 합니다. ; 작성자 측의 경우
- 일체 포함 710 2024-06-07 15:08:43
-
- Claude 3에서 수백만 개의 특징을 추출하고 처음으로 대형 모델의 '사고'를 자세히 이해합니다.
- Anthropic은 인공 지능 모델의 내부 작동 방식을 이해하는 데 상당한 진전을 이루었다고 방금 발표했습니다. Anthropic은 ClaudeSonnet에서 수백만 개의 고유함수 개념을 표현하는 방법을 확인했습니다. 이는 현대 생산 수준의 대규모 언어 모델에 대한 최초의 상세한 이해입니다. 이러한 해석 가능성은 획기적인 인공 지능 모델의 안전성을 향상하는 데 도움이 될 것입니다. 연구 논문: https://transformer-circuits.pub/2024/scaling-monosemanticity/index.html 현재 우리는 일반적으로 인공지능 모델을 블랙박스로 간주합니다. 뭔가 들어가면 응답이 나오지만 그렇지 않습니다. 이유를 분명히 하세요.
- 일체 포함 776 2024-06-07 13:37:45
-
- 연구원들은 기계 학습을 사용하여 고출력 레이저 실험을 최적화합니다.
- 고강도, 고반복 레이저는 초당 여러 번 연속해서 강력한 빛을 방출할 수 있습니다. 상업용 핵융합 에너지 발전소와 첨단 연료 기반 방사선원은 이러한 레이저에 의존합니다. 그러나 이러한 급속한 시스템을 관리하기에는 인간의 반응 시간이 부족하여 적용이 까다롭습니다. 이러한 문제를 해결하기 위해 과학자들은 고강도 작업을 실시간으로 모니터링할 수 있는 자동화 및 인공 지능의 힘을 활용할 수 있는 다양한 방법을 찾고 있습니다. 로렌스 리버모어 국립연구소(LLNL), 프라운호퍼 레이저기술연구소(ILT), 미국 오로라 인프라스트럭처(ELIERIC) 연구진이 체코에서 머신러닝(ML)을 이용해 고출력 레이저를 최적화하는 실험을 진행하고 있다. 그들의 목표는 레이저의 효율성을 높여서 레이저의 효율성을 높이는 것입니다.
- 일체 포함 739 2024-06-07 13:03:20
-
- Devin을 능가하는 Yao Ban은 OpenCSG를 이끌고 대형 모델 프로그래밍 분야에서 새로운 세계 기록을 세웠습니다.
- 중국의 대형 모델 스타트업 OpenCSG가 출시한 StarShipCodeGenAgent가 혁신을 통해 WEBench(Real Independent Program Evaluation of Large Models) 순위에서 세계 2위를 달성했습니다. 동시에 GPT-4o 모델을 기반으로 최고기록(SOTA)을 생성했다. (단어 수: 37) SWEBench 평가는 실제 프로그래밍 시나리오와 매우 유사하며 매우 어렵습니다. 이를 위해서는 모델이 요구 사항을 이해하고 여러 기능/클래스 간의 변경 사항을 조정해야 할 뿐만 아니라 모델이 실행 환경과 상호 작용해야 합니다. 매우 긴 컨텍스트를 처리하고 원격 프로그램을 실행합니다. 매우 전통적인 코드 생성 작업을 위한 복잡한 논리적 추론입니다. 이 어려운 실제 테스트에서 업계 최고 수준의 GPT4와 Devin도
- 일체 포함 807 2024-06-07 12:36:29
-
- Yolov10: 자세한 설명, 배포, 적용이 모두 한곳에!
- 1. 소개 지난 몇 년 동안 YOLO는 계산 비용과 감지 성능 간의 효과적인 균형으로 인해 실시간 객체 감지 분야에서 지배적인 패러다임이 되었습니다. 연구원들은 YOLO의 아키텍처 설계, 최적화 목표, 데이터 확장 전략 등을 탐색하여 상당한 진전을 이루었습니다. 동시에 사후 처리를 위해 NMS(비최대 억제)에 의존하면 YOLO의 엔드투엔드 배포가 방해되고 추론 대기 시간에 부정적인 영향을 미칩니다. YOLO에서는 다양한 구성 요소의 설계에 포괄적이고 철저한 검사가 부족하여 상당한 계산 중복이 발생하고 모델 기능이 제한됩니다. 이는 최적이 아닌 효율성을 제공하며 성능 향상을 위한 상대적으로 큰 잠재력을 제공합니다. 이 작업의 목표는 사후 처리와 모델 아키텍처 모두에서 YOLO의 성능 효율성 경계를 더욱 향상시키는 것입니다. 이를 위해
- 일체 포함 1239 2024-06-07 12:05:27
-
- 최초의 GPU 고급 언어인 대규모 병렬 처리는 Python 작성과 유사하며 별 8500개를 받았습니다.
- 컴퓨터 과학의 핵심에 대한 거의 10년 간의 끊임없는 노력과 심층적인 연구 끝에 사람들은 마침내 GPU에서 고급 언어를 실행한다는 꿈을 실현했습니다. 지난 주말, Bend라는 프로그래밍 언어가 오픈소스 커뮤니티에서 열띤 토론을 촉발했고, GitHub의 스타 수가 8,500명을 넘었습니다. GitHub: https://github.com/HigherOrderCO/Bend 대규모 병렬 고급 프로그래밍 언어로서 아직 연구 단계에 있지만 제안된 아이디어는 이미 사람들을 놀라게 했습니다. Bend를 사용하면 10년의 경험을 가진 C/CUDA 전문가가 아니더라도 멀티 코어 CPU/GPU용 병렬 코드를 작성할 수 있습니다. Python과 같은 느낌입니다.
- 일체 포함 1222 2024-06-07 12:03:58
-
- 메모리 스토리지 기반 Elasticsearch 배포 - 1억 개 이상의 데이터, 전체 텍스트 검색 100ms 응답
- 1. 호스트에 메모리 저장소 디렉토리를 마운트합니다. mkdir/mnt/memory_storage를 마운트합니다. tmpfs 파일 시스템 mount-ttmpfs-osize=800Gtmpfs/mnt/memory_storage를 마운트합니다. , 100G 스토리지를 사용하면 100G의 메모리를 차지합니다. 호스트 노드에는 2T 메모리가 있고 여기에는 Elasticsearch 데이터를 저장하기 위해 800G 메모리가 할당됩니다. mkdir/mnt/memory_storage/elasticsearch-data-es-jfs-prod-es-defaul 디렉터리를 미리 생성합니다.
- 일체 포함 641 2024-06-07 11:11:48
-
- Karpathy의 새로운 튜토리얼이 입소문이 나고 네티즌들은 서둘러 그에게 H100: GPT-2 훈련을 처음부터 다시 만들기를 제공합니다.
- 마스터 Karpathy는 더 이상 C 언어를 사용하여 Llama를 만드는 데 만족하지 않습니다! 그가 스스로 던진 최근 과제는 GPT-2의 기본 버전부터 시작하여 OpenAI의 고전적인 결과를 재현하는 것이었습니다. 챌린지의 성공 자체는 의외의 것이 아니지만, 훈련을 완료하는데 드는 비용은 미화 20달러, 90분에 불과하고, 손실과 평가가 원래 버전을 뛰어넘었습니다, 그냥! 가지다! 가리키다! 통과하다! 가리키다! 알았어요! . 뿐만 아니라, 그는 재생산 과정에 대한 완전한 튜토리얼을 작성했고, 아니나 다를까, 그것은 다시 인기를 얻었습니다. Karpathy는 A100 클라우드 서비스를 직접 임대했기 때문에 1억 2400만 버전 교육 비용은 US$20입니다. 그러나 누군가가 튜토리얼을 따르고 H100을 실행하여 훈련 시간이 단축되었을 뿐만 아니라 비용도 절약되었습니다. 43분 만에 완료되었으며 비용은 미화 14달러에 불과했습니다. 게다가 Karpathy는 자신의 주머니에서 2달러를 지불하기도 했습니다.
- 일체 포함 616 2024-06-07 10:29:25
-
- 7가지 멋진 GenAI 및 LLM 기술 인터뷰 질문
- AIGC에 대해 자세히 알아보려면 다음을 방문하세요. 51CTOAI.x 커뮤니티 https://www.51cto.com/aigc/Translator|Jingyan Reviewer|Chonglou는 인터넷 어디에서나 볼 수 있는 전통적인 문제 은행과 다릅니다. 고정관념에서 벗어나 생각해야 합니다. LLM(대형 언어 모델)은 데이터 과학, 생성 인공 지능(GenAI) 및 인공 지능 분야에서 점점 더 중요해지고 있습니다. 이러한 복잡한 알고리즘은 인간의 기술을 향상시키고 많은 산업 분야에서 효율성과 혁신을 촉진하여 기업이 경쟁력을 유지하는 데 핵심이 됩니다. LLM은 자연어 처리, 텍스트 생성, 음성 인식 및 추천 시스템과 같은 분야에서 광범위하게 사용될 수 있습니다. LLM은 대량의 데이터로부터 학습하여 텍스트를 생성할 수 있습니다.
- 일체 포함 947 2024-06-07 10:06:29
-
- OpenHarmony에서 대규모 언어 모델을 로컬로 배포
- 이 기사는 제2회 OpenHarmony 기술 컨퍼런스에서 시연된 "OpenHarmony에서 대규모 언어 모델의 로컬 배포" 결과를 오픈 소스로 제공합니다. 오픈 소스 주소: https://gitee.com/openharmony-sig/tpc_c_cplusplus/blob/master/thirdparty /InferLLM/docs/hap_integrate.md. 구현 아이디어와 단계는 경량 LLM 모델 추론 프레임워크 InferLLM을 OpenHarmony 표준 시스템에 이식하고 OpenHarmony에서 실행할 수 있는 바이너리 제품을 컴파일하는 것입니다. InferLLM은 간단하고 효율적인 L입니다.
- 일체 포함 1228 2024-06-07 10:02:23
-
- 혁신에 초점을 맞춘 인텔, 새로운 Xeon® 브랜드 전략 출시
- 브랜드는 기업의 사명과 발전을 상징하는 동시에 제품 특성과 시장 인지도를 담고 있습니다. 오늘 인텔 GTC 기술 체험 센터에서 열린 인텔® 제온® 6 에너지 효율적인 코어 프로세서 출시 행사에서 인텔사의 글로벌 부사장 겸 최고 마케팅 책임자인 브렛 한나스(Brett Hannath)는 새로운 인텔® 제온® 브랜드 출시를 발표했습니다. . Brett Hannath는 새로운 Intel® Xeon® 브랜드 전략이 혁신에 초점을 맞추고 보다 간결한 이름과 더 깊은 의미로 제품 브랜드 특성을 부여하며 시장에서 Xeon 브랜드의 인지도를 강화할 것이라고 말했습니다. 혁신적인 기술을 통합함으로써 우리는 고성능, 고효율, 고품질 및 높은 안전 기능을 통해 업계 파트너와 사용자를 위한 새로운 경험을 창출합니다. Intel® Xeon® 브랜드는 1998년 출시 이후
- 일체 포함 1059 2024-06-07 09:29:48
-
- 고광택 반사 터미네이터? Google NeRF-Casting: 광선 추적이 가능합니다!
- NeRF는 더 이상 정반사에 가까운 것을 "두려워하지" 않습니다. 초기 NeRF 변형은 다층 퍼셉트론(MLP)을 사용하여 3D 좌표에서 체적 밀도 및 시점 의존 색상으로 매핑했지만 자세한 3D 기하학 및 색상을 표현하려면 대형 MLP 및 평가에 대한 교육이 필요했습니다. 매우 느립니다. 최근 연구에서는 대규모 MLP를 복셀 그리드형 데이터 구조 또는 그리드와 소규모 MLP의 조합으로 대체하여 NeRF를 보다 효율적으로 만드는 데 중점을 두었습니다. 상세한 대규모 장면을 표현할 수 있도록 확장 가능하지만 장점은 3차원 형상과 주로 확산 색상으로 제한됩니다. 관점에 따른 현실의 모습을 모델링하는 NeRF의 능력을 확장하는 것은 여전히 어려운 일입니다. 반짝이는 물체의 뷰 합성을 위한 현재 고급 모델은 두 가지 측면에서 한계가 있습니다. 즉, 멀리 있는 주변광만 합성할 수 있습니다.
- 일체 포함 1310 2024-06-07 09:27:53
-
- LLM | Yuan 2.0-M32: 주의 라우팅 기능을 갖춘 전문가 혼합 모델
- 그림 1. 결론은 위와 같습니다. Yuan+2.0-M32는 Yuan-2.0+2B와 유사한 인프라로 32명의 전문가가 포함된 전문 하이브리드 아키텍처를 사용합니다. 이 전문가 중 2명이 활동하고 있습니다. 기존 라우팅 네트워크를 사용한 모델과 비교하여 보다 효율적으로 전문가를 선정하기 위해 32명의 전문가가 포함된 전문가 하이브리드 아키텍처를 제안 및 채택하였다. Yuan+2.0-M32는 2000B 토큰을 사용하여 처음부터 훈련되었으며 훈련 소비량은 동일한 매개변수 크기의 조밀한 앙상블 모델의 9.25%에 불과합니다. 전문가를 더 잘 선택하기 위해 빠르게 감지하여 더 나은 전문가 선택을 가능하게 하는 Attention Router가 도입되었습니다. 위안2.0-
- 일체 포함 706 2024-06-07 09:06:30
-
- 80개 모델로 스케일링 법칙 구축: 중국 박사 과정 학생의 신작, 사고 체인 저자의 강력 추천
- AI 분야에서 스케일링 법칙(Scalinglaws)은 LM 스케일링 추세를 이해하는 강력한 도구입니다. 이 법칙은 연구자에게 언어 모델의 성능이 스케일에 따라 어떻게 변하는지 이해하는 데 중요한 지침을 제공합니다. 그러나 불행하게도 대부분의 연구자는 스케일링 법칙을 처음부터 구축할 수 있는 계산 리소스가 없고 개방형 모델은 신뢰할 수 있는 스케일링 예측을 하기에는 너무 적은 스케일로 훈련되기 때문에 많은 벤치마킹 및 사후 교육 연구에서는 스케일링 분석이 일반적이지 않습니다. 스탠포드 대학, 토론토 대학 및 기타 기관의 연구자들은 언어 모델(LM)의 기능과 교차 다중 모델을 결합한 관찰 스케일링 법칙(Observational Scaling Laws)이라는 대안적인 관찰 방법을 제안했습니다.
- 일체 포함 667 2024-06-06 20:40:36