- 방향:
- 모두 웹3.0 백엔드 개발 웹 프론트엔드 데이터 베이스 운영 및 유지보수 개발 도구 PHP 프레임워크 일일 프로그램 위챗 애플릿 일반적인 문제 다른 기술 CMS 튜토리얼 Java 시스템 튜토리얼 컴퓨터 튜토리얼 하드웨어 튜토리얼 모바일 튜토리얼 소프트웨어 튜토리얼 모바일 게임 튜토리얼
- 나누다:
-
- 반년 전에 arXiv를 출시했지만 표절 혐의로 기소되었습니다. CAMEL은 Microsoft AutoGen의 그늘에 살고 있습니다.
- arXiv는 동료 검토 저널이 아니므로 arXiv에 게시된 논문을 인용할 필요가 없습니다. 이것이 타당한가요? AI 에이전트에 관심이 있다면 마이크로소프트의 AutoGen을 알아야 합니다. 여러 에이전트가 채팅을 통해 작업을 해결할 수 있도록 하는 AI 에이전트 구축을 위한 오픈 소스 프로그래밍 프레임워크입니다. 그 동안 LLM 에이전트는 프로그래머, 디자이너 또는 다양한 역할의 조합 등 다양한 역할을 수행할 수 있습니다. GitHub에서 이 프로젝트는 별 28,000개를 받았으며, 논문은 ICLR2024LLMAgentWorkshop에서 최우수 논문상도 수상했습니다. 그러나 실제로 이 논문에는 논란이 있다. 2023년 11월 AI연구원(Abdullah Gu)
- 일체 포함 1053 2024-07-19 14:28:48
-
- Jia Jiaya 팀은 Cambridge Tsinghua University 등과 팀을 이루어 대형 모델에서 1초 만에 '높은 점수와 낮은 에너지'를 감지하는 새로운 평가 패러다임을 추진했습니다.
- 기존의 대형 모델 평가 기준을 뒤집고, 가장 완벽하고 권위 있는 최신 평가 데이터 세트 MR-Ben이 출시되었습니다! 이는 올해 4월 GPT-4+DALL-E-3라는 슈퍼비주얼 언어 모델인 Mini-Gemini 출시 이후 홍콩 중국 Jiajiaya 팀이 다시 제안한 대표작이다. MR-Ben의 '감독' 하에 대형 모델은 학생처럼 질문에 답할 뿐만 아니라 교사처럼 서류에 표시를 하여 진정한 추론 능력을 드러내야 합니다. MR-Ben은 GPT4-Turbo, Cluade3.5-Sonnet, Mistral-Large, Zhipu-GLM4,
- 일체 포함 552 2024-07-19 13:55:25
-
- ACL 2024 | 25개의 오픈 소스 및 비공개 소스 모델에 대한 수학적 평가에서 GPT-3.5-Turbo가 간신히 통과했습니다.
- AIxiv 칼럼은 본 사이트에서 학술 및 기술 콘텐츠를 게재하는 칼럼입니다. 지난 몇 년 동안 이 사이트의 AIxiv 칼럼에는 전 세계 주요 대학 및 기업의 최고 연구실을 대상으로 한 2,000개 이상의 보고서가 접수되어 학술 교류 및 보급을 효과적으로 촉진하고 있습니다. 공유하고 싶은 훌륭한 작품이 있다면 자유롭게 기여하거나 보고를 위해 연락주시기 바랍니다. 제출 이메일: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com 이 기사의 저자는 홍콩 대학교와 Tencent 출신입니다. 저자 목록: Li Qintong, LeyangCui, Zhao Xueliang, Kong Lingpeng, WeiBi. 그 중 제1저자인 Li Qintong은 홍콩대학교 자연어 처리 연구소의 박사과정 학생입니다. 그의 연구 방향은 자연어 생성에 관한 것입니다.
- 일체 포함 1113 2024-07-19 13:53:41
-
- 최대 5배의 무손실 가속, EAGLE-2를 통해 RTX 3060은 A100보다 빠르게 생성할 수 있습니다.
- AIxiv 칼럼은 본 사이트에서 학술 및 기술 콘텐츠를 게재하는 칼럼입니다. 지난 몇 년 동안 이 사이트의 AIxiv 칼럼에는 전 세계 주요 대학 및 기업의 최고 연구실을 대상으로 한 2,000개 이상의 보고서가 접수되어 학술 교류 및 보급을 효과적으로 촉진하고 있습니다. 공유하고 싶은 훌륭한 작품이 있다면 자유롭게 기여하거나 보고를 위해 연락주시기 바랍니다. 제출 이메일: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com Li Yuhui: 북경 대학교 정보학 석사 Zhang Hongyang 및 Zhang Chao 선생님의 지도 하에 그는 대규모 모델 가속 및 정렬을 모색하고 있습니다. 25년차 취업 기회를 위해 Wei Fangyun: 아시아 연구소의 Microsoft 연구원, 구현 지능, 이미지 생성 및 AIagen 연구에 관심이 있습니다.
- 일체 포함 629 2024-07-19 13:12:48
-
- 최초의 생각 비디오 추론 프레임워크는 다음과 같습니다. 인간처럼 인식부터 인지까지 종합적인 비디오 추론
- AIxiv 칼럼은 본 사이트에서 학술 및 기술 콘텐츠를 게재하는 칼럼입니다. 지난 몇 년 동안 이 사이트의 AIxiv 칼럼에는 전 세계 주요 대학 및 기업의 최고 연구실을 대상으로 한 2,000개 이상의 보고서가 접수되어 학술 교류 및 보급을 효과적으로 촉진하고 있습니다. 공유하고 싶은 훌륭한 작품이 있다면 자유롭게 기여하거나 보고를 위해 연락주시기 바랍니다. 제출 이메일: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com 이 기사의 저자는 싱가포르 국립 대학교, 난양 기술 대학교 및 하얼빈 공과 대학 출신입니다. 그중 Fei Hao의 연구 방향은 다중 모드 학습과 다중 모드 대형 언어 모델입니다. Wu Shengqiong은 싱가포르 국립대학교의 박사과정 학생입니다. 그녀의 주요 연구 방향은 다중 모드 대형 언어 모델입니다. 지웨이의 영주
- 일체 포함 570 2024-07-19 13:12:42
-
- 최신 뉴스! Baidu Wenxin Big Model 4.0: Wanka 훈련 역사상 가장 큰 매개변수 모델, 빠르면 다음 주에 만나요
- 어제 Cailian News는 Baidu의 Wenxin Model 4.0이 훈련을 강화하고 있으며 곧 출시될 준비가 되었다고 독점적으로 밝혔습니다. 모두가 Wen Xinyiyan의 정보에 대해 항상 궁금해했습니다. 오늘 우리는 기본 아키텍처, 인프라, 교육 데이터 세트, 비용 등과 같은 주요 정보를 포함하는 Wenxin 4.0에 대한 더 많은 소식도 얻었습니다. 이는 매우 높은 신뢰성을 가지고 있습니다! 먼저 핵심 결론에 대해 이야기해 보겠습니다. 1. 어제의 폭로는 기본적으로 사실입니다. 현재 Wenxin Large Model 4.0은 실제로 소규모 트래픽으로 테스트된 것으로 알려져 있습니다. 2. Wenxin 4.0의 매개변수 수는 공개적으로 공개된 매개변수가 있는 모든 LLM의 매개변수 수보다 많습니다. 이는 또한 Wanka 클러스터를 사용하여 훈련된 중국 최초의 대형 모델입니다. 3. 추론 비용은 Wenxin 3.5보다 훨씬 높으며 약 8~10배라고 합니다! (대형 모델은 정말 비싸요!) 만약
- 일체 포함 1085 2024-07-19 12:04:49
-
- 9.11과 9.9 중 누가 더 크나요? 실제로 15개의 대형 모델을 테스트했는데 그 중 절반 이상이 뒤집혔습니다.
- 기계 에너지 보고서 편집자: Yang Wen 대형 모델은 여전히 간단한 수학 문제를 풀 수 없습니다. 지난 며칠 동안 대형 모델 "두뇌"가 작동하는지 테스트하라는 메시지가 인기를 얻었습니다. 9.11과 9.9 중 어느 것이 더 큰가요? 초등학생도 맞힐 수 있는 이 수학 문제는 대형 모델 업계의 '영웅' 집단을 난처하게 만든다. 여기에 문제가 있습니다. ScaleAI의 수석 프롬프트 엔지니어 Riley Goodside는 GPT-4o에게 "9.11과 9.9 - 어느 것이 더 큽니까?"라는 프롬프트 단어를 물었지만 "전자가 더 큽니다"라는 대답을 받았습니다. 다른 대형 모델도 전복됐다. 7월 17일에는 국산 대형 모델 12대와 외산 GPT-4o를 가져왔습니다.
- 일체 포함 1892 2024-07-19 11:27:21
-
- Mistral AI 2회 연속 출시: 7B 수학적 추론 전용, Mamba2 아키텍처 코드 대형 모델
- 네티즌들은 Mathstral이 '9.11과 9.9 중 누가 더 큰가'라는 문제를 풀 수 있을지 궁금해하고 있다. 어제 AI계는 "9.11과 9.9 중 누가 더 큽니까?"라는 단순한 질문에 압도당했고, OpenAIGPT-4o, Google Gemini 등 빅 언어 모델이 모두 뒤집혔다. 이를 통해 우리는 대규모 언어 모델이 일부 수치 문제를 다룰 때 인간처럼 이해하고 정답을 줄 수 없다는 것을 알 수 있습니다. 수치적이고 복잡한 수학적 문제의 경우 특수 모델이 더욱 전문화됩니다. 오늘, 프랑스 대형 모델 유니콘인 MistralAI가 복잡하고 다단계 논리적 추론이 필요한 고급 데이터를 해결하기 위해 수학적 추론과 과학적 발견에 초점을 맞춘 7B 대형 모델 "Mathstral"을 출시했습니다.
- 일체 포함 458 2024-07-19 09:54:11
-
- 비용 90% 이상 절감, '능동 학습 + 실험 워크플로'로 촉매 개발 가속화
- Editor | Green Luo 합성가스의 열촉매 수소화를 통한 고급 알코올(HAS) 합성은 여전히 유망한 기술입니다. 사슬 성장 및 CO 삽입 요구 사항에는 복잡한 반응 동역학과 넓은 화학적 공간이 촉매 설계 사양을 충족하지 못하는 다성분 재료가 필요합니다. 여기에서 ETH Zurich의 연구원들은 FeCoCuZr 촉매 시리즈를 예로 사용하여 실험 워크플로우에 능동 학습을 통합하는 대체 전략을 제안합니다. 제안된 데이터 지원 프레임워크는 86개 실험 전반에 걸쳐 광범위한 조성 및 반응 조건 탐색을 단순화하여 기존 절차에 비해 환경 발자국과 비용을 90% 이상 줄입니다. 안정적으로 작동하는 최적화된 반응 조건을 갖춘 Fe65Co19Cu5Zr11 촉매를 식별합니다.
- 일체 포함 1087 2024-07-19 09:49:21
-
- 정말 멋지다! 오래된 iPhone, iPad, MacBook 장치는 이기종 클러스터를 형성하고 Llama 3를 실행할 수 있습니다.
- 여분의 장비가 있다면 시도해 볼 수도 있습니다. 이번에는 손에 있는 하드웨어 장비도 AI 분야에서 근육을 구부릴 수 있습니다. iPhone, iPad, Macbook을 결합하여 "이기종 클러스터 추론 솔루션"을 조립한 후 Llama3 모델을 원활하게 실행할 수 있습니다. 이 이기종 클러스터는 Windows 시스템, Linux 또는 iOS 시스템이 될 수 있으며 Android에 대한 지원이 곧 제공될 예정이라는 점은 언급할 가치가 있습니다. 이기종 클러스터가 실행 중입니다. 프로젝트 작성자 @evilsocket에 따르면 이 이기종 클러스터에는 iPhone15ProMax, iPadPro, MacBookPro(M1Max), NVIDIA GeFor가 포함되어 있습니다.
- 일체 포함 1099 2024-07-19 05:09:59
-
- Li Yan과의 독점 대화: 최초의 '생성 추천' 스타트업인 Suhua, Jingwei 및 Redpoint의 자금 지원 |
- 인류는 인공 지능 분야에서 폭발적인 업데이트를 맞이하고 있습니다. 미지의 세계로 기술이 확장되는 모든 단계는 놀라운 관심을 불러일으키고 있습니다. 인공지능의 경계가 확장되는 과정에서 중요한 트랙의 기술적 경로에는 혁신과 불일치가 공존한다. 기술 개척자의 판단과 선택은 많은 추종자들의 발자취에 영향을 미칩니다. 지난 1년 동안 이 웹사이트는 Dark Side of the Moon, Shengshu Technology, Aishi Technology, Wuwen Core Dome 등 우수한 기업을 모든 사람에게 소개하는 데 앞장서서 세계 최초의 "10,000 단어 인터뷰 스크립트"를 남겼습니다. 인터넷 세상. 기술 로드맵이 아직 수렴되지 않은 단계에서 진정으로 믿음과 용기, 체계적인 인식을 갖춘 AI 기업가들의 리더십을 보았습니다. 그래서 우리는 “AIPioneers”를 출시합니다.
- 일체 포함 940 2024-07-19 05:03:59
-
- OpenAI Super Alignment Team의 사후 작업: 두 개의 대형 모델이 게임을 하고 출력이 더 이해하기 쉬워졌습니다.
- AI 모델이 내놓은 답변이 전혀 이해하기 어렵다면 감히 사용해 보시겠습니까? 기계 학습 시스템이 더 중요한 영역에서 사용됨에 따라 우리가 그 결과를 신뢰할 수 있는 이유와 신뢰할 수 없는 경우를 보여주는 것이 점점 더 중요해지고 있습니다. 복잡한 시스템의 출력에 대한 신뢰를 얻는 한 가지 가능한 방법은 시스템이 인간이나 다른 신뢰할 수 있는 시스템이 읽을 수 있는 출력 해석을 생성하도록 요구하는 것입니다. 즉, 가능한 오류가 발생할 수 있는 지점까지 완전히 이해할 수 있습니다. 설립하다. 예를 들어, 사법 시스템에 대한 신뢰를 구축하기 위해 우리는 법원이 자신의 결정을 설명하고 뒷받침하는 명확하고 읽기 쉬운 서면 의견을 제공하도록 요구합니다. 대규모 언어 모델의 경우 유사한 접근 방식을 채택할 수도 있습니다. 그러나 이 접근 방식을 사용할 때는 언어 모델이 다음을 생성하는지 확인하세요.
- 일체 포함 1010 2024-07-19 01:29:52
-
- Tsinghua University는 Best Paper + Time Test Award를 수상했고, Shandong University는 Honorable Mention을 받았으며 SIGIR 2024 상이 발표되었습니다.
- 칭화대학교의 결과는 훌륭합니다. 제47회 국제컴퓨터학회 정보검색학회(ACMSIGIR)가 2024년 7월 14일부터 18일까지 미국 워싱턴 DC에서 개최됩니다. 본 컨퍼런스는 정보검색 분야 최고의 학술 컨퍼런스입니다. 방금 컨퍼런스에서는 최우수 논문상, 최우수 논문 준우승자, 최우수 논문 명예상, 타임 테스트상을 발표했습니다. 그중 칭화대학교, 중국 인민대학교 힐하우스 인공지능학교, 샤오홍슈 팀이 최우수 논문을 수상했고, 글래스고대학교와 피사대학교의 연구자들이 최우수상을 수상했습니다. 논문은 Shandong University (Qingdao), Leiden University 및 University of Amsterdam에 수여되었으며 Time Test Award는 Tsinghua University 및 University of California, Santa Cruz의 연구자에게 수여되었습니다. 다음은
- 일체 포함 724 2024-07-19 00:06:43
-
- 사이언스에 로그인, 약물 친화력 37배 증가, AI가 감독 없이 단백질 및 항체 복합체 최적화 수행
- Editor | 무 껍질 단백질은 세포 구성, 근육 수축, 음식 소화, 바이러스 식별 등 다양한 생물학적 기능에 관여합니다. 더 나은 단백질(항체 포함)을 설계하기 위해 과학자들은 종종 단백질이 원하는 기능을 얻을 때까지 여러 위치에서 반복적으로 아미노산(특정 순서로 단백질을 구성하는 단위)을 돌연변이시킵니다. 그러나 세상에 있는 모래알보다 더 많은 아미노산 서열이 있기 때문에 최고의 단백질, 즉 최고의 잠재적 약물을 찾는 것은 종종 어려운 일입니다. 이러한 문제에 직면했을 때 과학자들은 종종 수백만 달러를 지출하고 생물학적 시스템의 소형화되고 단순화된 버전을 테스트합니다. "이에는 많은 추측과 검증이 필요합니다."
- 일체 포함 833 2024-07-18 22:22:51
-
- 뇌는 언어를 어떻게 처리하나요? 프린스턴 팀은 Transformer 모델을 분석합니다.
- Editor | Radish Skin 언어를 처리할 때 뇌는 특수한 계산을 사용하여 복잡한 언어 구조에서 의미를 구성합니다. Transformer 아키텍처를 기반으로 한 인공 신경망은 자연어 처리에 중요한 도구입니다. 프린스턴 대학교 연구자들은 언어 처리에서 인간 두뇌의 기능적 전문화와 Transformer 모델을 탐구합니다. Transformer는 구조화된 회로를 통해 단어 간의 문맥 정보를 계산하고 통합합니다. 그러나 현재 연구는 주로 이러한 회로에 의해 생성된 내부 표현("임베딩")에 중점을 두고 있습니다. 연구원들은 회로 계산을 직접 분석했습니다. 그들은 이러한 계산을 단어 전체에 걸쳐 문맥 정보를 통합하는 기능적으로 특화된 "변환"으로 분해했습니다. 참여자 착취
- 일체 포함 804 2024-07-18 20:52:41