ACL 2024 시상식 발표: HuaTech의 Oracle 해독에 관한 최고의 논문 중 하나, GloVe Time Test Award
이 ACL 컨퍼런스에서 기여자들은 많은 것을 얻었습니다.
저자: Julie Kallini, Isabel Papadimitriou, Richard Futrell, Ky 르 마호왈드, 크리스토퍼 포츠 -
기관: Stanford University, University of California, Irvine, University of Texas at Austin 논문 링크: https://arxiv.org/abs/2401.06416
저자: Michael Hahn, Mark Rofin 기관: 자를란트 대학교 논문 링크: https://arxiv.org /abs/2402.09963
저자: Haisu Guan, Huanxin Yang, Xinyu Wang, Shengwei Han 등 -
기관: 화중대학교 Science and Technology , A Adelaide University, Anyang Normal College, South China University of Technology 논문 링크: https://arxiv.org/pdf/2406.00684
저자: Pietro Lesci, Clara Meister, Thomas Hofmann, Andreas Vlachos, Tiago Pimentel 기관: 캠브리지 대학교, ETH 취리히 Academy 논문 링크: https://arxiv.org/pdf/2406.04327
저자: Ahmet Üstün, Viraat Aryabumi, Zheng Xin Yong, Wei-Yin Ko 등 기관: Cohere, Brown University et al 논문 링크: https://arxiv.org/pdf/2402.07827
저자: Liang Lu, Peirong Xie, David R. Mortensen -
기관: CMU, Southern California -
논문 링크: https://arxiv.org/pdf/2406.05930
-
저자: Tharindu Madusanka, Ian Pratt-Hartmann, Riza Batista-Navarro
기관: Stanford University :https://aclanthology.org/D14-1162.pdf
- 논문 소개: 벡터 학습 단어 공간 표현적 접근 방식은 벡터 산술을 사용하여 세밀한 의미 및 구문 규칙을 포착하는 데 성공했지만 구문 규칙은 여전히 불투명합니다. 본 연구에서는 단어 벡터에 구문 규칙이 나타나기 위해 모델이 어떤 속성을 가져야 하는지 분석하고 명확히 합니다.
이 연구는 단어의 벡터 표현을 학습하도록 설계된 새로운 전역 로그 선형 회귀 모델인 GloVe를 제안합니다. 이 모델은 전역 행렬 분해와 로컬 컨텍스트 창 방법의 장점을 결합합니다.
GloVe는 단어 유추 작업에서 75%의 최고 성능을 달성하고 단어 유사성 작업 및 명명된 엔터티 인식에서 관련 모델을 능가합니다.
인용: 단어 임베딩은 2013년부터 2018년까지 자연어 처리(NLP)를 위한 딥 러닝 방법의 초석이었으며 계속해서 중요한 영향을 미치고 있습니다. NLP 작업의 성능을 향상시킬 뿐만 아니라 단어 유사성 및 유추와 같은 계산 의미론에도 중요한 영향을 미칩니다. 가장 영향력 있는 두 가지 단어 임베딩 방법은 아마도 Skip-gram/CBOW와 GloVe일 것입니다. 스킵그램과 비교하여 GloVe는 나중에 제안되었다. 상대적인 장점은 개념적 단순성에 있으며, 단순화된 언어 모델링 관점에서 매개변수 집합으로 간접적으로 사용하는 것이 아니라 단어 간의 분포 특성을 직접 기반으로 벡터 공간 유사성을 최적화합니다. #🎜🎜 ##### 🎜🎜 ## 🎜🎜 ## 🎜🎜 ## 🎜🎜 ## 🎜🎜 ## 🎜🎜#논문 2: 분배 유사성의 측정#🎜🎜 ## 🎜🎜 ##🎜 🎜#
저자: Lillian Lee
#🎜 🎜#
논문 소개: 저자는 보이지 않는 동시 발생 사건의 확률 추정치를 향상시키기 위한 목적으로 분포 유사성 측정을 연구합니다. 이들의 기여는 세 가지입니다: 광범위한 측정값의 경험적 비교, 포함된 정보를 기반으로 한 유사성 기능 분류, 기본 에이전트 분포를 평가하는 데 탁월한 새로운 기능 도입.
#🎜 🎜 #ACL 평생 공로상은 Ralph Grishman에게 돌아갑니다. Ralph Grishman은 뉴욕대학교 컴퓨터공학과 교수로 자연어 처리(NLP) 분야 연구에 주력하고 있습니다. 그는 정보 추출(IE)에 지대한 공헌을 하고 해당 분야를 발전시킨 프로테우스 프로젝트(Proteus Project)의 창립자입니다. 또한 그는 문장 분할, 명명된 엔터티 주석, 시간 표현 주석 및 정규화, 품사 태깅, 부분 구문 분석 및 상호 참조와 같은 다중 언어 분석 구성 요소를 제공하는 널리 사용되는 정보 추출 도구인 JET(Java Extraction Toolkit)를 개발했습니다. 분석. 이러한 구성 요소는 다양한 애플리케이션에 따라 파이프라인으로 결합될 수 있으며, 단일 문장의 대화형 분석이나 전체 문서의 일괄 분석에 사용할 수 있습니다. 또한 JET는 문서 주석 및 표시를 위한 간단한 도구를 제공하고 ACE(자동 콘텐츠 추출) 사양에 따라 엔터티, 관계 및 이벤트를 추출하기 위한 전체 프로세스를 포함합니다. Grishman 교수의 연구는 NLP의 여러 핵심 문제를 다루며 현대 언어 처리 기술에 지대한 영향을 미쳤습니다. 35개의 뛰어난 논문 논문 1: 양자화 측면 튜닝: 양자화 대형 언어 모델의 빠르고 메모리 효율적인 튜닝 저자: Zhengxin Zhang, Dan Zhao, X 우펭 미아오, Gabriele Oliaro, Zhihao Zhang, Qing Li, Yong Jiang, Zhihao Jia 기관: CMU, Tsinghua University, Pengcheng Laboratory 등 -
논문 링크: https://arxiv.org/pdf/2401.07159
문서 2: L-Eval: 장기 컨텍스트 언어 모델에 대한 표준화된 평가 실시 저자: Chenxin An, Shansan Gong, Ming Zhong, Xingjian Zhao, Mukai Li, Jun Zhang, Lingpeng Kong, Xipeng Qiu 기관: 푸단대학교, 홍콩대학교, 일리노이대학교 어바나 샴페인, 상하이 AI 연구소 논문 링크: https://arxiv.org/abs/2307.11088
논문 3: 대규모 언어 모델 편향 제거를 위한 인과 기반 능동적 학습 논문 링크: https://openreview.net/forum?id=idp_1Q6F-lC
논문 4: CausalGym: 언어 작업에 대한 인과 해석 방법 벤치마킹 저자: Aryaman Arora, Dan Jurafsky, Christopher Potts 기관: Stanford University -
논문 링크: https://arxiv.org/abs/2402.12560
문서 5: 환각하지 말고 기권하세요: 다중 LLM 협업을 통해 LLM 지식 격차 식별 저자: Shangbin Feng, Weijia Shi, Yike Wang, Wenxuan Ding, Vidhisha Balachandran, Yulia Tsvetkov 기관: 워싱턴 대학교, 캘리포니아 대학교, 버클리, 홍콩 과학 기술 대학교, CMU 논문 링크: https://arxiv.org/abs/2402.00367
논문 6: 음성 기초 모델 및 대규모 언어 모델을 사용한 음성 번역: 무엇이 있고 무엇이 빠졌나요? 저자: Marco Gaido, Sara Papi, Matteo Negri, Luisa Bentivogli -
기관: Bruno Kessler Foundation , Italy 논문 링크: https://arxiv.org/abs/2402.12025
논문 7: NLP는 추출적이어야 합니까? 저자: Steven Bird : Charles Darwin University 문서 링크: https://drive.google.com/file/d/1hvF7_WQrou6CWZydhymYFTYHnd3ZIljV/view
문서 8: IRCoder: 중간 표현으로 Robus 만들기 t 다국어 코드 생성 erators 저자: Indraneil Paul, Goran Glavaš, Iryna Gurevych 기관: TU Darmstadt 등 -
논문 링크: https://arxiv.org/abs/2403.03894 -
논문 9: MultiLegalPile: 689GB 다국어 법률 자료 저자: Matthias Stürmer, Veton Matoshi 등 기관: 베른 대학교, 스탠포드 대학교 등 논문 링크: https:/ /arxiv.org/pdf/2306.02069
문서 10: PsySafe: 다중 에이전트 시스템 안전의 심리적 기반 공격, 방어 및 평가를 위한 포괄적인 프레임워크 저자: Zaibin Zhang, Yongting Zhang , Lijun Li , Hongzhi Gao, Lijun Wang, Huchuan Lu, Feng Zhao, Yu Qiao, Jing Shao 기관: 중국 대련 공과대학, 중국 과학 기술 대학 상하이 인공 지능 연구소 논문 링크: https://arxiv .org/pdf/2401.11880
논문 11: 감정적 지지 대화에 대한 선호 편향 완화 저자: 강동진 , 김성환 외 기관 : 연세대 등 논문 링크 : https://arxiv.org/pdf/2402.13211
논문 12 : 정치컴 합격하거나 Spinning Arrow? 대형 언어 모델의 가치와 의견에 대한 보다 의미 있는 평가를 향하여 저자: Paul Röttger, Valentin Hofmann 등 기관: Bocconi University, Allen Institute for Artificial Intelligence 등 논문 링크: https://arxiv.org/pdf/ 2402.16786
문서 13: 동일한 작업, 더 많은 토큰: 입력 길이가 대규모 언어 모델의 추론 성능에 미치는 영향 저자: Mosh Levy, Alon Jacoby, Yoav Goldberg 기관: 파키스탄 Elan University, Allen Institute for Artificial Intelligence 논문 링크: https://arxiv.org/pdf/2402.14848
논문 14: 라마가 다국어의 잠재 언어에서 작동합니까? Transformers 저자: Chris Wendler, Veniamin Veselovsky 등 -
기관: EPFL - 문서 15: 유머에 대해 진지하게 생각하기: 재미없는 대형 언어 모델로 유머 데이터세트 만들기
- 기관: Columbia University, EPFL
- 논문 링크: https://arxiv.org/pdf/2403.00794
- 논문 16: 방언 다방어 아랍어 데이터 세트의 주석 간 일치 예측
- 기관: University of Edinburgh
- 문서 링크: https://arxiv.org/pdf /2405.11282
- 논문 17: G-DlG: 그라데이션 기반 Dlverse 및 기계 번역을 위한 고품질 명령어 데이터 선택을 향하여
- 기관: ByteDance Research
- 논문 링크: https://arxiv.org/pdf/2405.12915
-
- 논문 19: SPZ: 알츠하이머병 탐지를 위한 구역 혼합을 사용한 의미론적 교란 기반 데이터 증강 방법
저자: FangFang Li, Cheng Huang, PuZhen 수지에인
- 페이퍼 20: 탐욕만 있으면 됩니다: 토크나이저 추론 방법 평가
- 기관: Ben Guri, Negev Ann University, MIT
저자: Omri Uzan, Craig W. Schmidt, Chris Tanner, Yuval Pinter- 논문 링크: https://arxiv.org/abs/2403.01289
논문 21: 언어 복잡도 및 음성 인식 정확도: 철자법 복잡도, 음운론적 복잡도 ity 그렇지 않습니다- 기관: University of Notre Dame(미국)
- 저자: Chihiro Taquchi, David Chiang
- 논문 링크: https://arxiv.org/abs/2406.09202
논문 22: 대조 활성화 추가를 통한 Llama 2 조종- 기관: Anthropic, Harvard University, University of Göttingen(독일), Center for Human-Compatible AI
- 저자: Nina Rimsky, Nick Gabrieli, Julian Schulz, Meg Tong, Evan J Hubinger, Alexander Matt Turner
- 논문 링크: https://arxiv.org/abs/2312.06681
논문 23: EconAgent: 대규모 언어 모델 기반 거시 경제 활동 시뮬레이션을 위한 에이전트- 기관: Tsinghua University - Shenzhen International Graduate School, Tsinghua University
- 저자: Nian Li, Chen Gao , Mingyu Li, Yong Li, Qingmin Liao
- 논문 링크: https: //arxiv.org/abs/2310.10436
문서 24: M4LE: 대규모 언어 모델을 위한 다중 능력 다중 범위 다중 작업 다중 도메인 장기 컨텍스트 평가 벤치마크- 기관 : 홍콩 중문 대학교, 화웨이 노아의 방주 연구소, 홍콩 과학 기술 대학교
- 저자: Wai-Chung Kwan, Xingshan Zeng, Yufei Wang, Yusen Sun, Liangyou Li, Lifeng Shang, Qun Liu, Kam- Fai Wong
- 논문 링크: https://arxiv.org/abs/2310.19240
논문 25: 확인 이유: 인수 구조를 통한 인과관계 검증- 저자 : Jiasheng Si, Yibo Zhao, Yingjie Zhu, Haiyang Zhu, Wenpeng Lu, Deyu Zhou
- 논문 26: U darmstadt, Apple Inc.
논문 링크: https://arxiv.org/pdf/2405.11919- 논문 27: 에뮬레이션된 불일치: 안전 정렬 대규모 언어 모델의 경우 역효과가 발생할 수 있습니다!
- 저자: Zhanhui Zhou, Jie Liu, Zhichen Dong, Jiaheng Liu, Chao Yang, Wanli Ouyang, Yu Qiao
- 기관: Shanghai Artificial Intelligence Laboratory
논문 링크: https://arxiv.org/pdf/2402.12343- 문서 28: IndicLLMSuite: 인도어용 사전 훈련 및 미세 조정 데이터 세트 생성을 위한 청사진
- 저자: Mohammed Safi Ur Rahman Khan, Priyam Mehta, Ananth Sankar 등
- 기관: AI4Bharat의 Nilekani Center, Indian Institute of Technology(Madras), Microsoft 등
논문 링크: https://arxiv.org/pdf/ 2403.06350- 논문 29: MultiPICo: 다국어 관점주의자 lrony Corpus
- 저자: Silvia Casola, Simona Frenda, Soda Marem Lo, Erhan Sezerer 등
논문 링크: https://assets.amazon.science/08/83/9b686f424c89b08e8fa0a6e1d020/multipico-multilingual-perspectivist-irony-corpus.pdf- 논문 30: MMToM-QA: 다중 모드 이론 질문 응답
- 저자: Chuanyang Jin, Yutong Wu, Jing Cao, jiannan Xiang 등
- 기관: New York University, Harvard University, MIT, University of California, San Diego, University of Virginia, Johns Hopkins University
- 논문 31: MAP는 그렇지 않습니다 아직 죽었습니다: 타락을 조건화하여 진정한 언어 모델 모드 발견
- 저자: Davis Yoshida, Kartik Goyal, Kevin Gimpel
- 기관: Toyota Institute of Technology Chicago, Georgia Institute of Technology
문서 링크: https : //arxiv.org/pdf/2311.08817- Paper 32 : Nounatlas : 공칭 의미 론적 역할 라벨링에서 간격을 채우는 사람 : Roberto Navigli, Marco Lo Pinto, Pasquale Silvestri 등
- 저자: Rongwu Xu, Brian S. Lin, Shujian Yang, Tiangi Zhang 등
- 기관: 칭화 대학교, 상하이 자오퉁 대학교, 스탠포드 대학교, 난양 기술 대학교
- 논문 링크: https://arxiv.org/pdf/2312.09085
- Paper 34: Let's Go Real Talk: 대면 대화를 위한 음성 대화 모델
- 저자: 박세진, 김채원, 나형섭, 김민수 등
- 기관: 한국과학기술원 (KAIST)
- 논문 링크: https://arxiv.org/pdf/2406.07867
- 논문 35 :Word Embeddings Are Steers for Language Models
- 저자: Chi Han, 자량 Xu, Manling Li, Yi Fung, Chenkai Sun, Nan Jiang, Tarek F. Abdelzaher, Heng Ji
- 기관: University of Illinois at Urbana - Champaign
- 논문 링크: https://arxiv.org/pdf /2305.12798
- 베스트테마논문상
저자: Dirk Groeneveld, Iz Beltagy 등 기관: Allen Institute for Artificial Intelligence, University of Washington 등 논문 링크: https://arxiv.org/pdf/2402.00838 저자: Julen Etxaniz, Oscar Sainz, Naiara Perez, Itziar Aldabe, German Rigau, Eneko Agirre, Aitor Ormazabal, Mikel Artetxe, Aitor Soroa 링크: https://arxiv.org/pdf/2403.20266 기관: Allen Institute for Artificial Intelligence, University of California, Berkeley 등 -
저자 : Luca Soldaini, Rodney Kinney 등 링크 : https://arxiv.org/abs/2402.00159 기관: 뉴욕 주립대학교 Stony Brook, Allen 인공 지능 연구소 등 -
저자: Harsh Trivedi, Tushar Khot 등 링크: https://arxiv.org/abs/2407.18901 -
저자: Yi Zeng, Hongpeng Lin, Jingwen Zhang, Diyi Yang 등 . 기관: 버지니아 공대, 중국 인민 대학교, 캘리포니아 대학교, 데이비스, 스탠포드 대학교 논문 링크: https://arxiv.org/pdf/2401.06373 -
저자: Fahim Faisal, Orevaoghene Ahia, Aarohi Srivastava, Kabir Ahuja 등 기관: 조지 메이슨 대학교, 워싱턴 대학교, 노트르담 대학교, RC Athena 논문 링크: https://arxiv.org/pdf/2403.11009 저자: Tarek Naous, Michael J. Ryan, Alan Ritter, Wei Xu 기관: Georgia Institute of Technology 논문 링크: https://arxiv.org/pdf/2305.14456
논문: OLMo: Accelerated the Science of Language Models 인용: 이 작업은 대규모 언어 모델 훈련의 투명성과 재현성을 향한 중요한 단계이며, 이는 커뮤니티가 달성하고 있는 것입니다. 발전을 위해 많이 필요합니다. (또는 적어도 업계 거대 기업이 아닌 다른 연구자가 기여할 수 있도록). 자원논문상 3편의 논문이 자원논문상을 수상했습니다. 논문 1: Latxa: 바스크어를 위한 개방형 언어 모델 및 평가 제품군 기관: 스페인 바스크 지방 대학교 수상 사례: 이 논문은 다음과 같이 설명합니다. 코퍼스 컬렉션 세부정보, 데이터세트 평가 세부정보. 바스크어 연구와 관련이 있지만 이 방법론은 자원이 적은 다른 언어에 대한 대규모 모델 구축으로 확장될 수 있습니다. 논문 2: Dolma: 언어 모델 사전 훈련 연구를 위한 3조 토큰의 공개 코퍼스 수상 이유 : 이 논문은 준비 시 데이터 관리의 중요성을 보여줍니다. 대규모 언어 모델 훈련을 위한 데이터 세트. 이는 커뮤니티 내의 다양한 사람들에게 매우 귀중한 통찰력을 제공합니다. 문서 3: AppWorld: 대화형 코딩 에이전트 벤치마킹을 위한 제어 가능한 앱 및 사람의 세계 수상 이유: 이 연구는 매우 중요하고 놀랍습니다. 대화형 환경 시뮬레이션 및 평가 작업을 구축합니다. 이는 모든 사람이 커뮤니티를 위한 보다 하드코어한 동적 벤치마크를 생성하도록 장려할 것입니다. Social Impact Award 3편의 논문이 Social Impact Award를 수상했습니다. 문서 1: Johnny가 LLM을 설득하여 탈옥하는 방법: LLM을 인간화하여 AI 안전에 도전하는 설득에 대한 재고 이유 수상: 이 기사에서는 AI 보안(탈옥)이라는 주제를 탐구하고 사회 과학 연구 분야에서 개발된 방법을 검토합니다. 이 연구는 매우 흥미롭고 지역사회에 중대한 영향을 미칠 가능성이 있습니다. 문서 2: DIALECTBENCH: 방언, 종류 및 밀접하게 관련된 언어에 대한 NLP 벤치마크 수상 인용: 방언 변형 NLP와 인공지능의 중요한 영역입니다. 아직 연구가 덜 된 현상입니다. 그러나 언어와 사회의 관점에서 볼 때 그 연구는 매우 높은 가치를 가지며 응용에 있어 중요한 의미를 갖는다. 본 논문은 LLM 시대에 이러한 문제를 연구하기 위한 매우 새로운 벤치마크를 제안합니다. 문서 3: 기도 후 맥주를 마시나요? 대규모 언어 모델에서 문화적 편견 측정 수상 이유: 이 기사는 LLM 시대의 중요한 문제인 문화적 편견을 보여줍니다.본 논문에서는 아랍 문화와 지역을 조사했으며 그 결과 LLM을 설계할 때 문화적 차이를 고려해야 함을 보여줍니다. 따라서 동일한 연구를 다른 문화권에서도 재현하여 다른 문화권도 이 문제의 영향을 받는지 일반화하고 평가할 수 있습니다.
위 내용은 ACL 2024 시상식 발표: HuaTech의 Oracle 해독에 관한 최고의 논문 중 하나, GloVe Time Test Award의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

Video Face Swap
완전히 무료인 AI 얼굴 교환 도구를 사용하여 모든 비디오의 얼굴을 쉽게 바꾸세요!

인기 기사

뜨거운 도구

메모장++7.3.1
사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전
중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경

드림위버 CS6
시각적 웹 개발 도구

SublimeText3 Mac 버전
신 수준의 코드 편집 소프트웨어(SublimeText3)

하지만 공원에 있는 노인을 이길 수는 없을까요? 파리올림픽이 본격화되면서 탁구가 많은 주목을 받고 있다. 동시에 로봇은 탁구 경기에서도 새로운 돌파구를 마련했습니다. 방금 DeepMind는 탁구 경기에서 인간 아마추어 선수 수준에 도달할 수 있는 최초의 학습 로봇 에이전트를 제안했습니다. 논문 주소: https://arxiv.org/pdf/2408.03906 DeepMind 로봇은 탁구를 얼마나 잘 치나요? 아마도 인간 아마추어 선수들과 동등할 것입니다: 포핸드와 백핸드 모두: 상대는 다양한 플레이 스타일을 사용하고 로봇도 견딜 수 있습니다: 다양한 스핀으로 서브를 받습니다. 그러나 게임의 강도는 그만큼 강렬하지 않은 것 같습니다. 공원에 있는 노인. 로봇용, 탁구용

8월 21일, 2024년 세계로봇대회가 베이징에서 성대하게 개최되었습니다. SenseTime의 홈 로봇 브랜드 "Yuanluobot SenseRobot"은 전체 제품군을 공개했으며, 최근에는 Yuanluobot AI 체스 두는 로봇인 체스 프로페셔널 에디션(이하 "Yuanluobot SenseRobot")을 출시하여 세계 최초의 A 체스 로봇이 되었습니다. 집. Yuanluobo의 세 번째 체스 게임 로봇 제품인 새로운 Guoxiang 로봇은 AI 및 엔지니어링 기계 분야에서 수많은 특별한 기술 업그레이드와 혁신을 거쳤으며 처음으로 3차원 체스 말을 집는 능력을 실현했습니다. 가정용 로봇의 기계 발톱을 통해 체스 게임, 모두 체스 게임, 기보 복습 등과 같은 인간-기계 기능을 수행합니다.

개학이 코앞으로 다가왔습니다. 새 학기를 앞둔 학생들뿐만 아니라 대형 AI 모델도 스스로 관리해야 합니다. 얼마 전 레딧에는 클로드가 게으르다고 불평하는 네티즌들이 붐볐습니다. "레벨이 많이 떨어졌고, 자주 멈췄고, 심지어 출력도 매우 짧아졌습니다. 출시 첫 주에는 4페이지 전체 문서를 한 번에 번역할 수 있었지만 지금은 반 페이지도 출력하지 못합니다. !" https://www.reddit.com/r/ClaudeAI/comments/1by8rw8/something_just_feels_wrong_with_claude_in_the/ "클로드에게 완전히 실망했습니다"라는 제목의 게시물에

베이징에서 열린 세계로봇컨퍼런스에서는 휴머노이드 로봇의 전시가 현장의 절대 화두가 됐다. 스타더스트 인텔리전트 부스에서는 AI 로봇 어시스턴트 S1이 덜시머, 무술, 서예 3대 퍼포먼스를 선보였다. 문학과 무술을 모두 갖춘 하나의 전시 공간은 수많은 전문 관객과 미디어를 끌어 모았습니다. 탄력 있는 현의 우아한 연주를 통해 S1은 정밀한 작동과 속도, 힘, 정밀성을 갖춘 절대적인 제어력을 보여줍니다. CCTV 뉴스는 '서예'의 모방 학습 및 지능형 제어에 대한 특별 보도를 진행했습니다. 회사 설립자 Lai Jie는 부드러운 움직임 뒤에 하드웨어 측면이 최고의 힘 제어와 가장 인간과 유사한 신체 지표(속도, 하중)를 추구한다고 설명했습니다. 등)이지만 AI측에서는 사람의 실제 움직임 데이터를 수집해 로봇이 강한 상황에 직면했을 때 더욱 강해지고 빠르게 진화하는 방법을 학습할 수 있다. 그리고 민첩하다

참가자들은 이번 ACL 컨퍼런스에서 많은 것을 얻었습니다. ACL2024는 6일간 태국 방콕에서 개최됩니다. ACL은 전산언어학 및 자연어 처리 분야 최고의 국제학술대회로 국제전산언어학회(International Association for Computational Linguistics)가 주최하고 매년 개최된다. ACL은 NLP 분야에서 학술 영향력 1위를 항상 차지하고 있으며, CCF-A 추천 컨퍼런스이기도 합니다. 올해로 62회째를 맞이하는 ACL 컨퍼런스에는 NLP 분야의 최신 저서가 400편 이상 접수됐다. 어제 오후 컨퍼런스에서는 최우수 논문과 기타 상을 발표했습니다. 이번에 최우수논문상 7개(미출판 2개), 우수주제상 1개, 우수논문상 35개가 있다. 이 컨퍼런스에서는 또한 3개의 리소스 논문상(ResourceAward)과 사회적 영향상(Social Impact Award)을 수상했습니다.

비전과 로봇 학습의 긴밀한 통합. 최근 화제를 모으고 있는 1X 휴머노이드 로봇 네오(NEO)와 두 개의 로봇 손이 원활하게 협력해 옷 개기, 차 따르기, 신발 싸기 등을 하는 모습을 보면 마치 로봇 시대로 접어들고 있다는 느낌을 받을 수 있다. 실제로 이러한 부드러운 움직임은 첨단 로봇 기술 + 정교한 프레임 디자인 + 다중 모드 대형 모델의 산물입니다. 우리는 유용한 로봇이 종종 환경과 복잡하고 절묘한 상호작용을 요구한다는 것을 알고 있으며, 환경은 공간적, 시간적 영역에서 제약으로 표현될 수 있습니다. 예를 들어, 로봇이 차를 따르도록 하려면 먼저 로봇이 찻주전자 손잡이를 잡고 차를 흘리지 않고 똑바로 세운 다음, 주전자 입구와 컵 입구가 일치할 때까지 부드럽게 움직여야 합니다. 을 누른 다음 주전자를 특정 각도로 기울입니다. 이것

컨퍼런스 소개 과학기술의 급속한 발전과 함께 인공지능은 사회 발전을 촉진하는 중요한 힘이 되었습니다. 이 시대에 우리는 분산인공지능(DAI)의 혁신과 적용을 목격하고 참여할 수 있어 행운입니다. 분산 인공지능(Distributed Artificial Intelligence)은 인공지능 분야의 중요한 한 분야로, 최근 몇 년간 점점 더 많은 주목을 받고 있습니다. 대규모 언어 모델(LLM) 기반 에이전트가 갑자기 등장했습니다. 대규모 모델의 강력한 언어 이해와 생성 기능을 결합하여 자연어 상호 작용, 지식 추론, 작업 계획 등에 큰 잠재력을 보여주었습니다. AIAgent는 빅 언어 모델을 이어받아 현재 AI계에서 화제가 되고 있습니다. 오

오늘 오후 Hongmeng Zhixing은 공식적으로 새로운 브랜드와 신차를 환영했습니다. 8월 6일, Huawei는 Hongmeng Smart Xingxing S9 및 Huawei 전체 시나리오 신제품 출시 컨퍼런스를 개최하여 파노라마식 스마트 플래그십 세단 Xiangjie S9, 새로운 M7Pro 및 Huawei novaFlip, MatePad Pro 12.2인치, 새로운 MatePad Air, Huawei Bisheng을 선보였습니다. 레이저 프린터 X1 시리즈, FreeBuds6i, WATCHFIT3 및 스마트 스크린 S5Pro를 포함한 다양한 새로운 올-시나리오 스마트 제품, 스마트 여행, 스마트 오피스, 스마트 웨어에 이르기까지 화웨이는 풀 시나리오 스마트 생태계를 지속적으로 구축하여 소비자에게 스마트한 경험을 제공합니다. 만물인터넷. Hongmeng Zhixing: 스마트 자동차 산업의 업그레이드를 촉진하기 위한 심층적인 권한 부여 화웨이는 중국 자동차 산업 파트너와 손을 잡고
