2023년 졸업논문 목록 해석: 성공적인 초안이 두려우신가요? 반박으로 운명을 바꾸는 것이 어려운가? 리뷰어들은 편견을 갖고 있나요?
다시 상위권 순위가 공개되면 기뻐하시는 분들도 계시고, 아쉬워하시는 분들도 계실텐데요.
IJCAI 2023에는 총 4,566개의 전문 제출이 접수되었으며, 합격률은 약 15%
질문 링크: https://www.zhihu.com/question/578082970
Zhihu에 대한 피드백 결과로 볼 때 전반적인 리뷰 품질은 여전히 만족스럽지 못하며(거부당한 것에 대한 원망일 수도 있습니다...), 심지어 일부 리뷰어는 내용도 읽지 않고 원고를 거부하기도 합니다. 반박.
점수는 같지만 결말이 다른 논문도 있습니다.
일부 네티즌들은 메타 리뷰를 거부하는 이유도 올렸는데, 모두 큰 단점이었습니다.
하지만 거절이 끝이 아니고, 더 중요한 것은 계속하는 것입니다.
Netizen Lower_Evening_4056은 랜드마크 논문이라도 여러 번 거절될 것이며 일부 논문은 뛰어난 수준이 아니더라도 승인될 수 있다고 믿습니다.
계속해서 그 합리적인 리뷰 댓글을 되돌아보면 여러분의 작업이 여전히 더 높은 수준으로 향상될 수 있다는 것을 알게 될 것입니다.
리뷰 시스템에는 결함이 있습니다, 더 중요한 것은 거절을 개인 또는 업무 가치에 대한 평가 결과로 간주하지 마세요. 귀하가 학생이고 지도교수가 작업의 질보다는 검토 결과를 기준으로 귀하를 평가하는 경우, 지도교수와의 관계를 다시 생각해 보는 것이 좋습니다.
NeurIPS 컨퍼런스에서는 평균 점수가 5~6.5 사이인 논문의 경우 승인 결과는 기본적으로 무작위이며 만나는 리뷰어에 따라 다릅니다.
예를 들어 어떤 사람의 논문 결과가 9665점이라고 해보자. 9점을 준 리뷰어를 만나지 못했다면 결과는 거절이 되어야 하는데, 우연히 볼레를 만나 리뷰 결과를 뒤집었다.
마지막으로, 인공지능 연구 발전에 도움을 준 공로로 논문을 수락한 연구자 여러분께 축하드립니다!
다음은 소셜 미디어에 공유된 승인된 논문입니다.
IJCAI 2023 논문 게재
엔드 투 엔드 잡음 방지 음성 인식의 다중 작업 학습을 위한 기울기 보정
다운스트림 자동 음성 인식 시스템(ASR)에서는 음성 향상 학습 전략( SE) 시연된 시끄러운 음성 신호로 인해 생성된 소음을 효과적으로 줄일 수 있는 시스템은 다중 작업 학습 전략을 사용하여 두 작업을 공동으로 최적화합니다.
그러나 SE 타겟을 통해 학습된 증강 음성이 항상 좋은 ASR 결과를 생성하는 것은 아닙니다.
최적화 관점에서 보면 적응 작업의 기울기와 적응 반응 작업 사이에 간섭이 발생하는 경우가 있는데, 이는 다중 작업 학습을 방해하고 궁극적으로 만족스럽지 못한 적응 반응 성능으로 이어집니다.
논문 링크:https://arxiv.org/pdf/2302.11362.pdf
이 논문에서는 간섭 문제를 해결하기 위한 간단하고 효과적인 GR(그라디언트 보상) 방법을 제안합니다. 스틱 음성 인식의 작업 기울기 사이에 문제가 있습니다.
구체적으로 SE 작업의 기울기는 먼저 ASR 기울기와 예각으로 동적 표면에 투영되어 둘 사이의 충돌을 제거하고 ASR 최적화를 지원합니다.
또한 두 그라데이션의 크기는 지배적인 ASR 작업이 SE 그라데이션으로 인해 잘못 유도되는 것을 방지하기 위해 적응적으로 조정됩니다.
실험 결과에 따르면 이 방법은 다중 작업 학습 기준에서 RATS 및 CHiME-4에서 9.3%와 11.1%의 상대 단어 오류율(WER)을 달성했습니다. 데이터 세트를 각각 줄입니다.
제한된 Tsetlin Machine 절 크기로 간결한 논리 패턴 구축
Tsetlin Machine(TM)은 투명하고 하드웨어 친화적이라는 주요 이점을 갖춘 논리 기반 기계 학습 접근 방식입니다.
TM은 점점 더 많은 애플리케이션에서 딥 러닝의 정확성과 일치하거나 이를 능가하지만, 큰 절 풀은 리터럴(긴 절)이 많은 절을 생성하는 경향이 있어 이해하기가 어렵습니다.
또한 절이 길수록 하드웨어에서 절 논리의 스위칭 활동이 증가하고 전력 소비도 높아집니다.
논문 링크: https://arxiv.org/abs/2301.08190
본 논문에서는 새로운 TM 학습 방법, 즉 절 크기 제한 하위 문장 학습 방법(CSC)을 소개합니다. -TM), 절 크기에 대한 소프트 제약을 설정할 수 있습니다.
절에 제약 조건이 허용하는 것보다 더 많은 리터럴이 포함되면 리터럴이 제외되므로 더 큰 절은 잠시 동안만 나타납니다.
CSC-TM을 평가하기 위해 연구원들은 표 형식 데이터, 자연어 텍스트, 이미지 및 보드 게임에 대한 분류, 클러스터링 및 회귀 실험을 수행했습니다.
결과에 따르면 CSC-TM은 최대 80배의 텍스트 축소로 정확도를 유지합니다. 실제로 TREC, IMDb 및 BBC Sports는 정확도가 최고조에 달한 후 짧은 절에서 더 높은 정확도를 나타냅니다. 이는 절 크기가 단일 절에 가까워질수록 천천히 감소합니다. 텍스트.
마지막으로 이 기사에서는 CSC-TM의 전력 소비를 분석하고 새로운 융합 특성을 얻습니다.
#DNN 검증 문제: 심층 신경망에 대한 안전하지 않은 입력 계산
심층 신경망은 사용할 수 있지만 자율 주행과 같이 높은 수준의 안전이 필요한 중요한 작업에 점점 더 많이 사용되고 있습니다. DNN이 안전하지 않은지 확인하는 최첨단 유효성 검사기:
일부 속성(예: 안전하지 않은 입력 구성이 하나 이상 있는지 여부)이 주어지면 모델의 예/아니요 출력은 다른 목적에 유용합니다. (예: 차폐, 모델 선택 또는 훈련 개선을 위한 정보 부족)
문서 링크: https://arxiv.org/abs/2301.07068
이 문서에서는 #DNN-검증 문제를 소개합니다. 특정 보안 속성 연구원들은 DNN 입력 구성 수를 통해 이 문제의 복잡성을 분석하고 정확한 위반 횟수를 반환하는 새로운 방법을 제안했습니다.
문제는 P-완전이므로 계산 요구 사항을 크게 줄이면서 확률 한계의 정확한 개수를 증명할 수 있는 확률적 근사 방법을 제안합니다.
이 문서에서는 안전에 중요한 벤치마크 세트와 근사 방법의 효율성을 입증하고 제약 조건의 엄격함을 평가하는 실험 결과도 제시합니다.
위 내용은 2023년 졸업논문 목록 해석: 성공적인 초안이 두려우신가요? 반박으로 운명을 바꾸는 것이 어려운가? 리뷰어들은 편견을 갖고 있나요?의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

AI Hentai Generator
AI Hentai를 무료로 생성하십시오.

인기 기사

뜨거운 도구

메모장++7.3.1
사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전
중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경

드림위버 CS6
시각적 웹 개발 도구

SublimeText3 Mac 버전
신 수준의 코드 편집 소프트웨어(SublimeText3)

뜨거운 주제











StableDiffusion3의 논문이 드디어 나왔습니다! 이 모델은 2주 전에 출시되었으며 Sora와 동일한 DiT(DiffusionTransformer) 아키텍처를 사용합니다. 출시되자마자 큰 화제를 불러일으켰습니다. 이전 버전과 비교하여 StableDiffusion3에서 생성된 이미지의 품질이 크게 향상되었습니다. 이제 다중 테마 프롬프트를 지원하고 텍스트 쓰기 효과도 향상되었으며 더 이상 잘못된 문자가 표시되지 않습니다. StabilityAI는 StableDiffusion3이 800M에서 8B 범위의 매개변수 크기를 가진 일련의 모델임을 지적했습니다. 이 매개변수 범위는 모델이 많은 휴대용 장치에서 직접 실행될 수 있어 AI 사용이 크게 줄어든다는 것을 의미합니다.

프랑스 파리에서 열린 최고의 컴퓨터 비전 컨퍼런스 ICCV2023이 막 끝났습니다! 올해 최우수 논문상은 그야말로 '신들의 싸움'이다. 예를 들어 최우수 논문상을 수상한 두 논문에는 빈센트 그래프 AI 분야를 전복한 작품인 ControlNet이 포함됐다. 오픈 소스 이후 ControlNet은 GitHub에서 24,000개의 별을 받았습니다. 확산 모델이든, 컴퓨터 비전 전체 분야이든, 이 논문의 수상은 당연한 것입니다. 최우수 논문상에 대한 명예로운 언급은 또 다른 유명한 논문인 Meta의 "Separate Everything" "Model SAM에 수여되었습니다. "Segment Everything"은 출시 이후 뒤에서 나온 모델을 포함해 다양한 이미지 분할 AI 모델의 "벤치마크"가 되었습니다.

Neural Radiance Fields가 2020년에 제안된 이후 관련 논문의 수가 기하급수적으로 늘어났습니다. 이는 3차원 재구성의 중요한 분야가 되었을 뿐만 아니라 자율 주행을 위한 중요한 도구로서 연구 분야에서도 점차 활발해졌습니다. NeRF는 지난 2년 동안 갑자기 등장했습니다. 주로 특징점 추출 및 일치, 에피폴라 기하학 및 삼각측량, PnP 및 번들 조정 및 기존 CV 재구성 파이프라인의 기타 단계를 건너뛰고 메쉬 재구성, 매핑 및 광 추적도 건너뛰기 때문입니다. , 2D에서 직접 입력된 이미지를 이용해 방사선장을 학습한 후, 방사선장에서 실제 사진에 가까운 렌더링 이미지를 출력합니다. 즉, 신경망을 기반으로 한 암시적 3차원 모델을 지정된 관점에 맞추도록 합니다.

AAAI 2023 논문 제출 마감일이 다가오던 무렵, AI 제출 그룹의 익명 채팅 스크린샷이 갑자기 Zhihu에 나타났습니다. 그 중 한 명은 "3000위안 강력한 수락" 서비스를 제공할 수 있다고 주장했습니다. 해당 소식이 알려지자 네티즌들은 곧바로 공분을 샀다. 그러나 아직 서두르지 마십시오. Zhihu 상사 "Fine Tuning"은 이것이 아마도 "언어적 즐거움"일 가능성이 높다고 말했습니다. 『파인튜닝』에 따르면 인사와 갱범죄는 어느 분야에서나 피할 수 없는 문제다. openreview의 등장으로 cmt의 다양한 단점이 점점 더 명확해졌습니다. 앞으로는 작은 서클이 운영할 수 있는 공간은 더 작아지겠지만 항상 여유가 있을 것입니다. 이는 개인적인 문제이지 투고 시스템이나 메커니즘의 문제가 아니기 때문입니다. 오픈R을 소개합니다

생성형 AI(Generative AI)는 인공 지능 커뮤니티를 휩쓸었습니다. 개인과 기업 모두 Vincent 사진, Vincent 비디오, Vincent 음악 등과 같은 관련 모달 변환 애플리케이션을 만드는 데 열중하기 시작했습니다. 최근 ServiceNow Research, LIVIA 등 과학 연구 기관의 여러 연구자들이 텍스트 설명을 기반으로 논문에서 차트를 생성하려고 시도했습니다. 이를 위해 그들은 FigGen이라는 새로운 방법을 제안했고, 관련 논문도 ICLR2023에 TinyPaper로 포함됐다. 그림 논문 주소: https://arxiv.org/pdf/2306.00800.pdf 어떤 사람들은 '논문에서 차트를 생성하는 데 무엇이 그렇게 어렵나요?'라고 묻습니다. 이것이 과학 연구에 어떻게 도움이 됩니까?

CoRL은 2017년 처음 개최된 이후 로봇공학과 머신러닝이 교차하는 분야에서 세계 최고의 학술 컨퍼런스 중 하나로 자리매김했습니다. CoRL은 이론과 응용을 포함하여 로봇공학, 기계학습, 제어 등 다양한 주제를 다루는 로봇학습 연구를 위한 단일 주제 컨퍼런스입니다. 2023 CoRL 컨퍼런스는 11월 6일부터 9일까지 미국 애틀랜타에서 개최됩니다. 공식 자료에 따르면 올해 CoRL에는 25개국 199편의 논문이 선정됐다. 인기 있는 주제로는 운영, 강화 학습 등이 있습니다. CoRL은 AAAI, CVPR 등 대규모 AI 학술회의에 비해 규모는 작지만, 올해 대형 모델, 체화된 지능, 휴머노이드 로봇 등 개념의 인기가 높아지면서 관련 연구도 주목할 만하다.

방금 CVPR 2023에서는 다음과 같은 기사를 발표했습니다. 올해 우리는 기록적인 9,155편의 논문을 접수했으며(CVPR2022보다 12% 더 많음), 2,360편의 논문을 접수했으며 합격률은 25.78%입니다. 통계에 따르면 2010년부터 2016년까지 7년간 CVPR 제출 건수는 1,724건에서 2,145건으로 증가하는 데 그쳤다. 2017년 이후 급등하며 급속한 성장기에 접어들었고, 2019년에는 처음으로 5,000건을 돌파했고, 2022년에는 투고 건수가 8,161건에 이르렀다. 보시다시피 올해 총 9,155편의 논문이 제출되어 역대 최고 기록을 세웠습니다. 전염병이 완화된 후 올해 CVPR 정상회담은 캐나다에서 개최될 예정입니다. 올해는 단일 트랙 컨퍼런스 형식을 채택하고 기존 구술 선발 방식을 폐지한다. 구글 조사

모든 사람이 계속해서 자신의 대형 모델을 업그레이드하고 반복함에 따라 컨텍스트 창을 처리하는 LLM(대형 언어 모델)의 능력도 중요한 평가 지표가 되었습니다. 예를 들어, 스타 모델 GPT-4는 50페이지의 텍스트에 해당하는 32k 토큰을 지원합니다. OpenAI의 전 멤버가 설립한 Anthropic은 Claude의 토큰 처리 능력을 약 75,000단어에 해당하는 100k로 늘렸습니다. "해리포터"를 한 번의 클릭으로 요약하는 것과 같습니다. "First. Microsoft의 최신 연구에서는 이번에 Transformer를 10억 개의 토큰으로 직접 확장했습니다. 이는 전체 코퍼스 또는 전체 인터넷을 하나의 시퀀스로 처리하는 등 매우 긴 시퀀스를 모델링하는 새로운 가능성을 열어줍니다. 비교하자면 일반적인
