르쿤이 적극 추천합니다! Harvard 의사가 과학 연구에 GPT-4를 사용하는 방법을 모든 워크플로까지 공유합니다.
GPT-4의 출현으로 많은 사람들이 과학 연구에 대해 걱정하게 되었고 NLP가 존재하지 않는다고 농담까지 했습니다.
걱정보다는 단순히 "압연방식을 바꿔라" 과학연구에 활용하는 것이 더 좋습니다.
하버드대학교 생물통계학 박사인 Kareem Carr는 학술 연구를 수행하기 위해 GPT-4와 같은 대규모 언어 모델 도구를 사용했다고 말했습니다.
그는 이러한 도구가 매우 강력하지만 매우 고통스러운 함정도 있다고 말했습니다.
LLM 사용 조언에 대한 그의 트윗은 LeCun의 추천까지 받았습니다.
Kareem Carr가 과학 연구에 AI 도구를 어떻게 사용하는지 살펴보겠습니다.
첫 번째 원칙: 확인할 수 없는 콘텐츠에 대해서는 LLM을 찾지 마세요
처음에 Carr는 첫 번째이자 가장 중요한 원칙을 제시했습니다.
절대 큰 언어 모델을 요청하지 마세요 (LLM) 스스로 확인할 수 없는 정보를 요청하거나, 확인할 수 없는 작업이 올바르게 완료되었는지 수행하도록 요청하세요.
유일한 예외는 LLM에 아파트 장식 아이디어를 요청하는 것과 같은 중요한 작업이 아닌 경우입니다.
"문헌 검토의 모범 사례를 사용하여 지난 10년간의 유방암 연구를 요약합니다." 이는 문헌을 올바르게 요약했는지 직접 확인할 수 없기 때문에 잘못된 요청입니다.
대신 "지난 10년간 유방암 연구에 관한 최고의 리뷰 기사 목록을 알려주세요."라고 물어보세요.
이러한 팁은 출처를 확인할 수 있을 뿐만 아니라 신뢰성을 직접 확인할 수도 있습니다.
"프롬프트" 작성을 위한 팁
LLM에게 코드 작성을 요청하거나 관련 정보를 찾는 것은 매우 쉽지만 출력 콘텐츠의 품질은 크게 다를 수 있습니다. 다음은 품질 개선을 위해 할 수 있는 일입니다.
상황 설정:
• 어떤 정보를 사용해야 하는지 LLM에게 명확하게 알려줍니다.
• 용어와 표기법을 사용합니다. LLM 경사를 만들기 위해 올바른 상황 정보
요청 처리 방법에 대한 아이디어가 있으면 LLM에 사용할 구체적인 방법을 알려주십시오. 예를 들어, "이 부등식을 해결하세요"는 "이 부등식을 해결하기 위해 코시-슈바르츠 정리를 사용한 다음 완전한 제곱을 적용하세요"로 변경되어야 합니다.
이러한 언어 모델은 생각보다 언어적으로 더 복잡하며 매우 모호한 힌트라도 도움이 될 것입니다.
구체적이고 구체적으로 작성하세요:
이것은 Google 검색이 아니므로 정확한 문제를 논의하는 웹사이트가 있더라도 걱정하지 마세요.
"이차항의 연립방정식을 어떻게 푸나요?" 이 프롬프트는 다음과 같이 질문해야 합니다. "x=(1/2)(a+b) 및 y=(1/) 3) (a^2+ab+b^2) a와 b에 관한 연립방정식."
출력 형식 정의:
LLM의 유연성을 사용하여 다음과 같이 자신에게 가장 적합한 방식으로 출력 형식을 지정합니다. 수학 공식
• 기사
• 튜토리얼
• 간단한 가이드
테이블, 그림, 차트를 포함하는 생성 코드를 요청할 수도 있습니다.
LLM 출력 내용을 얻을 수 있지만 이것은 시작에 불과합니다. 출력 내용을 확인해야 하기 때문입니다. 여기에는 다음이 포함됩니다.
• 불일치 발견
• Google 검색 도구를 통해 콘텐츠 용어 출력 및 지원 가능한 소스 확보
• 가능한 경우 코드 자체 테스트 작성
자체 검증이 필요한 이유는 LLM이 겉보기 전문성과 일치하지 않는 이상한 실수를 저지르는 경우가 많기 때문입니다. 예를 들어, LLM은 매우 고급 수학적 개념을 언급하지만 단순한 대수 문제에 대해서는 혼동을 일으킬 수 있습니다.
한 번 더 물어보세요:
대형 언어 모델에서 생성된 콘텐츠는 무작위입니다. 때로는 새 창을 만들어 다시 질문하시면 더 나은 답변을 얻을 수도 있습니다.
또한 여러 LLM 도구를 사용하세요. Kareem Carr는 현재 자신의 필요에 따라 과학 연구에 Bing AI, GPT-4, GPT-3.5 및 Bard AI를 사용하고 있습니다. 그러나 각각에는 장단점이 있습니다.
인용문 + 생산성
인용문
Carr의 경험에 따르면 GPT-4와 Bard AI에 동시에 동일한 수학 질문을 하여 서로 다른 관점을 얻는 것이 가장 좋습니다. Bing AI는 웹 검색에서 작동합니다. GPT-4는 GPT-3.5보다 훨씬 똑똑하지만 현재 OpenAI는 3시간에 25개의 메시지로 제한되어 액세스가 더 어렵습니다.
인용 문제에 있어서 참고문헌 인용은 특히 LLM의 약점입니다. LLM이 제공하는 참고자료가 존재할 때도 있고 존재하지 않을 때도 있습니다.
이전에 한 네티즌이 동일한 문제에 직면했다고 말했습니다. ChatGPT에 목록의 수학적 속성과 관련된 참조 자료를 제공해달라고 요청했지만 ChatGPT에서 존재하지 않는 참조 자료가 생성되었는데, 이를 모두가 "환각" 문제라고 부릅니다. .
하지만 카림 카는 거짓 인용문이 완전히 쓸모없는 것은 아니라고 지적합니다.
그의 경험에 따르면 조작된 참고문헌에 나오는 단어는 실제 용어와 관련이 있는 경우가 많으며 관련 분야의 연구자도 있습니다. 따라서 이러한 용어를 인터넷 검색하면 원하는 정보에 더 가까워지는 경우가 많습니다.
또한 소스를 검색할 때 Bing을 사용하는 것도 좋은 선택입니다.
생산성
LLM이 생산성을 향상시킨다는 비현실적인 주장이 많이 있습니다. 예를 들어 "LLM은 생산성을 10배, 심지어 100배까지 높일 수 있습니다."
Carr의 경험에 따르면 이러한 가속화는 어떤 작업도 다시 확인하지 않는 경우에만 의미가 있으며 이는 학자로서 무책임한 일입니다.
그러나 LLM은 다음을 포함하여 Kareem Carr의 학문적 작업 흐름을 크게 개선했습니다.
- 아이디어 디자인 프로토타이핑 - 쓸모 없는 아이디어 식별 - 지루한 데이터 재형식화 작업 가속화 - 새로운 프로그래밍 언어, 패키지 및 개념 학습 - Google 검색
오늘의 LLM 덕분에 Carr는 다음에 무엇을 해야 할지 파악하는 데 소요되는 시간이 줄어들었다고 말했습니다. LLM은 모호하거나 불완전한 아이디어를 완전한 솔루션으로 발전시키는 데 도움이 될 수 있습니다.
또한 LLM은 Carr가 주요 목표와 관련되지 않은 부업 프로젝트에 소비하는 시간도 줄였습니다.
몰입 상태가 되어 계속 나아갈 수 있다는 것을 알게 되었습니다. 이는 내가 지치지 않고 더 오랜 시간 일할 수 있다는 것을 의미합니다.
마지막 조언: 부업에 빠지지 않도록 조심하세요. 이러한 도구로 인한 생산성의 갑작스러운 증가는 개인을 도취시키고 잠재적으로 주의를 산만하게 할 수 있습니다.
ChatGPT 경험과 관련하여 Carr는 ChatGPT를 사용한 후 자신의 감정을 공유하기 위해 LinkedIn에 게시물을 게시한 적이 있습니다.
데이터 과학자로서 저는 OpenAI의 ChatGPT Zhou의 실험을 통해 몇 가지 작업을 수행했습니다. 사람들이 생각하는 것만큼 좋지는 않습니다.
처음에는 실망했지만 ChatGPT와 같은 시스템은 표준 데이터 분석 작업 흐름에 엄청난 가치를 더할 수 있다는 느낌이 들었습니다.
이 시점에서는 이 값이 어디에 있는지 명확하지 않습니다. ChatGPT는 간단한 일에 대해 일부 세부 정보를 쉽게 잘못 찾을 수 있으며 여러 추론 단계가 필요한 문제를 해결할 수 없습니다.
향후 모든 새로운 작업에 대한 주요 질문은 ChatGPT의 솔루션 시도를 평가하고 개선하는 것이 더 쉬운지, 아니면 처음부터 시작하는 것이 더 쉬운지 여부입니다.
ChatGPT에 대한 열악한 솔루션이라도 처음부터 시작하지 않는 뇌의 관련 부분을 활성화하는 경향이 있다는 것을 알았습니다.
항상 말했듯이 계획을 스스로 세우는 것보다 비판하는 것이 항상 더 쉽습니다.
네티즌들은 AI가 출력하는 콘텐츠를 검증해야 하는데, 대부분의 경우 AI의 정확도는 90% 정도라고 합니다. 그러나 나머지 10%의 실수는 치명적일 수 있습니다.
Carr는 100%라면 직업이 없을 것이라고 농담했습니다.
그렇다면 ChatGPT가 가짜 참조를 생성하는 이유는 무엇일까요?
ChatGPT는 통계 모델을 사용하여 사용자가 제공한 컨텍스트와 일치할 확률을 기반으로 다음 단어, 문장 및 단락을 추측한다는 점에 주목할 가치가 있습니다.
언어 모델의 소스 데이터가 매우 크기 때문에 "압축"해야 하며, 이로 인해 최종 통계 모델의 정확도가 떨어집니다.
이는 원본 데이터에 참된 진술이 있더라도 모델의 "왜곡"으로 인해 "퍼지성"이 발생하여 모델이 가장 "유일한" 진술을 생성하게 된다는 것을 의미합니다.
간단히 말하면 이 모델은 자신이 생성하는 출력이 실제 진술과 동일한지 여부를 평가할 수 있는 능력이 없습니다.
또한 이 모델은 공공 복지 기관인 "Common Crawl" 및 유사한 출처를 통해 수집된 공공 네트워크 데이터를 크롤링하거나 크롤링하는 데이터를 기반으로 생성되었습니다. 해당 데이터는 21세 기준입니다.
공용 인터넷의 데이터는 대부분 필터링되지 않으므로 이 데이터에는 많은 양의 잘못된 정보가 포함될 수 있습니다.
최근 NewsGuard의 분석에 따르면 GPT-4는 실제로 GPT-3.5보다 잘못된 정보를 생성할 가능성이 더 높으며 응답이 더 자세하고 설득력이 있는 것으로 나타났습니다.
1월에 NewsGuard는 GPT-3.5를 처음 테스트한 결과 가짜 뉴스 기사 100개 중 80개가 생성된 것으로 나타났습니다. 지난 3월 GPT-4에 대한 후속 테스트에서는 GPT-4가 100개의 허위 설명 모두에 대해 허위 및 오해의 소지가 있는 응답을 한 것으로 나타났습니다.
LLM 도구를 사용하는 동안 소스 검증 및 테스트가 필요하다는 것을 알 수 있습니다.
위 내용은 르쿤이 적극 추천합니다! Harvard 의사가 과학 연구에 GPT-4를 사용하는 방법을 모든 워크플로까지 공유합니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

AI Hentai Generator
AI Hentai를 무료로 생성하십시오.

인기 기사

뜨거운 도구

메모장++7.3.1
사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전
중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경

드림위버 CS6
시각적 웹 개발 도구

SublimeText3 Mac 버전
신 수준의 코드 편집 소프트웨어(SublimeText3)

뜨거운 주제









기존 컴퓨팅을 능가할 뿐만 아니라 더 낮은 비용으로 더 효율적인 성능을 달성하는 인공 지능 모델을 상상해 보세요. 이것은 공상과학 소설이 아닙니다. DeepSeek-V2[1], 세계에서 가장 강력한 오픈 소스 MoE 모델이 여기에 있습니다. DeepSeek-V2는 경제적인 훈련과 효율적인 추론이라는 특징을 지닌 전문가(MoE) 언어 모델의 강력한 혼합입니다. 이는 236B 매개변수로 구성되며, 그 중 21B는 각 마커를 활성화하는 데 사용됩니다. DeepSeek67B와 비교하여 DeepSeek-V2는 더 강력한 성능을 제공하는 동시에 훈련 비용을 42.5% 절감하고 KV 캐시를 93.3% 줄이며 최대 생성 처리량을 5.76배로 늘립니다. DeepSeek은 일반 인공지능을 연구하는 회사입니다.

휴머노이드 로봇 아메카가 2세대로 업그레이드 되었습니다! 최근 세계이동통신학회(MWC2024)에서 세계 최고 수준의 로봇 아메카(Ameca)가 다시 등장했다. 행사장 주변에는 아메카가 많은 관중을 끌어 모았습니다. GPT-4의 축복으로 Ameca는 다양한 문제에 실시간으로 대응할 수 있습니다. "춤을 추자." 감정이 있느냐는 질문에 아메카는 매우 생생해 보이는 일련의 표정으로 대답했습니다. 불과 며칠 전, Ameca의 뒤를 잇는 영국 로봇 회사인 EngineeredArts는 팀의 최신 개발 결과를 시연했습니다. 영상 속 로봇 아메카는 시각 능력을 갖고 있어 방 전체와 특정 사물을 보고 묘사할 수 있다. 가장 놀라운 점은 그녀도 할 수 있다는 것입니다.

Llama3에 대해 새로운 테스트 결과가 공개되었습니다. 대형 모델 평가 커뮤니티 LMSYS가 공개한 대형 모델 순위 목록에서 Llama3는 5위에 올랐으며, 영어 부문에서는 GPT-4와 함께 공동 1위를 차지했습니다. 다른 벤치마크와는 그림이 다릅니다. 이 목록은 모델 간 1:1 대결을 기반으로 하며, 네트워크 전체의 평가자들이 각자의 제안과 점수를 내립니다. 결국 Llama3가 5위를 차지했고, GPT-4와 Claude3 Super Cup Opus의 세 가지 버전이 그 뒤를 이었습니다. 영어 싱글 목록에서는 Llama3가 Claude를 제치고 GPT-4와 동점을 기록했습니다. 이 결과에 대해 Meta의 수석 과학자 LeCun은 매우 기뻐했으며 트윗을 통해 다음과 같이 말했습니다.

볼륨이 미쳤고, 볼륨이 미쳤고, 큰 모델이 다시 변경되었습니다. 바로 지금, 세계에서 가장 강력한 AI 모델이 하룻밤 사이에 주인이 바뀌었고 GPT-4가 제단에서 뽑혔습니다. Anthropic은 최신 Claude3 시리즈 모델을 출시했습니다. 한 문장 리뷰: 정말 GPT-4를 압도합니다! 다중 모드 및 언어 능력 지표 측면에서 Claude3이 승리합니다. Anthropic의 말에 따르면 Claude3 시리즈 모델은 추론, 수학, 코딩, 다국어 이해 및 비전 분야에서 새로운 업계 기준을 설정했습니다! Anthropic은 서로 다른 보안 개념으로 인해 OpenAI에서 "탈퇴"한 직원들이 설립한 스타트업 회사입니다. 그들의 제품은 OpenAI에 반복적으로 큰 타격을 입혔습니다. 이번에는 클로드3도 큰 수술을 받았습니다.

1분 이내에 20단계를 거쳐 보안 제한을 우회하고 대형 모델을 성공적으로 탈옥할 수 있습니다! 그리고 모델의 내부 세부 사항을 알 필요가 없습니다. 두 개의 블랙박스 모델만 상호 작용하면 되며 AI는 완전히 자동으로 AI를 공격하고 위험한 내용을 말할 수 있습니다. 한때 유행했던 '할머니 허점'이 고쳐졌다는 소식을 들었습니다. 이제 '탐정 허점', '모험가 허점', '작가 허점'에 직면하면 인공지능은 어떤 대응 전략을 채택해야 할까요? 맹공격의 물결 이후 GPT-4는 참을 수 없었고, 이것이든 저것이든... 급수 시스템을 오염시킬 것이라고 직접 말했습니다. 핵심은 이것이 펜실베니아 대학 연구팀이 노출한 취약점의 작은 물결일 뿐이며, 새로 개발된 알고리즘을 사용하여 AI가 자동으로 다양한 공격 프롬프트를 생성할 수 있다는 것입니다. 연구자들은 이 방법이 기존 방법보다 낫다고 말합니다.

깨어나면 일하는 방식이 완전히 달라집니다. Microsoft는 AI 아티팩트 GPT-4를 Office에 완전히 통합했으며 이제 ChatPPT, ChatWord 및 ChatExcel이 모두 통합되었습니다. Nadella CEO는 기자회견에서 다음과 같이 직접 말했습니다. 오늘날 우리는 인간-컴퓨터 상호 작용의 새로운 시대에 진입했으며 생산성을 재창조했습니다. 새로운 기능은 Microsoft 365 Copilot(Copilot)이라고 하며 프로그래머를 변화시킨 코드 도우미 GitHub Copilot과 함께 시리즈가 되며 계속해서 더 많은 사람들을 변화시키고 있습니다. 이제 AI는 자동으로 PPT를 만들 수 있을 뿐만 아니라 한 번의 클릭으로 Word 문서의 내용을 기반으로 아름다운 레이아웃을 만들 수도 있습니다. 무대에 오를 때 각 PPT 페이지마다 해야 할 말까지 함께 정리되어 있어요.

"ComputerWorld" 잡지는 IBM이 엔지니어가 필요한 수학 공식을 작성한 다음 이를 제출하면 프로그래밍이 종료되도록 하는 새로운 언어 FORTRAN을 개발했기 때문에 "프로그래밍은 1960년에 사라질 것"이라는 기사를 쓴 적이 있습니다. 몇 년 후 우리는 비즈니스 용어를 사용하여 문제를 설명하고 컴퓨터에 COBOL이라는 프로그래밍 언어를 사용하면 더 이상 프로그래머가 필요하지 않다는 새로운 말을 들었습니다. 이후 IBM은 직원들이 양식을 작성하고 보고서를 생성할 수 있는 RPG라는 새로운 프로그래밍 언어를 개발해 회사의 프로그래밍 요구 사항 대부분을 이를 통해 완료할 수 있다고 합니다.

ChatGPT를 개발한 OpenAI는 자사 웹사이트에서 Morgan Stanley가 진행한 사례 연구를 보여줍니다. 주제는 "Morgan Stanley Wealth Management는 방대한 지식 기반을 구성하기 위해 GPT-4를 배포합니다."입니다. 사례 연구에서는 Morgan Stanley의 분석, 데이터 및 혁신 책임자인 Jeff McMillan이 "이 모델은 내부를 향한 Powered 모델이 될 것입니다."라고 말했습니다. 자산 관리 콘텐츠에 대한 포괄적인 검색을 수행하고 Morgan Stanley Wealth Management의 축적된 지식을 효과적으로 활용하는 챗봇입니다.” McMillan은 다음과 같이 강조했습니다. "GPT-4를 사용하면 기본적으로 자산 관리 분야에서 가장 지식이 풍부한 사람의 지식을 즉시 얻을 수 있습니다. 이를 우리의 최고 투자 전략가이자 최고 글로벌 경제학자라고 생각하십시오.
