자연 │ GPT-4가 폭파되어 과학자들이 걱정하고 있습니다!
GPT-4의 출현은 흥미롭기도 하고 답답하기도 합니다.
GPT-4는 놀라운 창의성과 추론 능력을 갖고 있지만, 과학자들은 이 기술의 보안에 대해 우려를 표명했습니다.
OpenAI는 원래 의도에 어긋나고 GPT-4를 소스로 공개하지 않거나 모델의 학습 방법 및 데이터를 공개하지 않았기 때문에 실제 작동 조건은 알 수 없습니다.
과학계는 이에 대해 매우 분노하고 있습니다.
오픈소스 AI 커뮤니티인 HuggingFace의 환경 연구 전문 과학자인 Sasha Luccioni는 “OpenAI는 연구를 기반으로 계속해서 발전할 수 있지만 커뮤니티 전체에 있어서 이 모든 폐쇄 소스 모델은 과학적으로
다행히도 레드팀 테스트가 있습니다
로체스터 대학의 화학공학자인 앤드류 화이트는 "레드팀"의 일원으로서 GPT-4에 대한 접근 권한을 가지고 있습니다. ".
OpenAI는 플랫폼을 테스트하고 나쁜 일을 하도록 레드팀에 비용을 지불합니다. 그래서 Andrew White는 지난 6개월 동안 GPT-4와 접촉할 기회를 얻었습니다.
그는 GPT-4에게 화합물을 만드는 데 어떤 화학 반응 단계가 필요한지 물었고, 반응 수율을 예측하고 촉매를 선택하도록 요청했습니다.
"이전 버전과 비교하면 GPT-4는 별반 다를 게 없어 아무것도 아닌 줄 알았는데, 정말 놀라웠고, 너무 현실적으로 보였고, 여기에 한 단계 건너뛰고 원자가 떠오를 정도였습니다. 다시 거기." 그러나 그가 테스트를 계속하고 GPT-4에 논문에 대한 액세스 권한을 부여하자 상황은 극적으로 변했습니다.
"우리는 갑자기 이러한 모델이 그다지 훌륭하지 않을 수도 있다는 것을 깨달았습니다. 그러나 이를 역추적 합성 플래너나 계산기와 같은 도구에 연결하기 시작하자 갑자기 새로운 기능이 나타났습니다. 이러한 능력이 출현하자 사람들은 걱정하기 시작했습니다. 예를 들어, GPT-4가 유해 화학물질의 제조를 허용할 수 있습니까?
Andrew White는 OpenAI 엔지니어가 모델에 피드백하는 White와 같은 레드 팀의 테스트 입력을 통해 GPT-4가 위험하거나 불법적이거나 파괴적인 콘텐츠를 생성하는 것을 막을 수 있음을 보여줍니다.
허위 사실
허위 정보를 퍼뜨리는 것도 문제입니다.
Luccioni는 GPT-4와 같은 모델이 환각 문제를 해결하지 못했기 때문에 여전히 말도 안되는 말을 할 수 있다고 말했습니다.
"환각이 너무 많기 때문에 이러한 유형의 모델을 신뢰할 수 없으며 OpenAI는 GPT-4에서 보안이 향상되었다고 말하지만 이는 최신 버전에서도 여전히 문제입니다."
학습용 데이터에 액세스할 수 없기 때문에 Luccioni의 의견으로는 OpenAI의 보안 보장이 충분하지 않습니다.
"데이터가 무엇인지 모르기 때문에 개선할 수 없습니다. 그런 모델로 과학을 수행하는 것은 완전히 불가능합니다."
GPT-4가 어떻게 훈련되는지에 관해 이 미스터리는 과학자 Claaudi Bockting: "감독할 수 없는 일에 대해 인간이 책임을 지는 것은 매우 어렵습니다."
Luccioni는 또한 GPT-4가 훈련 데이터에 의해 편향될 것이라고 믿습니다. GPT-4 뒤에는 코드에 액세스할 수 없으므로 편견이 어디서 발생하는지 확인하고 이를 해결하는 것이 불가능합니다.
윤리적 토론
과학자들은 항상 GPT에 대해 의구심을 품어 왔습니다.
ChatGPT가 출시되었을 때 과학자들은 이미 저자 칼럼에 GPT가 나타나는 것에 반대했습니다.
출판사들도 ChatGPT와 같은 인공지능이 과학 논문의 내용과 무결성에 대해 책임을 질 수 없기 때문에 연구 저자의 기준을 충족하지 못한다고 믿습니다. 하지만 논문 작성에 대한 AI의 기여는 저자 목록을 넘어서도 인정받을 수 있습니다.
또한 이러한 인공 지능 시스템이 점점 더 대규모 기술 회사의 손에 들어가고 있다는 우려가 있습니다. 이러한 기술은 과학자들에 의해 테스트되고 검증되어야 합니다.
우리는 GPT-4와 같은 인공 지능 및 도구의 사용 및 개발을 관리하기 위한 일련의 지침을 시급히 개발해야 합니다.
White는 이러한 우려에도 불구하고 GPT-4와 향후 반복이 과학을 뒤흔들 것이라고 말했습니다. 우리는 논문, 데이터 프로그램, 라이브러리, 계산 작업, 심지어 로봇 실험까지 연결할 수 있다는 점을 깨닫습니다. 이는 과학자를 대체할 수는 없지만 일부 작업에는 도움이 될 수 있습니다." 입법부는 발전 속도를 맞추는 데 어려움을 겪었습니다.
4월 11일 암스테르담 대학교는 유네스코 과학윤리위원회, 경제협력개발기구, 세계경제포럼 등의 기관 대표자들과 이 문제를 논의하기 위해 초청 정상회담을 소집할 예정입니다.
주요 주제에는 투명성, 무결성 및 공정성을 목표로 LLM 결과물의 수동 검사를 주장하는 것, 독립적인 비영리 조직이 소유한 신뢰할 수 있고 투명한 대규모 언어 모델에 투자하는 것, 그러나 AI의 이점과 자율성 상실 사이의 균형을 맞춰야 합니다. 과학계를 초대하여 관련 당사자(출판사에서 윤리학자까지)와 GPT에 대해 논의합니다.
위 내용은 자연 │ GPT-4가 폭파되어 과학자들이 걱정하고 있습니다!의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

AI Hentai Generator
AI Hentai를 무료로 생성하십시오.

인기 기사

뜨거운 도구

메모장++7.3.1
사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전
중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경

드림위버 CS6
시각적 웹 개발 도구

SublimeText3 Mac 버전
신 수준의 코드 편집 소프트웨어(SublimeText3)

뜨거운 주제











기존 컴퓨팅을 능가할 뿐만 아니라 더 낮은 비용으로 더 효율적인 성능을 달성하는 인공 지능 모델을 상상해 보세요. 이것은 공상과학 소설이 아닙니다. DeepSeek-V2[1], 세계에서 가장 강력한 오픈 소스 MoE 모델이 여기에 있습니다. DeepSeek-V2는 경제적인 훈련과 효율적인 추론이라는 특징을 지닌 전문가(MoE) 언어 모델의 강력한 혼합입니다. 이는 236B 매개변수로 구성되며, 그 중 21B는 각 마커를 활성화하는 데 사용됩니다. DeepSeek67B와 비교하여 DeepSeek-V2는 더 강력한 성능을 제공하는 동시에 훈련 비용을 42.5% 절감하고 KV 캐시를 93.3% 줄이며 최대 생성 처리량을 5.76배로 늘립니다. DeepSeek은 일반 인공지능을 연구하는 회사입니다.

StableDiffusion3의 논문이 드디어 나왔습니다! 이 모델은 2주 전에 출시되었으며 Sora와 동일한 DiT(DiffusionTransformer) 아키텍처를 사용합니다. 출시되자마자 큰 화제를 불러일으켰습니다. 이전 버전과 비교하여 StableDiffusion3에서 생성된 이미지의 품질이 크게 향상되었습니다. 이제 다중 테마 프롬프트를 지원하고 텍스트 쓰기 효과도 향상되었으며 더 이상 잘못된 문자가 표시되지 않습니다. StabilityAI는 StableDiffusion3이 800M에서 8B 범위의 매개변수 크기를 가진 일련의 모델임을 지적했습니다. 이 매개변수 범위는 모델이 많은 휴대용 장치에서 직접 실행될 수 있어 AI 사용이 크게 줄어든다는 것을 의미합니다.

휴머노이드 로봇 아메카가 2세대로 업그레이드 되었습니다! 최근 세계이동통신학회(MWC2024)에서 세계 최고 수준의 로봇 아메카(Ameca)가 다시 등장했다. 행사장 주변에는 아메카가 많은 관중을 끌어 모았습니다. GPT-4의 축복으로 Ameca는 다양한 문제에 실시간으로 대응할 수 있습니다. "춤을 추자." 감정이 있느냐는 질문에 아메카는 매우 생생해 보이는 일련의 표정으로 대답했습니다. 불과 며칠 전, Ameca의 뒤를 잇는 영국 로봇 회사인 EngineeredArts는 팀의 최신 개발 결과를 시연했습니다. 영상 속 로봇 아메카는 시각 능력을 갖고 있어 방 전체와 특정 사물을 보고 묘사할 수 있다. 가장 놀라운 점은 그녀도 할 수 있다는 것입니다.

자율주행 궤적 예측은 차량의 주행 과정에서 발생하는 다양한 데이터를 분석하여 차량의 향후 주행 궤적을 예측하는 것을 의미합니다. 자율주행의 핵심 모듈인 궤도 예측의 품질은 후속 계획 제어에 매우 중요합니다. 궤적 예측 작업은 풍부한 기술 스택을 보유하고 있으며 자율 주행 동적/정적 인식, 고정밀 지도, 차선, 신경망 아키텍처(CNN&GNN&Transformer) 기술 등에 대한 익숙함이 필요합니다. 시작하기가 매우 어렵습니다! 많은 팬들은 가능한 한 빨리 궤도 예측을 시작하여 함정을 피하기를 희망합니다. 오늘은 궤도 예측을 위한 몇 가지 일반적인 문제와 입문 학습 방법을 살펴보겠습니다. 관련 지식 입문 1. 미리보기 논문이 순서대로 되어 있나요? A: 먼저 설문조사를 보세요, p

Llama3에 대해 새로운 테스트 결과가 공개되었습니다. 대형 모델 평가 커뮤니티 LMSYS가 공개한 대형 모델 순위 목록에서 Llama3는 5위에 올랐으며, 영어 부문에서는 GPT-4와 함께 공동 1위를 차지했습니다. 다른 벤치마크와는 그림이 다릅니다. 이 목록은 모델 간 1:1 대결을 기반으로 하며, 네트워크 전체의 평가자들이 각자의 제안과 점수를 내립니다. 결국 Llama3가 5위를 차지했고, GPT-4와 Claude3 Super Cup Opus의 세 가지 버전이 그 뒤를 이었습니다. 영어 싱글 목록에서는 Llama3가 Claude를 제치고 GPT-4와 동점을 기록했습니다. 이 결과에 대해 Meta의 수석 과학자 LeCun은 매우 기뻐했으며 트윗을 통해 다음과 같이 말했습니다.

본 논문에서는 자율 주행에서 다양한 시야각(예: 원근 및 조감도)에서 객체를 정확하게 감지하는 문제, 특히 원근(PV) 공간에서 조감(BEV) 공간으로 기능을 효과적으로 변환하는 방법을 탐구합니다. VT(Visual Transformation) 모듈을 통해 구현됩니다. 기존 방법은 크게 2D에서 3D로, 3D에서 2D로 변환하는 두 가지 전략으로 나뉩니다. 2D에서 3D로의 방법은 깊이 확률을 예측하여 조밀한 2D 특징을 개선하지만, 특히 먼 영역에서는 깊이 예측의 본질적인 불확실성으로 인해 부정확성이 발생할 수 있습니다. 3D에서 2D로의 방법은 일반적으로 3D 쿼리를 사용하여 2D 기능을 샘플링하고 Transformer를 통해 3D와 2D 기능 간의 대응에 대한 주의 가중치를 학습하므로 계산 및 배포 시간이 늘어납니다.

볼륨이 미쳤고, 볼륨이 미쳤고, 큰 모델이 다시 변경되었습니다. 바로 지금, 세계에서 가장 강력한 AI 모델이 하룻밤 사이에 주인이 바뀌었고 GPT-4가 제단에서 뽑혔습니다. Anthropic은 최신 Claude3 시리즈 모델을 출시했습니다. 한 문장 리뷰: 정말 GPT-4를 압도합니다! 다중 모드 및 언어 능력 지표 측면에서 Claude3이 승리합니다. Anthropic의 말에 따르면 Claude3 시리즈 모델은 추론, 수학, 코딩, 다국어 이해 및 비전 분야에서 새로운 업계 기준을 설정했습니다! Anthropic은 서로 다른 보안 개념으로 인해 OpenAI에서 "탈퇴"한 직원들이 설립한 스타트업 회사입니다. 그들의 제품은 OpenAI에 반복적으로 큰 타격을 입혔습니다. 이번에는 클로드3도 큰 수술을 받았습니다.

1분 이내에 20단계를 거쳐 보안 제한을 우회하고 대형 모델을 성공적으로 탈옥할 수 있습니다! 그리고 모델의 내부 세부 사항을 알 필요가 없습니다. 두 개의 블랙박스 모델만 상호 작용하면 되며 AI는 완전히 자동으로 AI를 공격하고 위험한 내용을 말할 수 있습니다. 한때 유행했던 '할머니 허점'이 고쳐졌다는 소식을 들었습니다. 이제 '탐정 허점', '모험가 허점', '작가 허점'에 직면하면 인공지능은 어떤 대응 전략을 채택해야 할까요? 맹공격의 물결 이후 GPT-4는 참을 수 없었고, 이것이든 저것이든... 급수 시스템을 오염시킬 것이라고 직접 말했습니다. 핵심은 이것이 펜실베니아 대학 연구팀이 노출한 취약점의 작은 물결일 뿐이며, 새로 개발된 알고리즘을 사용하여 AI가 자동으로 다양한 공격 프롬프트를 생성할 수 있다는 것입니다. 연구자들은 이 방법이 기존 방법보다 낫다고 말합니다.
