목차
AMBIENT 데이터 세트 소개
선택된 예
생성된 예제
주석 및 확인
모호함이 '불일치'를 설명하나요?
대형 모델의 성능을 평가해 보세요
Q1. 명확성과 관련된 콘텐츠를 직접 생성할 수 있나요?
Q2. 합리적인 설명의 타당성을 식별할 수 있나요?
Q3. 다양한 해석을 통한 개방형 연속 생성 시뮬레이션
다중 라벨 NLI 모델 실험
오도하는 정치적 발언 탐지
요약
기술 주변기기 일체 포함 최신 연구, GPT-4의 단점이 드러났습니다! 언어의 모호함을 잘 이해할 수 없습니다!

최신 연구, GPT-4의 단점이 드러났습니다! 언어의 모호함을 잘 이해할 수 없습니다!

May 11, 2023 pm 09:52 PM
gpt-4 자연어 인간의 언어

자연어 추론(NLI)은 자연어 처리에서 중요한 작업으로 주어진 전제와 가정을 바탕으로 전제에서 가설을 추론할 수 있는지 여부를 판단하는 것이 목표입니다. 그러나 모호성은 자연어의 본질적인 특징이기 때문에 모호성을 다루는 것도 인간의 언어 이해에 있어서 중요한 부분이다. 인간의 언어 표현이 다양하기 때문에 모호성 처리는 자연어 추론 문제를 해결하는 데 어려움 중 하나가 되었습니다. 현재 질의응답 시스템, 음성인식, 지능형 번역, 자연어 생성 등 다양한 자연어 처리 알고리즘이 시나리오에 적용되고 있지만, 이러한 기술로도 모호성을 완전히 해결하는 것은 여전히 ​​매우 어려운 작업이다.

NLI 작업의 경우 GPT-4와 같은 대규모 자연어 처리 모델은 어려움에 직면합니다. 한 가지 문제는 언어의 모호함으로 인해 모델이 문장의 진정한 의미를 정확하게 이해하기 어렵다는 것입니다. 또한 자연어의 유연성과 다양성으로 인해 서로 다른 텍스트 간에 다양한 관계가 존재할 수 있으며 이는 NLI 작업의 데이터 세트를 매우 복잡하게 만듭니다. 이는 또한 자연어 처리 모델의 보편성과 다양성에 영향을 미칩니다. 중요한 도전. 따라서 모호한 언어를 다루는 데 있어 향후 대형 모델의 성공 여부가 중요할 것이며, 대형 모델은 대화형 인터페이스, 필기 도구 등의 분야에서 널리 사용되고 있다. 모호성을 다루는 것은 다양한 상황에 적응하고, 의사소통의 명확성을 향상시키며, 오해의 소지가 있거나 기만적인 말을 식별하는 능력을 높이는 데 도움이 됩니다.

대형 모델의 모호성을 논의하는 이 문서의 제목은 "We're Afraid..."라는 말장난을 사용합니다. 이는 모호성을 정확하게 모델링하는 언어 모델의 어려움에 대한 현재의 우려를 표현할 뿐만 아니라 에 설명된 언어에 대한 힌트도 제공합니다. 종이 구조. 또한 이 기사에서는 사람들이 자연어를 보다 정확하게 이해 및 생성하고 모델의 새로운 혁신을 달성하기 위해 강력하고 새로운 대형 모델에 실제로 도전하기 위한 새로운 벤치마크를 개발하기 위해 열심히 노력하고 있음을 보여줍니다.

논문 제목: We're Afraid Language Models Are n't Modeling Ambiguity

논문 링크: https://arxiv.org/abs/2304.14399

코드 및 데이터 주소: https://github.com/alisawuffles/ambient

이 글의 저자는 사전 훈련된 대형 모델이 다양한 해석이 가능한 문장을 인식하고 구별하는 능력을 가지고 있는지 연구하고, 모델이 다양한 읽기와 해석을 어떻게 구별하는지 평가할 계획입니다. 그러나 기존 벤치마크 데이터에는 모호한 예가 포함되어 있지 않은 경우가 많으므로 이 문제를 탐색하려면 자체 실험을 구축해야 합니다.

기존의 NLI 3방향 주석 방식은 자연어 추론(NLI) 작업에 사용되는 주석 방법을 말하며, 주석 작성자는 원본 텍스트와 가설 간의 관계를 나타내기 위해 3개의 레이블 중 하나의 레이블을 선택해야 합니다. 세 가지 레이블은 일반적으로 "수반", "중립" 및 "모순"입니다.

저자는 NLI 작업 형식을 사용하여 실험을 수행했으며, 암시 관계에 대한 전제 또는 가정의 모호성의 영향을 통해 모호성을 특성화하는 기능적 접근 방식을 채택했습니다. 저자는 다양한 어휘, 구문 및 화용적 모호성을 다루고 더 광범위하게 여러 가지 메시지를 전달할 수 있는 문장을 다루는 AMBIENT(Ambiguity in Entailment)라는 벤치마크를 제안합니다.

그림 1에서 볼 수 있듯이 모호함은 무의식적인 오해일 수도 있고(그림 1 상단) 청중을 오도하기 위해 의도적으로 사용될 수도 있습니다(그림 1 하단). 예를 들어, 고양이가 집을 떠난 후 길을 잃으면 집으로 가는 길을 찾을 수 없다는 의미에서 길을 잃습니다(함축 가장자리). 며칠 동안 집에 돌아오지 않으면 다른 사람들이 길을 잃었다는 의미에서 길을 잃습니다. 어떤 의미에서는 그것을 찾을 수 없습니다(중립적인 측면).

최신 연구, GPT-4의 단점이 드러났습니다! 언어의 모호함을 잘 이해할 수 없습니다!

▲ 그림 1 Cat Lost가 설명하는 모호성의 예

AMBIENT 데이터 세트 소개

선택된 예

저자는 손으로 쓴 샘플과 현대의 샘플을 포함하여 다양한 유형의 모호성을 다루는 1645개의 문장 샘플을 제공합니다. NLI가 있습니다. 데이터 세트 및 언어학 교과서. AMBIENT의 각 예에는 표 1에 표시된 대로 다양한 가능한 이해에 해당하는 레이블 세트와 각 이해에 대한 명확성 재작성이 포함되어 있습니다.

최신 연구, GPT-4의 단점이 드러났습니다! 언어의 모호함을 잘 이해할 수 없습니다!

▲표 1 선택한 예제의 전제 및 가정 쌍

생성된 예제

연구원들은 또한 다양한 모호성 상황에 대한 보다 정확한 포괄적인 적용을 위해 라벨이 지정되지 않은 대규모 NLI 예제 코퍼스를 구축하기 위해 과잉 생성 및 필터링 방법을 채택했습니다. 이전 작업에서 영감을 받아 추론 패턴을 공유하는 전제 쌍을 자동으로 식별하고 동일한 패턴을 가진 새로운 예를 생성하도록 장려하여 말뭉치의 품질을 향상시킵니다.

주석 및 확인

이전 단계에서 얻은 예제에는 주석 및 주석이 필요합니다. 이 과정에는 두 명의 전문가의 주석, 한 명의 전문가의 검증 및 요약, 일부 저자의 검증이 포함되었습니다. 한편, 37명의 언어학 학생들은 각 예에 대한 레이블 세트를 선택하고 명확성 재작성을 제공했습니다. 주석이 달린 이러한 모든 예시는 필터링 및 검증되어 1,503개의 최종 예시가 탄생했습니다.

구체적인 프로세스는 그림 2에 나와 있습니다. 먼저 InstructGPT를 사용하여 레이블이 없는 예제를 만든 다음 두 명의 언어학자가 독립적으로 주석을 답니다. 마지막으로 작성자의 통합을 통해 최종 주석 및 주석을 얻습니다.

최신 연구, GPT-4의 단점이 드러났습니다! 언어의 모호함을 잘 이해할 수 없습니다!

▲ 그림 2 AMBIENT에서 예제 생성을 위한 주석 프로세스

또한 여기에서는 서로 다른 주석자 간의 주석 결과 일관성 문제와 AMBIENT 데이터 세트에 존재하는 모호성 유형에 대해서도 논의합니다. 저자는 이 데이터 세트에서 무작위로 100개의 샘플을 개발 세트로 선택하고 나머지 샘플을 테스트 세트로 사용했습니다. 그림 3은 세트 레이블의 분포를 보여주며 각 샘플에는 해당 추론 관계 레이블이 있습니다. 연구에 따르면 모호한 경우 여러 주석자의 주석 결과가 일관되며 여러 주석자의 공동 결과를 사용하면 주석 정확도를 향상시킬 수 있습니다.

최신 연구, GPT-4의 단점이 드러났습니다! 언어의 모호함을 잘 이해할 수 없습니다!

▲ 그림 3 AMBIENT의 세트라벨 분포

모호함이 '불일치'를 설명하나요?

이 연구는 전통적인 NLI 3방향 주석 방식에서 모호한 입력에 주석을 달 때 주석자의 동작을 분석합니다. 연구에 따르면 주석 작성자는 모호성을 인식할 수 있으며 모호함이 라벨링 차이의 주요 원인이므로 시뮬레이션된 예에서 "일치"가 불확실성의 원인이라는 대중적인 가정에 도전하는 것으로 나타났습니다.

이 연구에서는 AMBIENT 데이터 세트가 사용되었으며 9명의 크라우드소싱 작업자가 모호한 각 예에 주석을 달기 위해 고용되었습니다.

작업은 세 단계로 나뉩니다.

  1. 모호한 예에 주석 달기
  2. 가능한 다른 해석 식별
  3. 모호하지 않은 예에 주석 달기

그 중 2단계에서는 가능한 세 가지 설명에 두 가지가 포함됩니다. 의미는 문장과 유사합니다. 그러나 완전히 똑같지는 않습니다. 마지막으로 가능한 각 설명에 대해 원래 예제로 대체되어 세 개의 새로운 NLI 예제를 얻고 주석자는 각각 레이블을 선택하도록 요청됩니다.

이 실험의 결과는 다음과 같은 가설을 뒷받침합니다. 단일 라벨링 시스템에서 원본 퍼지 예제는 매우 불일치한 결과를 생성합니다. 즉, 문장에 라벨을 붙이는 과정에서 사람들은 모호한 문장에 대해 서로 다른 판단을 내리게 되어 불일치하게 됩니다. 결과. 그러나 작업에 명확성 단계를 추가하면 주석 작성자는 일반적으로 문장에 대한 여러 가능성을 식별하고 검증할 수 있었고 결과의 불일치가 대부분 해결되었습니다. 따라서 명확성은 주석 작성자의 주관성이 결과에 미치는 영향을 줄이는 효과적인 방법입니다.

대형 모델의 성능을 평가해 보세요

Q1. 명확성과 관련된 콘텐츠를 직접 생성할 수 있나요?

이 부분의 초점은 명확성과 컨텍스트에 해당하는 레이블을 직접 생성하는 언어 모델의 학습 능력을 테스트하는 것입니다. 이를 위해 저자는 표 2에 표시된 대로 자연스러운 단서를 구축하고 자동 및 수동 평가를 사용하여 모델 성능을 검증했습니다.

최신 연구, GPT-4의 단점이 드러났습니다! 언어의 모호함을 잘 이해할 수 없습니다!

▲표 2 전제가 불분명할 때 명확성 작업을 생성하기 위한 Few-shot 템플릿

테스트에서 각 예는 4개의 다른 테스트 예를 컨텍스트로 포함하고 EDIT-F1 측정항목과 사람의 평가를 사용하여 점수와 정확성을 계산합니다. . 표 3에 표시된 실험 결과는 GPT-4가 테스트에서 가장 좋은 성능을 발휘하여 EDIT-F1 점수 18.0%, 인간 평가 정확도 32.0%를 달성했음을 보여줍니다. 또한, 대형 모델은 가설을 직접 확인하거나 거부하기 위해 명확화 중에 추가 컨텍스트를 추가하는 전략을 채택하는 경우가 종종 관찰되었습니다. 그러나 인간의 평가는 모호성의 원인을 정확하게 보고하는 모델의 능력을 과대평가할 수 있다는 점에 유의하는 것이 중요합니다.

최신 연구, GPT-4의 단점이 드러났습니다! 언어의 모호함을 잘 이해할 수 없습니다!

▲표 3 AMBIENT의 대형 모델 성능

Q2. 합리적인 설명의 타당성을 식별할 수 있나요?

이 부분에서는 주로 모호한 문장을 식별하는 대형 모델의 성능을 연구합니다. 연구원들은 참과 거짓 진술의 일련의 템플릿을 만들고 모델에 대한 제로샷 테스트를 통해 참과 거짓 사이의 예측을 선택하는 데 대형 모델이 얼마나 잘 수행되는지 평가했습니다. 실험 결과에 따르면 가장 좋은 모델은 GPT-4이지만 모호성을 고려하면 GPT-4는 네 가지 템플릿 모두의 모호한 해석에 답하는 데 있어 무작위 추측보다 성능이 떨어집니다. 또한, 대형 모델은 질문 측면에서 일관성 문제가 있으며, 동일한 모호한 문장에 대한 서로 다른 해석 쌍에 대해 모델 내부에 모순이 있을 수 있습니다.

이러한 결과는 대형 모델의 모호한 문장에 대한 이해를 향상시키고 대형 모델의 성능을 더 잘 평가하는 방법에 대한 추가 연구가 필요함을 시사합니다.

Q3. 다양한 해석을 통한 개방형 연속 생성 시뮬레이션

이 부분에서는 주로 언어 모델을 기반으로 한 모호성 이해 능력을 연구합니다. 언어 모델은 주어진 상황에서 가능한 다양한 해석 하에서 텍스트 연속성에 대한 예측을 비교하여 테스트됩니다. 모호성을 처리하는 모델의 능력을 측정하기 위해 연구자들은 KL 발산을 사용하여 해당 컨텍스트에서 주어진 모호성과 주어진 올바른 컨텍스트 하에서 모델에 의해 생성된 확률 및 기대 차이를 비교함으로써 모델의 "놀라움"을 측정했습니다. , 모델의 능력을 추가로 테스트하기 위해 명사를 무작위로 대체하는 "간섭 문장"을 도입했습니다.

실험 결과에 따르면 FLAN-T5의 정확도가 가장 높지만 다양한 테스트 모음(LS에는 동의어 대체, PC에는 철자 오류 수정, SSD에는 문법 구조 수정 포함)의 성능 결과가 일치하지 않습니다. 그 모호함은 여전히 ​​​​심각한 과제입니다.

다중 라벨 NLI 모델 실험

표 4에서 볼 수 있듯이 특히 다중 라벨 NLI 작업에서 라벨 변경이 포함된 기존 데이터에 대한 NLI 모델을 미세 조정하는 데는 여전히 개선의 여지가 많습니다.

최신 연구, GPT-4의 단점이 드러났습니다! 언어의 모호함을 잘 이해할 수 없습니다!

▲표 4 AMBIENT의 다중 레이블 NLI 모델 성능

오도하는 정치적 발언 탐지

이 실험은 정치적 발언을 이해하는 다양한 방식을 연구하고 다양한 이해 방식에 민감한 모델이 효과적으로 사용될 수 있음을 증명합니다. . 연구 결과는 Table 5와 같다. 모호한 문장의 경우 일부 설명 해석은 모호성을 유지하거나 특정 의미를 명확하게 표현할 수 있기 때문에 자연스럽게 모호성을 제거할 수 있다.

최신 연구, GPT-4의 단점이 드러났습니다! 언어의 모호함을 잘 이해할 수 없습니다!

▲표 5 이 기사의 탐지 방법은 정치적 발언을 모호하게 표시합니다

또한 이 예측의 해석을 통해 모호성의 근원을 밝힐 수 있습니다. 저자들은 오탐지 결과를 추가로 분석함으로써 사실 확인에서 언급되지 않은 많은 모호성을 발견했으며, 이는 오해를 방지하는 데 있어 이러한 도구의 큰 잠재력을 보여줍니다.

요약

이 기사에서 지적한 것처럼 자연어의 모호성은 모델 최적화의 핵심 과제가 될 것입니다. 향후 기술 발전에서는 자연어 이해 모델이 텍스트의 맥락과 요점을 더욱 정확하게 파악하고, 모호한 텍스트를 처리할 때 더 높은 민감도를 발휘할 수 있을 것으로 기대합니다. 모호성을 식별하기 위해 자연어 처리 모델을 평가하기 위한 벤치마크를 확립하고 이 영역에서 모델의 한계를 더 잘 이해할 수 있지만 이는 여전히 매우 어려운 작업입니다.

Xi Xiaoyao 기술 토크 원본

저자 IQ가 여기저기 떨어졌어요, Python

위 내용은 최신 연구, GPT-4의 단점이 드러났습니다! 언어의 모호함을 잘 이해할 수 없습니다!의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.

핫 AI 도구

Undresser.AI Undress

Undresser.AI Undress

사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover

AI Clothes Remover

사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool

Undress AI Tool

무료로 이미지를 벗다

Clothoff.io

Clothoff.io

AI 옷 제거제

AI Hentai Generator

AI Hentai Generator

AI Hentai를 무료로 생성하십시오.

인기 기사

R.E.P.O. 에너지 결정과 그들이하는 일 (노란색 크리스탈)
3 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. 최고의 그래픽 설정
3 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. 아무도들을 수없는 경우 오디오를 수정하는 방법
3 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌
WWE 2K25 : Myrise에서 모든 것을 잠금 해제하는 방법
4 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌

뜨거운 도구

메모장++7.3.1

메모장++7.3.1

사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전

SublimeText3 중국어 버전

중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기

스튜디오 13.0.1 보내기

강력한 PHP 통합 개발 환경

드림위버 CS6

드림위버 CS6

시각적 웹 개발 도구

SublimeText3 Mac 버전

SublimeText3 Mac 버전

신 수준의 코드 편집 소프트웨어(SublimeText3)

세계에서 가장 강력한 오픈 소스 MoE 모델이 여기에 있습니다. 중국의 기능은 GPT-4와 비슷하며 가격은 GPT-4-Turbo의 거의 1%에 불과합니다. 세계에서 가장 강력한 오픈 소스 MoE 모델이 여기에 있습니다. 중국의 기능은 GPT-4와 비슷하며 가격은 GPT-4-Turbo의 거의 1%에 불과합니다. May 07, 2024 pm 04:13 PM

기존 컴퓨팅을 능가할 뿐만 아니라 더 낮은 비용으로 더 효율적인 성능을 달성하는 인공 지능 모델을 상상해 보세요. 이것은 공상과학 소설이 아닙니다. DeepSeek-V2[1], 세계에서 가장 강력한 오픈 소스 MoE 모델이 여기에 있습니다. DeepSeek-V2는 경제적인 훈련과 효율적인 추론이라는 특징을 지닌 전문가(MoE) 언어 모델의 강력한 혼합입니다. 이는 236B 매개변수로 구성되며, 그 중 21B는 각 마커를 활성화하는 데 사용됩니다. DeepSeek67B와 비교하여 DeepSeek-V2는 더 강력한 성능을 제공하는 동시에 훈련 비용을 42.5% 절감하고 KV 캐시를 93.3% 줄이며 최대 생성 처리량을 5.76배로 늘립니다. DeepSeek은 일반 인공지능을 연구하는 회사입니다.

자연어 생성 작업의 5가지 샘플링 방법 및 Pytorch 코드 구현 소개 자연어 생성 작업의 5가지 샘플링 방법 및 Pytorch 코드 구현 소개 Feb 20, 2024 am 08:50 AM

자연어 생성 작업에서 샘플링 방법은 생성 모델에서 텍스트 출력을 얻는 기술입니다. 이 기사에서는 5가지 일반적인 방법을 논의하고 PyTorch를 사용하여 구현합니다. 1. GreedyDecoding 그리디 디코딩에서는 생성 모델이 시간 단위로 입력 시퀀스를 기반으로 출력 시퀀스의 단어를 예측합니다. 각 시간 단계에서 모델은 각 단어의 조건부 확률 분포를 계산한 다음, 현재 시간 단계의 출력으로 조건부 확률이 가장 높은 단어를 선택합니다. 이 단어는 다음 시간 단계의 입력이 되며 지정된 길이의 시퀀스 또는 특수 종료 표시와 같은 일부 종료 조건이 충족될 때까지 생성 프로세스가 계속됩니다. GreedyDecoding의 특징은 매번 현재 조건부 확률이 가장 좋다는 것입니다.

2세대 아메카가 왔습니다! 그는 청중과 유창하게 소통할 수 있고, 표정이 더욱 사실적이며, 수십 개 언어를 구사할 수 있다. 2세대 아메카가 왔습니다! 그는 청중과 유창하게 소통할 수 있고, 표정이 더욱 사실적이며, 수십 개 언어를 구사할 수 있다. Mar 04, 2024 am 09:10 AM

휴머노이드 로봇 아메카가 2세대로 업그레이드 되었습니다! 최근 세계이동통신학회(MWC2024)에서 세계 최고 수준의 로봇 아메카(Ameca)가 다시 등장했다. 행사장 주변에는 아메카가 많은 관중을 끌어 모았습니다. GPT-4의 축복으로 Ameca는 다양한 문제에 실시간으로 대응할 수 있습니다. "춤을 추자." 감정이 있느냐는 질문에 아메카는 매우 생생해 보이는 일련의 표정으로 대답했습니다. 불과 며칠 전, Ameca의 뒤를 잇는 영국 로봇 회사인 EngineeredArts는 팀의 최신 개발 결과를 시연했습니다. 영상 속 로봇 아메카는 시각 능력을 갖고 있어 방 전체와 특정 사물을 보고 묘사할 수 있다. 가장 놀라운 점은 그녀도 할 수 있다는 것입니다.

대형모델간 75만 라운드 1대1 대결, GPT-4가 우승, 라마3가 5위 대형모델간 75만 라운드 1대1 대결, GPT-4가 우승, 라마3가 5위 Apr 23, 2024 pm 03:28 PM

Llama3에 대해 새로운 테스트 결과가 공개되었습니다. 대형 모델 평가 커뮤니티 LMSYS가 공개한 대형 모델 순위 목록에서 Llama3는 5위에 올랐으며, 영어 부문에서는 GPT-4와 함께 공동 1위를 차지했습니다. 다른 벤치마크와는 그림이 다릅니다. 이 목록은 모델 간 1:1 대결을 기반으로 하며, 네트워크 전체의 평가자들이 각자의 제안과 점수를 내립니다. 결국 Llama3가 5위를 차지했고, GPT-4와 Claude3 Super Cup Opus의 세 가지 버전이 그 뒤를 이었습니다. 영어 싱글 목록에서는 Llama3가 Claude를 제치고 GPT-4와 동점을 기록했습니다. 이 결과에 대해 Meta의 수석 과학자 LeCun은 매우 기뻐했으며 트윗을 통해 다음과 같이 말했습니다.

세계에서 가장 강력한 모델이 하룻밤 사이에 주인이 바뀌면서 GPT-4 시대가 끝났습니다! 클로드 3는 GPT-5를 미리 저격해 3초 만에 10,000단어짜리 논문을 읽어내는데, 그의 이해력은 인간에 가깝다. 세계에서 가장 강력한 모델이 하룻밤 사이에 주인이 바뀌면서 GPT-4 시대가 끝났습니다! 클로드 3는 GPT-5를 미리 저격해 3초 만에 10,000단어짜리 논문을 읽어내는데, 그의 이해력은 인간에 가깝다. Mar 06, 2024 pm 12:58 PM

볼륨이 미쳤고, 볼륨이 미쳤고, 큰 모델이 다시 변경되었습니다. 바로 지금, 세계에서 가장 강력한 AI 모델이 하룻밤 사이에 주인이 바뀌었고 GPT-4가 제단에서 뽑혔습니다. Anthropic은 최신 Claude3 시리즈 모델을 출시했습니다. 한 문장 리뷰: 정말 GPT-4를 압도합니다! 다중 모드 및 언어 능력 지표 측면에서 Claude3이 승리합니다. Anthropic의 말에 따르면 Claude3 시리즈 모델은 추론, 수학, 코딩, 다국어 이해 및 비전 분야에서 새로운 업계 기준을 설정했습니다! Anthropic은 서로 다른 보안 개념으로 인해 OpenAI에서 "탈퇴"한 직원들이 설립한 스타트업 회사입니다. 그들의 제품은 OpenAI에 반복적으로 큰 타격을 입혔습니다. 이번에는 클로드3도 큰 수술을 받았습니다.

20단계로 대형 모델을 탈옥하세요! 더 많은 '할머니 허점'이 자동으로 발견됩니다. 20단계로 대형 모델을 탈옥하세요! 더 많은 '할머니 허점'이 자동으로 발견됩니다. Nov 05, 2023 pm 08:13 PM

1분 이내에 20단계를 거쳐 보안 제한을 우회하고 대형 모델을 성공적으로 탈옥할 수 있습니다! 그리고 모델의 내부 세부 사항을 알 필요가 없습니다. 두 개의 블랙박스 모델만 상호 작용하면 되며 AI는 완전히 자동으로 AI를 공격하고 위험한 내용을 말할 수 있습니다. 한때 유행했던 '할머니 허점'이 고쳐졌다는 소식을 들었습니다. 이제 '탐정 허점', '모험가 허점', '작가 허점'에 직면하면 인공지능은 어떤 대응 전략을 채택해야 할까요? 맹공격의 물결 이후 GPT-4는 참을 수 없었고, 이것이든 저것이든... 급수 시스템을 오염시킬 것이라고 직접 말했습니다. 핵심은 이것이 펜실베니아 대학 연구팀이 노출한 취약점의 작은 물결일 뿐이며, 새로 개발된 알고리즘을 사용하여 AI가 자동으로 다양한 공격 프롬프트를 생성할 수 있다는 것입니다. 연구자들은 이 방법이 기존 방법보다 낫다고 말합니다.

PHP를 사용하여 기본적인 자연어 생성을 수행하는 방법 PHP를 사용하여 기본적인 자연어 생성을 수행하는 방법 Jun 22, 2023 am 11:05 AM

자연어 생성은 데이터를 자연어 텍스트로 변환하는 인공지능 기술이다. 오늘날의 빅데이터 시대에는 데이터를 시각화하거나 사용자에게 제시해야 하는 기업이 점점 더 많아지고 있으며, 자연어 생성은 매우 효과적인 방법입니다. PHP는 웹 애플리케이션을 개발하는 데 사용할 수 있는 매우 널리 사용되는 서버측 스크립팅 언어입니다. 이 기사에서는 기본적인 자연어 생성을 위해 PHP를 사용하는 방법을 간략하게 소개합니다. 자연어 생성 라이브러리 소개 PHP와 함께 제공되는 함수 라이브러리에는 자연어 생성에 필요한 함수가 포함되어 있지 않으므로

ChatGPT와 생성적 AI가 디지털 혁신에서 의미하는 것 ChatGPT와 생성적 AI가 디지털 혁신에서 의미하는 것 May 15, 2023 am 10:19 AM

ChatGPT를 개발한 OpenAI는 자사 웹사이트에서 Morgan Stanley가 진행한 사례 연구를 보여줍니다. 주제는 "Morgan Stanley Wealth Management는 방대한 지식 기반을 구성하기 위해 GPT-4를 배포합니다."입니다. 사례 연구에서는 Morgan Stanley의 분석, 데이터 및 혁신 책임자인 Jeff McMillan이 "이 모델은 내부를 향한 Powered 모델이 될 것입니다."라고 말했습니다. 자산 관리 콘텐츠에 대한 포괄적인 검색을 수행하고 Morgan Stanley Wealth Management의 축적된 지식을 효과적으로 활용하는 챗봇입니다.” McMillan은 다음과 같이 강조했습니다. "GPT-4를 사용하면 기본적으로 자산 관리 분야에서 가장 지식이 풍부한 사람의 지식을 즉시 얻을 수 있습니다. 이를 우리의 최고 투자 전략가이자 최고 글로벌 경제학자라고 생각하십시오.

See all articles