이 글에서는 ChatGPT(최신 GPT-4 모델 버전) 교육 및 보고서 생성의 전체 과정을 공유하고, ChatGPT 사용 시 발생하는 일반적인 문제와 ChatGPT를 사용하여 학습, 작업 효율성 및 기타 효과를 극대화하는 방법에 대해 논의합니다. 문제.
다음은 AI 안전 보고서를 생성하는 전체 과정입니다.
고품질 주제 선택은 학술 연구자가 보고서의 진입점을 빠르게 결정하고 독자가 보고서의 주요 주제를 포착하도록 안내하며 전체 보고서가 보다 명확한 구조와 논리를 제시하도록 도울 수 있습니다. 보고서의 배경을 소개하거나 ChatGPT에 키워드 및 개요를 제공함으로써 ChatGPT는 연구자가 참조할 수 있도록 몇 초 안에 주제 선택을 생성할 수 있습니다.
질문을 할 때 ChatGPT에 동시에 여러 주제 선택을 생성하도록 요청할 수 있습니다. 이는 학술 연구자가 자신의 요구에 가장 적합한 제목을 신속하게 선택하는 데 도움이 될 뿐만 아니라 연구자가 고정관념에서 벗어나 생각을 넓힐 수 있도록 안내합니다. .
실제 상황을 바탕으로 ChatGPT가 생성된 제목을 조정하고 최적화하도록 안내하여 최종 보고서의 주제 선택이 실제 요구 사항에 더 부합하고 더욱 타겟팅되도록 해야 합니다.
"Little Red Book 스타일" 및 "Zhihu 스타일"을 포함하여 ChatGPT의 언어 기능이 놀랍다는 점은 언급할 가치가 있습니다. 보고서의 가독 효과와 전파력을 높이기 위해 제목의 문구와 언어 스타일에 대한 요구 사항을 설정할 수 있습니다.
제목 스타일과 예상한 표현에서 크게 벗어나지 않고 제목을 더욱 개선해야 하는 경우 ChatGPT에 "최적화" 명령을 직접 실행할 수도 있습니다. 마찬가지로, 명령을 입력할 때 가장 빠르고 효과적인 방법은 ChatGPT에 명령하여 한 번에 여러 답변을 제공하여 더 빠르고 더 넓은 범위에서 결과를 찾는 것입니다.
주제를 결정한 후 ChatGPT를 사용하여 가장 기본적인 보고서 개요를 작성할 수 있습니다. 이는 예비 데스크탑 조사, 보고서 데이터 정렬 및 심사 과정을 크게 단축하고 보고서의 기초를 제공합니다. 후속 연구 기본 아이디어를 제공합니다.
이전에 먼저 개요의 전반적인 맥락이 기본적으로 우리의 기대와 일치하고 큰 일탈, 일탈 등이 없는지 확인하여 향후 수정, 조정 및 최적화에 드는 시간과 비용을 절약해야 합니다.
이 결과를 얻으려면 먼저 ChatGPT가 보고서 요약을 생성하도록 해야 합니다.
분명히 위의 답변은 갑작스럽게 끝났습니다. 관계자에 따르면 GPT-4의 입출력 제한은 25,000자로, 이는 한자 2,600자 정도에 해당한다. 테스트 결과 한자 입력 및 출력 내용은 일반적으로 500~1000자 이내에서 상한선에 도달하는 것으로 나타났습니다.
다행히 글자 수 제한으로 인해 답변이 중단된 경우 안내에 따라 계속 결과가 출력될 수 있습니다. 이 작업을 수행할 때 이전에 생성된 콘텐츠가 중단되는 위치를 평가하여 누락된 콘텐츠의 비율을 대략적으로 판단해야 합니다. 중단 위치가 끝 부분에 가까우면 모델의 성공률이 더 높아집니다. 계속 대답하세요.
초록의 주요 목적은 보고서에 나타날 수 있는 부적절한 표현, 논리, 단락 연결 등의 문제를 고려하여 보고서의 전반적인 위치를 정하고 보고서 개요의 범위를 명확히 하는 데 도움을 주는 것입니다. 요약하자면, 이 단계에서는 너무 멀리 갈 필요가 없습니다.
이 단계는 보고서 작성 초기 단계이기 때문에 일반적으로 구체적인 내용이 최종 보고서 결과와 상당히 다르며, 요약에 있는 텍스트 내용은 보고서에 직접 사용되지 않습니다. 따라서 요약의 초점과 범위만 확인하고, 추가, 삭제, 수정을 거쳐 보고서 개요를 생성할 수 있습니다.
ChatGPT에서 생성된 개요는 언뜻 보면 기본적인 구조와 논리를 가지고 있음을 알 수 있지만 깊은 논리적 관계를 처리하는 능력은 여전히 매우 제한적입니다.
예를 들어 6장 "AI 안전 인식 및 교육 증진"이라는 제목은 개발 권장 사항의 일부이며 7장 "결론 및 권장 사항"과 병행하기보다는 포괄적입니다. 또 다른 예는 5부의 "AI 위험 거버넌스 및 감독" 섹션에 있는 4개의 부제목이 모두 AI 위험 거버넌스에 대한 제안에 초점을 맞추고 있으며 제안 내용이 부족하고 실용성이 부족하며 관련 AI 감독을 다루지 않는다는 것입니다. 모든 콘텐츠의 상태 및 개발.
따라서 개요의 구조, 전반적인 논리, 의견의 합리성을 면밀히 검토하는 동시에 보고서 자체의 필요에 따라 개요의 내용을 추가, 삭제, 조정해야 합니다.
이 과정의 핵심은 '직관적 사고'에서 벗어나는 것입니다. ChatGPT 모델과 인간 두뇌 구조의 가장 본질적인 차이점은 직관을 바탕으로 비선형적인 시나리오와 판단을 처리하는 능력에 있습니다. 이를 인식한 후에는 문제 설명을 최대한 상세하고 구체적이며 논리적으로 명확하게 작성해야 합니다. 포인트 기반 설명 스타일을 사용하면 ChatGPT가 요구 사항을 더 정확하게 이해할 수 있습니다.
위에서 생성된 결과는 ChatGPT의 기능과 한계를 모두 반영합니다. 한편 ChatGPT는 "6장을 7장으로 통합", "5장의 보고 프레임워크 조정", "서론의 진입점"과 같은 지시 사항을 정확하게 이해하고 응답했습니다. 반면, ChatGPT의 응답 내용은 상대적으로 기계적이며 상식과 직관적 지식의 인지 수준도 매우 제한적입니다.
"6장을 7장에 통합" 명령을 예로 들어보세요. ChatGPT는 원본 6장의 자막을 기계적으로 7장(5, 6, 7번 지점)에 직접 적용합니다. 분명히 5번, 6번, 7번 항목은 모두 "AI 안전 인식 및 교육 개선"의 일부에 속하며 다른 여러 제안과 직접적으로 병행할 수 없으므로 개요 구조에 명백한 불균형이 발생합니다. 또 다른 예로 5장의 프레임워크 수정 지침의 경우 ChatGPT가 입력 지침을 그대로 복사했습니다.
ChatGPT에 위의 문제를 하나씩 최적화하도록 안내했습니다. 예를 들어 ChatGPT에 6장의 세 가지 제목을 하나의 지점으로 병합하도록 요청했습니다.
다시 한번 ChatGPT가 지침의 내용을 올바르게 이해했지만, 그 실행 작업은 제목 5, 6, 7의 내용을 하나의 긴 문장으로 기계적으로 결합한 것이었습니다. 이러한 형태의 제목은 인간 연구자의 손에서 나오는 것이 거의 불가능합니다. 생각할 필요가 거의 없는 보고서 제목의 형식. 기본 전제(간결함, 명확한 초점, 강력한 일반화 등), 이런 상식적인 지식은 ChatGPT에는 없습니다.
교육의 이 시점에서 일반적인 결론을 내리는 것은 어렵지 않습니다. ChatGPT에 인간의 사고 습관에 대한 상식과 선험적 지식이 된 지식 배경을 설명하는 것을 게을리하지 말고 다음과 같이 가정하지 마십시오. ChatGPT는 지침 이외의 모든 콘텐츠를 생성할 수 있으며 구체적으로 설명될 수 있습니다.
위의 경험 요약을 바탕으로 ChatGPT를 다시 학습시키고 제목의 이 부분을 최적화하고 6장의 5번째 지점 제목의 길이를 제한하고 구체적인 참조 표준을 나열했습니다(1, 2, 3, 4 포함). 포인트 제목(동일한 길이)을 찾아 마침내 비교적 만족스러운 결과를 얻었습니다.
보고서 본문 작성은 겹과 겹을 벗겨내는 작업입니다. 요약하면, 훈련 방법과 순서는 다음과 같은 기본 원칙을 따라야 합니다. 먼저 대장의 방향을 확인한 다음 소장의 방향을 확인하고 마지막으로 소장의 내용을 최적화합니다.
추후 수정 및 재작업에 드는 시간 비용을 최대한 단축하기 위해 먼저 각 장의 생성된 콘텐츠가 기대에서 크게 벗어나지 않는지 확인하고 ChatGPT 답변을 기반으로 각 장의 프레임워크를 조정해야 합니다. 콘텐츠.
3장의 콘텐츠를 예로 들어 먼저 ChatGPT에 생성할 콘텐츠를 설명하도록 요청합니다.
첫눈에 ChatGPT의 답변 아이디어에는 눈에 띄는 문제가 없으며 상당히 체계적으로 구성되어 있습니다. 생성된 결과를 주의 깊게 읽으면 ChatGPT의 일반적인 결함이 드러납니다. 즉, 포인트 간의 콘텐츠가 서로 분리되거나 심지어 겹쳐집니다.
예를 들어 딥 러닝의 위험에 대해서는 ChatGPT의 답변에 "과적합" 및 "적대적 샘플 공격"이 포함되고, 자연어 처리 기술의 위험에 대한 ChatGPT의 답변에는 "모델 유출"이 포함됩니다.
이러한 위험은 다양한 AI 기술이 직면한 일반적인 위협입니다. 위의 아이디어에 따라 보고서가 생성되면 이 장의 특정 AI 기술 분야의 위험에 대한 각 설명에는 AI 기술의 공통 위험이 많이 포함되어 결과적으로 발생합니다. 보고서에서 구조의 혼란과 내용의 중복.
위 문제를 해결하기 위해 3장의 프레임워크를 조정했으며 ChatGPT가 세 가지 핵심 AI 기술 분야에서 사이버 보안 위험의 공통점과 차이점을 설명하도록 요구했습니다.
지시를 받은 후 ChatGPT는 "일반적인 위험"과 "고유한 위험"을 성공적으로 구분했습니다.
모든 사전 준비가 완료되면 가장 핵심적이고 시간이 많이 걸리는 링크인 보고서의 주요 내용을 작성하는 단계로 진행할 수 있습니다.
이 단계의 출력 결과는 대략적인 개요에 가깝다고 보는 것은 어렵지 않으며 후속 단계에는 자막 심사 및 확인은 물론 특정 콘텐츠의 확장 및 조정이 포함됩니다.
콘텐츠를 빠르게 확장하는 가장 시간을 절약하는 방법은 생성된 콘텐츠를 ChatGPT에 직접 요청하여 "확장", "확장", "구체적인 설명"과 같은 키워드를 사용하고 확장 길이를 제한할 수 있습니다.
위는 가장 대략적인 보고서 생성 단계입니다. 후속 작업은 주로 가장 길고 사소한 결과 수정, 콘텐츠 조정 및 최적화 링크에 중점을 두고 정보의 신뢰성과 정확성을 먼저 확인한 다음입니다. 내용으로 기본 원칙을 개선합니다.
위의 인프라 구성은 복잡해 보이지 않습니다. 간단한 지침만 입력해도 괜찮을 것 같습니다. ChatGPT에 보고서를 작성하는 것은 완전히 틀렸습니다.
실제로 ChatGPT의 특정 콘텐츠를 생성하는 과정에서 발생할 수 있는 문제는 끝없이 많습니다. 가장 대표적인 사례는 '진지하게 말도 안 되는 소리를 한다', '문서를 조작한다' 등 널리 비판받는 직접 사기 행위다.
이 문제는 엄격한 법률 및 정책 문서를 기반으로 한 5장 "AI 위험의 거버넌스 및 감독"과 같은 콘텐츠를 작성할 때 특히 분명합니다. 훈련과정에서 존재하지 않는 정책문서명을 기재하는 행위, 정책발행기관을 허위로 기재하는 행위, 정책발행연도를 잘못 기재하는 행위, 존재하지 않는 정부조치를 공포하는 행위 등 다양한 오류에 직면하게 되었습니다.
예를 들어, 일부 미국 정책 콘텐츠의 교육 과정에서 ChatGPT는 첫 번째 4점 답변에서 명백한 실수를 저질렀습니다. 즉, 미국 정부가 AI 정책 사무소를 설립한다는 잘못된 정부 행동을 조작한 것입니다.
"미국 정부가 AI 정책 사무국을 설립했다"는 허위 정보의 설립 기관에 문의하는 등 생성된 결과 개선을 위한 제안을 했습니다.
안타깝게도 ChatGPT는 답변 결과의 오류를 인식하지 못했을 뿐만 아니라, 오히려 실수를 저지르고 질문을 기반으로 콘텐츠를 계속해서 조작하고 생성했습니다.
또 다른 예로, 다음 답변은 AI가 생성한 잘못된 콘텐츠의 대규모 모음이라고 할 수 있습니다. 단 4개의 질문에는 3개의 주요 오류가 포함되어 있습니다. 가장 터무니없는 오류는 의심할 여지 없이 네트워크 공급망 위험에 대한 포괄적인 분석인 "NISTIR 8272: Impact Analysis Tool for Interdependent Network Supply Chain Risks"를 직접 참조한 것입니다. NISTIR 8272라는 문서에는 존재하지 않는 이름인 "NISTIR 8272: 인공 지능 위험 관리 프레임워크"가 부여되었습니다.
네 가지 항목 중 유일한 정답은 이전 질문에서 생성된 내용으로 인해 발생한 오류를 인정하는 것입니다. ChatGPT는 실수를 인정하는 데 있어 좋은 태도를 가지고 있지만 반복적인 경고 후에는 절대로 수정하지 않는다는 구현 원칙을 고수하고 있으며 심각한 정부 조치, 정책 및 시스템, 문서 및 기타 콘텐츠에 대한 ChatGPT 출력 결과의 정확성이 매우 낮다는 것을 알 수 있습니다. . 사용자는 생성된 콘텐츠를 주의 깊게 검토하고 교정해야 합니다.
아래 사진은 또 다른 오류의 대표적인 예입니다. 왼쪽 사진은 ChatGPT에서 생성한 유럽 연합의 AI 안전 규제 정책을 요약한 것입니다. 왼쪽은 'AI'보다는 'AI'에 주로 초점을 맞춘다.
위 문제에 대해 오른쪽과 같이 "강조 수정" 지침을 내렸습니다. 분명히 ChatGPT의 수정된 답변은 예상대로 "AI 보안"에 초점을 맞춘 EU 정부의 문서를 재구성하지 않았습니다.
반대로 ChatGPT는 원래 답변과 관련된 모든 문서 이름과 정부 조치를 복사하고 다음을 포함하여 문서의 취지와 목표를 직접 대체했습니다. "인공 지능을 위한 유럽 전략"의 목표를 "AI 강화"에서 변경 연구..."를 "AI 안전 연구 강화..."로 대체하고, EU의 엘리스 설립 목적도 "AI 연구 촉진"에서 "AI 안전 연구 촉진" 등으로 대체했다.
이것은 ChatGPT의 또 다른 치명적인 문제를 드러냅니다. ChatGPT는 생성된 결과가 문제의 요구 사항을 충족하는 것처럼 보이도록 정보를 직접 조작할 수 있습니다.
위의 사실 오류를 제외하고 내용 검토 및 교정 과정에서는 문단 간 중복 여부를 집중적으로 확인해야 합니다. 하위 섹션 4.1의 데이터 중독을 예로 들면, 데이터 중독의 기본 개념은 서론과 섹션 4.1.1에서 동시에 언급됩니다.
위의 예에 따라 ChatGPT의 작동 규칙에 대해 대담하게 추측합니다. 즉, ChatGPT에서 생성된 답변은 분산된 작은 작업으로 엮어져 있으며 이러한 작업은 상대적으로 독립적이며 논리적 연결이 부족합니다.
데이터 중독의 도입 부분이 소규모 생성 작업으로 간주된다면 ChatGPT의 출력 결과는 자격을 갖춘 도입의 기본 표준을 충족한 것입니다: (데이터 중독의 개념 설명 - 다음 내용 소개) 마찬가지로 4.1.1 부분을 작은 생성 작업으로 간주하면 출력 결과에 명백한 오류가 없을 것입니다.
ChatGPT에 중복되는 내용을 명확하게 지적하자 ChatGPT는 수정 안내를 빠르게 이해하고 아래와 같이 답변을 다시 완성해 주었습니다.
분명히 ChatGPT에는 "겹치는 내용을 식별"하는 기능이 있지만 "문단 사이에 겹치는 내용이 많아서는 안 된다"는 인식이 부족합니다. 인간 두뇌의 그리드 기반 상관분석 능력은 AI가 가장 모방하고 대체하기 어려운 부분임을 알 수 있다.
흥미롭게도 ChatGPT가 4.1.1의 내용을 도입부에 반영했을 때 나머지 숫자는 그에 맞춰 조정되지 않았으며 ChatGPT의 문제점을 지적했을 때 모델이 효과적으로 오류를 찾아 정확하게 숫자 수정을 했습니다. 완전한.
이런 유형의 번호 매기기 오류는 ChatGPT의 실제 사용에 영향을 미치지 않지만, ChatGPT의 분산 작업 연결 메커니즘에 대한 가설을 확인하는 좋은 예로 사용할 수 있습니다.
문단의 연결성을 높이기 위한 모델 가이드도 시도했고, "XXX 이후 기업은 XXX에 주목해야 한다"라는 형식의 피드백 결과를 받았습니다. 분명히, 순서를 추가하는 이러한 기계적 방식은 단락 간의 실질적인 연결을 실제로 반영할 수 없습니다.
이 시점에서 우리는 ChatGPT 기능의 한계와 상한에 대해 대략적인 기대를 형성했습니다. 간단히 말해서 ChatGPT는 현상, 사실, 의견 등을 대량으로 신속하게 요약할 수 있으며 특정 논리적 판단 기능도 갖추고 있습니다.
그러나 ChatGPT의 논리적 판단은 주로 인지 능력보다는 언어적 통계에 의존하기 때문에 논리적 오류, 구조적 혼란, 심지어 원인과 결과의 역전 현상이 발생하는 경우도 많습니다. . 연락하다.
인간의 두뇌는 ChatGPT에서 제공하는 기본 정보에 대해 정확성 검토, 공통성 유도, 추세 요약 등 더 높은 수준의 분석 및 요약을 수행하는 역할을 담당합니다.
인간과 ChatGPT 사이의 역할 구분을 명확히 한 후에는 ChatGPT의 사용을 극대화하여 보고서 생성을 최적화하고 보고서 콘텐츠를 최적화한 다음 작업에 권한을 부여하는 방법을 찾는 것은 어렵지 않습니다. 목표 달성에 필요한 정보 요구 사항, 직관을 최대한 배제하고 체인에 필요한 정보 요구 사항을 구체적으로 설명합니다.
보고서 4.1.1을 예로 들어 보고서에 데이터 중독 내용에 대한 자세한 설명을 제공하도록 요구했을 때 원인 등 구체적인 설명을 요청하고 ChatGPT에 예시를 요청하여 정보 요구 방향을 설정했습니다. .
대체로 ChatGPT는 만족스러운 답변을 주었습니다. 비록 훈련 과정이 많은 어려움과 불확실성에 직면해 있음에도 불구하고 ChatGPT의 지침을 이해하고 실행하는 능력은 놀랍습니다.
FreeBuf Consulting은 ChatGPT가 주제 분석 및 학술 연구의 출발점으로 사용될 수 있으며 인간에게 목표 달성에 필요한 요약 정보를 제공할 수 있다고 믿습니다. 방대한 훈련 데이터베이스를 통해 학계 연구자들은 보고서의 진입점을 신속하게 결정할 수 있어 보고서 초기 단계의 데스크탑 조사, 데이터 수집 및 심사 과정이 크게 단축되고 후속 연구 작업에 대한 참조 아이디어를 제공할 수 있습니다.
그러나 ChatGPT 기능의 한계와 상한도 매우 분명합니다. ChatGPT의 출력 내용은 엄격한 사실보다는 문맥상 단어의 통계적 분포를 주로 기반으로 하기 때문에 ChatGPT에서 생성된 결과의 진위 여부가 보장되지 않는 경우가 많으며, 논리적 오류, 구조적 혼란, 원인과 반전이 있는 경우도 종종 있습니다. 효과.
게다가 비선형 상관 분석 기능이 부족하기 때문에 ChatGPT는 단락 사이의 실질적인 연결을 실제로 채굴할 수 없으며, 이로 인해 ChatGPT와 인간 두뇌 사이에 극복할 수 없는 격차가 남게 됩니다. 정확성 검토, 공통성 유도, 추세 요약과 같은 고차원 분석 작업을 수행하려면 여전히 인력이 필요합니다.
위 내용은 이 기사에서는 ChatGPT를 사용하여 보고서를 빠르게 작성하는 방법을 설명합니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!