컴퓨터가 무엇을 잘하느냐고 묻는다면, 그 중에서도 수학이 반드시 꼽힐 것입니다. 오랜 기간의 연구 끝에 최고의 학자들이 수학 계산 분야의 컴퓨터 개발 연구에서 놀라운 결과를 얻었습니다.
지난해 캘리포니아대학교 버클리캠퍼스, OpenAI, Google 연구진이 언어 모델 분야에서 큰 진전을 이루었습니다. 그러나 지금까지 언어 모델은 "Alice는 Bob보다 5개의 공을 더 가지고 있고, Charlie에게 4개의 공을 준 후 Bob은 2개의 공을 가지고 있습니다. Alice에게 공이 몇 개 있는지 물어보세요"와 같은 간단하고 구두로 설명된 수학적 문제를 해결하지 못했습니다. ?" 이는 언어 모델이 정답을 제공하는 데 약간 "어려울" 수 있습니다.
Google의 기계 학습 전문가인 Guy Gur-Ari는 "컴퓨터가 수학을 매우 잘한다는 것은 컴퓨터가 특정한, 특정한 일을 매우 잘한다는 의미입니다."라고 말했습니다. 컴퓨터가 연산에 능숙한 것은 사실이지만 특정 모드를 벗어나면 컴퓨터는 무력하고 간단한 텍스트 설명 질문에 답할 수 없습니다.
Google 연구원 Ethan Dyer는 다음과 같이 말했습니다. 수학 연구를 하는 사람들은 엄격한 추론 시스템을 가지고 있으며, 그들이 아는 것과 이해하지 못하는 것 사이에는 분명한 격차가 있습니다.
단어 문제나 양적 추론 문제를 푸는 것은 다른 문제와 달리 견고함과 엄격함이 필요하기 때문에 까다롭습니다. 프로세스의 어느 단계에서든 문제가 발생하면 잘못된 답변으로 이어질 것입니다. DALL·E는 그림이 인상적입니다. 생성되는 이미지가 손가락이 없고 눈이 이상해 보일 때도 있지만... 우리 모두는 이를 받아들일 수 있지만 수학에서는 실수를 하기 때문에 허용 오차는 매우 작습니다. OpenAI의 머신러닝 전문가인 Vineet Kosaraju도 "언어 모델에서 발생한 수학적 오류(10을 10이 아닌 1과 0으로 오해하는 등)에 대한 우리의 허용 오차는 여전히 상대적으로 작습니다.
"라고 표현했습니다. 우리는 수학이 독립적이고 매우 흥미롭기 때문에 공부합니다."라고 OpenAI의 기계 학습 전문가인 Karl Cobbe는 말했습니다.
머신 러닝 모델은 더 큰 데이터 샘플을 대상으로 학습되면서 더욱 강력해지고 오류가 줄어듭니다. 그러나 모델 확장은 정량적 추론을 통해서만 가능한 것으로 보입니다. 연구자들은 언어 모델이 저지른 실수에는 좀 더 표적화된 접근 방식이 필요한 것 같다는 것을 깨달았습니다.
지난해 UC Berkeley와 OpenAI의 두 연구팀은 각각 데이터 세트 MATH와 GSM8K를 출시했습니다. 이 두 데이터 세트에는 기하학, 대수학, 기초 수학 등 수천 개의 수학 문제가 포함되어 있습니다. 수학 분야에서 일하는 AI 안전 센터의 연구원인 스티븐 바사트(Steven Basart)는 "우리는 이것이 데이터 세트에 문제가 있는지 확인하고 싶었습니다."라고 말했습니다. 언어 모델은 단어 문제에 능숙하지 않은 것으로 알려져 있습니다. 더 나은 형식의 더 큰 데이터 세트를 도입하면 이 문제를 해결할 수 있습니까?
MATH 데이터 세트에서 최고의 언어 모델은 인간 대학원생의 40% 정확도와 올림픽 챔피언의 90% 정확도에 비해 7%의 정확도를 달성했습니다. GSM8K 데이터세트(초등학교 수준 문제)에서 모델은 20% 정확도를 달성했습니다. 실험에서 OpenAI는 미세 조정(fine-tuning)과 검증(verification)이라는 두 가지 기술을 사용했으며, 그 결과 모델이 자체 오류의 예를 많이 볼 수 있다는 것이 귀중한 발견이었습니다.
당시 OpenAI의 모델은 GSM8K에서 80%의 정확도를 달성하기 위해 100배 더 많은 데이터를 학습해야 했습니다. 하지만 올해 6월 구글은 정확도 78%를 달성한 미네르바(Minerva)를 출시했다. 이번 결과는 예상을 뛰어넘는 것으로, 예상보다 빨리 나왔다고 연구진은 밝혔다.
논문 주소: https://arxiv.org/pdf/2206.14858.pdf
Minerva는 Google이 자체 개발한 PaLM(Pathways Language Model)을 기반으로 하며 arXiv, LaTeX 및 기타 수학적 형식을 포함한 더 많은 수학적 데이터 세트를 보유하고 있습니다. Minerva가 사용하는 또 다른 전략은 Minerva가 더 큰 문제를 작은 조각으로 나누는 사고 연쇄 유도입니다. 또한 Minerva는 모델에 하나의 답을 제시하는 대신 100개의 답을 제시하도록 요청하는 다수결 투표를 사용합니다. 이 답변 중에서 미네르바는 가장 일반적인 답변을 선택합니다.
Minerva가 MATH에서 50%의 정확도를 달성하고 GSM8K 및 MMLU(화학 및 생물학을 포함한 보다 일반적인 STEM 문제 세트)에서 80%에 가까운 정확도를 달성하는 등 이러한 새로운 전략의 이점은 엄청납니다. Minerva가 약간 조정된 문제를 다시 실행하도록 요청받았을 때에도 똑같이 잘 수행되었으며, 이는 그 능력이 단지 기억에서 나오는 것이 아니라는 것을 보여주었습니다.
미네르바는 이상하고 혼란스러운 추론을 가지고도 올바른 답을 찾을 수 있습니다. Minerva와 같은 모델은 인간과 동일한 답에 도달할 수 있지만 실제로 따르는 프로세스는 매우 다를 수 있습니다.
Google 머신러닝 전문가인 Ethan Dyer는 "수학에 종사하는 사람들은 엄격한 추론 시스템을 가지고 있으며, 무엇을 아는 것과 모르는 것에는 분명한 차이가 있다는 생각이 있다고 생각합니다. 그러나 사람들에게 주어진 답변은 다음과 같습니다." 일관성이 없고, 실수가 발생하며, 핵심 개념이 적용되지 않습니다. 머신러닝 분야에서는 경계가 모호합니다.
위 내용은 Google과 OpenAI 학자들이 AI에 대해 이야기합니다. 언어 모델은 수학을 '정복'하기 위해 열심히 노력하고 있습니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!