1월 19일 뉴스에 따르면 스위스 다보스에서 열린 세계경제포럼 2024 연차총회에서 세일즈포스(Salesforce), 마이크로소프트(Microsoft), 구글(Google) 등 세계 최대 기술 기업들이 인공지능(AI) 분야에서 기술력을 입증했다고 합니다. 올해 회의에서도 논의의 초점이 되었습니다.
인텔 CEO 팻 겔싱어(Pat Gelsinger)는 인터뷰에서 생성 인공지능 기술의 역량이 2023년에 등장했지만 2024년 업계의 초점은 병원, 제조업 등 고위험 산업의 임원들이 결과의 정확성을 향상시키는 데 맞춰져야 한다고 말했습니다. 인공지능을 자유롭게 적용할 수 있습니다.
“현재 인공지능의 적용은 정점에 도달했습니다.”라고 Gelsinger는 말했습니다. "인공지능 개발의 다음 단계는 기본 모델의 규제 정확성을 확립하는 것이라고 믿습니다."
Gelsinger는 의사가 일반 인공지능에 의존하여 질병을 진단하는지, 아니면 이 기술을 사용하여 창고를 확인하는지를 강조했습니다. 조립 라인의 고장이나 자율주행차의 경우 인간은 인공지능 기술의 정확성에 더 익숙해져야 합니다.
“인공지능의 문제는 지금까지 일부 해결되었지만 여전히 문제가 많습니다.”라고 Gelsinger는 말했습니다. "기본적인 예측, 탐지, 시각적 언어 등의 문제는 이제 모두 해결되었습니다. 하지만 다른 문제도 많이 있습니다. 빅 언어 모델이 실제로 정확하다는 것을 어떻게 증명합니까? 거기에는 많은 버그가 있습니다. 그래서 당신은 본질적으로 인공 지능 기술은 지식 근로자의 생산성을 향상시키고 있지만 결국에는 결과가 정확하다고 지식 근로자가 믿을 필요가 있습니다.” 정확도를 높이는 가장 좋은 방법은 다양한 실험과 수동 협업 테스트를 통해 채택률을 높이는 것입니다. Shi Zongwei는 인터뷰에서 사용자가 다양한 고위험 시나리오에서 인공 지능 기술의 신뢰성을 인식할 수 있도록 인공 지능을 다양한 표준 편차 신뢰 수준으로 조정해야 한다고 말했습니다.
Shi Zongwei는 일반 인공 지능의 채택이 세 단계로 나누어질 것이라고 말했습니다. 첫 번째 단계는 인공지능 기술을 업무 보조 수단으로 적극적으로 활용하는 것이다. 두 번째 단계는 정확성을 보장하기 위해 자율 모드에서 AI를 의도적으로 관찰하는 것입니다. 그녀는 마지막 단계는 포기하고 기술이 작동할 것이라고 믿고 사람들이 기술을 선택하는 데 필요한 신뢰 수준을 달성하는 것이라고 말했습니다.
Shi Zongwei는 다음과 같이 설명합니다. “인간의 도움이 자동으로 작동하도록 훈련할 때까지 AI에게 위험도가 높은 상황에서 보수성을 요구할 수 있습니다.”
Open AI의 CEO인 Sam Altman 이 3단계 접근 방식은 크게 의존합니다. 그는 화요일 패널 토론에서 기술의 신뢰성에 대한 인간의 수용이 일부 사람들이 생각하는 것보다 일반 인공 지능을 덜 무섭게 만들 것이라고 말했습니다.
Altman은 “이것은 내가 기대했던 것보다 더 많은 도구입니다.”라고 말했습니다. "더 좋아질 것이지만 아직 일자리를 대체하지는 않습니다. 생산성을 높이는 측면에서 놀라운 도구입니다. 인공 지능을 사용하여 일부 작업을 수행함으로써 인간의 작업을 확장하고 사람들이 더 나은 작업을 수행할 수 있도록 하는 도구입니다. 일을 완수하세요."
Nasdaq CEO Adena Friedman은 인터뷰에서 지난 1년은 인공 지능 기술에 대한 "발견의 해"였다고 말했습니다. 프리드먼은 나스닥을 포함한 금융 업계가 인공지능을 사용해 오래된 코드를 업데이트하고 노후화된 시스템을 업그레이드하며 자동화된 작업 흐름을 개선해 직원들이 매일 많은 시간을 절약할 수 있을 것이라고 말했다.
“나온 지 1년이 넘었어요.” 프리드먼이 말했습니다. "우리는 몇 가지 실험을 했습니다. 우리는 그 잠재력을 이해하기 시작했습니다. 올해는 우리와 모두에게 역동적인 한 해가 될 것입니다."
위 내용은 AI는 다보스포럼에서 뜨거운 논의 주제가 되었고, 각계각층에서는 결과의 정확성에 더욱 관심이 쏠리고 있습니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!