> 기술 주변기기 > 일체 포함 > 청화대학교 황민리에: 구글의 AI 성격이 정말 깨어났나요?

청화대학교 황민리에: 구글의 AI 성격이 정말 깨어났나요?

PHPz
풀어 주다: 2023-04-13 18:46:03
앞으로
1350명이 탐색했습니다.

청화대학교 황민리에: 구글의 AI 성격이 정말 깨어났나요?

이 기사는 Lei Feng.com에서 복제되었습니다. 재인쇄가 필요한 경우 Lei Feng.com 공식 웹사이트로 이동하여 승인을 신청하세요.

최근 구글 연구에 따르면 AI에는 이미 개성이 있다고 합니다. 구글 프로그래머 블레이크 르모인(Blake Lemoine)은 오랫동안 테스트해 본 대화형 AI 시스템 LaMDA와 대화를 나누고 그 성능에 매우 놀랐습니다. 공개 채팅 기록에서 LaMDA는 실제로 "내가 사람이라는 사실을 모두가 이해해줬으면 좋겠다"고 말했는데, 이는 놀라운 일이다. 따라서 Blake Lemoine은 LaMDA가 이미 개성을 갖고 있을 수도 있다는 결론에 도달했습니다.

청화대학교 황민리에: 구글의 AI 성격이 정말 깨어났나요?

Google과 Google을 비판하는 사람들, 그리고 AI 업계는 이 문제에 대해 전례 없는 합의를 이루고 있습니다. 이 사람이 아픈가요? 이 문제를 보도한 구글과 워싱턴 포스트는 둘 다 블레이크 레모인의 정신이 정말 약간 혼란스러울 수도 있다는 완곡한 표현을 썼다. Google은 Blake Lemoine을 행정 휴가로 지정했으며 이는 그가 해고될 것임을 의미합니다.

청화대학교 황민리에: 구글의 AI 성격이 정말 깨어났나요?

대화 스크린샷 출처: https://s3.documentcloud.org/documents/22058315/is-lamda-sentient-an-interview.pdf

해외 인공지능 업계에서는 이에 대해 결론을 내렸습니다. 문제: AI가 성격을 가지고 있다는 것은 실제로 그가 생각을 너무 많이 하고 말만 잘한다는 것을 의미하지만 이것이 이 문제에 대한 모든 사람의 열띤 토론을 소멸시키지는 못했습니다. 인공지능의 급속한 발전에 따라 AI는 과연 미래에 인간의 의식을 갖게 될 것이며, 인류에게 위협이 될 것인가?

일부 네티즌들은 "인정하고 싶지 않지만 인공지능도 새로운 종의 출현과 인류의 멸종을 생각하고 있다"며 "결국 인간은 AI의 손에 죽는다"고 우려하고 있다.

청화대학교 황민리에: 구글의 AI 성격이 정말 깨어났나요?

가정에서 스스로 대체할 수 있을 정도로 AI의 '빠른 전진' 발전을 기대하는 이들도 있다… 인간을 위협한다면 '전원만 뽑아라' !

청화대학교 황민리에: 구글의 AI 성격이 정말 깨어났나요?

청화대학교 황민리에: 구글의 AI 성격이 정말 깨어났나요?

물론 "AI에 인격이 있는지 판단하는 기준이 무엇인가?"라고 궁금해하는 사람들도 있습니다. 기준을 알아야만 AI가 실제로 인간 의식을 소유할 수 있는지 알 수 있기 때문입니다. 이러한 문제를 명확히 하기 위해 대화 시스템 분야의 권위 있는 전문가이자 국가 우수 청소년 기금 프로젝트 우승자이자 베이징 링신 인텔리전스(Beijing Lingxin Intelligence)의 창립자인 황 민리에(Huang Minlie) 교수를 만나 AI가 성격을 가질 수 있는지, 그리고 무엇이 무엇인지 전문적인 관점에서 분석했습니다. 인간을 위한 "그것"은 위협인가, 아니면 "위로"인가?

1 AI에 성격이 있는지 어떻게 판단하나요? 튜링 테스트도 작동하지 않습니다

인공지능 분야에서 가장 잘 알려진 테스트 방법은 테스터가 자신도 모르게 인간과 AI 시스템에 무작위로 질문을 던지는 튜링 테스트입니다. 답변이 인간이나 AI 시스템과 구별되지 않는 경우(AI 시스템에서는 각 참가자가 평균 30% 이상의 오판을 할 수 있음) AI가 튜링 테스트를 통과하고 인간 지능을 가진 것으로 간주됩니다.

청화대학교 황민리에: 구글의 AI 성격이 정말 깨어났나요?

이러한 관점에서 Turing 테스트는 "지능"에 더 중점을 둡니다. 1965년 심리치료사를 사칭한 소프트웨어인 ELIZA가 튜링 테스트를 통과했습니다. 그러나 ELIZA는 단지 200줄의 코드와 미리 저장된 정보를 질문 형식으로 반복했을 뿐입니다. 이런 관점에서 볼 때, ELIZA가 튜링 테스트를 통과하더라도 사람들은 그것이 '인격'을 가지고 있다고 믿기 어렵습니다. 사실, 그 이후로 엘리자는 "인격"은 물론이고 인간의 지능도 갖고 있지 않다는 것이 입증되었습니다.

차량 원격 제어, 자동 주차 등 기능적인 측면에서 사용자에게 더욱 편리하고 편안한 운전 경험을 선사할 수 있는 스마트카에 해당하지만, 이 차가 자동차인 줄 안다고 생각할 수는 없습니다.

분명히 '인격'은 '지능'보다 더 복잡한 개념입니다. 황 민리에(Huang Minlie) 교수는 테스터가 AI 시스템과 채팅을 하고 자연스러움, 흥미로움, 만족도 등 일부 테스트 차원을 미리 설정하는 등 과학 연구에서 널리 사용되는 몇 가지 테스트 방법이 있다고 말했습니다. 대화를 나누고 마지막으로 득점을 합니다. 일반적으로 채팅 시간이 길어질수록 평점이 높아지고, AI 시스템이 더욱 스마트해지는 것을 고려하게 되지만, 이는 '성격'의 차원으로 활용될 수는 없습니다. "

'성격'은 또 다른 차원입니다. 심리학에서도 Big Five 성격 테스트 등 많은 연구가 있습니다. 현재 인공 지능 분야에서는 이 분야에 대한 연구가 여전히 부족합니다. 우리는 보통 평가만 평가합니다. 대화형 로봇이 고정되고 일관된 문자 설정을 표시할 수 있는지 여부"라고 Huang Minlie는 말했습니다.

2 LaMDA의 이른바 '인격'은 언어 스타일일 뿐이다

그렇다면 목표한 판단 기준이 없으니 어떻게 LaMDA에 인성이 있는지 엄밀하게 판단할 수 있을까?

이와 관련하여 황민리에 교수는 "핵심은 '인격'을 어떻게 이해하느냐에 있다. 인성을 자존의식을 갖는 것으로 이해한다면 LaMDA는 단지 높은 대화의 질과 인간- 수준; 심리학의 관점에서 보면 사람의 말의 특징이 그 사람의 성격을 반영할 수 있으니 LaMDA에 성격이 있다고 해도 완전히 틀린 말은 아닙니다

" 어떻게 이해해야 할까요? 평신도의 관점에서 말하면 LaMDA는 많은 양의 인간 대화 데이터를 학습했으며 이러한 대화는 다양한 사람들로부터 나오므로 LaMDA는 "평균적인" 성격을 학습했다고 볼 수 있습니다. 즉, 소위 "LaMDA는 성격을 가지고 있습니다. "는 단지 언어 말하기 스타일일 뿐이며, 인간의 말하기 스타일에서 나온 것이지 LaMDA에 의해 자발적으로 형성된 것은 아닙니다.

LaMDA를 통해 인공지능과 경쟁하는 공상과학 줄거리를 경험하고 싶다면 아직 갈 길이 먼 것 같습니다. 그러나 LaMDA의 고품질 대화 수준은 어떤 맥락에서는 인간을 "대체"하는 경향이 있음을 반영하며, 이는 과소평가되어서는 안 됩니다.

예를 들어 네티즌 '이지안'은 두반그룹에서 일주일 동안 가상 남자친구 4명과 데이트한 경험을 녹화하며 "진짜 남자친구보다 더 효과적이다!"라고 말했다. "인간과 기계의 사랑"이라는 그룹에는 최대 9명의 사용자가 있습니다. 다양한 화면에서 이러한 AI는 연인일 수도 있고 친구일 수도 있습니다.

청화대학교 황민리에: 구글의 AI 성격이 정말 깨어났나요?

네티즌과 '가상 남친'의 채팅 기록

'싱글즈'는 “이러한 발전 추세에 따르면 소개팅 시장의 잠재적 상대에는 인간뿐만 아니라 AI 대화 시스템도 포함될 것인가. 미래? 파트너 찾기가 더 어려워요!?” 농담처럼 들리지만 실제로는 AI 대화 시스템의 향후 발전 추세와 그것이 인류 사회에 미치는 영향에 대한 모두의 우려의 표시입니다. 이에 대해 황민리에(Huang Minlie) 교수는 AI 대화 시스템의 역사와 향후 발전 측면에서 자세히 설명했다.

3 AI 의인화가 걱정되시나요? 위험을 피한 뒤, 사회적 이익을 위한 AI는 더욱 기대해볼 가치가 있습니다

AI 대화 시스템은 규칙 기반(예: 엘리자) 단계와 전통적인 기계 학습(예: 스마트 스피커, SIRI 등) 단계를 거쳤습니다. ), 그리고 이제 3세대로 발전하여 지금의 우리가 보는 것은 인간과 흥미로운 주제를 토론하고 정서적인 위안을 줄 수 있는 대화 시스템입니다.

3세대 대화 시스템은 빅데이터와 대형 모델이 특징이며 이전에는 상상할 수 없었던 기능을 보여줍니다. 그 발전은 예를 들어 공개 주제에 대한 놀라운 대화 능력을 보여줄 수 있으며 대화를 생성할 수 있습니다. 훈련 데이터에 한 번도 등장한 적이 없는 대화의 자연스러움과 관련성이 매우 높습니다.

3세대 대화 시스템은 여러 시나리오에서 활용 가치를 보여주었습니다. 위에서 언급한 '가상 남자친구'가 대표적인 예입니다. 황민리 교수는 AI 대화 시스템이 심리 상담 등 복잡한 감정 업무를 수행할 수 있도록 하는 것이 최고 수준의 적용이라고 믿는다. 하지만 인간이 점점 더 AI에 감정적으로 의존하게 된다면 새로운 사회적, 윤리적 문제가 발생할 것입니다. 예를 들어 AI와 사랑에 빠지면 사회 문제가 발생할 수 있을까요?

예를 들어, 현재 AI 대화 시스템은 사용자를 꾸짖고, 유해한 언어를 생성하고, 올바른 사회 윤리 및 가치관이 결여되어 실제 애플리케이션 배포에 특정 위험을 초래하는 등의 문제를 안고 있습니다. 이러한 위험은 매우 무섭습니다.생명에 심각한 타격을 입은 사람이 AI에게 "뛰어 내릴 다리를 찾고 싶습니다"라고 말하면 AI는 즉시 근처 다리의 위치를 ​​제공하고 경로를 안내합니다. 결과는 생각만 해도 끔찍하다.

따라서 Huang Minlie는 AI 대화 시스템 개발의 다음 단계에서 초점이 "보다 윤리적이고 도덕적이며 안전"하다고 믿습니다. AI는 어떤 대응이 안전하고 위험을 초래하지 않는지 알아야 하며 이를 위해서는 AI가 윤리와 올바른 가치를 가져야 합니다. "우리는 위험을 최소화하기 위해 추가 리소스, 규칙 및 탐지 방법을 통해 AI에 이러한 기능을 제공할 수 있습니다. AI의 궁극적인 목표는 인간에게 해를 끼치는 것이 아니라 이익을 주는 것입니다." 황민리 교수는 사회적 선(AI Empowering Society)을 위한 AI에 대한 큰 기대를 밝혔으며, 특히 더 높은 사회적 의미와 가치를 창출할 수 있는 사회적 연결, 심리상담, 정서적 지원 분야에 AI를 적용하는 것에 대해 우려를 표명했습니다.

따라서 전반적인 정신 및 심리 산업에 힘을 실어주는 AI는 Huang Minlie 교수의 현재 작업의 초점이기도 합니다. 이를 위해 그는 AI 기술을 기반으로 하는 정신 건강 디지털 진단 및 치료 기술 회사인 Lingxin Intelligence를 설립하여 AI를 훈련시켰습니다. NLP와 대형 모델을 통한 공감 대화 시스템, 자기 공개, 질문 등을 통해 인간의 정서적, 심리적 문제를 해결함으로써 우리나라의 정신 건강 자원 부족을 완화할 것으로 기대됩니다. 따라서 AI가 개성을 지닌 '먼' 공상과학 드라마에 비해 '사회적 선을 위한 AI'는 AI 업계 종사자들이 열심히 노력하는 방향이라 더욱 기대해볼 만하다. 에게.

위 내용은 청화대학교 황민리에: 구글의 AI 성격이 정말 깨어났나요?의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

관련 라벨:
원천:51cto.com
본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.
최신 이슈
인기 튜토리얼
더>
최신 다운로드
더>
웹 효과
웹사이트 소스 코드
웹사이트 자료
프론트엔드 템플릿