OpenAI는 보안 팀을 강화하여 위험한 AI를 거부할 수 있는 권한을 부여합니다.
생산 중인 모델은 "안전 시스템" 팀에서 관리합니다. 개발 중인 최첨단 모델에는 모델이 출시되기 전에 위험을 식별하고 정량화하는 "준비" 팀이 있습니다. 그리고 "초지능" 모델에 대한 이론적 지침을 작성하는 "Super Alignment" 팀이 있습니다
보안 자문 그룹을 기술팀 위에 위치시켜 리더십에 권고하고 이사회에 거부권을 부여하도록 재구성하세요
OpenAI는 유해한 인공지능의 위협을 방어하기 위해 내부 보안 프로세스를 강화한다고 밝혔습니다. 그들은 기술팀 위에 앉아 리더십에 조언을 제공하고 이사회에 거부권을 부여하는 "보안 자문 그룹"이라는 새로운 부서를 만들 것입니다. 이 결정은 현지 시간으로 12월 18일에 발표되었습니다
이번 업데이트가 우려되는 이유는 OpenAI CEO 샘 알트먼(Sam Altman)이 이사회에서 해임됐는데, 이는 대형 모델의 안전 문제와 관련이 있는 것으로 보입니다. OpenAI 이사회의 "둔화" 멤버인 Ilya Sutskvi와 Helen Toner는 고위 인사 개편으로 인해 이사회 자리를 잃었습니다
이 게시물에서 OpenAI는 점점 더 강력해지는 모델로 인해 발생하는 치명적인 위험을 OpenAI가 추적, 평가, 예측 및 보호하는 방법인 최신 "준비 프레임워크"에 대해 논의합니다. 재앙적 위험의 정의는 무엇입니까? OpenAI는 “우리가 재앙적 위험이라고 부르는 것은 수천억 달러의 경제적 손실을 초래하거나 많은 사람에게 심각한 부상이나 사망을 초래할 수 있는 위험을 의미합니다. 여기에는 실존적 위험도 포함되지만 이에 국한되지는 않습니다.”
OpenAI 공식 홈페이지에 따르면 생산 중인 모델은 '보안 시스템'팀에서 관리한다고 합니다. 개발 단계에서는 모델이 출시되기 전에 위험을 식별하고 평가하는 '준비'라는 팀이 있습니다. 또한, "초지능" 모델에 대한 이론적 지침을 연구하는 "superalignment"라는 팀이 있습니다
OpenAI 팀은 사이버 보안, 설득력(예: 허위 정보), 모델 자율성(즉, 자율적으로 행동하는 능력), CBRN(화학, 생물학, 방사능 및 핵 위협)이라는 네 가지 위험 범주에 따라 각 모델을 평가합니다. 새로운 병원체를 생성하는 능력)
OpenAI는 가정에서 다양한 완화를 고려합니다. 예를 들어 모델은 네이팜탄이나 파이프 폭탄 제조 과정을 설명하는 데 합리적인 유보를 유지합니다. 알려진 완화 조치를 고려한 후에도 모델이 여전히 "높은" 위험이 있는 것으로 평가되면 배포되지 않으며, 모델이 "중요한" 위험을 나타내는 경우 더 이상 개발되지 않습니다.
모델을 만드는 모든 사람이 이를 평가하고 추천하는 데 가장 적합한 사람은 아닙니다. 이러한 이유로 OpenAI는 기술 수준에서 연구원의 보고서를 검토하고 더 높은 관점에서 권장 사항을 제시하는 "기능 간 보안 자문 그룹"이라는 팀을 구성하여 "알려지지 않은 미지의" 일부를 밝혀내기를 희망하고 있습니다. " "
이 과정에서는 이러한 권장 사항을 이사회와 경영진 모두에게 보내야 하며, 경영진은 운영을 계속할지 중단할지 결정하게 됩니다. 그러나 이사회는 이러한 결정을 번복할 권리가 있습니다. 이렇게 하면 이사회가 모르는 사이에 고위험 제품이나 프로세스가 승인되는 것을 방지할 수 있습니다
그러나 외부에서는 여전히 전문가 패널이 권고사항을 제시하고 CEO가 이 정보를 바탕으로 의사결정을 한다면 과연 OpenAI 이사회가 반박하고 조치를 취할 권리가 있을까? 그렇다면 대중이 그 소식을 듣게 될까요? 현재 독립적인 제3자 감사를 요청하겠다는 OpenAI의 약속 외에 투명성 문제는 실제로 해결되지 않았습니다
OpenAI의 “Readiness Framework”에는 다음과 같은 5가지 핵심 요소가 포함되어 있습니다.
1. 평가 및 채점우리는 모델을 평가하고 "스코어카드"를 지속적으로 업데이트할 것입니다. 훈련 중 효과적인 계산을 3배로 늘리는 것을 포함하여 모든 최신 모델을 평가할 것입니다. 우리는 모델의 한계를 뛰어넘을 것입니다. 이러한 결과는 최신 모델의 위험을 평가하고 제안된 완화 조치의 효율성을 측정하는 데 도움이 될 것입니다. 우리의 목표는 엣지별 불안정성을 감지하여 위험을 효과적으로 완화하는 것입니다. 모델의 안전 수준을 추적하기 위해 위험 "스코어카드"와 세부 보고서를 생성합니다
위험 임계값을 설정하는 목적은 의사 결정을 내리고 위험을 관리할 때 명확한 경계를 설정하는 것입니다. 위험 임계값은 특정 상황에서 조직이나 개인이 기꺼이 감당할 수 있는 최대 위험 수준을 나타냅니다. 위험 임계값을 설정하면 조직이나 개인이 위험을 완화하거나 방지하기 위해 조치가 필요한 시기를 식별하는 데 도움이 될 수 있습니다. 위험 임계값 설정은 위험 평가 결과, 관련 규정 및 정책, 조직이나 개인의 위험 허용 범위를 기반으로 해야 합니다. 위험 임계값을 설정할 때 위험 관리 조치의 효율성과 적용 가능성을 보장하기 위해 다양한 위험 유형의 특성과 영향을 고려해야 합니다. 마지막으로, 조직 또는 개인의 위험 관리 목표와 일관성을 유지하기 위해 설정된 위험 임계값을 정기적으로 평가하고 조정해야 합니다
보안 조치를 실행하는 위험 임계값을 설정합니다. 우리는 사이버 보안, CBRN(화학적, 생물학적, 방사선학적, 핵 위협), 설득, 모델 자율성 등의 예비 추적 범주를 기반으로 위험 수준에 대한 임계값을 설정합니다. 우리는 네 가지 보안 위험 수준을 지정하고 완화 후 점수가 "중간" 이하인 모델만 배포할 수 있습니다. 완화 후 점수가 "높음" 이하인 모델만 추가로 개발할 수 있습니다. 위험성이 높거나 심각한 모델(사전 완화)에 대해서는 추가 보안 조치도 시행할 예정입니다
위험레벨
기술 작업 모니터링 및 안전 의사결정을 위한 운영 구조 재설정
우리는 보안 결정의 기술 작업 및 운영 구조를 감독하기 위해 전담 팀을 구성할 것입니다. 준비팀은 최첨단 모델의 기능 한계를 조사하고 평가 및 포괄적인 보고를 수행하기 위한 기술 작업을 추진할 것입니다. 이 기술 작업은 OpenAI 보안 모델의 개발 및 배포 결정에 중요합니다. 우리는 모든 보고서를 검토하고 이를 경영진과 이사회에 보내기 위해 다기능 보안 자문 그룹을 만들고 있습니다. 리더십이 의사결정자이지만 이사회는 결정을 번복할 수 있는 권한을 가지고 있습니다
기술 작업 및 보안 의사결정 운영 구조의 새로운 변화를 감독합니다
보안 강화 및 외부 책임 강화
우리는 안전과 외부 책임성을 향상하기 위한 프로토콜을 개발할 것입니다. 우리는 정기적인 보안 훈련을 실시하여 비즈니스와 문화에 대한 스트레스 테스트를 실시할 것입니다. 일부 보안 문제는 빠르게 발생할 수 있으므로 빠른 대응을 위해 긴급한 문제를 표시할 수 있습니다. OpenAI 외부의 사람들로부터 피드백을 받고 자격을 갖춘 독립적인 제3자가 이를 검토하도록 하는 것이 도움이 된다고 믿습니다. 우리는 계속해서 다른 사람들이 레드 팀을 구성하고 모델을 평가하도록 할 것이며 업데이트를 외부에 공유할 계획입니다
알려진 보안 위험과 알려지지 않은 기타 보안 위험을 줄입니다.
알려진 보안 위험과 알려지지 않은 기타 보안 위험을 완화하는 데 도움을 드립니다. 우리는 실제 남용을 추적하기 위해 보안 시스템과 같은 팀과 내부적으로는 물론 외부 당사자와도 긴밀하게 협력할 것입니다. 또한 Super Alignment와 협력하여 긴급한 정렬 불량 위험을 추적할 것입니다. 또한 우리는 규모의 법칙에 대한 이전의 성공과 유사하게 모델이 확장됨에 따라 위험이 어떻게 진화하는지 측정하고 위험을 미리 예측하는 데 도움이 되는 새로운 연구를 개척하고 있습니다. 마지막으로, 새로운 "알 수 없는 미지의 문제"를 해결하기 위한 지속적인 프로세스를 갖게 될 것입니다
위 내용은 OpenAI는 보안 팀을 강화하여 위험한 AI를 거부할 수 있는 권한을 부여합니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

AI Hentai Generator
AI Hentai를 무료로 생성하십시오.

인기 기사

뜨거운 도구

메모장++7.3.1
사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전
중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경

드림위버 CS6
시각적 웹 개발 도구

SublimeText3 Mac 버전
신 수준의 코드 편집 소프트웨어(SublimeText3)

뜨거운 주제











OpenAI는 최근 최신 세대 임베딩 모델 embeddingv3의 출시를 발표했습니다. 이는 더 높은 다국어 성능을 갖춘 가장 성능이 뛰어난 임베딩 모델이라고 주장합니다. 이 모델 배치는 더 작은 text-embeddings-3-small과 더 강력하고 더 큰 text-embeddings-3-large의 두 가지 유형으로 나뉩니다. 이러한 모델이 어떻게 설계되고 학습되는지에 대한 정보는 거의 공개되지 않으며 모델은 유료 API를 통해서만 액세스할 수 있습니다. 그렇다면 오픈소스 임베딩 모델이 많이 있습니다. 그러나 이러한 오픈소스 모델은 OpenAI 폐쇄소스 모델과 어떻게 비교됩니까? 이 기사에서는 이러한 새로운 모델의 성능을 오픈 소스 모델과 실증적으로 비교할 것입니다. 데이터를 만들 계획입니다.

2023년에는 AI 기술이 화두가 되면서 다양한 산업, 특히 프로그래밍 분야에 큰 영향을 미치고 있다. 사람들은 AI 기술의 중요성을 점점 더 인식하고 있으며 Spring 커뮤니티도 예외는 아닙니다. GenAI(일반 인공 지능) 기술이 지속적으로 발전함에 따라 AI 기능을 갖춘 애플리케이션 생성을 단순화하는 것이 중요하고 시급해졌습니다. 이러한 배경에서 AI 기능 애플리케이션 개발 프로세스를 단순화하고 간단하고 직관적이며 불필요한 복잡성을 피하는 것을 목표로 하는 "SpringAI"가 등장했습니다. 'SpringAI'를 통해 개발자는 AI 기능이 포함된 애플리케이션을 더욱 쉽게 구축할 수 있어 사용 및 운영이 더욱 쉬워진다.

AI 모델이 내놓은 답변이 전혀 이해하기 어렵다면 감히 사용해 보시겠습니까? 기계 학습 시스템이 더 중요한 영역에서 사용됨에 따라 우리가 그 결과를 신뢰할 수 있는 이유와 신뢰할 수 없는 경우를 보여주는 것이 점점 더 중요해지고 있습니다. 복잡한 시스템의 출력에 대한 신뢰를 얻는 한 가지 가능한 방법은 시스템이 인간이나 다른 신뢰할 수 있는 시스템이 읽을 수 있는 출력 해석을 생성하도록 요구하는 것입니다. 즉, 가능한 오류가 발생할 수 있는 지점까지 완전히 이해할 수 있습니다. 설립하다. 예를 들어, 사법 시스템에 대한 신뢰를 구축하기 위해 우리는 법원이 자신의 결정을 설명하고 뒷받침하는 명확하고 읽기 쉬운 서면 의견을 제공하도록 요구합니다. 대규모 언어 모델의 경우 유사한 접근 방식을 채택할 수도 있습니다. 그러나 이 접근 방식을 사용할 때는 언어 모델이 다음을 생성하는지 확인하세요.

작성자丨컴파일: TimAnderson丨제작: Noah|51CTO Technology Stack(WeChat ID: blog51cto) Zed 편집기 프로젝트는 아직 출시 전 단계에 있으며 AGPL, GPL 및 Apache 라이선스에 따라 오픈 소스로 제공됩니다. 이 편집기는 고성능과 다양한 AI 지원 옵션을 제공하지만 현재는 Mac 플랫폼에서만 사용할 수 있습니다. Nathan Sobo는 게시물에서 GitHub의 Zed 프로젝트 코드 베이스에서 편집기 부분은 GPL에 따라 라이선스가 부여되고 서버 측 구성 요소는 AGPL에 따라 라이선스가 부여되며 GPUI(GPU Accelerated User) 인터페이스) 부분은 GPL에 따라 라이선스가 부여된다고 설명했습니다. Apache2.0 라이센스. GPUI는 Zed 팀에서 개발한 제품입니다.

얼마 전 OpenAISOra는 놀라운 비디오 생성 효과로 빠르게 인기를 얻었으며 많은 문학적 비디오 모델들 사이에서 눈에 띄었고 전 세계의 관심의 초점이 되었습니다. Colossal-AI 팀은 2주 전 46% 비용 절감으로 Sora 훈련 추론 재현 프로세스를 출시한 데 이어 세계 최초의 Sora 유사 아키텍처 비디오 생성 모델 "Open-Sora1.0"을 완전 오픈 소스화했습니다. 데이터 처리, 모든 훈련 세부 사항 및 모델 가중치를 포함한 훈련 프로세스를 다루고, 글로벌 AI 애호가들과 협력하여 비디오 제작의 새로운 시대를 촉진합니다. 미리보기로 Colossal-AI 팀이 공개한 'Open-Sora1.0' 모델이 생성한 번화한 도시의 영상을 살펴보겠습니다. 오픈소라1.0

Ollama는 Llama2, Mistral, Gemma와 같은 오픈 소스 모델을 로컬에서 쉽게 실행할 수 있는 매우 실용적인 도구입니다. 이번 글에서는 Ollama를 사용하여 텍스트를 벡터화하는 방법을 소개하겠습니다. Ollama를 로컬에 설치하지 않은 경우 이 문서를 읽을 수 있습니다. 이 기사에서는 nomic-embed-text[2] 모델을 사용합니다. 짧은 컨텍스트 및 긴 컨텍스트 작업에서 OpenAI text-embedding-ada-002 및 text-embedding-3-small보다 성능이 뛰어난 텍스트 인코더입니다. o를 성공적으로 설치한 후 nomic-embed-text 서비스를 시작하십시오.

마이크로소프트(MS)와 오픈AI(OpenAI)가 올해 초 휴머노이드 로봇 스타트업에 거액을 투자한 것으로 알려졌다. 이 중 마이크로소프트는 9500만달러, 오픈AI는 500만달러를 투자할 계획이다. 블룸버그에 따르면 회사는 이번 라운드에서 총 5억 달러를 조달할 것으로 예상되며, 자금 조달 전 가치는 19억 달러에 이를 수 있습니다. 무엇이 그들을 끌어들이나요? 먼저 이 회사의 로봇공학 성과를 살펴보자. 이 로봇은 온통 은색과 검은색이며, 외관은 헐리우드 공상 과학 블록버스터에 나오는 로봇의 이미지와 유사합니다. 이제 그는 커피 캡슐을 커피 머신에 넣고 있습니다. 올바르게 배치되지 않으면 아무런 문제 없이 스스로 조정됩니다. 휴먼 리모콘 : 하지만 잠시 후 커피 한 잔을 꺼내서 즐길 수 있습니다. 가족 중 혹시 알아본 사람이 있나요? 네, 이 로봇은 얼마 전에 만들어졌습니다.

갑자기! OpenAI 해고된 사람들, 이유: 정보 유출이 의심됩니다. 그 중 하나는 실종된 수석 과학자 Ilya의 동료이자 Superalignment 팀의 핵심 멤버인 Leopold Aschenbrenner입니다. 다른 사람도 단순하지 않습니다. 그는 LLM 추론 팀의 연구원이자 슈퍼 정렬 팀에서도 근무한 Pavel Izmailov입니다. 두 사람이 유출한 정보가 정확히 무엇인지는 불분명하다. 이 소식이 알려지자 많은 네티즌들은 “매우 충격적이다”라는 반응을 보였다. 얼마 전 아셴브레너의 게시물을 보고 그가 경력에서 상승세를 보이고 있다는 느낌을 받았다. 이런 변화를 예상하지는 못했다. 사진 속 일부 네티즌들은 "OpenAI가 Aschenbrenner를 잃었습니다.
