부본 OpenAI의 새로운 이니셔티브: 초지능 AI를 올바른 방향으로 조정 - Unite.AI
Rescale 미팅 예약

인공 지능

OpenAI의 새로운 이니셔티브: 초지능 AI를 올바른 방향으로 조정

게재

 on

인공 지능 분야의 선두주자인 OpenAI는 최근 초지능 AI와 관련된 위험을 관리하기 위한 전담 팀 구성을 발표했습니다. 이러한 움직임은 전 세계 정부가 신흥 AI 기술을 규제하는 방법에 대해 심의하는 시점에 이루어집니다.

초지능 AI의 이해

초지능 AI는 일부 이전 세대 모델과 같은 단일 영역이 아닌 여러 전문 분야에서 가장 재능 있고 지능적인 인간을 능가하는 가상의 AI 모델을 말합니다. OpenAI는 그러한 모델이 XNUMX년이 끝나기 전에 나타날 수 있다고 예측합니다. 조직은 초지능이 인류가 발명한 가장 영향력 있는 기술이 될 수 있으며 잠재적으로 세계에서 가장 시급한 문제를 해결하는 데 도움이 될 수 있다고 믿습니다. 그러나 초지능의 막강한 힘은 인류의 잠재적 무력화 또는 심지어 인류의 멸종을 포함하여 심각한 위험을 초래할 수도 있습니다.

OpenAI의 Superalignment 팀

이러한 문제를 해결하기 위해 OpenAI는 새로운 '슈퍼 얼라인먼트OpenAI 수석 과학자 Ilya Sutskever와 연구소의 조정 책임자인 Jan Leike가 공동으로 이끄는 팀입니다. 팀은 OpenAI가 현재 확보한 컴퓨팅 성능의 20%에 액세스할 수 있습니다. 그들의 목표는 초지능이 사용하기에 안전하고 인간의 가치와 일치하도록 OpenAI를 지원할 수 있는 시스템인 자동 정렬 연구원을 개발하는 것입니다.

OpenAI는 이것이 매우 야심 찬 목표이며 성공이 보장되지 않는다는 것을 인정하지만 조직은 여전히 ​​낙관적입니다. 예비 실험은 가능성을 보여주었고 진행 상황에 점점 더 유용한 메트릭을 사용할 수 있습니다. 더욱이, 현재 모델은 이러한 많은 문제를 경험적으로 연구하는 데 사용될 수 있습니다.

규제의 필요성

Superalignment 팀의 구성은 전 세계 정부가 초기 AI 산업을 규제하는 방법을 고려하면서 이루어졌습니다. OpenAI의 CEO Sam Altman은 최근 몇 달 동안 최소 100명의 연방 의원을 만났습니다. Altman은 AI 규제가 "필수적"이며 OpenAI가 정책 입안자와 협력하기를 "열심히" 한다고 공개적으로 밝혔습니다.

그러나 어느 정도 회의적으로 그러한 선언에 접근하는 것이 중요합니다. 결코 구체화되지 않을 수 있는 가상의 위험에 대중의 관심을 집중함으로써 OpenAI와 같은 조직은 정책 입안자들이 오늘날 해결해야 하는 AI 및 노동, 잘못된 정보 및 저작권과 관련된 즉각적인 문제를 해결하는 대신 잠재적으로 규제 부담을 미래로 옮길 수 있습니다.

초지능 AI의 위험을 관리하기 위해 전담 팀을 구성하려는 OpenAI의 이니셔티브는 올바른 방향으로 나아가는 중요한 단계입니다. 고급 AI가 제기하는 잠재적인 문제를 해결하는 데 있어 선제적 조치의 중요성을 강조합니다. AI 개발 및 규제의 복잡성을 지속적으로 탐색함에 따라 이와 같은 이니셔티브는 AI의 잠재력을 활용하는 동시에 위험으로부터 보호하는 균형 잡힌 접근 방식의 필요성을 상기시키는 역할을 합니다.

Alex McFarland는 인공 지능의 최신 개발을 탐구하는 AI 저널리스트이자 작가입니다. 그는 전 세계 수많은 AI 스타트업 및 출판물과 협력해 왔습니다.