Connect with us

OpenAI, ์•ˆ์ „์„ฑ์„ ์œ„ํ•œ ์ž๋ฌธ์œ„์›ํšŒ ๊ตฌ์„ฑ, ๋…ผ๋ž€ ์†์—์„œ ์ฐจ์„ธ๋Œ€ AI ๋ชจ๋ธ ํ›ˆ๋ จ

์ธ๊ณต์ง€๋Šฅ

OpenAI, ์•ˆ์ „์„ฑ์„ ์œ„ํ•œ ์ž๋ฌธ์œ„์›ํšŒ ๊ตฌ์„ฑ, ๋…ผ๋ž€ ์†์—์„œ ์ฐจ์„ธ๋Œ€ AI ๋ชจ๋ธ ํ›ˆ๋ จ

mm

OpenAI는 인공지능 기술을 발전시키는 데 있어 큰 진전을 이루었으며, 최근의 업적으로는 GPT-4o 시스템이 있습니다. 이 시스템은 인기 있는 ChatGPT 채팅봇을 구동합니다. 오늘, OpenAI는 공식적으로 새로운 안전성을 위한 자문위원회인 OpenAI 안전위원회를 구성했다는 것을 발표했으며, 새로운 AI 모델의 훈련을 시작했다는 것도 밝혔습니다.

OpenAI의 안전위원회는 누구인가?

새로 구성된 OpenAI 안전위원회는 회사 프로젝트와 운영에 관련된 중요한 안전성과 보안 결정을 위한 지침과 감시를 제공하는 것을 목표로 합니다. 위원회의 주요 목적은 OpenAI의 AI 개발 관행이 안전성을 우선시하고 윤리적 원칙과 일치하는 것을 보장하는 것입니다. 안전위원회는 다양한 개인으로 구성되어 있으며, OpenAI의 경영진, 이사, 기술 및 정책 전문가 등이 포함됩니다.

OpenAI 안전위원회에 속한 주목할만한 회원은 다음과 같습니다:

  • Sam Altman, OpenAI의 CEO
  • Bret Taylor, OpenAI의 의장
  • Adam D’Angelo, Quora의 CEO이자 OpenAI 이사
  • Nicole Seligman, 전 소니 법률 고문이자 OpenAI 이사

초기 단계에서, 새로운 안전성 및 보안 위원회는 기존의 안전성 프로세스와 방어 체계를 평가하고 강화하는 데 중점을 둘 것입니다. OpenAI 안전위원회는 90일간의 타임라인을 설정하여 보드에 회사의 AI 개발 관행과 안전성 시스템을 강화하는 방법에 대한 권고를 제공할 계획입니다. 권고가採用되면, OpenAI는 안전성 및 보안 고려와 일관된 방식으로 공개할 계획입니다.

새로운 AI 모델의 훈련

OpenAI 안전위원회를 구성하는 것과 병렬로, OpenAI는 새로운 차세대 모델의 훈련을 시작했다고 발표했습니다. 이 최신 인공지능 모델은 현재 ChatGPT를 구동하는 GPT-4 시스템의 능력을 초월할 것으로 예상됩니다. 새로운 AI 모델에 대한 자세한 정보는 아직 공개되지 않았지만, OpenAI는 이 모델이 능력과 안전성에서 산업을 선도할 것이라고 밝혔습니다.

이 새로운 AI 모델의 개발은 인공지능 분야의 혁신 속도와 인공 일반 지능(AGI)의 잠재성을 강조합니다. AI 시스템이 더 발전하고 강력해짐에 따라, 안전성을 우선시하고 이러한 기술이 책임감 있게 개발되는 것을 보장하는 것이 중요합니다.

OpenAI의 최근 논란과离任

OpenAI의 안전성에 대한 재조명은 내부 혼란과 공공의 심한 비판 속에서 이루어졌습니다. 최근 몇 주 동안, 회사 내부에서 비판을 받았으며, 연구원 Jan Leike는 사임하고 안전성이 “빛나는 제품” 개발에 뒤처진다는 우려를 표명했습니다. Leike의 사임은 Ilya Sutskever, OpenAI의 공동 설립자이자 수석 과학자의离任으로 이어졌습니다.

Leike와 Sutskever의离任은 회사의 우선순위와 AI 안전성에 대한 접근 방식에 대한 질문을 제기했습니다. 두 연구자는 공동으로 OpenAI의 “초일치” 팀을 이끌었으며, 이는 장기적인 AI 위험을 해결하기 위한 것이었습니다. 그들의 사임에 이어 초일치 팀이 해산되면서, 회사의 안전성에 대한 헌신에 대한 우려가 더욱 가중되었습니다.

내부 혼란 외에도, OpenAI는 ChatGPT 채팅봇의 음성 모방에 대한 비난을 받았습니다. 일부 사용자는 채팅봇의 음성이 여배우 스칼렛 요한슨과 놀라울 정도로 유사하다고 주장했습니다. OpenAI는 요한슨을 의도적으로 모방하지 않았다고 부인했지만, 이 사건은 AI 생성 콘텐츠의 윤리적 의미와 잠재적인 오남용에 대한 더广泛한 논의를 촉발했습니다.

AI 윤리에 대한 더广泛한 논의

인공지능 분야가 급속히 발전하는 동안, OpenAI와 같은 회사들은 연구자, 정책 입안자, 그리고 대중과 지속적인 대화와 협력을 통해 AI 기술이 책임감 있게 개발되고 강력한 안전성 방어가 있는지 확인하는 것이 중요합니다. OpenAI 안전위원회가 제시한 권고와 OpenAI의 투명성에 대한 헌신은 AI 治理와 이 기술의 미래를 형성하는 데 기여할 것입니다. 그러나 결과는 시간이 지나면 나타날 것입니다.

Alex McFarland์€ ์ธ๊ณต ์ง€๋Šฅ์˜ ์ตœ์‹  ๊ฐœ๋ฐœ์„ ํƒ๊ตฌํ•˜๋Š” AI ์ €๋„๋ฆฌ์ŠคํŠธ์ด์ž ์ž‘๊ฐ€์ž…๋‹ˆ๋‹ค. ๊ทธ๋Š” ์ „ ์„ธ๊ณ„์˜ ์ˆ˜๋งŽ์€ AI ์Šคํƒ€ํŠธ์—…๊ณผ ์ถœํŒ๋ฌผ๋“ค๊ณผ ํ˜‘๋ ฅํ–ˆ์Šต๋‹ˆ๋‹ค.

๊ด‘๊ณ  ๊ณ ์ง€: Unite.AI๋Š” ๋…์ž์—๊ฒŒ ์ •ํ™•ํ•œ ์ •๋ณด์™€ ๋‰ด์Šค๋ฅผ ์ œ๊ณตํ•˜๊ธฐ ์œ„ํ•ด ์—„๊ฒฉํ•œ ํŽธ์ง‘ ๊ธฐ์ค€์„ ์ค€์ˆ˜ํ•ฉ๋‹ˆ๋‹ค. ๋‹น์‚ฌ๊ฐ€ ๊ฒ€ํ† ํ•œ ์ œํ’ˆ ๋งํฌ๋ฅผ ํด๋ฆญํ•  ๊ฒฝ์šฐ ๋ณด์ƒ์„ ๋ฐ›์„ ์ˆ˜ ์žˆ์Šต๋‹ˆ๋‹ค.