์ฌ์ ๋ฆฌ๋
2023๋ ๋น์ฆ๋์ค์์ ์์ฑ์ AI ๋ณด์ด์ค๋ฅผ ์ค๋ฆฌ์ ์ผ๋ก ์ฌ์ฉํ๋ ๋ฐฉ๋ฒ

2022年的 끝은 AI 기술이 광범위하게 채택됨에 따라 왔으며, OpenAI와 ChatGPT의驚人的 인기가 그 주된 이유였다. 처음으로 AI는 성공적인 비즈니스 결과를 창출하는 데 자신의 유용성과 가치를 입증함으로써 대중적인 인기를 얻었다.
많은 AI 기술은 2023년에 일반인에게 혁신적인 것으로 보이지만, 이미 여러 해 동안 큰 기업과 미디어에서 활발하게 사용되어 왔다. 이러한 솔루션을 구동하는 기술, 특히 음성 클로닝을 위한 생성적 AI 시스템, 그 비즈니스ประโยชน, 그리고 AI를 사용하는 윤리적인 접근법에 대해 자세히 살펴보도록 하자.
음성 클로닝은 어떻게 작동하는가?
간단히 말하면, 음성 클로닝은 한 사람이 다른 사람의 음성을 사용하여 말할 수 있게 한다.
그것은 생성적 AI 기술을 사용하여 한 사람의 음성을 녹음하고, 그 동일한 사람의 음성을 사용하여 새로운 오디오 콘텐츠를 생성한다. 본질적으로 그것은 누군가가 실제로 말하지 않았더라도, 사람들이 그 사람이 무엇을 말했을지 들을 수 있게 한다.
기술적인 측면에서 볼 때, 모든 것이 매우 복잡하지 않아 보인다. 그러나 조금 더 깊이 들어가면, 시작하기 위해 최소한의 요구사항이 있다:
- 음성을 클론하기 위해 원본 음성의 최소 5분의 고화질 녹음이 필요하다. 이러한 녹음은 명확해야 하며, 배경 노이즈나 다른 왜곡이 없어야 한다. 왜냐하면 이러한 결점은 모델의 출력의 정확성에 영향을 미칠 수 있기 때문이다.
- 그런 다음 이러한 녹음을 생성적 AI 모델에 입력하여 “음성 아바타”를 생성한다.
- 그 다음, 모델을 훈련시켜서 피치와 타이밍에서 음성 패턴을 정확하게 재현한다.
- 한번 완료되면, 이 훈련된 모델은 원본 음성을 사용하여 무제한의 콘텐츠를 생성할 수 있게 되며, 현실적인 소리를 내는 복제 음성을 생성하는 데 효과적인 도구가 된다.
이것이 많은 사람들이 윤리적인 우려를 제기하는 지점이다. 우리가 다른 사람의 입에 어떤 텍스트를 삽입할 수 있고, 그것이 실제인지 가짜인지 구별할 수 없을 때 무슨 일이 일어날까?
예, 이 가능성은 이미 현실이 되었다. OpenAI와 ChatGPT의 경우와 같이, 우리는 현재 무시할 수 없는 여러 윤리적인 문제에 직면해 있다.
AI의 윤리적 기준
다른 많은 새로운 기술과 마찬가지로, 초기 채택 단계에서 주요 위협은 기술 자체에 대한 부정적인 인식을 창조하는 것이 아니라, 위협을 토론과 유용한 지식의 원천으로 인정하는 것이다. 중요한 것은 기술과 그 제품을 악용하는 방법을暴露하고, 완화 도구를 적용하며, 계속해서 학습하는 것이다.
오늘날 우리는 생성적 AI의 사용에 관한 세 가지 계층 구조의 윤리적 기준을 가지고 있다. 국가 및 초국가적 규제 계층은 초기 개발 단계에 있다. 정책 세계는 새로운 기술의 개발 속도에 따라가지 못할 수 있지만, 이미 EU가 EU의 AI 규제 제안과 2022년 허위 정보에 대한 코드를 통해 선도하고 있다. 이 코드는 대형 기술 기업들이 악의적인 AI 조작 콘텐츠의 확산을 해결하기 위한 기대를概述한다. 국가 수준에서는 미국과 영국이 이 문제를 해결하기 위한 규제적인 첫 걸음을 보이고 있다. 미국의 국가 디프페이크 및 디지털 출처 작업 그룹과 영국의 온라인 안전법이 있다.
기술 산업의 계층은 더 빠르게 움직이고 있다. 기업과 기술자들은 새로운 기술의 현실을 인정하고, 사회적 보안과 개인 정보 보호에 미치는 영향에 대해 대화하고 있다. 생성적 AI의 윤리에 대한 대화는 활발하며, 생성적 AI의 사용을 위한 행동 강령 개발을 위한 산업 주도적인 이니셔티브를 추진하고 있다(예: 합성 미디어에 대한 행동 강령). 그리고 다른 기업에서 윤리적인 성명을 발표했다. 질문은, 어떻게 하면 이러한 행동을 실제로 만들 수 있는가? 그리고, 그것이 제품, 특정 기능, 그리고 팀의 절차에 영향을 미칠 수 있는가?
이 문제를 다양한 미디어 및 엔터테인먼트, 사이버 보안, 그리고 AI 윤리 커뮤니티와 함께 작업한 후, 나는 AI 콘텐츠와 특히 음성에 대한 몇 가지 실제 원칙을 수립했다:
- 지적 재산권자와 클론 음성을 사용하는 회사는 원본 음성을 사용하는 것과 관련된 잠재적인 복잡성을 피할 수 있다. 이를 위해 법적 계약을 체결할 수 있다.
- 프로젝트 소유자는 클론 음성을 사용하는 것을 공개적으로 공개해야 하므로, 청취자는 속여서는 안 된다.
- 음성에 대한 AI 기술을 개발하는 회사는 AI 생성 콘텐츠를 감지하고 식별할 수 있는 기술을 개발하는 데 일부 자원을 할당해야 한다.
- AI 생성 콘텐츠에 워터마크를 추가하면 음성 인증을 가능하게 한다.
- 각 AI 서비스 제공자는 프로젝트의 영향(사회적, 비즈니스, 개인 정보 보호 수준)을 평가한 후에 작업에 동의해야 한다.
물론, AI의 윤리 원칙은 온라인에서 제작된 디프페이크의 확산에 영향을 미치지 않을 것이다. 그러나, 그것은 회색 지帯에 있는 프로젝트를 공공 시장에서 벗어나게 할 것이다.
2021-22년에, AI 음성은 다양한 주류 프로젝트에서 사용되었으며, 윤리와 사회에 대한重大한 의미를 가진 프로젝트들이었다. 이러한 프로젝트에는 맨달로리안 시리즈를 위한 젊은 루크 스카이워커의 음성 클로닝, 갓 오브 워 2를 위한 AI 음성, 그리고 역사적인 ‘인 이벤트 오브 문 디재스터’를 위한 리처드 닉슨의 음성이 있다.
기술에 대한 신뢰는 미디어와 엔터테인먼트를 넘어서 성장하고 있다. 전통적인 비즈니스는 다양한 산업에서 클론 음성을 사용하고 있다. 여기서 몇 가지 가장 두드러진 사용 사례가 있다.
산업 사용 사례
2023년에, 음성 클로닝은 다양한 비즈니스에서 그 많은ประโยชน을 얻기 위해 계속해서 성장할 것이다. 건강관리와 마케팅, 고객 서비스, 그리고 광고 산업에서, 음성 클로닝은 조직이 고객과 관계를 구축하고 워크플로우를 최적화하는 방식을 혁신적으로 변화시키고 있다.
음성 클로닝은 온라인 환경에서 일하는 의료 전문가와 사회 복지사에게ประโยชน을 제공한다. 의료 전문가와 동일한 음성을 가진 디지털 아바타는 그들과 그들의 환자 사이에 더 강한 유대를 조성하며, 신뢰를 높이고 고객을 유지한다.
음성 클로닝의 잠재적인 적용은 영화와 엔터테인먼트 산업에서 매우广泛하다. 여러 언어로 콘텐츠를 더빙하는 것, 어린이와 성인 추가 대화 대체(ADR), 그리고 거의 무한한 커스터마이즈 옵션이 모두 이 기술로 가능해진다.
마찬가지로, 운영 부문에서 AI 기반 음성 클로닝은 대화형 음성 응답 시스템이나 기업 교육 비디오에 대한 비용 효율적인 솔루션을 필요로 하는 브랜드에게 우수한 결과를 제공할 수 있다. 음성 합성 기술로 인해 배우들은 그들의 범위를 확장하고, 녹음으로부터 수익을 얻을 수 있다.
마지막으로, 광고 제작 스튜디오에서 음성 클로닝의 출현은 상업적 생산과 관련된 비용과 시간을 크게 줄였다. 높은 품질의 녹음이 클로닝에 사용할 수 있다면(甚至 이용할 수 없는 배우로부터), 광고는 빠르고 더 창의적으로 제작될 수 있다.
흥미롭게도, 기업과 중소기업은 브랜드에 고유한 것을 생성하기 위해 음성 클로닝을 활용할 수 있다. 큰 프로젝트는 그들의 가장 야심적인 계획을 실현할 수 있으며, 작은 비즈니스는 이전에는 비용이 많이 드는 규모의 모델에 접근할 수 있다. 이것이真正한 민주화의 의미이다.
まとめ
AI 음성 클로닝은 비즈니스에게 게임을 변화시키는ประโยชน을 제공한다. 이러한ประโยชน에는 고유한 고객 경험을 생성하는 것, 자연어 처리 능력을 제품과 서비스에 통합하는 것, 그리고 완전히 실제적인 음성을 가진 음성의 高度 정확한 모방을 생성하는 것이 포함된다.
2023년에 경쟁 우위를 유지하려는 비즈니스는 AI 음성 클로닝을 조사해야 한다. 회사는 이 기술을 사용하여 새로운 가능성을 열어 고객을 유지하고 시장 점유율을 획득하는 데 사용할 수 있다. 그리고, 이것을 윤리적으로 책임감 있게 하는 방법이다.












