์ฌ์ ๋ฆฌ๋
AI์ ์ ๋ขฐ์ ํธ

작년 초, 우리 팀이 앞으로 무엇이 될지 예측할 때, 합의는 인공 지능(AI)이 드디어 모습을 드러낼 것이라는 것이었다. 우리는 그것이 무엇을 할 수 있는지, 그리고 비즈니스와 사회에 미치는 영향에 대한 명확성을 얻을 수 있을 것이라고 기대했다. 그것은 새로운 예측은 아니었지만, 그 핵심은 정확했으며, 우리는 아직도 AI의 의미와 어떻게 제어해야 하는지에 대해 고민하고 있다.
우리는 Apple, Microsoft, Google가 장치에 AI를 구축하고 더广い 대중에게 그 힘을 제공하는 것을 볼 것이라고 예상했다. 그런 다음 AI 기반 검색 도구에 있는 하나의 채팅봇이 사용자를 위협하고 직원들을 감시한다고 주장했으며, 또 다른 하나는 피자를 만드는 데 엘머의 글루를 사용하여 치즈가 미끄러지는 것을 막을 수 있다고 제안했다. 그러나 AI 비즈니스採用 사례는劇적으로 증가했으며, 시장도 증가했다. Crunchbase의 데이터에 따르면, 작년 거의 모든 글로벌 벤처 자금의 3분의 1이 AI 관련 분야의 회사에만 투자되었다.
그러나 OpenAI가真正로 놀라운 향상된 추론을 제공했음에도 불구하고, 유명한 AI 연구자 요슈아 벵기오(Yoshua Bengio)는 “프론티어 모델”에 대한 안전 조치의採用을 촉구했으며, 이 모델은 재앙적인 피해를 초래할 수 있다. 그리고 기술이 과학 분야에서 두 개의 노벨상을 수상했음에도 불구하고, 수상자 중 한 명은 “우리가 제어할 수 없는 더 지능적인 시스템”을 갖게 되는 것에 대해 우려를 표명했다.
이처럼 빠르게 발전하는 분야에서, 전문 기술자들이 따라가기 어려울 뿐 아니라, 일반 대중에게도 이해하기 어렵다.
그리고 그런 AI의 실수와 개인 정보 및 제한되지 않은 사용에 대한 우려는 공공의 경계심을 높이고 있다.
저를 믿으세요
우리는 신뢰의 호를 따라 가고 있으며, 이는 AI의 공공 수용성을 높이는 동시에 비즈니스와 기술 커뮤니티가 책임감 있게 행동하는 것을 요구한다. 첫 번째 부분은 현재 기업 수준에서 진행되고 있으며, 안전하고 안정적인 배포로 증거를 쌓아갈 수 있을 것이다. 두 번째 부분은 훨씬 더 어려운 문제이다.
誰が AI의 책임 있는 사용을 정의하고 시행할 것인가? 산업이 규정을 만들 수 있을까? 기술자들이 AI를 따라가기 어려우면, 정책 입안자들은 정보를 얻을 수 있을까? 그리고 AI 억만 장자가突然 제어에 대해 이야기하고 싶어한다면, 그것은 새로운 깨달음인지, 아니면 단지 따라잡기 위해 제동을 걸고 있는 것인지?
“저를 믿으세요”는 AI와 관련하여 누구에게나 적용되지 않는다.
신뢰하지만 검증하세요
사람들은 생성적 AI인 ChatGPT를 보고 그것이 다음 Google이 될지 궁금해한다. 잘, Google 검색의 최상단 결과는 이제 Gemini라는 AI 모델에 의해 생성된다. 그러나 문제는 비즈니스에서 규모에 따라 사용할 때, “生的 고기를 섭취하는 것이 안전한가?”라는 간단한 질문에 “예, 동결”이라는 대답이 돌아올 수 있다는 것이다. 데이터를 검사해야 한다.
공공의 신뢰 호는 기존 검색과 마찬가지로 시간이 지나면서 신뢰성이 입증되면 증가할 것이다. 아이러니하게도, 검색을 단순화하고 개선하기 위해, 우리는 한 걸음 물러난 것 같다. 이제, AI 생성된 답변을 얻은 후, 스폰서 링크 목록을 스크롤하고, 다음 5개를 클릭하고, 여전히 정보를 검증해야 한다.
그것은 빠른 답변을 찾을 때 많은 작업이다. 그러나 데이터를 수천 개의 서비스 티켓과 함께 풍부하게 하고, 실제 환경에 대한 지식을 가져올 수 있다. 알고리즘적으로, 환상을 낮출 수 있지만, 여전히 “신뢰하지만 검증하세요” 상황이다.
정치를 इसम에서 빼세요
AI를 규제할 때, 일부에서는 이미 말이 마구간을 빠져나와 다시 잡을 수 없을 것이라고 말한다. 예를 들어, 학생이 논문을 작성했는지, 아니면 GenAI를 사용했는지 확인하는真正로 효과적인 도구가 없다. 기술은 너무 앞서 있다.
이것을 규제하는 것은 매우 복잡할 것이며, 사실 우리는 얇은 얼음 위를 걷고 있다. 우리는 기술 회사들이 제안된 외부 규제자보다 수십 년 앞서 있다. 그러나 우리는 길을 개척하는 데 능숙하다. 그렇지만 결국에는 혁신가들이 책임감 있게 거버넌스를 적용하도록 노력해야 한다. 누가 그렇게 할 수 있을까?
많은 정치인들이 그렇게 하기를 원할 것이다. 그러나 그들은 이해의 부족과 함께 개인적이고 정치적인 의제를 추진할 위험이 있다. 그들의 초점은 AI를 培養하는 것보다 정치적인 이익을 추구하는 데 있을 수 있다. 그들은 공공의 두려움을 이용하여 AI의 진행을 방해할 수 있다.
CHIPS 및 과학법은 건강한 정부 조치의 좋은 예였다. 그것은 양당의 협력을 통해 Dramatic 15배의 컴퓨팅 및 전자 장치의 제조 시설 건설을 가능하게 했다. 그러나 이것은 점점 더過去의 시대가 된 양당 협력을 통해 가능했다.
우리는 합당한가?
AI에 많은 돈이 투자되고 있으며, 향후 20년 동안 기술 회사에서 많은 돈을 벌 수 있을 것이다. 얼마나, 얼마나 빠르게, 그리고 얼마나 안전하게 하는지는 아직 미정이다. 어느 날, 위험한 새의 알을 juggles하는 deep fake가 유포될 수 있다. 공중은 공포에 사로잡히며, 그것이 AI 생성된 것으로 밝혀질지라도, 그 알은 다시 껍질로 돌아가지 않는다.
우리는 이러한 것을 정보를 가진 기술자들이 규제해야 한다. 그것이 어떤 형태를 취할지 – 위원회, 표준 기구, 국제적 프레임워크 – 는 아직 미정이다. 그러나 알려진 것은 AI는 신뢰의 호를 따라 가고 있으며, 산업으로서 우리는 그것에 합당한지를 증명해야 한다.












