์ฌ์ ๋ฆฌ๋
์ธ๊ณต์ง๋ฅ์ ๊ณ์ฐ ๋ฅ๋ ฅ์์ ์ฑ๋ฐฐ

믿을 수 없는 발전에도 불구하고, 인공지능의 능력은 여전히 현실 세계의 기대와 비교할 때 제한적입니다. 우리는 복잡한 모델을 구축하고, 신경망을 실행하고, 알고리즘을 테스트하지만, 때때로 예상치 못한 곳에서 진행이 중단됩니다.
문제는 종종 알고리즘이나 데이터가 아니라 계산 능력, 즉 모델이 필요한 규모에서 학습하고 작동할 수 있는 리소스에 있습니다. 그러면 이 장벽 뒤에 무엇이 있는지 살펴보겠습니다. 가장 유망한 AI 프로젝트조차 실험실을 벗어날 수 없는 결정적인 리소스를 살펴보겠습니다.
컴퓨팅 부족과 그 hậu果
이 주제를 이해하기 위해 모바일 통신의 역사부터 시작해 보겠습니다. 3G와 4G 네트워크가 등장했을 때, 인터넷은 이미 거의 전 세계적으로 보급되었습니다. 그리고 5G가 도입되었을 때, 많은 사람들이 완전히 합리적인 질문을 했습니다. “인터넷이 더 빠르면 – 하지만 그렇다면 무엇을 할 수 있나요?”
실제로 인터넷 속도의 증가가 사용자 편의로 귀결되지 않습니다. 그것은 전체 기술 풍경을 변환합니다. 이전에 불가능했던 사용 사례가 나타납니다. 5G는 4G보다 훨씬 빠르며, 1G에서 2G로의 점프와 같은 점진적인 발전이 아닌 지수적 발전이었습니다. 결과적으로 새로운 애플리케이션, 장치 및 기술의 전체 클래스가 나타납니다.
교통 신호 카메라, 실시간 교통 분석 시스템, 자동 교통 규제 메커니즘 – 모두 새로운 통신 기술 덕분에 가능해졌습니다. 경찰은 새로운 데이터 교환 방법을 얻었고, 우주에서는 망원경과 인공위성이大量의 정보를 지구로 전송할 수 있습니다. 기초 기술의 질적 발전은 전체 생태계의 발전을 이끌어냅니다.
同じ 원리가 계산 능력에도 적용됩니다. 인류의 총 컴퓨팅 능력을 가상 단위로 상상해 보십시오. 오늘날 우리는, 예를 들어, 10개의这样的 단위를 가지고 있습니다. 이로써 우리는 이미지와 비디오를 생성하고, 텍스트를 작성하고, 마케팅 자료를 생성할 수 있습니다… 이것은 이미 상당한 것입니다. 그러나 응용 프로그램의 범위는 주로 제한적입니다.
이제 10개가 아니라 1,000개의 이러한 단위를 가지고 있다고 상상해 보십시오. 갑자기 이전에 너무 비싼 기술이 가능해지며, 높은 계산 비용으로 인해 폐기된 스타트업이 경제적으로 의미가 있게 됩니다.
로보택시를 예로 들어 보겠습니다. 오늘날 대부분 로보택시는 차량에 설치된 비교적 약한 로컬 컴퓨터에 의존합니다. 그러나 비디오 피드가 엄청난 계산 리소스를 가진 클라우드로 전송되면 데이터를 처리하고 실시간으로 반환할 수 있습니다. 그리고 이것이 중요합니다. 100km/h로 이동하는 자동차는 몇 분의 1초 안에 결정해야 합니다 – 직진, 회전, 브레이크, 또는 브레이크하지 않습니다.
그것이 완전히 작동하는 로보택시 산업이 가능해지는 때입니다. 오늘날 우리가 볼 수 있는 것과 같은 고립된 솔루션이 아니라, 로컬 컴퓨터가 설치된 차량은 본질적으로 제한적입니다. 연결된 시스템은 아닙니다. 더 빠르게 확장할수록 세계는 더 빠르게 변할 것입니다.
칩에 대한 접근과 AI의 “골든 티켓”
계산 능력의 contexto에서, 다음과 같은 질문이 생깁니다. 현대 칩에 대한 접근이 AI 시장에 진입하는 “골든 티켓”이 되는 것일까요? 대형企業들이 칩 제조업체와 계약을 체결하거나 자체적으로 생산함으로써, 다른 모든 사람과 사이에 갭을 만들고 있나요?
그러한 갭은 오직 한 가지 경우에만 발생합니다. 즉, 비즈니스 모델이 대형 클라이언트에게 칩을 판매하는 것에만 집중하는 경우입니다. 실제로, NVIDIA와 같은 제조업체는 모든 사람에게 클라우드 솔루션을 제공하려고 합니다. 그들의 최적화된 칩은 클라우드에서 OpenAI와 독립 개발자 모두에게 사용할 수 있습니다.
Google, Anthropic, Microsoft, OpenAI, Amazon, NVIDIA와 같은 회사 간의 전략적 제휴는 주로 공유 리소스 활용을 위한 파트너십입니다. 이 모델은 계산 능力的 효율적인 할당을 가능하게 하여 기술 발전을 가속화합니다.
계산 리소스 사용의 사슬을 추적해 보면, 그것은 최종 사용자에서 시작됩니다. 예를 들어, WhatsApp를 사용하여 비디오 통화와 메시지를 보내는 경우, 회사는 서비스가 작동하도록 해야 합니다. 즉, 데이터를 저장하고 처리하며, 비디오 청소에 대한 모델을 실행하고, 효과를 추가하며, 이미지 품질을 개선합니다.
전용 서버를 유지하는 것은 비용이 많이 들며, 그것들은 구식이 되고, 끊임없이 유지 보수가 필요합니다. 그래서 “클라우드”라는 클라우드 솔루션이 등장했습니다. 시장은 세 가지 주요 플레이어가 지배하고 있습니다. Google Cloud, AWS, Microsoft Azure입니다. 다른 회사는 이 수준에서 경쟁할 수 없습니다. 인프라의 규모가 너무 커서입니다.
클라우드 서비스는 대규모 데이터 센터로, 냉각, 전원 공급, 24시간 유지 보수가 필요합니다. NVIDIA, AMD, 기타 제조업체의 서버와 전문 칩이 포함되어 있으며, 대규모 계산 프로세스를 가능하게 합니다.
여기서 제가 이전에 데이터 센터에 대한 이전 칼럼에서 논의한 주요 병목 현상을 다시 논의하고 싶습니다. 그리고 여기서 계속하고 싶습니다. 이 시스템의 주요 병목 현상은 무엇인가? 그것은 전기 부족이나 데이터 센터를 냉각하는 어려움인가, 특히 기후가 어려운 지역에서? 실제로 비밀은 칩 자체에 있습니다…
성배
NVIDIA는 오늘날 약 5조 달러의 가치가 있으며 세계에서 가장 성공적인 상장 회사 중 하나로 간주됩니다. 이유는 간단합니다. NVIDIA는 AI 모델을 훈련하고 추론에 사용되는 칩을 생산합니다.
이러한 칩 각각은 큰 모델을 훈련하거나 데이터의 증가하는 볼륨을 처리할 때 엄청난 양의 전기를 소비합니다. 그러나 그 에너지가 얼마나 효율적으로 사용되는지에 대한 질문이 있습니다. 여기서 전문 칩이 등장합니다.它们은 특정 작업을 일반적인 GPU보다 훨씬 더 효율적으로 처리합니다.
AI 모델은 다릅니다. 예를 들어, OpenAI는 한 가족의 모델을 가지고 있고, Anthropic은 다른 가족의 모델을 가지고 있습니다. 개념은 유사할 수 있지만, 수학적 구조와 계산 프로세스는 다릅니다. 일반적인 GPU는 OpenAI 모델(예: ChatGPT)을 훈련하는 경우와 Anthropic 모델(예: Claude)을 훈련하는 경우에 “하나만 맞는 도구”로 작동하며, 예를 들어, 하나의 모델에 100,000시간의 계산을 소비하고, 다른 모델에 150,000시간의 계산을 소비합니다. 효율성은 상당히 다르며, 거의 최적화되지 않습니다.
회사는 이 문제를 해결하기 위해 전문 칩을 생산합니다. 예를 들어, 하나의 칩은 ChatGPT 아키텍처에 최적화되어 20분 안에 훈련을 완료할 수 있으며, 다른 칩은 Anthropic의 아키텍처에 최적화되어 20분 안에 훈련을 완료할 수 있습니다. 에너지 소비와 훈련 시간은 일반적인 칩보다 여러 번 줄어듭니다.
이러한 칩이 대형 회사에 판매될 때, 예를 들어 Google, Amazon, Microsoft, Azure에 판매될 때, 그것들은 별도의 제품으로 제공됩니다. 사용자는 예를 들어 YOLO 모델에 최적화된 칩이나 Xen 아키텍처에 최적화된 더 단순하고 저렴한 칩을 선택할 수 있습니다. 이 方式으로, 회사는 자신의 작업에 정확하게 맞는 계산 리소스에 접근할 수 있으며, 일반적인 GPU를 구매할 필요가 없습니다. 사용자가 10개의 다른 기능을 가지고 있다면, 10개의 다른 전문 칩을 사용할 수 있습니다.
추세는 명확합니다. 전문 칩은 점차적으로 일반적인 칩을 대체하고 있습니다. 많은 스타트업이 현재 ASICs(응용 특정 집적 회로)를 사용하고 있습니다. 즉, 특정 계산 작업을 위한 칩입니다. 첫 번째 ASICs는 비트코인 채굴을 위해 나타났습니다. 처음에 비트코인은 NVIDIA GPU에서 채굴되었으며, 이후 비트코인만을 위한 칩이 만들어졌으며, 다른 작업을 수행할 수 없었습니다.
저는 실제로 이것을 관찰합니다. 동일한 하드웨어 구성이 작업에 따라 완전히 다른 결과를 생성할 수 있습니다. 제 스타트업 Introspector에서, 우리는 이러한 프로세스를 실제 프로젝트에서 연구하며, Keymakr의 전략적 고문으로서, 클라이언트가 전문 칩에서 효율성을 얻는 것을 관찰합니다. 이전에 훈련이나 추론 중에 중단된 프로젝트는 이러한 접근 방식으로 안정적인 결과에 도달합니다.
그러나 狭い 전문가는 위험을 수반합니다. Anthropic의 아키텍처에 최적화된 칩은 OpenAI 모델을 훈련하는 데 사용할 수 없으며, 그 반대도 마찬가지입니다. 각 새로운 아키텍처는 새로운 하드웨어 세대를 필요로 하며, 이는 대규모 “폐기”의 위험을 만듭니다. 만약 Anthropic이 내일 새로운 아키텍처를 발표한다면, 이전 세대의 모든 칩은 비효율적이거나 쓸모없게 됩니다. 새로운 칩을 생산하는 것은 수십억 달러의 비용이 들며, 수년이 걸릴 수 있습니다.
이것은 딜레마를 만듭니다. 우리는狭い 전문 칩을 만들어야 하는지, 아니면 모든 작업을 중간 정도로 잘 해결하는 일반적인 칩을 계속 생산해야 하는지에 대한 질문입니다.
이 컨텍스트에서 효율성은 세 가지 주요 매개변수에 의해 측정됩니다. 실행 시간, 전기 소비, 열 발생입니다. 이러한 매개변수는 직접적으로 관련되어 있습니다. 시스템이 더 오래 실행될수록 더 많은 에너지를 소비하며, 더 많은 열을 발생시킵니다. 한 매개변수를 줄이면 다른 두 매개변수가 자동으로 개선됩니다.
여기에는 인공지능 성능의 “성배”가 있습니다. 즉, 기본적인 효율성 매개변수 중 하나를 최적화할 수 있다면, 다른 매개변수도 거의 자동으로 개선됩니다.
지속 가능한 프로세스
전문 칩의 사용이 증가함에 따라, 과잉 생산의 위험성이 급증하고 있습니다. 현재 기기 과잉은 이미 상당하며, 회사는 다양한 지속 가능한 방법으로 이 문제를 해결하고 있습니다. 기존 리소스의 재사용을 포함하여.
장비 재활용은 하이테크 산업에서 지속 가능한 발전의 핵심 요소가 되었습니다. 칩에는 귀금속, 구리, 알루미늄, 팔라듐, 희토류 물질 및 마이크로 칩과 트랜지스터에 사용되는 물질이大量으로 포함되어 있습니다. 기기가 구식이 되면 이러한 귀중한 리소스를 생산으로 반환하여 새로운 구성 요소의 비용을 줄일 수 있으며, 동시에 산업의 환경적 영향을 줄일 수 있습니다.
일부 전문 공장과 회사는 구식 구성 요소에서 귀중한 금속을 재활용하고 추출하는 데 중점을 두고 있습니다. 일부 시설은 금과 구리를 높은 순도로 추출하기 위해 수력 역학적 공정과 고급 화학적 방법을 사용하여, 이러한 물질을 새로운 칩에서 재사용할 수 있습니다.
또한, 회사는 폐쇄 루프 모델을 구현하고 있습니다. 즉, 구식 기기를 업그레이드하거나 새로운 솔루션에 통합하여, 원자재 추출의 필요성을 줄이며, 전통적인 채굴과 금속 처리가 상당한 에너지를 필요로 하기 때문에, 생산의 탄소 발자국을 낮추는 데 도움이 됩니다. 이러한 접근 방식은 폐기물을 최소화하는 데 도움이 되며, 기술 발전과 환경 책임이 일치하는 산업 표준이 될 수 있습니다.












