Connect with us

์ž๊ฐ€ ํ•™์Šตํ•˜๋Š” AI, ๋” ์ด์ƒ ๊ณผํ•™ ์†Œ์„ค์ด ์•„๋‹ˆ๋‹ค

์ธ๊ณต์ง€๋Šฅ

์ž๊ฐ€ ํ•™์Šตํ•˜๋Š” AI, ๋” ์ด์ƒ ๊ณผํ•™ ์†Œ์„ค์ด ์•„๋‹ˆ๋‹ค

mm

新興 AI 프레임워크는 기계가 스스로 개선될 수 있는 방향으로 급진적인 도약을 향해 가고 있다. 인간의 통찰력이 필요 없는 자가 개선 가능한 기계이다.

수년간 가장 발전된 AI 모델은 수동 엔진으로 남아 있었고, 수정할 수 없는 훈련 데이터에 기반하여 응답을 예측했다. 그러나 오늘날 AI의 다음 장은 모델의 크기가 아니라 모델이 스스로 진화할 수 있는지 여부에 달려 있다.

최근 MIT 연구진은 자체 적응형 대규모 언어 모델(SEAL)이라고 불리는 새로운 AI 프레임워크를 공개했다. 이 접근 방식은 대규모 언어 모델(LLM)이 자율적으로 스스로를 개선할 수 있도록 허용하여 AI가 자신의 제한을 진단하고 내부 피드백 루프를 통해 강화 학습으로 자신의 신경 가중치를 영구적으로 업데이트할 수 있다. 연구자들이 오류를 발견하거나 새로운 프롬프트를 작성하거나 추가 예시를 제공할 필요 없이 모델이 자신의 진화를 완전히 소유한다.

“대규모 언어 모델(LLM)은 강력하지만 정적이다. 새로운 작업, 지식 또는 예시에 대한 반응으로 가중치를 적응시키는 메커니즘이 없다”고 MIT 연구진은 블로그 게시물에서 썼다. “지식 통합 및 少샷 일반화에 대한 실험은 SEAL이 새로운 데이터에 대한 언어 모델의 자율적 적응에 대한 약속된 단계임을 보여준다.”

초기 테스트에서 이 자체 편집 루프를 통해 모델은 완전한 실패에서 성공으로 이동하여 복잡한 추상적推論 퍼즐에서 72.5%의 성공률을 기록했으며, 전통적인 방법으로는 실패했다. 또한 SEAL은 인간의 감시를 85% 줄이고 정확도와 적응성을 높인다고 보고된다.

자율적 기계 지능의 부상

SEAL은 자율적 기계 지능으로의 더广い 추세의 일부이다. 예를 들어, Sakana AI의 연구자들은 다윈-괴델 머신을 소개했다. 이것은 개방형 진화 전략을 사용하여 자신의 코드를 다시 작성하는 AI 에이전트이다.

“자체 개선 사항을 생성한다. 예를 들어, 패치 유효성 검사 단계, 파일 보기 개선, 편집 도구 강화, 여러 솔루션을 생성하여 최고의 것을 선택하고, 새로운 변경 사항을 적용할 때 이전에 시도한 내용과 이유를 추가한다”고 Sakana AI는 블로그 게시물에서 썼다.

同様하게, Anthropic의 AI 에이전트 Claude 4를 사용하여 코드베이스와 비즈니스 도구에 대한 워크플로우를 자율적으로 오케스트레이션할 수 있다.

“자산의 유형, 환경 및 기록에 따라 시스템을 다시 구성하는 것은 반응적인 응답에서 지속적인 예방 전략으로 이동하는 것을 허용한다”고 Fracttal의 CEO이자 공동 창립자 인 Christian Struve는 나에게 말했다. “중요한 것은 모델이 더 크거나 더 많은 매개변수를 가지지 않는 것이다. 더 자율적이고 더 유용한 시스템이 중요하다.”

이 노력들을 결합하는 핵심 信念은 AI가 더 inteligent해지기 위해 더 크게 될 필요가 없다는 것이다. 더 적응성이 있어야 한다.

“크기의 확대는 주요 성과를 가져왔지만, 우리는 크기만으로 달성할 수 있는 한계에 도달하고 있다. 자체 적응형 학습 모델인 SEAL은 시스템이 시간이 지남에 따라 성장하고 개선될 수 있도록 허용하여 매력적인 다음 단계를 제공한다”고 Dataco의 창립자이자 CEO 인 Jorge Riera는 나에게 말했다. “자체 진화 모델은 또한 진행 상황을 정적 벤치마크에서 적응성, 학습 효율성 및 안전한 장기적인 개선의 척도로 전환한다. 모델이 배포될 때 무엇을 알고 있는지 테스트하는 대신 모델이 시간이 지남에 따라 어떻게 학습하고, 유지하고, 진화하는지 평가할 수 있다.”

AI 생태계 및 자율성에 대한 글로벌 경쟁에 대한 영향

이 수준의 자율성은 또한 AI 배포의 경제학을 다시 작성한다. 즉, 새로운 위협에 반응하여 즉시 업데이트되는 사기 탐지 시스템이나 학생의 행동에 따라 가르치는 방식을 변경하는 AI 교사와 같은 시스템을 상상해 보라. 로봇공학에서 자체 적응 프레임워크는 재프로그램 없이 새로운 동작 패턴을 학습할 수 있는 자율적 기계로 이어질 수 있다.

중동 전역에서 UAE, 사우디아라비아와 같은 국가들은 적응을 위한 기초 모델을 신속하게 구축하고 있다. UAE의 FalconG42의 Jais는 지역적 관련성을 고려하여 구축된 오픈 소스 LLM이다. 사우디아라비아의 ALLaM과 Aramco Digital의 Metabrain은 스마트 시티, 헬스케어 및 물류를 위한 자율적 AI 에이전트의 영역으로 나아가고 있다.

이 노력들은 아직 MIT의 SEAL과 같은 자체 편집 기능을 갖추고 있지 않지만, 모두 공통의 방향을 공유한다. 즉, 수동적 AI 시스템에서 제한된 인간의 지시에 의해 복잡성을 탐색할 수 있는 능동적이고 진화하는 에이전트로의 이동이다. 또한 SEAL과 마찬가지로, 이러한 이니셔티브는 강력한 거버넌스 프레임워크에 의해 뒷받침되며, AI 자율성이 책임과 함께 짝지어져야 한다는 인식이 증가하고 있다.

“이것은 인간의 개입 없이 자신의 논리를 수정할 수 있는 자체 관리 시스템으로의 첫 번째 단계이다”라고 Struve는 말했다. “나는 인공 지능이 지능의 정의를 재정의하지는 않지만, 우리가 그것과 관계를 재고해야 한다고 믿는다. 중요한 것은 모델이 진화한다는 것이 아니라, 우리가 인간으로서 정의한 목표에 따라 진화한다는 것이다.”

Gorilla Logic의 CTO 인 Jeff Townes도 AI 진화와 함께 거버넌스가 발전해야 한다는 점을 강조했다. “AI가 진화할 수 있는지 여부는 문제가 아니다. 기업이 AI와 함께 진화할 수 있는지 여부이다. 거버넌스는 모든 AI 적응을 명확한 결과와 KPI에錨定해야 한다. 그러면 리더가 측정하고 신뢰할 수 있는 지표가 된다. 따라서 혁신은 위험 대신 확신과 함께 확장된다.”

자체적으로 코드를 다시 작성하는 AI에 준비가 되었는가?

SEAL이 제기하는 가장 провок적인 질문은 기술적인 것이 아니다. 즉, 모델이 스스로를 가르칠 수 있다면, 우리는 그들의 가치, 우선순위 및 방향을 형성하는 역할을 하는가?

전문가들은 자율적 AI 시스템이 자율성을 얻음에 따라, 자체 개선의 추진이 윤리적 가드를 설정하는 것보다 앞서지 않도록 경고한다. “모든 AI 시스템은 최소한 세 가지 기본적인 윤리 원칙을 포함해야 한다”고 Kryterion의 CTO 인 Jacob Evans는 말했다.

“첫째, 이는 말할 필요도 없지만, AI는 자신을 AI로 식별해야 한다. 둘째, AI는 인간 중심적이어야 하며, 인간의 판단을 대체하는 것이 아니라 보완해야 한다. 마지막으로, AI는 자신의 제한과 불확실성을 인정해야 하며, 심각한 피해를 유발할 수 있는 정보를 제공하는 것을 거부해야 한다. 이러한 안전 장치 없이 AI는 신뢰할 수 있는 지원 도구가 아닌 조작의 도구가 될 수 있다.”

“모델을 프로덕션에서 자체적으로 개선할 수 있도록 하려면, 정적인 훈련이 아닌 동적인 피드백 루프가 필요하다. 강력한 방법은 ‘디지털 트윈’ 또는 모델이 자체적으로 생성된 개선 사항을 안전하게 테스트하고 검증할 수 있는 복잡한 샌드박스 환경을 사용하는 것이다. 이러한 환경에서 모델은 사용자에게 배포되기 전에 먼저 테스트하고 검증할 수 있다”고 Automotus의 컴퓨터 비전 엔지니어 인 Ganesh Vanama는 말했다.

거버넌스에 대해 Vanama는 “비교할 수 없는 제어는 ‘인간-루프’监督이다”라고 말했다. “우리는 모델이 적응할 수 있기를 원하지만, 모델이 의도한 목표 또는 안전 제약 조건에서 벗어나지 않도록 지속적인 모니터링이 필요하다. 이 시스템은 인간 감시자가 안전성 또는 성능 검토에 실패한 경우에 대한 자율적 업데이트에 대한 거부 또는 즉시 롤백을 허용해야 한다.”

다른 전문가들은 여전히 이러한 안전 장치를 개발할 수 있는 시간이 있다고 주장하며,真正로 강력하고 일반적인 목적의 자체 개선 AI를 구축하는 것은 여전히 엄청난 도전이라고 주장한다.

“이러한 모델은 아직 실시간으로 자신을 재프로그램하는 능력이 없다. 오류 강화 방지, 치명적인 망각 방지, 업데이트期间의 안정성 유지 및 내부 변경 사항에 대한 투명성 유지와 같은 주요 도전이 여전히 남아 있다”고 Riera는 말했다. “그것들이 해결될 때까지, 완전한 자율적 적응은 현실이 아닌 전선이다.”

MIT의 연구진은 SEAL을 필수적인 진화로 본다. MIT의 리드 과학자 중 한 사람이 말했다. 이 프레임워크는 현재까지 인간의 학습을 가장 잘 반영하는 것이다.

“이러한 시스템은 정적인 한 번의 모델에서 경험에서 학습하고, 메모리를 관리하고, 시간이 지남에 따라 목표를 추구할 수 있는 적응형 아키텍처로의 이동을 암시한다. 방향은 명확하다. 계속해서 자신을 조정할 수 있는 모듈식, 상황 인식형 지능으로”고 Riera는 나에게 말했다. “아직 실험 단계에 있지만, 이 접근 방식은 더 자율적이고 강력한 AI 시스템으로의 의미 있는 단계를 나타낸다.”

이것이 더 개인화된 시스템이나 완전히 새로운 형태의 기계 에이전트로 이어질지는尚未 확인이다. 자가 학습 AI의 시대가 도착했으며, 자신의 코드를 다시 작성하는 것 이상을 다시 작성하고 있다. 그것은 기계가 무엇이 될 수 있는지에 대한 규칙을 다시 작성하고 있다.

Victor Dey๋Š” ๊ธฐ์ˆ  ํŽธ์ง‘์ž์ด์ž ์ž‘๊ฐ€๋กœ, ๊ธฐ์—… ์˜์—ญ ๋‚ด์—์„œ ์ธ๊ณต์ง€๋Šฅ, ์•”ํ˜ธํ™”ํ, ๋ฐ์ดํ„ฐ ๊ณผํ•™, ๋ฉ”ํƒ€๋ฒ„์Šค ๋ฐ ์‚ฌ์ด๋ฒ„ ๋ณด์•ˆ์„ ๋‹ค๋ฃน๋‹ˆ๋‹ค. ๊ทธ๋Š” VentureBeat, Metaverse Post, Observer ๋“ฑ์„ ํฌํ•จํ•œ ์œ ๋ช… ๋ฏธ๋””์–ด ์•„์›ƒ๋ ›์—์„œ ์ผํ•˜๋ฉด์„œ ๋ฏธ๋””์–ด ๋ฐ ์ธ๊ณต์ง€๋Šฅ ๊ฒฝํ—˜์„ 5๋…„ ์ด์ƒ ๋ณด์œ ํ•˜๊ณ  ์žˆ์Šต๋‹ˆ๋‹ค. Victor๋Š” ์˜ฅ์Šคํฌ๋“œ ๋Œ€ํ•™๊ต ๋ฐ ๋‚จ๋ถ€ ์บ˜๋ฆฌํฌ๋‹ˆ์•„ ๋Œ€ํ•™๊ต๋ฅผ ํฌํ•จํ•œ ์ฃผ์š” ๋Œ€ํ•™์˜ ๊ฐ€์†๊ธฐ ํ”„๋กœ๊ทธ๋žจ์—์„œ ํ•™์ƒ ์ฐฝ์—…์ž๋ฅผ ๋ฉ˜ํ† ๋งํ–ˆ์œผ๋ฉฐ, ๋ฐ์ดํ„ฐ ๊ณผํ•™ ๋ฐ ๋ถ„์„ ๋ถ„์•ผ์˜ ์„์‚ฌ ํ•™์œ„๋ฅผ ๋ณด์œ ํ•˜๊ณ  ์žˆ์Šต๋‹ˆ๋‹ค.