본문 바로가기 주메뉴 바로가기 검색 바로가기
실리콘 칩에 새기는 AI 통제, 최후의 심판 위기 막을 것
상태바
실리콘 칩에 새기는 AI 통제, 최후의 심판 위기 막을 것
미국을 포함한 여러 국가가 AI의 위험한 사용 사례를 막을 방법을 고심하는 가운데, 일부 연구원이 GPU와 같은 중요한 칩 제한 설립으로 알고리즘의 역량 상한을 정하는 방안을 제안했다.
By WILL KNIGHT, WIRED US

가장 영리하면서도 교묘한 인공지능(AI) 알고리즘은 실리콘의 법칙을 따르는 것으로 추정된다. AI 알고리즘의 역량은 AI 알고리즘을 실행하는 하드웨어가 제어한다.

일부 연구원은 AI 알고리즘과 하드웨어의 관계를 최대한 활용하여 AI 시스템이 피해를 미칠 가능성을 제한하는 방법을 탐색한다. 첨단 알고리즘 훈련과 개발 방식을 AI 알고리즘 실행 시 필요한 컴퓨터 칩에서 직접 관리하는 규정을 마련하는 방법을 활용한다.

위험할 정도로 강력한 AI라는 주제로 각종 논의가 펼쳐지는 현재 이론상 국제법 위반 국가나 위험한 AI를 몰래 개발하는 행위를 책임지지 않는 기업을 대상으로 법을 위반할 강력한 수단을 새로이 제공하는 역할을 한다. 관습법이나 조약보다 위험한 AI 책임을 피하는 것이 더 어렵다. 2024년 1월, 권위 있는 외교 정책 국책연구소인 신미국안보센터는 조심스럽게 제한 사항을 적용한 실리콘을 광범위한 AI 통제 시행 시 활용할 방법을 기술한 보고서를 발행했다.

일부 칩은 이미 민감 데이터 보호나 악용 방지 목적으로 설계된 신뢰할 만한 구성 요소를 활용한다. 예를 들어, 최신 아이폰은 사용자의 생체 정보를 보안 인클레이브(secure enclave, SEP)저장한다. 구글은 자사 클라우드 서버에서 자체 개발 칩을 이용하여 어떠한 방해도 없도록 보장한다.

연구 논문은 GPU 내부에 기본으로 적용된 유사한 기능, 다시 말해 추후 생산될 칩에 AI 제한 기능을 새기는 방식으로 AI 프로젝트가 허가 없이 일정량을 넘어선 수준의 컴퓨터 전력에 접근하지 못하도록 한다. 챗GPT의 근간이 된 AI 알고리즘처럼 가장 강력한 AI 알고리즘을 훈련할 때 다량의 컴퓨터 전력이 필요하므로 최고 수준의 시스템 개발을 제한할 것이다.

신미국안보센터는 정부나 국제 규제 기관이 라이선스를 발급하고 주기적으로 갱신하며, 새로운 AI 접근을 거부하는 방식으로 훈련 접근을 제한할 수 있다고 설명한다. 신미국안보센터 펠로이자 신미국안보센터 연구 보고서 저자 3인 중 한 명인 팀 피스트(Tim Fist)는 “안전과 같이 특정 평가를 진행하여 정해진 한계치보다 더 높은 점수를 기록한 모델만 구축하는 프로토콜을 설계할 수 있다”라고 설명했다.
 
[사진=Unsplash]
[사진=Unsplash]

AI 부문의 일부 유력 인사는 AI가 언젠가 통제할 수 없는 수준으로 위험해질 정도로 지능을 갖출 가능성을 우려한다. 또한, 일부 전문가와 정부 기관은 기존 AI 모델이 생화학 무기 개발 능력이나 사이버 범죄 자동화 능력을 갖출 시점이 가까워질 것을 우려한다. 미국 정부는 이미 AI 수출 통제 법률을 여럿 시행하여 중국이 최첨단 AI를 개발할 가능성을 막고자 한다. 중국이 군사 목적으로 AI를 이용할 가능성을 우려하기 때문이다. 그러나 AI 칩을 몰래 수출하거나 영리한 엔지니어링 방식으로 수출 통제법을 어느 정도 피할 수 있는 것으로 입증됐다. 엔비디아는 수출 통제법 회피 문제 관련 문의에 답변하지 않았다. 다만, 지난 미국 수출 통제 때문에 중국에 수십억 달러 상당의 손실을 기록했다고 밝혔다.

피스트는 컴퓨터 하드웨어의 강력한 제한 규정 도입이 극단적인 조처처럼 보이지만, 중요한 기술 감독이나 통제 목적의 인프라 설립, 국제 협약 시행이라는 선례가 있다. 피스트는 “보안과 비핵화를 고려한다면, 국제 협약 준수 보장 시 검증 기술이 절대적으로 필요하다. 국제 협약의 근간이 되는 지하 핵 실험 탐지 시 사용하는 지진계 네트워크를 통해 일정한 무게 제한을 넘긴 범위에서 지하 무기 실험을 진행해서는 안 된다는 사실을 입증했다”라고 설명했다.

신미국안보센터가 제안한 AI 제한 노력은 단순히 이론상의 주장만은 아니다. 엔비디아의 가장 강력한 AI 모델 개발 시 중요한 구성요소인 중요한 AI 훈련 칩은 이미 암호학 모듈로 강력한 보안 보호를 적용했다. 2023년 11월, 기존 위협에 맞선 인류 보호에 헌신하는 비영리단체인 퓨처 오브 라이프(Future of Life Institute)와 보안 스타트업 미트릴 시큐리티(Mithril Security) 연구팀은 인텔 CPU의 보안 모듈을 AI 모델의 권한 없는 사용 제한 노력에 활용할 방법을 입증한 데모를 진행했다.

개념 증명은 실제 AI 훈련 시 중요하지만, 기업이 고객에게 AI 모델 행동 정의의 핵심 요소인 모델의 역량에 접근할 수 없는 방식을 보장하면서 모델을 제공하는 방식을 보여준다. 또한, 특정 한계치를 넘어선 과도한 이용을 막고, AI 모델 사용을 비활성화할 칩에 보낼 원격 비활성화 스위치를 제공하기도 한다.

AI 모델 통제 목적의 실제 지진계나 하드웨어 개발 및 구축은 기술적, 정치적 이유로 더 어려운 것으로 입증될 수 있다. 새로운 암호학 소프트웨어 제도 개발이 필요하기 때문이다. 어쩌면, 추후 생산될 AI 칩의 새로운 하드웨어 기능과 함께 필요할 것이다. 또한, 테크 업계에서 받아들일 수 있는 수준의 조건을 제공하는 동시에 수출 제한을 교묘하게 피하면서 첨단 칩 제조 장비를 구매하려는 적국에는 비싼 가격과 실용적이지 않은 구매 조건을 제공할 것이다. 1990년대, 국가안전보장국(NSA)가 암호화 메시지에 몰래 백도어를 설치하도록 한 클리퍼 칩과 같이 국가 안보라는 명목으로 컴퓨터를 제한하려던 노력은 큰 성공을 거두지 못했다.

오픈소스 AI 프로젝트 엘루더AI(EleutherAI) 정책 및 윤리 사장 아비야 스코우론(Aviya Skowron)은 “테크 업계에서는 합리적인 이유로 제조사가 구축하고자 할 때 비슷한 하드웨어 개입을 반대한 적이 있다”라며, “강력한 성능을 갖추고, 충분히 통제할 수 있는 칩 개발을 제안하는 데 필요한 기술적 발전은 사소한 일이 아니다”라고 말했다.

미국 정부도 신미국안보센터의 AI 칩 개발 시 적용하는 AI 모델 제한 방식에 관심을 보였다. 2023년 10월, 미국 상무부 산하 산업안보국(Bureau of Industry and Security)은 AI 칩의 AI 역량 제한을 허용할 기술 해결책의 의견 공개 요청을 발행했다. 2023년 4월, 미국 정부와의 협력 및 자문을 담당한 비영리단체인 랜드(Rand) CEO 제이슨 매스니(Jason Matheny)는 미 의회에 출석하여 AI 칩에 삽입한 마이크로 전자 공학 제어를 연구하여 보안 안전망 없는 대규모 AI 모델 개발을 막는 것을 국가안보 우선 순위로 지정해야 한다고 주장했다.

** 위 기사는 와이어드US(WIRED.com)에 게재된 것을 와이어드코리아(WIRED.kr)가 번역한 것입니다. (번역 : 고다솔 에디터)

<기사원문>
Etching AI Controls Into Silicon Could Keep Doomsday at Bay
이 기사를 공유합니다
RECOMMENDED