By WILL KNIGHT, WIRED US
2024년 7월 둘째 주, 오픈AI CEO 샘 알트만과 보건 기업 스라이브글로벌(Thrive Global) 창립자 겸 CEO 아리아나 히핑턴(Arianna Huffington)이 미국 유력 잡지 타임에 스라이브글로벌과 오픈AI의 스타트업 펀드의 지원을 받는 스타트업인 ‘스라이브 AI(Thrive AI)’를 홍보하는 기사를 게재했다. 기사는 인공지능(AI)이 사용자에게 더 건강한 행동을 하도록 설득하여 대중의 건강 개선에 도움이 될 수 있다고 주장한다.
알트만과 허핑턴은 스라이브 AI가 사용자에게 맞춘 실시간 행동 변화 유도 및 추천 사항을 제공하는 개인 AI 코치를 완벽히 통합하기 위한 작업을 진행 중이라고 밝혔다. 사용자가 건강 향상이 가능한 일상 행동을 실천하도록 유도하는 것이 목표이다.
스라이브 AI의 비전은 AI의 가장 날카로운 양날의 검 중 하나로 입증된 바를 긍정적으로 활용하는 것이다. AI 모델은 이미 인간을 설득하는 능력이 뛰어나다. 하지만 AI가 발전하여 개인 데이터 접근 범위가 넓어질 때는 얼마나 더 강력해질 것인지는 모른다.
MIT의 안식 기간을 맞은 교수인 알렉산더 마드리(Aleksander Madry) 교수는 AI의 잠재적 발전 수준을 연구하는 오픈AI 팀 프리페어드니스(Preparedness)를 이끈다.
마드리 교수는 2024년 5월, 와이어드와의 인터뷰에서 “프리페어드니스가 진행하는 작업 중 하나는 설득 능력이다. 기본적으로 인간을 설득할 수단으로 AI 모델을 사용할 수 있는 범위를 생각한다”라고 말했다.
마드리 교수는 언어 모델의 놀라운 잠재력과 AI 모델이 제기하는 위험성 연구가 드물다는 사실이 흥미롭다고 느껴 오픈AI에 합류했다고 밝혔다. 그는 “말 그대로 AI의 잠재력과 위험성은 말 그대로 입증된 과학적 연구가 없다. 프리페이드니스의 노력 동기이다”라고 전했다.
설득 능력은 챗GPT와 같은 AI 챗봇 프로그램의 핵심 요소이자 매우 매력적인 기술로 완성하는 요소 중 하나이다. 언어 모델은 무수히 많은 거짓과 설득력을 부여하는 속임수, 기법 등을 포함한 인간의 글과 대화를 바탕으로 훈련된다. AI 모델은 보통 실수를 사용자가 더 설득력이 있다고 느끼는 유창한 글로 정교하게 교정한다.
2024년 4월, 오픈AI 전 직원 여러 명이 모여 설립한 오픈AI의 경쟁사인 앤트로픽(Anthropic)은 대규모 언어 모델의 규모가 커지고, 더 정교해지면서 설득 능력이 더 우수해졌다고 설명하는 연구 논문 한 편을 게재했다. 연구 과정에는 연구 참여자에게 자신의 의견을 공식 작성한 뒤 AI가 생성한 주장을 접한 후의 의견 변화 분석 과정도 포함되었다.
오픈AI의 연구 범위는 사용자와의 대화 도중 AI를 분석하는 과정까지 확장되었다. 오픈AI의 연구 결과가 AI의 설득력을 더 강화할 수도 있다. 마드리 교수는 연구 참가자의 동의를 받고 연구를 진행했다고 언급했으나 최종 결과 발견까지 남은 시점 공개는 거부했다. 다만, 언어 모델의 설득력이 매우 강력하다고 언급했다. 그는 “인간은 특정 대상과 자연어로 소통할 때는 인간이라고 생각한다는 약점이 있다”라며, 인간이라고 착각할 수 있는 수준이면서 설득력을 갖출 수 있는 의인화 작업을 언급했다.
타임에 게재된 스라이브 AI 기사는 설득 능력이 있는 AI가 가져올 건강의 이점에는 엄격한 안전 조처가 필요하다고 주장한다. AI 모델이 지금보다 훨씬 더 많은 개인 정보에 접근할 수 있기 때문이다. 해당 기사에는 “정책 입안자가 AI 혁신을 조성하는 동시에 프라이버시를 보호하는 규제 환경을 조성할 필요가 있다”라고 작성되었다.
AI와 관련하여 정책 입안자는 더 많은 사안을 고려해야 한다. 설득 능력이 있는 AI 알고리즘의 악용 사례가 증가할 수도 있다는 점을 평가하는 것도 중요하다. AI 알고리즘은 거짓 정보 확산이나 불특정 다수를 속일 정도의 설득력을 갖춘 피싱 스캠 생성 능력을 강화할 수 있다. 제품 광고에도 설득력이 있는 AI를 사용할 수도 있다.
마드리 교수는 장기적으로 입증될 수 있는 사용자와 소통하는 AI 프로그램의 설득력이나 특정 행동 강요 수준을 핵심 의문점으로 지목했다. 오픈AI나 다른 기업이 아직 연구하지 않은 주제이기도 하다. 이미 연인 관계를 포함한 여러 특정 대상 역할을 하는 챗봇을 제공하는 기업 여러 곳을 찾아볼 수 있다. 간혹 잔소리를 퍼붓도록 설계되기도 한 AI 여자 친구가 날이 갈수록 인기를 얻는 추세이다. 그러나 AI 챗봇의 중독성과 설득력은 지금까지 알려진 바가 거의 없다.
2022년 11월 출시 후 챗GPT가 생성한 흥미와 과장 광고로 오픈AI와 외부 연구원, 복수 정책 입안자가 AI의 개발자 의도에 반하는 행동 가능성이라는 이론 질문에 더 초점을 맞추게 되었다.
마드리 교수는 자칫하면 유창한 알고리즘이 제기하는 더 미묘한 위험성을 무시하게 될 수도 있다고 말한다. 그는 지금까지 정책 입안자가 펼친 AI 규제 노력을 언급하며, “잘못된 질문에 집중하는 것이 우려스럽다. 일부 측면에서 누구나 AI 문제를 논의하므로 AI 문제를 다루고 있다고 주장하는 것과 다를 바 없다. 하지만 실제로 올바른 문제를 논의하지 않는다”라고 평가했다.
** 위 기사는 와이어드US(WIRED.com)에 게재된 것을 와이어드코리아(WIRED.kr)가 번역한 것입니다. (번역 : 고다솔 에디터)
<기사원문>
OpenAI Is Testing Its Powers of Persuasion
2024년 7월 둘째 주, 오픈AI CEO 샘 알트만과 보건 기업 스라이브글로벌(Thrive Global) 창립자 겸 CEO 아리아나 히핑턴(Arianna Huffington)이 미국 유력 잡지 타임에 스라이브글로벌과 오픈AI의 스타트업 펀드의 지원을 받는 스타트업인 ‘스라이브 AI(Thrive AI)’를 홍보하는 기사를 게재했다. 기사는 인공지능(AI)이 사용자에게 더 건강한 행동을 하도록 설득하여 대중의 건강 개선에 도움이 될 수 있다고 주장한다.
알트만과 허핑턴은 스라이브 AI가 사용자에게 맞춘 실시간 행동 변화 유도 및 추천 사항을 제공하는 개인 AI 코치를 완벽히 통합하기 위한 작업을 진행 중이라고 밝혔다. 사용자가 건강 향상이 가능한 일상 행동을 실천하도록 유도하는 것이 목표이다.
스라이브 AI의 비전은 AI의 가장 날카로운 양날의 검 중 하나로 입증된 바를 긍정적으로 활용하는 것이다. AI 모델은 이미 인간을 설득하는 능력이 뛰어나다. 하지만 AI가 발전하여 개인 데이터 접근 범위가 넓어질 때는 얼마나 더 강력해질 것인지는 모른다.
MIT의 안식 기간을 맞은 교수인 알렉산더 마드리(Aleksander Madry) 교수는 AI의 잠재적 발전 수준을 연구하는 오픈AI 팀 프리페어드니스(Preparedness)를 이끈다.
마드리 교수는 2024년 5월, 와이어드와의 인터뷰에서 “프리페어드니스가 진행하는 작업 중 하나는 설득 능력이다. 기본적으로 인간을 설득할 수단으로 AI 모델을 사용할 수 있는 범위를 생각한다”라고 말했다.
마드리 교수는 언어 모델의 놀라운 잠재력과 AI 모델이 제기하는 위험성 연구가 드물다는 사실이 흥미롭다고 느껴 오픈AI에 합류했다고 밝혔다. 그는 “말 그대로 AI의 잠재력과 위험성은 말 그대로 입증된 과학적 연구가 없다. 프리페이드니스의 노력 동기이다”라고 전했다.
설득 능력은 챗GPT와 같은 AI 챗봇 프로그램의 핵심 요소이자 매우 매력적인 기술로 완성하는 요소 중 하나이다. 언어 모델은 무수히 많은 거짓과 설득력을 부여하는 속임수, 기법 등을 포함한 인간의 글과 대화를 바탕으로 훈련된다. AI 모델은 보통 실수를 사용자가 더 설득력이 있다고 느끼는 유창한 글로 정교하게 교정한다.
2024년 4월, 오픈AI 전 직원 여러 명이 모여 설립한 오픈AI의 경쟁사인 앤트로픽(Anthropic)은 대규모 언어 모델의 규모가 커지고, 더 정교해지면서 설득 능력이 더 우수해졌다고 설명하는 연구 논문 한 편을 게재했다. 연구 과정에는 연구 참여자에게 자신의 의견을 공식 작성한 뒤 AI가 생성한 주장을 접한 후의 의견 변화 분석 과정도 포함되었다.
오픈AI의 연구 범위는 사용자와의 대화 도중 AI를 분석하는 과정까지 확장되었다. 오픈AI의 연구 결과가 AI의 설득력을 더 강화할 수도 있다. 마드리 교수는 연구 참가자의 동의를 받고 연구를 진행했다고 언급했으나 최종 결과 발견까지 남은 시점 공개는 거부했다. 다만, 언어 모델의 설득력이 매우 강력하다고 언급했다. 그는 “인간은 특정 대상과 자연어로 소통할 때는 인간이라고 생각한다는 약점이 있다”라며, 인간이라고 착각할 수 있는 수준이면서 설득력을 갖출 수 있는 의인화 작업을 언급했다.
타임에 게재된 스라이브 AI 기사는 설득 능력이 있는 AI가 가져올 건강의 이점에는 엄격한 안전 조처가 필요하다고 주장한다. AI 모델이 지금보다 훨씬 더 많은 개인 정보에 접근할 수 있기 때문이다. 해당 기사에는 “정책 입안자가 AI 혁신을 조성하는 동시에 프라이버시를 보호하는 규제 환경을 조성할 필요가 있다”라고 작성되었다.
AI와 관련하여 정책 입안자는 더 많은 사안을 고려해야 한다. 설득 능력이 있는 AI 알고리즘의 악용 사례가 증가할 수도 있다는 점을 평가하는 것도 중요하다. AI 알고리즘은 거짓 정보 확산이나 불특정 다수를 속일 정도의 설득력을 갖춘 피싱 스캠 생성 능력을 강화할 수 있다. 제품 광고에도 설득력이 있는 AI를 사용할 수도 있다.
마드리 교수는 장기적으로 입증될 수 있는 사용자와 소통하는 AI 프로그램의 설득력이나 특정 행동 강요 수준을 핵심 의문점으로 지목했다. 오픈AI나 다른 기업이 아직 연구하지 않은 주제이기도 하다. 이미 연인 관계를 포함한 여러 특정 대상 역할을 하는 챗봇을 제공하는 기업 여러 곳을 찾아볼 수 있다. 간혹 잔소리를 퍼붓도록 설계되기도 한 AI 여자 친구가 날이 갈수록 인기를 얻는 추세이다. 그러나 AI 챗봇의 중독성과 설득력은 지금까지 알려진 바가 거의 없다.
2022년 11월 출시 후 챗GPT가 생성한 흥미와 과장 광고로 오픈AI와 외부 연구원, 복수 정책 입안자가 AI의 개발자 의도에 반하는 행동 가능성이라는 이론 질문에 더 초점을 맞추게 되었다.
마드리 교수는 자칫하면 유창한 알고리즘이 제기하는 더 미묘한 위험성을 무시하게 될 수도 있다고 말한다. 그는 지금까지 정책 입안자가 펼친 AI 규제 노력을 언급하며, “잘못된 질문에 집중하는 것이 우려스럽다. 일부 측면에서 누구나 AI 문제를 논의하므로 AI 문제를 다루고 있다고 주장하는 것과 다를 바 없다. 하지만 실제로 올바른 문제를 논의하지 않는다”라고 평가했다.
** 위 기사는 와이어드US(WIRED.com)에 게재된 것을 와이어드코리아(WIRED.kr)가 번역한 것입니다. (번역 : 고다솔 에디터)
<기사원문>
OpenAI Is Testing Its Powers of Persuasion
저작권자 © WIRED Korea 무단전재 및 재배포 금지
저작권자 © WIRED Korea 무단전재 및 재배포 금지
이 기사를 공유합니다