일리야 수츠케버가 이끌던 OpenAI Superalignment 팀원 이었던 Leopold Aschenbrenner 연구원이 앞으로의 10년 동안 AI 를 통해 펼쳐질 상황을 예상한 에세이가 있어 공유합니다.
이 글의 분량과 연구원이 예측한 내용, 구성을 볼 때 저자는 세상에 천지개벽할 수준의 위협이 다가오고 있다는 것을 널리 알리고 싶다는 그런 의지가 느껴졌어요. 일리야 수츠케버를 상당히 존경하고 그와 함께 한 연구원으로서 당연하겠지만 여러가지로 일리야 수츠케버를 포함한 OpenAI 기술 리더 들의 생각과 유사한 측면이 많다는 느낌도 받았습니다. 이 글은 물론 한 연구원의 글이지만, 왜 OpenAI 가 지속적으로 'Feel the agi' 라고 하는지 말이죠 😅
이 글에서 Leopold 가 주장하는 내용들은 아래와 같아요.
기본적으로 AGI 와 초지능은 핵폭탄의 개발과 비견할 만한 일이 될 것이라는 것. 그리고 이것이 10년안에 일어날 것이라고 주장합니다. 지금의 AI 발전 속도는 떨어지기 보다는 오히려 더 무서울 정도로 폭발하는 순간이 올 것 이구요. 그 순간은 AI 가 스스로 AI 기술을 개선해 나가는 시점이 될 것 이라고 말이죠. 이러한 수준에 도달하는 시점을 2027~2028년 정도로 보고 있어요.
또한 AGI 이전 뿐 아니라 이후에 더욱 GPU 클러스터 확보가 중요해진다고 보고 있어요. 한 루머에 의하면 빅테크 관계자에게 누가 "왜 그렇게까지 GPU 확보에 목을 매는가?" 라는 질문에 GPU 가격이 AI 엔지니어 1명보다 싸다는 답변이 있었다고 하는 데요. 그 의미가 말 그대로 GPU 자원이 확보된 만큼 그 자원을 AI 엔지니어로 치환할 수 있는 시기가 오기 때문이라는 것을 이 글에서 유추해 볼 수 있었습니다.
그리고 이런 시나리오에 대해 OpenAI 관계자들은 상당히 확신하고 있다보니, 결국 가장 부족해 질 것은 전력이며, 샘알트먼이 7조 달러 유치 와 같은 목표를 세우게 되었다는 것도 유추 해 볼 수 있었습니다.
SuperAlignment 의 중요성도 강조되는데요. AI 가 Superintelligence 로 발전하는 순간, 정렬 상태가 돌이킬 수 없는 방식으로 인류의 미래에 치명적일 수 있다는 시각을 가지고 있기 때문입니다. 10년 후에 인류는 대학생 1학년 수준이라고 가정할때 수십억대의 AI 에이전트들을 박사학위 일 텐데 인류가 그러한 수십억의 AI 에이전트를 통제할 수 있을지는 초정렬 상태에 달렸다는 것.
그리고 이제 안보와 보안이 매우 중요해진다고 보았어요. 특히 중국이 위협적이구요. AGI 개발 경주는 사실상 핵폭탄 개발 경주로 보아야 할 것이라고 합니다. 그래서 초지능 개발은 민간의 영역에서 국가 방위 프로젝트로 전환되는 것이 필연적이고요. 아직 정부가 이 위협이 안보 문제로서 제대로 깨닫지 못하고 있지만 결국에는 그럴 것이기 때문에 그렇다면 늦는것보다 빠른게 좋을 수 있다고 보고 있어요.
그리고 초지능이 나타날 시점에 미국 경제는 전시 상태로 돌입해서 AI 에이전트들을 통제함과 동시에 상황을 안정시키고 적 (중국) 보다 앞서 나가야 한다고 이야기 합니다. 초지능에 우리가 길들여지는 상황이 되지 않도록 하는 것은 물론이구요.
이러한 미래 예측 시나리오는 엄청나게 많은 변수를 고려해서 틀릴 수도 있지만 본인이 생각할 때 가장 현실이 될 가능성이 높은 시나리오 라고 합니다. 🙃
일리야 수츠케버가 이끌던 OpenAI Superalignment 팀원 이었던 Leopold Aschenbrenner 연구원이 앞으로의 10년 동안 AI 를 통해 펼쳐질 상황을 예상한 에세이가 있어 공유합니다. 이 글의 분량과 연구원이 예측한 내용, 구성을 볼 때 저자는 세상에 천지개벽할 수준의 위협이 다가오고 있다는 것을 널리 알리고 싶다는 그런 의지가 느껴졌어요. 일리야 수츠케버를 상당히 존경하고 그와 함께 한 연구원으로서 당연하겠지만 여러가지로 일리야 수츠케버를 포함한 OpenAI 기술 리더 들의 생각과 유사한 측면이 많다는 느낌도 받았습니다. 이 글은 물론 한 연구원의 글이지만, 왜 OpenAI 가 지속적으로 'Feel the agi' 라고 하는지 말이죠 😅 이 글에서 Leopold 가 주장하는 내용들은 아래와 같아요. 기본적으로 AGI 와 초지능은 핵폭탄의 개발과 비견할 만한 일이 될 것이라는 것. 그리고 이것이 10년안에 일어날 것이라고 주장합니다. 지금의 AI 발전 속도는 떨어지기 보다는 오히려 더 무서울 정도로 폭발하는 순간이 올 것 이구요. 그 순간은 AI 가 스스로 AI 기술을 개선해 나가는 시점이 될 것 이라고 말이죠. 이러한 수준에 도달하는 시점을 2027~2028년 정도로 보고 있어요. 또한 AGI 이전 뿐 아니라 이후에 더욱 GPU 클러스터 확보가 중요해진다고 보고 있어요. 한 루머에 의하면 빅테크 관계자에게 누가 "왜 그렇게까지 GPU 확보에 목을 매는가?" 라는 질문에 GPU 가격이 AI 엔지니어 1명보다 싸다는 답변이 있었다고 하는 데요. 그 의미가 말 그대로 GPU 자원이 확보된 만큼 그 자원을 AI 엔지니어로 치환할 수 있는 시기가 오기 때문이라는 것을 이 글에서 유추해 볼 수 있었습니다. 그리고 이런 시나리오에 대해 OpenAI 관계자들은 상당히 확신하고 있다보니, 결국 가장 부족해 질 것은 전력이며, 샘알트먼이 7조 달러 유치 와 같은 목표를 세우게 되었다는 것도 유추 해 볼 수 있었습니다. SuperAlignment 의 중요성도 강조되는데요. AI 가 Superintelligence 로 발전하는 순간, 정렬 상태가 돌이킬 수 없는 방식으로 인류의 미래에 치명적일 수 있다는 시각을 가지고 있기 때문입니다. 10년 후에 인류는 대학생 1학년 수준이라고 가정할때 수십억대의 AI 에이전트들을 박사학위 일 텐데 인류가 그러한 수십억의 AI 에이전트를 통제할 수 있을지는 초정렬 상태에 달렸다는 것. 그리고 이제 안보와 보안이 매우 중요해진다고 보았어요. 특히 중국이 위협적이구요. AGI 개발 경주는 사실상 핵폭탄 개발 경주로 보아야 할 것이라고 합니다. 그래서 초지능 개발은 민간의 영역에서 국가 방위 프로젝트로 전환되는 것이 필연적이고요. 아직 정부가 이 위협이 안보 문제로서 제대로 깨닫지 못하고 있지만 결국에는 그럴 것이기 때문에 그렇다면 늦는것보다 빠른게 좋을 수 있다고 보고 있어요. 그리고 초지능이 나타날 시점에 미국 경제는 전시 상태로 돌입해서 AI 에이전트들을 통제함과 동시에 상황을 안정시키고 적 (중국) 보다 앞서 나가야 한다고 이야기 합니다. 초지능에 우리가 길들여지는 상황이 되지 않도록 하는 것은 물론이구요. 이러한 미래 예측 시나리오는 엄청나게 많은 변수를 고려해서 틀릴 수도 있지만 본인이 생각할 때 가장 현실이 될 가능성이 높은 시나리오 라고 합니다. 🙃
Introduction - SITUATIONAL AWARENESS: The Decade Ahead
Leopold Aschenbrenner, June 2024 You can see the future first in San Francisco. Over the past year, the talk of the town has shifted from…