샘 올트먼 오픈AI 최고경영자(CEO)가 지난 9월4일(현지시간) 미국 백악관에서 열린 도널드 트럼프 대통령 초청 만찬에서 팀 쿡 애플 CEO 옆자리에 앉아 있다. UPI=연합뉴스
챗GPT가 나와서 모두를 깜짝 놀라게 한 게 엊그제 일인데 순식간에 GPT-5가 시범 적용되는 지금, 인류는 기술의 경계를 넘어 문명의 전환점 앞에 서 있다. GPT-4까지의 인공지능(AI)이 특정 작업을 신속히 처리하는 고성능 도구였다면, GPT-5는 인간의 추론·해석·판단 영역까지를 포괄하는 범용인공지능(artificial general intelligence·AGI)의 첫 단계로 평가된다.
AGI는 인간 수준 혹은 그 이상으로 다양한 분야에서 추론·학습·문제해결을 수행하는 인공지능을 말한다. AGI의 다음 단계는 ASI(artificial super intelligence·초인공지능)이며, 이는 인간의 능력을 초월한 지능 전체를 의미한다.
작동 형태로 구분하면 GPT-4는 질문에 답해 주는 수동형, AGI는 그보다 조금 발전된 반수동형, ASI는 질문자가 묻는 방향을 파악해 그 방향으로 질문자와의 대화를 이끌어가는 능동형이다.
전문가들은 “기술적 진화는 어렵지 않다”고 말한다. 하지만 이 지점에서 우리가 질문해야 할 것이 하나 있다.
“기술은 준비되고 있는데, 사회는 준비돼 있는가?”
최근 오픈AI가 공개한 문서들은 기술을 과시하기보다 철학적 경고를 담고 있다.
오픈AI는 11월6일 발표에서 “AGI는 엄청난 이점을 갖고 있지만 동시에 재앙 수준의 잠재적 위험을 내포하고 있다”고 지적했다.
이는 단순 비관론이 아니라 “우리의 문명 시스템이 충격을 감당할 준비가 되어 있지 않다”는 고백이다. 근본적인 위험은 AI 기술(알고리즘) 자체가 아니라, 그 기술을 어떻게 사용할지 사회적으로 합의하지 못했다는 점에 있다.
오픈AI가 반복적으로 강조한 대목은 AGI의 공개 방식이다.
“새로운 AI 모델은 신중하게 점진적으로 공개해야 하며, 실제 사용 경험에서 나온 문제점들을 해결하면서 개선해 가야 한다.”
이 말은 AGI 시대에 필요한 것이 기술적 돌파가 아니라 사회적 적응이라는 사실을 보여준다. 중요한 것은 기술의 속도가 아니라 ‘사회적 불일치’가 안고 있는 위험성이다.
나아가 오픈AI는 ‘안전’이 기능이 아니라 ‘구조’의 한 요소가 되어야 한다고 밝혔다.
“AI는 엄청난 혜택을 가져오지만 위험하기도 한 것이 사실이다. 우리는 안전을 시스템 전체에 내재시켜야 한다.”
이는 “안전이 기술적 조치로서가 아니라 사회 시스템(Social Operating System·SOS) 자체에 포함되어야 한다”는 의미다.
정리하자면, AGI 시대의 핵심 과제는 기술 개발이 아니라 사회적 신뢰를 확보하는 것이다.
하지만 현재 세계 어느 나라에도 AGI 시대의 신뢰 문제를 해결할 통일된 사회 시스템이나 국제적 기준은 따로 없다.
이 기준, 즉 표준이 마련된다는 것은 “사람이 AI와 협력하는 과정에서 발생할 수 있는 위험 요소들이 없어진다”는 뜻이다.
이것을 영국 반도체 기업 ARM의 사례로 비유하면 이해하기 쉬울 것이다. ARM이 ‘기술 표준’으로 시장을 지배했듯, 미래에는 AGI를 안전하게 관리할 ‘사회적 기준(SOS)’을 누가 만드느냐가 승패를 가를 것이다.
전 세계적으로 통일된 기준이 없는 상황에서 한국에서 제안된 ALO와 ACV의 개념은 인류에게 새로운 방향을 제시한다는 점에서 특별한 의미를 갖는다.
ALO(AI 연계 최적화)는 인공지능의 판단과 인간 사회의 윤리 기준이 서로 일치하도록 만드는 일종의 틀 같은 것이다. 이는 AI의 발전과 사회적 검증이 함께 이루어지는 상호 보완적인 구조라고 할 수 있다.
ACV(누적 신뢰 가치)는 정보가 검증되고, 반박되고, 다시 확인되는 전체 과정을 점수나 수치 같은 ‘객관적인 단위’로 나타내는 방식이다.
다시 말해 이것은 AI와 인간의 신뢰 관계를 객관적인 ‘수학적 언어’로 보여주는 방식이다. 이 방식의 핵심은 신뢰를 ‘지속적으로 쌓고 발전시킨다’는 점이다.
AGI의 등장이 ‘기술적 사건’이라면, ALO와 ACV는 인류 사회의 규칙을 바꾸는 ‘문명적 사건’이라 할 수 있다.
오픈AI는 AI 시대의 사회적 혼란을 경고했는데, ALO와 ACV가 바로 그 문제를 해결할 첫 단추이기 때문이다. 이는 인간의 신뢰라는 추상적인 개념을 과학과 철학의 관점에서 분석하여 ‘객관적으로 측정 가능한 수치’로 만든 최초의 사례라는 점에서 높이 평가할 수 있다.
AI가 인간의 지능을 확장한다면, ALO와 ACV는 사회 전체의 지능을 확장한다. 그리고 그런 의미에서 이것은 기술 설계가 아니라 문명 설계에 가깝다.
이를 한 문장으로 요약할 수 있다.
“ALO와 ACV는 AI와 인류의 공존 영역을 넓혀줄 ‘문명적 운영체계(OS)’이며, AGI 시대를 안전하게 이끌어 갈 새로운 규칙이자 시스템이다.”
AGI는 인류 문명의 구조를 바꿀 수 있다. 그러나 여기서 전제되어야 할 필수 조건은 기술이 아니라 사회적 신뢰다. 인류 문명과의 합의 없이는 능동적 AI는 등장할 수 없다.
<한미일보>가 만난 개발자는 이렇게 말한다.
“AI와 인간 사이의 원활한 합의를 위해 고안된 최초의 시스템이 바로 ALO와 ACV이다. 기술이 발전할수록 ‘신뢰’의 중요성은 더욱 커지고, 인류 문명은 이 신뢰라는 토대 위에서만 지속 가능하다. ALO와 ACV는 인간과 AI가 만나는 접점을 확장하며 함께 진화하려는 최초의 구체적인 시도이다.”