기사 메일전송
[초점] 젠슨 황의 경고, ‘두머리즘에 갇힌 AI 논쟁’
  • 김영 기자
  • 등록 2026-01-11 11:26:24
기사수정
  • 종말론이 점령한 AI 담론
  • 공포는 커졌지만 판단의 기준은 사라졌다
  • 지금 필요한 것은 ‘판단 표준’이다

AI 관련 발언하는 젠슨 황 엔비디아 CEO. 젠슨 황 엔비디아 CEO가 지난 5일(현지시간) 미국 네바다주 라스베이거스 퐁텐블로 호텔에서 열린 엔비디아 CES 2026 라이브에서 기조연설을 하고 있다. [사진=연합뉴스]

인공지능(AI)을 둘러싼 논쟁은 점점 ‘두머리즘(doomerism·극단적 허무주의)’에 갇히고 있다. 

 

AI의 위험을 경고하는 목소리는 커졌지만, 그 위험을 어떤 기준으로 판단해야 하는지에 대한 합의는 좀처럼 보이지 않는다. 공포는 증폭됐지만, 판단의 기준은 공유되지 않았다.

 

이 같은 담론 구조에 대해 젠슨 황 엔비디아 최고경영자(CEO)가 공개적으로 문제를 제기했다. 

 

황 CEO는 9일  팟캐스트 ‘노 프라이어스(No Priors)’에 출연해 2025년을 돌아보며 “AI의 미래를 둘러싼 서사 전쟁의 해였다”고 평가했다. 

 

그는 저명한 인사들이 퍼뜨린 종말론적·과학소설(SF)적 서사가 산업과 사회, 정부 모두에 실질적인 해를 끼치고 있다고 지적했다.

 

황 CEO는 “AI가 세상의 끝을 가져올 것이라는 메시지는 사람들에게도, 산업에도, 사회에도, 정부에도 도움이 되지 않는다”며 “전체 메시지의 90%가 종말론과 비관주의에 집중돼 있다”고 말했다. 

 

그는 이런 분위기가 오히려 AI를 더 안전하고 생산적이며 사회에 유용하게 만들 투자를 위축시키고 있다고 경고했다.

 

특히 황 CEO는 기술업계 내부에서 강력한 규제를 요구하는 움직임을 언급하며 ‘규제 포획(regulatory capture)’ 가능성을 우려했다. 

 

그는 “그들의 의도는 명백히 이해 충돌 상태에 있다”며 “그들은 CEO이고 기업이며, 결국 자기 자신을 대변하고 있는 것”이라고 지적했다. 

 

공익을 내세운 공포 담론이 실제로는 권한 집중과 시장 진입 장벽으로 이어질 수 있다는 문제의식이다.

 

황 CEO의 발언은 AI의 위험 자체를 부정하는 것이 아니다. 

 

그는 낙관론과 비관론 어느 한쪽도 단순화해 배제할 수 없다고 전제했다. 다만 문제는 위험을 말하는 방식에 있다고 봤다. 

 

위험은 반복적으로 경고되지만, 그 위험이 무엇을 의미하는지, 어느 수준에서 확인된 것인지, 어떤 대응이 합리적인지에 대한 기준은 제시되지 않고 있다는 점이다.

 

“AI가 위험하다는 말이, 오히려 AI를 더 안전하게 만들 방법을 막고 있다.”

 

이 문장은 현재 AI 담론의 핵심을 정확히 드러낸다. 

 

지금의 논쟁은 ‘AI가 위험한가 아닌가’를 어떤 기준으로 판단하며, 그 문제를 ‘어떤 방식으로 해결할 것인가’를 정하는 표준이 없다는 점을 역설적으로 보여주기 때문이다. 

 

즉, 두머리즘은 비관적이어서 문제가 아니라, 판단의 기준과 책임을 남기지 않는 서사이기 때문에 문제라는 지적이다.

 

AI를 걱정하는 모습은 인터넷을 처음 두려워하던 시절과 닮아 있다. 

 

그때 중요한 질문은 “인터넷이 위험한가”가 아니라 “어떻게 써야 안전하고 유용한가”였다. 

 

AI도 마찬가지다. AI는 판단을 대신하지 않는다. 

 

자료를 만들어 줄 뿐이고, 그 자료를 믿을지, 쓸지, 버릴지는 사람이 결정한다. 

 

그래서 인간에게 필요한 것은 AI를 두려워하는 태도가 아니라, AI가 만든 결과를 어떤 판단 과정을 거쳐 사용했는지를 남기는 장치다.

 

그렇다면 기록을 남기면 무엇이 달라질까. 

 

기록이 없을 때 남는 것은 결과뿐이다. 결과만 남으면 맥락은 사라지고, 판단 과정은 지워진다. 

 

반대로 기록이 남으면 어떤 정보와 기준을 바탕으로 판단이 이뤄졌는지가 드러난다. 

 

문제의 원인을 추적할 수 있고, 같은 오류를 반복하지 않을 수 있다. 

 

중요한 점은 이것이 책임을 처벌하기 위한 장치가 아니라는 사실이다. 

 

기록은 책임을 키우는 도구가 아니라, 부당한 책임 추궁을 막고 판단을 설명할 수 있게 만드는 보호 장치다.

 

이 역할을 맡을 수 있는 것이 ALO(Artificial Intelligence Linked Optimization)와 같은 판단 표준이다. 

 

ALO는 AI의 결론을 평가하거나 대신 결정하는 시스템이 아니다. 

 

대신 어떤 정보가 활용됐고, 어떤 기준과 맥락에서 판단이 이뤄졌으며, 그 판단이 어떻게 사용됐는지를 구조적으로 드러내고 기록하는 표준이다. 

 

이는 AI의 권한을 확대하기 위한 장치가 아니라, 판단 과정이 사라지는 것을 막기 위한 최소한의 안전장치에 가깝다.

 

마이크로소프트(MS) 사티아 나델라 CEO 역시 최근 “AI 콘텐츠를 ‘저질(slop)’로 낙인찍는 수준을 넘어야 한다”며, 새로운 인지 도구를 전제로 한 판단의 균형이 필요하다고 언급한 바 있다. 

 

거대 기술기업 수장들의 문제의식은 공통적이다. 

 

공포의 언어가 기술을 지배하는 순간, 판단의 기준은 사라진다는 점이다.

 

AI는 위험할 수 있다. 그러나 위험하다는 말만으로는 아무것도 해결되지 않는다. 

 

젠슨 황의 경고는 기술 낙관론이 아니라, 두머리즘이 만들어낸 판단 표준의 공백에 대한 경고다. 

 

이 공백을 메우지 않는 한, AI를 둘러싼 논쟁은 앞으로도 공포와 규제, 책임 회피의 악순환을 반복할 가능성이 크다. 

 

AI 시대에 필요한 것은 두려움이 아니라, 판단을 가능하게 하는 표준이다.



관련기사
이 기사에 대해 어떻게 생각하시나요?
추천해요
0
좋아요
0
감동이에요
0
유니세프-기본배너
모바일 버전 바로가기