AI 기술이 확산되면서 글쓰기 방식도 빠르게 변화하고 있지만, 질문과 판단의 주체는 여전히 인간이다. [사진=Nastia Petruk]
요즘 기사와 보고서를 읽다 보면 묘한 기시감이 든다. 분명 다른 사람이 쓴 글인데도 문장의 흐름이 비슷하고, 논리 전개의 방식도 닮아 있으며, 결론이 향하는 방향도 크게 다르지 않다. 표현은 조금씩 다르지만 구조는 비슷하다.
예전에도 유행하는 문체는 있었다. 그러나 지금 벌어지는 변화는 단순한 유행과는 다르다. 특정 필자의 스타일이 번지는 수준이 아니라, 글쓰기 환경 전체가 하나의 패턴으로 수렴하는 듯한 모습이 나타나고 있다.
많은 사람들은 이를 두고 곧바로 “AI 때문”이라고 말한다. 그러나 더 정확히 말하면 문제의 핵심은 기술 그 자체보다 기술을 사용하는 방식에 있다.
AI는 스스로 문체를 강요하지 않는다. 오히려 사용자가 어떤 질문을 던지느냐, 어떤 틀로 요청하느냐에 따라 전혀 다른 결과를 내놓을 수 있는 도구에 가깝다.
그런데 현실에서는 이 가능성이 충분히 활용되기보다, 오히려 반대로 작동하는 경우가 많다. 효율적인 프롬프트, 빠르게 초안을 뽑는 방식, 실패 확률이 낮은 질문 구조가 공유되면서 사람들은 점점 비슷한 방식으로 AI를 사용하게 된다.
문제는 바로 여기서 시작된다. 질문 구조가 같아지면 결과의 구조도 닮아간다. 같은 기술을 쓰는 것이 문제가 아니라, 같은 방식으로 묻는 것이 문제인 셈이다.
처음에는 문장 표현 몇 개가 비슷한 수준처럼 보일 수 있다. 그러나 시간이 지날수록 그 닮음은 문체를 넘어 논리 구조 전체로 확장된다.
도입 방식이 비슷해지고, 중간 정리 문장이 비슷해지고, 결론에서 취하는 균형적 태도까지 비슷해진다. 심지어 문단 길이와 호흡까지도 일정한 틀로 맞춰지는 경우가 적지 않다. 내용은 달라도 뼈대가 같아지는 현상이다.
이 현상은 겉으로 보면 효율의 승리처럼 보인다. 잘 정리돼 있고, 빠르게 읽히며, 큰 흠이 없는 글이 생산되기 때문이다.
실제로 많은 독자들은 이런 글을 두고 “깔끔하다”거나 “정리가 잘됐다”고 평가한다.
그러나 바로 그 장점이 또 다른 문제를 만든다.
지나치게 매끈한 구조 속에서는 필자의 개별적 시선이 약해지고, 판단의 흔적이 지워지기 쉽다. 문장은 안정적이지만 목소리는 옅어진다.
정보는 많아지는데 관점은 줄어드는 역설이 생긴다.
언론에서는 이 문제가 더욱 민감하다.
기사 초안을 빠르게 만들고, 복잡한 쟁점을 짧은 시간 안에 정리해야 하는 환경에서 AI는 매우 유용한 도구가 된다.
실제로 많은 현장에서 AI의 도움을 받아 제목을 뽑고, 리드 문장을 정리하고, 배경 설명을 보강하는 일이 점점 자연스러워지고 있다.
문제는 이 과정이 반복될수록 서로 다른 매체의 기사들이 놀랄 만큼 비슷한 흐름을 띠게 된다는 점이다.
갈등을 완화하는 표현, 어느 한쪽으로 기울지 않으려는 문장, 과도한 단정을 피하는 안전한 결론이 반복된다. 물론 이런 경향이 반드시 나쁜 것만은 아니다.
그러나 모든 글이 비슷한 방식으로 위험을 회피하기 시작하면, 독자는 어느 순간부터 “결국 다 비슷한 이야기 아닌가”라는 피로를 느끼게 된다.
여기서 중요한 질문이 생긴다.
왜 기술은 더 정교해졌는데 표현은 더 다양해지지 않는가. 왜 정보 접근성은 넓어졌는데 문장의 방향은 오히려 좁아지는가.
답은 의외로 단순하다. 인간이 빠른 결과를 원할수록 새로운 질문보다 검증된 질문을 반복해서 사용하기 때문이다.
사람들은 실패하지 않는 틀을 선호한다. 낯선 방식으로 물어보기보다, 이미 잘 작동한다고 알려진 구조를 선택한다. 그렇게 질문 방식은 점점 표준화되고, 그 표준화된 질문은 다시 유사한 결론을 낳는다.
결국 다양성의 감소는 기술의 숙명이 아니라 인간 선택의 반복에서 비롯된다.
이 지점에서 문장의 평준화는 단순한 스타일 문제가 아니라 신뢰의 문제로 이어진다.
글이 서로 닮아갈수록 독자는 내용 자체보다 출처를 먼저 보게 된다. 같은 구조, 비슷한 문장, 익숙한 결론이 반복되면 “무슨 말을 했는가”보다 “누가 말했는가”가 더 중요해진다.
이는 언론의 개성을 약화시키고, 연구 보고서의 차별성을 흐리며, 기업 문서의 설득력마저 떨어뜨릴 수 있다.
AI는 다양한 데이터를 바탕으로 수많은 문장을 생성할 수 있지만, 인간이 그것을 동일한 방식으로 호출하는 순간 결과는 오히려 획일화된다.
그래서 지금 필요한 것은 AI를 거부하는 일이 아니다.
같은 질문 구조가 반복될수록 글의 논리와 결론도 점점 비슷해진다.
핵심은 AI를 얼마나 많이 쓰느냐가 아니라, 얼마나 다르게 쓰느냐다.
차별성은 더 많은 정보를 확보하는 데서 나오지 않는다. 이제 대부분의 정보는 누구나 비슷한 속도로 접근할 수 있다.
진짜 차이는 같은 자료를 두고 어떤 질문을 던지느냐, 무엇을 핵심 쟁점으로 삼느냐, 어떤 기준으로 결론을 고르느냐에서 발생한다.
다시 말해 AI 시대의 글쓰기는 문장을 생산하는 기술보다 구조를 설계하는 능력에 더 가까워지고 있다.
결국 글의 차별성은 정보량이 아니라 판단에서 나온다.
누구나 비슷한 자료를 볼 수 있고, 누구나 일정 수준 이상의 문장을 만들 수 있는 시대라면, 남는 것은 관점과 기준이다.
무엇을 강조할 것인가, 무엇을 덜어낼 것인가, 어디에서 선을 긋고 어떤 책임을 질 것인가. 이 판단이 빠진 글은 아무리 매끄러워도 오래 남기 어렵다.
읽히는 글은 될 수 있어도, 기억되는 글은 되기 어렵다.
문체가 닮아간다는 것은 단순히 스타일이 비슷해졌다는 뜻이 아니다.
그것은 사고의 통로가 좁아지고 있다는 신호일 수 있다.
기술은 선택지를 넓혀 주지만, 인간이 그것을 같은 방식으로 사용할 때 결과는 오히려 수렴한다.
그래서 지금 필요한 것은 새로운 도구가 아니라 새로운 질문 방식이다.
AI가 만든 문장을 그대로 받아들이는 순간 글쓰기는 쉬워지지만, 시각은 줄어든다. 편리함이 깊이를 대신할 수는 없다.
다음 편에서는 이 지점에서 한 걸음 더 들어가 보려 한다.
AI는 분석을 도와줄 수 있다. 자료를 정리하고, 패턴을 추출하고, 가능성을 비교하는 데도 강점을 보인다.
그러나 분석이 곧 판단은 아니다. 판단에는 책임이 따르고, 책임은 결국 인간의 몫이다.
다음 편에서는 왜 AI가 분석은 잘하지만 판단은 대신할 수 없는지, 그리고 그 경계가 왜 앞으로의 글쓰기와 의사결정에서 더 중요해질 수밖에 없는지를 살펴본다.