본문 바로가기
카테고리 없음

2022년 AI 논쟁 돌아보기: 촘스키와 마커스의 경고가 2025년 현재에도 유효한가?

by SidePlay 2025. 4. 4.

#인공지능 #노암촘스키 #게리마커스 #GPT4o #Claude3 #Gemini #AI발전 #언어모델 #인지과학 #AI위험성 #뉴로심볼릭AI #인공지능2025
촘스키와 마커스의 경고가 2025년 현재에도 유효한가?

2022년 11월, 포르투갈 리스본에서 개최되었던 Web Summit에서 언어학의 거장 노암 촘스키와 AI 과학자 게리 마커스는 당시 새롭게 등장한 생성형 AI 기술의 한계와 위험성에 대해 경고한 바 있습니다. 그로부터 2년 반이 지난 2025년 현재, AI 기술은 GPT-4o, Claude 3.7, Google Gemini 등으로 비약적으로 발전했습니다. 하지만 놀랍게도 이들이 지적한 근본적인 문제점 중 상당수는 여전히 해결되지 않은 채 남아있습니다. 이 글에서는 촘스키와 마커스가 2022년에 제기한 AI에 대한 우려를 살펴보고, 이것이 오늘날의 발전된 AI 환경에서도 여전히 유효한지 검토해보고자 합니다. 

2022년 지적된 AI의 근본적 한계: 그때와 지금

2022년 Web Summit에서 노암 촘스키는 당시 AI 시스템에 대해 두 가지 관점에서 실망감을 표현했습니다. "한 가지 방식은 충분히 강력하지 않다는 것이고, 다른 방식은 너무 강력하다는 것입니다. 해서는 안 되는 일도 해버리죠." 이 역설적인 상황은 특히 그의 전문 분야인 언어와 인지 분야에서 두드러졌습니다.

 

촘스키는 2022년 당시 GPT와 같은 시스템이 실제 언어의 규칙을 위반한 '불가능한 언어'에 대해서도 똑같이 잘 작동한다고 지적했는데, 그는 이를 "가능한 모든 원소와 불가능한 모든 원소를 포함하고 그 사이의 구별을 하지 않는 주기율표의 개정판"에 비유했습니다. 2025년 현재, GPT-4o와, Claude 3.7, Google Gemini와 같은 훨씬 더 발전된 모델들이 등장했지만, 이 근본적인 문제는 여전히 해결되지 않았습니다. 이런 모델들은 여전히 문법적으로 정확하지만 의미론적으로 불가능한 구조를 처리할 수 있으며, 이는 언어학적 관점에서 여전히 문제가 됩니다.

 

게리 마커스는 2022년 DALL-E의 구체적인 실패 사례를 보여주었습니다. 예를 들어, "파란색 큐브 위에 빨간색 큐브를 그려달라"는 요청에 빨간색 큐브 위에 파란색 큐브를 그리는 오류를 범했습니다. 2025년의 최신 이미지 생성 모델들은 이러한 단순한 공간 관계는 대부분 올바르게 처리할 수 있게 되었지만, 더 복잡한 개념적 관계나 추상적인 지시에서는 여전히 비슷한 문제를 보입니다. 이는 단순한 데이터 확장이 아닌 더 근본적인 해결책이 필요함을 시사합니다.

  • 2025년의 최신 언어 모델들은 여전히 촘스키가 지적한 '불가능한 언어' 문제를 해결하지 못했습니다
  • 이미지 생성 AI는 단순한 공간 관계에서는 개선되었으나, 복잡한 개념적 관계에서는 여전히 한계를 보입니다
  • AI 발전에도 불구하고 '세계에 대한 이해'라는 근본적인 문제는 여전히 해결되지 않았습니다

마커스가 2022년에 지적한 "단순히 같은 것을 더 많이 추가하는 것, 스케일링이라고 부르는 방식이 실제로 도움이 될지 분명하지 않다"는 우려는 2025년에도 여전히 유효합니다. 실제로 2023년부터 2025년까지의 AI 발전은 단순히 모델 크기를 키우는 것에서 효율성과 추론 능력을 개선하는 방향으로 일부 진화했지만, "세계에 대한 이해, 객체가 어떻게 작동하는지에 대한 근본적인 이해"는 여전히 부족한 상황입니다.

엔지니어링과 과학의 차이: 2025년의 관점

당시 촘스키는 AI 시스템이 "좋은 엔지니어링일 수는 있지만 좋은 과학은 아니"라고 주장했습니다. 그는 청각 장애가 있어 실시간 자막 서비스를 활용하는 자신의 경험을 예로 들며, 이것은 "과학적으로는 관심이 없지만, 괜찮습니다. 유용하니까요"라고 설명했습니다. 2025년 현재, AI는 실용적 측면에서 엄청난 발전을 이루었습니다. Claude 3.7과 GPT-4o는 이제 복잡한 분석, 예측, 다국어 처리 능력이 크게 향상되었고, 코드 생성과 같은 영역에서도 큰 발전을 이루었습니다.

 

2022년에서 2025년 사이에 AI는 단백질 접힘 예측, 약물 개발, 기후 모델링과 같은 과학적 응용 분야에서도 상당한 기여를 했습니다. 그러나 촘스키가 강조한 "과학은 세계가 어떤지 이해하려는 시도"라는 근본적인 관점에서 볼 때, 현대 AI 모델들은 여전히 인간 언어와 인지의 본질에 대한 이해에 크게 기여하고 있는지는 의문입니다. 과학적 도구로서 사용될 수는 있지만, 그 자체가 인간 언어와 인지에 대한 과학적 모델이 되지는 못하기 때문이지요. 

 

촘스키는 GPT와 같은 시스템이 "천문학적 양의 데이터에서 표면적인 규칙성을 찾아 데이터와 비슷한 무언가를 생산할 수 있지만, 언어와 인지의 모든 원칙을 위반하는 데이터에서도 정확히 같은 일을 할 수 있다"고 지적했습니다. 2025년의 모델들은 사실 확인 능력이 향상되었고 이전보다 더 신뢰할 수 있는 정보를 제공하지만, 여전히 '환각'이라 불리는 현상이 발생하며, 특히 복잡한 추론이 필요한 질문에서는 그 한계가 더욱 두드러집니다. 이런 측면에서, 촘스키의 비판은 2025년에도 여전히 유효합니다.

AI의 위험성과 미래 방향: 마커스의 예측은 맞았는가?

게리 마커스는 2022년 AI 기술의 위험을 두 가지로 설명했습니다. 첫째, "우리는 AI에서 잘못된 길을 따라가고 있다"는 것이었습니다. 그는 진정한 AI로 가는 올바른 길이 "인간을 더 많이 연구하고 촘스키가 말하는 과학을 하는 것"이라고 주장했습니다. 2025년 현재, 그의 우려 역시 여전히 유효하다고 보여집니다. 아직까지 대다수 AI 기업들은 여전히 더 큰 모델과 더 많은 데이터에 집중하고 있습니다만, 동시에 인지과학의 통찰력을 AI에 결합하는 방향으로 일부 전환이 시작되는 것도 확인할 수는 있습니다. 실제로 Anthropic의 Claude 모델과 같은 일부 시스템은 인간의 가치와 안전에 더 주의를 기울이는 방향으로 발전하고 있는 실정이고요. 

 

둘째로 마커스는 시스템의 위험성을 지적했습니다. "지금 우리가 가진 시스템이 하는 일은 과거 데이터를 영속화하는 것으로, 실제로 세계를 이해하지 못합니다." 이 문제는 2025년에도 여전히 존재하지만, AI 기업들은 이를 완화하기 위한 노력을 기울이고 있습니다. 최신 모델들은 편향성을 줄이고 사실 확인 능력을 향상시키는 방향으로 발전했지만, 여전히 완벽하지는 않습니다. 특히 허위정보 생성 문제는 정치 선거와 같은 중요한 이벤트에서 심각한 사회적 우려를 낳고 있습니다. 당시 마커스는 2023년에 "이러한 시스템에 귀속될 수 있는 첫 번째 죽음이 발생할 해"가 될 것이라고 예측했습니다. 비록 AI 시스템이 직접적인 사망 원인으로 공식 확인된 사례는 드물지만, 2023-2025년 사이에 AI 챗봇이 위험한 조언을 제공하거나 사용자의 정신 건강에 부정적인 영향을 미친 사례가 여러 차례 보고되었습니다. 또한 AI 생성 콘텐츠로 인한 사회적 혼란과 디지털 ID 도용 문제가 크게 증가했습니다.

 

AI의 미래 방향에 대해 당시 마커스는 네 가지 주요 방향을 제안했습니다: "뉴로심볼릭 AI"(신경망과 구식 AI의 결합), 기계가 해석할 수 있는 지식의 대규모 데이터베이스 구축, 추론 능력 개발, 그리고 세계에 대한 인지 모델 구축 등이었습니다. 2025년 현재, 이 중 일부는 실현되고 있습니다. 특히 추론 능력과 관련해서는 상당한 발전이 있었으며, 대규모 언어 모델에 외부 지식 베이스를 연결하는 시도도 증가하고 있습니다. 그러나 완전한 뉴로심볼릭 접근법과 인간 수준의 세계 모델 구축은 여전히 초기 단계에 머물러 있습니다.

 

2025년 4월 현재, 인공지능 기술은 2022년 당시 촘스키와 마커스가 논의할 때보다 훨씬 더 발전했습니다. GPT-4o, Claude 3.7, Google Gemini 등의 최신 모델들은 이전 세대보다 더 강력하고 유용한 기능을 제공합니다. 그러나 이들이 지적했던 근본적인 문제들 - 실제 언어 이해의 부재, 세계 모델의 부족, 과학적 기여의 한계 - 은 여전히 해결되지 않은 채로 남아있습니다.

 

특히 주목할 만한 점은 마커스가 우려했던 허위정보 확산 문제가 2024-2025년 전 세계 주요 선거를 앞두고 실제로 중요한 사회적 문제로 부상했다는 것입니다. AI 생성 콘텐츠의 급증은 정보 생태계에 큰 변화를 가져왔고, 이는 민주주의 과정에 상당한 도전이 되고 있습니다.

오늘날 우리는 AI 기술의 엔지니어링적 성공과 과학적 이해 사이의 균형을 찾아야 합니다. 단순히 더 크고 더 빠른 모델을 만드는 것을 넘어, 인간의 인지, 언어, 그리고 우리가 세계를 이해하는 방식에 대한 더 깊은 과학적 이해를 AI 개발에 통합해야 합니다. 2022년의 논쟁이 2025년에도 여전히 관련성이 있다는 사실은, 우리가 AI 기술의 빠른 발전 속도에도 불구하고 근본적인 질문들에 대해 아직 충분한 답을 찾지 못했음을 보여주는 반증이 아닐 수 없습니다. 앞으로 AI 발전은 단순한 스케일링을 넘어 더 깊은 과학적 이해와 윤리적인 부분을 소홀히 해서는 안될 것입니다.

 

출처: "Debunking the great AI lie" - Noam Chomsky(화상으로 참석), Gary Marcus, Fortune Magazine의 수석 작가 Jeremy Kahn이 진행한 대담. Web Summit 2022, 포르투갈 리스본 Altice Arena, 2022년 11월 4일. YouTube: https://www.youtube.com/watch?v=PBdZi_JtV4c