중국어 방

중국어 방(Chinese room) 이론은 튜링 테스트를 사용해서 기계가 인공지능을 가졌는지 판단할 수 없다는 것을 증명하기 위해 만들어진 사고실험이다. 존 설(John Searle)이 고안하였다.

실험 내용[편집 | 원본 편집]

  1. 모든 것이 차단된 방 안에 중국어를 아예 할 줄 모르는 사람이 들어간다.
  2. 그 방에 필담을 할 수 있는 도구와, 미리 만들어 놓은 중국어 질문, 그리고 질문에 대한 대답 목록을 준비해 둔다.
  3. 이 방 안으로 중국인 심사관이 중국어로 종이에 질문을 써서 안으로 넣으면, 방 안의 사람은 표에 적힌 대로 답변을 중국어로 써서 밖의 심사관에게 준다.
  4. 얼핏 보면 안에 있는 사람이 중국어를 할 줄 아는 사람처럼 보이지만, 안에 있는 사람은 실제로는 중국어를 하나도 모르는 사람이다. 그저 표에 정리된 대로 질문에 대답하고 있을 뿐이다.
  5. 따라서, 중국인 심사관은 결국 그 사람이 중국인인지, 중국어를 원어민마냥 유창하게 하는 것인지, 알맞은 중국어 문장이 이어진 가이드표를 보고 대답한 것인지 모른다.

해석[편집 | 원본 편집]

안에 어떤 사람이 있는지 모르는 중국인이 안에서 나오는 문장들을 보면, 안에 있는 사람이 누군지는 몰라도 중국어를 할 줄 아는 것처럼 느낄 수 있다. 그렇지만 안에 있는 사람은 사실 중국어를 전혀 모르는 사람일 수 있다! 그렇다면 그 사람은 중국어 질문과 답변이 적힌 표를 한 장 받았고, 중국어 질문을 이해하지 않고 표에 적힌 대로 대답하기만 하고 있는 것이다.

결국 이 상황은 중국어 대화를 차질없이 한다고 볼 수 있지만, 방 안에 있는 사람이 중국어를 이해할 수 있는 능력을 가졌는지는 알 수 없다. 이와 마찬가지로, '인공지능'이라고 불리는 기계들이 정말 스스로 생각하고 일처리를 알아서 잘 해도 튜링 테스트로는 이들이 지능이 있는지 없는지 알 수 없다는 내용이다.

위 실험을 인공지능 관련 단어들로 바꿔서 본다면 다음과 같다.

  • 중국인 심사관: 사람
  • 안에 들어있는, 중국어를 하나도 모르는 사람: 인공지능
  • 미리 준비된 중국어: 명령어 목록과 어떠한 명령어가 입력될 시 프로그램이 해야 할 행동

만약 당신이 심심이, 구글 어시스턴트, 시리, 빅스비 같이 인공지능이라고 일컬어지는 프로그램들에게 대화를 시도해 본다고 가정해 보자. 이 때 이러한 프로그램들의 작동방식은 다음과 같은 양상을 띠게 될 것이다.

  1. 사람이 "넌 뭐 먹고 사니?" 라는 문장으로 대화를 시작했다.
  2. 프로그램은 다음 중 하나의 문구를 출력하도록 짜여져 있다.
  3. 그럼 여기서, 과연 프로그램이 스스로 생각해서 대답을 한 것일까, 아니면 한 프로그래머가 알려준 문구에 명령되어 있는 알맞는 대답 문구를 맞춰서 무작위로 출력한 것일까? 여기서 우리는 기계가 직접 답변을 생각하고 대답한 것인지 아니면 저장된 데이터를 그대로 출력하는 것인지 모른다. 따라서 인공지능이라는 존재는 허구가 된다.

사람이 인공지능에게 "네가 좋아하는 간식이 뭐야?" 라고 물으면 "브라우저 쿠키를 좋아해요", "파이. 3.14" 라는 답변으로 두 가지 중 하나로 대답하도록 짜여져 있다고 한다면, "과연 이것은 정말 인공지능이 사람의 말 의미를 이해하고 대답한 것일까, 아니면 단순히 프로그램 데이터 레이블에 적힌 대로 출력한 걸까" 라고 되묻는 내용이다. 프로그램이 스스로 생각하는 감정, 이해, 의식을 가질 수 없다는 것이다. 이러한 것도 결국 명령어 실행의 일종일 뿐이고, 프로그램은 이 명령어가 떨어지는 대로 행동하는 것이니, 인공지능은 허구의 존재이며 튜링 테스트도 신빙성이 낮다고 결론내리는 사고실험이기도 하다.

또한 "중국어 방" 사고실험은 이러한 작동방식을 갖고 있는 프로그램들이 과연 자체적으로 생각하고 행동하는 지능의 범주에 들어가느냐에 대해 말하고 있는 것이기도 하다.

같이 보기[편집 | 원본 편집]