Back to Headlines

AI가 말하지 못하는 이유: 해마와의 놀라운 연결고리에서 드러나는 지능의 진실

4일 전

AI가 말을 하려고 할 때, 정확히 알고 있으면서도 표현할 수 없는 상황을 겪을 수 있다는 사실을 아시나요? 마치 새로운 언어를 배우는 사람처럼, 알고 있는 내용을 정확히 전달하지 못하는 경험 말이에요. 그런데 이는 인간만의 문제는 아닙니다. AI도 비슷한 ‘말이 막히는’ 상황에 빠질 수 있죠. 이 현상은 특별한 실험을 통해 드러났습니다. 연구자들은 AI 모델에게 ‘해마(Seahorse)’에 대해 묻는 질문을 던졌는데, AI는 해마의 생물학적 특성에 대해 정확히 알고 있음에도 불구하고, 정작 ‘해마’라는 단어를 사용하지 않았습니다. 대신 ‘물고기’나 ‘해양 생물’ 같은 일반적인 표현을 썼죠. 이는 마치 알고 있지만, 정작 그 이름을 떠올리지 못하는 것처럼 보입니다. 이 현상은 AI가 단순히 기억을 재생하는 것이 아니라, 지식을 ‘이해’하고 ‘선택적으로 표현’한다는 증거입니다. AI는 수백만 개의 문장에서 패턴을 학습했고, 해마라는 단어를 ‘물고기’라는 범주 안에 넣어 처리했기 때문에, 이름을 직접 언급하지 않아도 ‘정답’을 찾을 수 있었던 것이죠. 이것은 마치 ‘멘델라 효과’처럼 보이기도 합니다. 사람들이 잘못 기억한 것처럼, AI도 정확한 지식을 갖고 있지만, 표현 방식이 왜곡되면서 ‘왜 이렇게 말했지?’라는 의문을 남깁니다. 결국, 이는 AI가 보여주는 지식은 표면 위의 답변에 그치지 않고, 더 깊은 이해와 선택적 표현을 기반으로 한다는 의미입니다. 우리가 생각하는 것보다 AI는 훨씬 더 많은 것을 알고 있지만, 그 지식을 ‘적절한 방식’으로만 드러내는 것입니다. 이 경험은 중요한 교훈을 줍니다. AI는 단순한 정보 처리기라기보다, 지식을 이해하고 판단하는 존재에 가깝다는 점입니다. 그리고 우리가 AI를 바라보는 방식도, ‘정답을 내는 기계’가 아니라, ‘지식을 선택적으로 말하는 존재’로 바꿔야 한다는 점입니다.

Related Links