
AI는 암기하는가, 아니면 실제로 배우는가?
현대 AI 모델은 수천억 번의 계산을 통해 결과를 도출하지만, 그 구체적인 작동 방식은 여전히 베일에 싸여 있음. 특히 대규모 언어 모델(LLM)이 단순히 데이터를 암기하는 것인지, 아니면 데이터 이면의 논리적 구조를 학습하는 것인지에 대한 논쟁이 지속됨. 본 요약에서는 OpenAI와 닐 난다(Neil Nanda)의 연구를 바탕으로, 모델이 특정 시점에 갑자기 정답률 100%에 도달하는 '그로킹(Grokking)' 현상을 살펴봄.
모듈러 산술을 통한 트랜스포머 분해
- 그로킹의 발견: 학습 초기에는 훈련 데이터만 암기하여 테스트 점수가 낮았으나, 학습을 지속하자 갑자기 테스트 데이터에서도 완벽한 성능을 보이는 현상이 발견됨.
- 수학적 기전: 단일 레이어 트랜스포머는 모듈러 덧셈을 풀기 위해 입력값을 사인(Sine)과 코사인(Cosine) 파형으로 변환하여 학습함.
- 삼각함수의 활용: 모델 내부 뉴런들은 삼각함수의 합성 공식()과 유사한 연산 구조를 스스로 형성하여 정답을 도출함.
기계론적 해석 가능성(Mechanistic Interpretability)의 진보
단순한 수치 최적화를 넘어, 모델 내부의 가중치가 특정 수학적 알고리즘을 구현하고 있음을 밝혀냄. 이는 블랙박스로 여겨졌던 AI 내부를 투명하게 들여다볼 수 있는 중요한 단서를 제공함. 최근 앤스로픽의 연구에 따르면, 클로드 하이쿠와 같은 거대 모델조차 줄바꿈 시점을 결정하기 위해 6차원 공간상의 매니폴드 구조를 활용한다는 사실이 확인됨.
0
검열관 메모 (0)
아직 검열관 메모가 없습니다. 첫 번째 메모를 남겨보세요.