간단 요약:
이 논문은 대형 언어 모델(LLM)이 실제 인과추론 과제에서 얼마나 뛰어난 능력을 보이는지 체계적으로 분석합니다. LLM은 인간 전문가 수준의 인과 그래프 생성, 반사실적 추론, 특정 사건의 원인 판단 등에서 최신 기법을 압도하거나 상당한 성과를 보였습니다. 다만, 모델의 한계와 오류, 그리고 LLM 활용 시 주의점 역시 중요한 논의거리로 등장합니다.


1. 서론 및 연구 배경

인과성(causality)은 의학, 과학, 법, 정책 등 사회적으로 중요한 분야에서 핵심적인 역할을 합니다. 최근 대형 언어 모델(LLM)이 놀라운 AI 성능을 보여주면서 "LLM이 정말로 인과추론을 할 수 있는가?"에 관한 활발한 논쟁이 시작되었습니다.

"언어 모델이 보여주는 인과 능력은 단순히 데이터 암기 결과인가, 아니면 합리적인 인과추론의 산물인가?"

실제 인과적 과제에서 사람과 LLM이 논리, 통계 기반 추론을 오가면 추론한다.

LLM들은 논리 기반/통계 기반 인과추론, 인과 그래프 생성, 반사실적(reasoning), 구체 사건 원인 찾기 등 다양한 과제를 수행할 수 있는 것으로 보였지만, 때로는 비상식적 오류도 범합니다. 이런 점에서 LLM이 진정한 인과추론을 하는지, 아니면 그럴듯한 문장 생성에 불과한지 논쟁이 이어졌습니다.

논문은 인과추론의 주요 분류(통계 기반 vs 논리 기반, 일반 인과성 vs 특정 사건 인과성, 과제별 분류)를 정리하고, LLM이 각 영역에서 보여주는 능력과 한계를 수치와 예시를 들어 분석합니다.


2. 인과성 및 LLM 관련 이론적 배경

다양한 인과 접근

  • 통계적(공분산) 인과성: 데이터의 통계적 관계(예: "흡연은 폐암의 원인인가?")
  • 논리적 인과성: 논리/도메인 지식을 통한 추론(예: 법적 책임 판단 등)
  • 유형(Type) 인과성: 일반 변수 간 인과 효과(예: 어떤 약이 평균적으로 효과가 있나?)
  • 토큰(Token) 인과성: 특정 사건의 원인(예: "A씨의 사고는 무엇 때문인가?")

LLM의 인과 역량 평가 방법

  • 벤치마크 Q&A: 표준 문제로 정답률 측정
  • 메모리(암기) 테스트: 모델이 문제 자체를 암기했는지 검증
  • 문장 일부 가리기(레다크션) 테스트: 중요 단어가 사라질 때 성능 변화를 관찰

3. LLM을 통한 인과 그래프 생성과 검증

3.1 쌍별 인과관계 추론

튀빙겐(Tübingen) 데이터셋

108개의 서로 다른 변수 쌍에서 원인·결과 관계를 묻는 표준 과제 중,

  • 기존 최첨단 알고리즘 최고 정확도: 83%
  • GPT-4 기반 LLM(적절한 프롬프트 사용): 97%라는 경이적 성능을 기록

"전복된 부분입니다. 생물학적 지식을 고려할 때, 전복의 길이는 나이의 변화에 따라 달라질 가능성이 더 높습니다. 정답은 <Answer>A</Answer>."

새로운 데이터(2021년 이후 발간) 적용 결과

GPT-4는 훈련에 사용되지 않은 새로운 쌍들도 98.5%의 높은 정확도로 일반화함을 보임.

의료 분야 적용

신경병증성 통증에 대한 의료 데이터 역시 마찬가지로 GPT-4가 약 96% 정확도를 보임.

"DLS T5-T6가 Left T6 Radiculopathy를 유발한다. 척추의 퇴행성 변화가 신경근의 자극이나 압박을 일으킬 수 있다."


3.2 전체 인과 그래프(Full Graph) 생성 실험

신경병증성 통증, 북극해빙 과학 등 복잡한 실제 데이터에 적용:

  • GPT-3.5-turbo: 적절한 프롬프트 도입 시 F1 score 0.68로 기존 알고리즘 압도
  • GPT-4: 데이터 이해도가 더 우수, 가장 낮은 Hamming 거리로 정답에 근접
  • 신규치매(알츠하이머) 데이터(2023년 출시, 훈련 미포함)도 뛰어난 성능 유지

메모리/주목도 실험 결론

  • 기존 튀빙겐 같은 유명 데이터셋은 LLM이 일부 암기하는 경향이 있으나, 단순 암기로만 설명되지 않는 높은 일반화 성능을 보인다.
  • 프롬프트의 세부 조정이 결과에 큰 영향을 미침.

4. LLM의 토큰 인과성 및 인과적 판단 능력

4.1 반사실적 추론 능력

  • CRASS(반사실적 추론 벤치마크):
    GPT-4: 92.44% (인간 98.18%에 거의 근접, 이전 LLM(58%)보다 압도적)

"매우 긴장했다면, 기절할 수도 있겠지만, 반드시 그렇다고 확정할 순 없습니다. 그러므로 남성은 기절하지 않았을 것이다."

  • 신규 반사실적 데이터(2022년 생성): GPT-4, 약 88.6% 정확도

4.2 필요충분 조건(necessary & sufficient cause) 추론

  • 특화 시나리오(비어병 맥주 파티 등)로 테스트 → GPT-3.5-turbo가 애매한 반면, GPT-4는 대부분 문제에서 고도의 논리적 인과추론 가능
  • 필요(val:minimal change), 충분(multiple sufficient causes) 조건 구별 역시 뛰어남

"만약 Mike가 테이블을 부딪치지 않았다면 맥주병은 떨어지지 않았을 것이다."
"다른 사건이 없었다면 맥주병이 그저 테이블 위에 있었을 것이고, Mike의 행동이 사건의 충분 조건이 되었다."

4.3 정상성(normailty) 판단

  • LLM은 도덕, 사회적 규범 위반 등 "행동의 정상성"도 상당 부분 판별
  • 하지만 GPT-4도 여전히 약 70%선이며, 인간 직관을 항상 완벽하게 모방하진 못함

5. 논의: LLM이 여는 인과성 연구와 활용의 새 지평

LLM이 바꾸는 부분

  • 전문가 없이도! : LLM을 활용해 도메인 인과 지식을 빠르게 빌리고, 그래프 생성·검증 지원이 가능해져 인과분석 진입장벽 대폭 하락
  • 자연어 기반 직관적 상호작용이 가능, 전문가-비전문가 모두 접근 용이
  • 토큰 인과성 요소(필요성, 충분성, 정상성 등) 추출 자동화되어 법률, 정책, 원인 분석 등 다양한 실제 의사결정 보조
  • 암기만이 아닌 추론능력에 기반함을 수많은 신규 데이터 실험으로 입증

변하지 않는 부분과 유의점

  • 중요 결론은 여전히 엄밀한 수학적/통계적 검증 필요!
  • LLM 기반 결과는 항상 인간 전문가, 도구와 상호 검증해야 하며, LLM만을 맹신해서는 안 됨
  • LLM 기준 학습 데이터가 없으면 새로운 인과적 지식 생성엔 한계가 있음

6. 결론 및 향후 과제

LLM은 지금까지 사람의 경험적 지식과 상식이 필요하던 인과분석 과정의 상당 부분을 자동화/보조하는 신기술로, 실제 과학, 의료, 정책 등 다양한 분야에서 활용도가 폭발적으로 증가할 전망입니다.
그러나 여전히 예측 불가한 오류가 존재하고, 과적합, 상식적 한계, 사회적 위험성을 잘 관리해야 합니다.

"LLM은 전문가가 힘들어하던 인과 그래프 구성, 효과 추정, 원인 귀속 등 주요 인과 추론의 난점들을 가볍게 해준다. 하지만 엄밀성과 검증의 원칙만큼은 결코 양보할 수 없다."


마무리

이번 연구를 통해 대형 언어 모델이 단순 동어 반복(암기)이 아니라, 진정으로 의미 있는 인과적 추론과 설명을 상당 부분 수행할 수 있음을 확인했습니다. 앞으로는 LLM+기존 인과도구의 통합, 인간-LLM 협업, 새로운 데이터와 메타정보를 함께 쓰는 알고리즘, 그리고 LLM의 오류와 편향을 정밀하게 관리하는 연구가 중요 과제가 될 것입니다.

🔑 주요 키워드 강조:

  • 대형 언어 모델(LLM), 인과 그래프, 반사실적 추론, 필요/충분 조건, 정상성, 암기 vs 추론, 사람-LLM 협업, 프롬프트 최적화, 인과분석 자동화, 엄밀성 & 검증, 실제 적용·윤리적 위험

👀 참고 자료·전체 실험·코드는:
https://github.com/py-why/pywhy-llm


참고문헌 및 부록

논문 말미에는 실제 프롬프트 작성 예시, 실험 데이터, 추가 코딩 예제, 암기 테스트 방법, 실제 코드 생성 사례, LLM을 활용한 부정/긍정 대조 사례 등 실용적 정보가 풍부하게 제공되고 있습니다.


결론

LLM의 인과추론 능력은 인공지능 발전의 진정한 전환점 중 하나입니다. 이제는 기존 인과분석을 넘어서, 사람과 AI가 함께 논리와 통계를 넘나드는 더 창의적이고 유연한 인과적 사고를 펼칠 수 있는 시대가 열리고 있습니다. 다만, 신중한 활용과 부단한 검증이 과학, 사회, 산업에서 안전하고 책임감 있는 LLM 응용의 필수 조건임을 마지막으로 강조합니다. 🚦

Related writing

Related writing