Generative Agents: Interactive Simulacra of Human Behavior


Information

일자 2026년 02월 02일
발표자 김영돈

Video


Overview

이 논문은 Generative Agents를 통해 LLM이 단순 대화 생성이 아니라 장시간 일관된 기억·성찰·계획을 기반으로 인간 행동을 시뮬레이션할 수 있음을 보이며, 메모리 스트림 중심 인지 아키텍처를 표준 형태로 제시합니다.

연구 배경(왜 필요한가)

  • LLM은 장기 기억/일관성 부족이 핵심 약점이며, 대화를 프롬프트에 누적하는 방식은 비용↑·정보 과다·디테일 누락 문제가 있어 기억의 외부화가 필요

전체 아키텍처(인지 아키텍처 개요)

  • LLM은 추론/언어 생성, 기억은 외부 저장소로 분리하고 필요할 때만 검색
  • 관찰/행동/생각/계획을 메모리 스트림(자연어 로그) 에 통합 저장하며, 성찰·계획 결과도 다시 저장되어 이후 행동의 근거로 재사용

메모리 스트림(기억 표현)

  • 경험을 자연어 문장 리스트로 누적(행동, 환경 관찰 등)하고, 각 기억에 생성 시각과 마지막 접근 시각을 저장해 최신성 계산에 사용

검색(어떤 기억을 꺼내는가)

  • 현재 상황에서 Top-N 기억을 점수화해 선택하고, 점수는 최신성+중요도+관련성을 0~1로 스케일링해 합산
  • 최신성은 지수 감쇠(예: 0.995), 중요도는 LLM이 1~10으로 평가해 저장, 관련성은 쿼리-기억 임베딩 코사인 유사도로 측정

성찰(Reflection: 고차원 통찰 생성)

  • 단순 검색만으로는 일반화가 부족하므로 성찰 모듈이 추상 통찰을 생성해 메모리에 저장
  • 중요도 누적이 임계치를 넘으면 질문 생성 → 증거 검색 → 통찰 도출 순으로 수행되어 관찰(리프)→통찰(상위)로 이어지는 트리형 기억이 형성

계획·반응(Planning & Reacting: 시간 일관성)

  • 즉흥적 행동 선택은 시간 인지 실패를 유발하므로, 하루→시간→5~15분 단위로 재귀 분해하는 탑다운 계획을 사용
  • 매 타임스텝 관찰로 계획 수정 필요성을 판단하고(중요 사건이면 재계획), 수정 이유까지 메모리에 남겨 설명 가능성을 확보

그라운딩 및 사용자 개입(샌드박스 연동)

  • LLM의 텍스트 출력을 파싱해 환경 엔진의 이동/상태 변화/애니메이션으로 변환
  • 사용자 개입은 페르소나/목표를 주입하는 “내면 목소리”, 객체 상태를 바꾸는 “환경 조작”으로 에이전트의 계획 재구성과 즉각 반응을 확인

자발적 사회 현상(정보 확산·협동)

  • 시드 정보 하나로도 기억 검색과 계획이 결합되어 초대→2차 확산→행동 변화가 발생하고, 에이전트 성격/관계가 상호작용해 비의도적 드라마(데이트, 동행 등)도 생성
  • 일부는 일정/우선순위로 거절해 “불완전함”이 인간다움을 강화

정량 검증(신뢰성·사람 평가)

  • 사회 네트워크를 상호 인지 기준으로 구성해 밀도 변화를 정량화하고, “안다” 응답을 실제 만남 기록과 대조해 환각을 점검
  • 성찰/계획 제거 등 조건 비교로 각 모듈의 기여를 랭킹 기반으로 검증

의의(왜 중요한가)

  • 프롬프트 엔지니어링을 넘어 메모리·성찰·계획을 결합한 에이전트 엔지니어링의 표준 구조를 제시했고, 장기 일관성/사회적 상호작용/동적 계획 수정이 가능한 생성 에이전트의 토대를 마련

첨부 파일