Generative Agents: Interactive Simulacra of Human Behavior
Information
| 일자 | 2026년 02월 02일 |
|---|---|
| 발표자 | 김영돈 |
Video
Overview
이 논문은 Generative Agents를 통해 LLM이 단순 대화 생성이 아니라 장시간 일관된 기억·성찰·계획을 기반으로 인간 행동을 시뮬레이션할 수 있음을 보이며, 메모리 스트림 중심 인지 아키텍처를 표준 형태로 제시합니다.
연구 배경(왜 필요한가)
- LLM은 장기 기억/일관성 부족이 핵심 약점이며, 대화를 프롬프트에 누적하는 방식은 비용↑·정보 과다·디테일 누락 문제가 있어 기억의 외부화가 필요
전체 아키텍처(인지 아키텍처 개요)
- LLM은 추론/언어 생성, 기억은 외부 저장소로 분리하고 필요할 때만 검색
- 관찰/행동/생각/계획을 메모리 스트림(자연어 로그) 에 통합 저장하며, 성찰·계획 결과도 다시 저장되어 이후 행동의 근거로 재사용
메모리 스트림(기억 표현)
- 경험을 자연어 문장 리스트로 누적(행동, 환경 관찰 등)하고, 각 기억에 생성 시각과 마지막 접근 시각을 저장해 최신성 계산에 사용
검색(어떤 기억을 꺼내는가)
- 현재 상황에서 Top-N 기억을 점수화해 선택하고, 점수는 최신성+중요도+관련성을 0~1로 스케일링해 합산
- 최신성은 지수 감쇠(예: 0.995), 중요도는 LLM이 1~10으로 평가해 저장, 관련성은 쿼리-기억 임베딩 코사인 유사도로 측정
성찰(Reflection: 고차원 통찰 생성)
- 단순 검색만으로는 일반화가 부족하므로 성찰 모듈이 추상 통찰을 생성해 메모리에 저장
- 중요도 누적이 임계치를 넘으면 질문 생성 → 증거 검색 → 통찰 도출 순으로 수행되어 관찰(리프)→통찰(상위)로 이어지는 트리형 기억이 형성
계획·반응(Planning & Reacting: 시간 일관성)
- 즉흥적 행동 선택은 시간 인지 실패를 유발하므로, 하루→시간→5~15분 단위로 재귀 분해하는 탑다운 계획을 사용
- 매 타임스텝 관찰로 계획 수정 필요성을 판단하고(중요 사건이면 재계획), 수정 이유까지 메모리에 남겨 설명 가능성을 확보
그라운딩 및 사용자 개입(샌드박스 연동)
- LLM의 텍스트 출력을 파싱해 환경 엔진의 이동/상태 변화/애니메이션으로 변환
- 사용자 개입은 페르소나/목표를 주입하는 “내면 목소리”, 객체 상태를 바꾸는 “환경 조작”으로 에이전트의 계획 재구성과 즉각 반응을 확인
자발적 사회 현상(정보 확산·협동)
- 시드 정보 하나로도 기억 검색과 계획이 결합되어 초대→2차 확산→행동 변화가 발생하고, 에이전트 성격/관계가 상호작용해 비의도적 드라마(데이트, 동행 등)도 생성
- 일부는 일정/우선순위로 거절해 “불완전함”이 인간다움을 강화
정량 검증(신뢰성·사람 평가)
- 사회 네트워크를 상호 인지 기준으로 구성해 밀도 변화를 정량화하고, “안다” 응답을 실제 만남 기록과 대조해 환각을 점검
- 성찰/계획 제거 등 조건 비교로 각 모듈의 기여를 랭킹 기반으로 검증
의의(왜 중요한가)
- 프롬프트 엔지니어링을 넘어 메모리·성찰·계획을 결합한 에이전트 엔지니어링의 표준 구조를 제시했고, 장기 일관성/사회적 상호작용/동적 계획 수정이 가능한 생성 에이전트의 토대를 마련