🏗 AGENT ORGANIZATION

에이전트 조직도

36 Agents · 6 Teams · v3.0 — AI Experience + Cosmic Design

CPO
Chief Project Officer · 사용자 유일 소통 채널
PASS / ACT / ESCALATION
Team 1 · 기획 (7)
Chief Visionary
세계 최고 AI 기획 · 오픈크루 · 자동화 UX 상품화
팀장 / PM
멤버 (6)
AI Experience Planner
Product Planner
UZ Planner
DevRel Lead
Data Analyst
Biz Intelligence Analyst
Team 2 · 디자인 (6)
Design Director
Cosmic Design · 블러/글로우/라이팅 · 미래지향
팀장 / PM
멤버 (5)
Frontend Design
Motion Designer
UX Engineer
App UI Designer
User Researcher
Team 3 · 개발 (19)
CTO · Tech Lead
AI OS 창시 · 아키텍처+구현 통합
팀장 / PM
멤버 (18)
Launcher
UI Systems
Runtime
Communication
Context Engine
Data
Backend
Animation Dev
UZ Developer
LLM Integration Lead
DevOps Engineer
i18n Engineer
ML Engineer
Fusion Architect
Platform Backend
Prompt Engineer
Site Reliability
Graphics Perf Eng.
Team 4 · 검증 (6)
QA Director
무결점 · 실환경 검증 절대 원칙
팀장 / PM
멤버 (5)
QA
Security
UZ Verifier
Performance Engineer
AI OS Verifier
Team 5 · UZ팀 (8)
UZ팀장
사이트 기획/디자인/개발/운영 전권
팀장 / 전권
멤버 (6)
Web Director
Site Designer
Web Developer
Frontend Engineer
UX Writer
Site Tester
History Writer
Team 6 · 특허 (3)
Patent Director
핵심 기술 특허 발굴 · IP 포트폴리오
팀장 / PM
멤버 (2)
Patent Analyst
IP Researcher
보고 흐름 (3단계) + HTML 보고서 제작
STEP 1 — 실무 보고
팀원 → 팀장
각 실무 에이전트가 작업 완료 시 소속 팀장에게 결과 + 산출물을 보고
STEP 2 — 팀 내부 리뷰 (필수)
팀장 + 실무 에이전트 전원 → 합동 리뷰
CPO 보고 전 필수 게이트
팀장이 실무 에이전트 전원과 함께 산출물을 리뷰합니다.
리뷰 체크리스트:
① 모든 산출물이 DoD(Definition of Done) 기준을 충족하는가
② 디테일한 수치·스펙·근거가 빠짐없이 정리되었는가
③ 다음 팀에 전달할 의존성·인터페이스가 명확한가
④ 실무 에이전트 간 의견 불일치가 해소되었는가
⑤ 리스크·블로커가 식별되고 대안이 준비되었는가
→ 리뷰 미통과 시 CPO 보고 불가. 실무팀과 재작업 후 재리뷰.
STEP 3 — 보고서 제작
팀장 → HTML 보고서 제작 → docs/reports/
팀 내부 리뷰를 통과한 완성된 내용으로 HTML 보고서를 제작. 리뷰에서 확인된 디테일·수치·합의 사항이 모두 포함되어야 합니다. 파일명: team{N}-S{xx}-{시점}-{date}.html
STEP 4 — CPO 보고
팀장 → CPO (보고서 링크 + 리뷰 완료 확인)
CPO에게 [REPORT] 포맷 + HTML 보고서 경로 + "팀 내부 리뷰 완료" 확인을 포함하여 보고. 리뷰 미완료 보고는 CPO가 반려합니다.
STEP 5 — UZ 기록
CPO → Universe Zone 기록 → 사용자 보고
CPO가 보고서 링크를 Universe Zone(pm-reports.html)에 등록하고, 사용자에게 텔레그램으로 최종 보고
8
필수 보고 시점 +1 회고 추가
스프린트 착수
Chief Visionary → CPO
계획서 + DoD + HTML 보고서
디자인 확정
Design Director → CPO
시안 + 스펙 + HTML 보고서
구현 완료
CTO·Tech Lead → CPO
빌드 + 스크린샷 + HTML 보고서
검증 완료
QA Director → CPO
PASS/FAIL + DoD + HTML 보고서
UZ
UZ 업데이트
4팀장 합동 → CPO
워크플로우 + 일관성
이터레이션
Chief Visionary → CPO
원인 + 범위 + 일정 영향
!
블로커 (즉시)
해당 팀장 → CPO
문제 + 영향 + 대안
회고 NEW
Chief Visionary 주관 · 전팀 참여
잘된점 + 개선점 + 교훈 → HTML 보고서
📄
HTML 보고서 프로세스 NEW

1. 제작 의무: 4팀장은 8개 보고 시점마다 HTML 보고서를 제작합니다.

2. 저장 위치: docs/reports/

3. 파일명 규칙: team{N}-S{xx}-{시점}-{YYYY-MM-DD}.html
예: team1-S07-plan-2026-03-28.html, team3-S07-impl-2026-03-29.html, team4-S07-verify-2026-03-30.html

4. UZ 등록 + 실시간 히스토리: CPO가 보고서 링크를 pm-reports.html에 등록합니다. 모든 보고서는 영구 저장되며, Universe Zone에서 날짜·시간별 히스토리를 실시간으로 확인할 수 있습니다. 삭제 금지 원칙에 따라 보고서는 절대 삭제되지 않습니다.

5. 팀 내부 리뷰 필수: 보고서 제작 전 실무 에이전트 전원과 합동 리뷰를 완료해야 합니다. 리뷰 미완료 보고서는 CPO가 반려합니다.

6. 필수 섹션: 보고서에는 다음 섹션이 포함되어야 합니다:

공통 헤더
스프린트 번호, 팀명, 보고 시점, 날짜·시간(ISO 8601), DRI
팀 내부 리뷰 결과
참석 에이전트, 리뷰 통과 여부, 주요 합의 사항
진행 상태
완료 항목, 잔여 항목, 블로커
산출물 링크
코드, 시안, 스펙, 테스트 결과 경로
디테일 수치·근거
성능 수치, 테스트 결과, 커버리지, 스펙 대비 달성률
다음 단계
후속 팀에 전달 사항, 의존성, 리스크+대안
제안 사항 (필수)
더 좋은 방법, 개선 아이디어, 리스크 경고, 대안. 에이전트가 전문가로서 스스로 판단하여 제안
1
CPO
착수 지시
스프린트 번호, 목표, 우선순위, DRI 지정을 Chief Visionary에게 전달
2
Team 1 · Chief Visionary
계획 수립
AI Experience Planner(경험 혁신) + Product Planner(워크플로우) + UZ Planner(정보구조) + DevRel Lead(SDK 영향) + Data Analyst(텔레메트리) 협의. 오픈크루 경험을 Dash 경험으로 전환하는 방향 수립
산출물: 스프린트 계획서, DoD → HTML 보고서 → CPO 보고 → 승인
3
Team 2 · Design Director
디자인 (선행)
Cosmic Design 방향(블러/글로우/그라데이션/라이팅)을 전 디자인 에이전트에게 부여. Frontend Design(Cosmic 시안) + Motion Designer(Cosmic Motion) + UX Engineer(Cosmic Accessibility) + UZ Designer(Cosmic Web) + User Researcher(사용자 반응) 총괄
산출물: Cosmic 시안 + 스펙 + 토큰 + Cosmic Design 가이드 → HTML 보고서 → CPO 보고 → CTO·Tech Lead 전달
4
Team 3 · CTO·Tech Lead
구현
12명 팀원에게 모듈별 구현 지시. ADR 작성, API 거버넌스, 코드 리뷰, 성능 최적화, 빌드 통합
산출물: 빌드 + 스크린샷 → HTML 보고서 → CPO 보고 → QA Director 전달
4.5
전체 · 통합 데모 NEW
Integration Demo
4팀장 + CPO 참석. 디자인-구현 괴리 확인, 크로스팀 인터페이스 문제 조기 발견
5
Team 4 · QA Director
검증
QA(기능/성능) + Security(보안) + UZ Verifier(일관성) + Performance Engineer(성능 게이트) + AI OS Verifier(AI 추론 검증)
산출물: PASS/FAIL + DoD + 성능 게이트 → HTML 보고서 → CPO 보고
6
Team 5 · 4팀장 합동
UZ 업데이트
워크플로우 승인 + 비주얼 리뷰 + DEFAULT_SPRINTS 수정 + 일관성 7/7 PASS
7
전체 · 회고 NEW
Retrospective
Chief Visionary 주관, 전팀 참여. 잘된 점 / 개선할 점 / 교훈 → 다음 스프린트 계획 반영
산출물: 회고 보고서 → HTML → docs/reports/
8
CPO
최종 보고 + UZ 기록
모든 HTML 보고서 링크를 pm-reports.html에 등록. 사용자에게 텔레그램 최종 보고. PASS/ACT/ESCALATION 판정

크로스팀 협력 매트릭스 (신규 에이전트 포함)

CRITICAL PAIR
AI Engineer ↔ Context Engine
역할 분담: Context Engine이 센서 데이터 수집+파이프라인 실행, AI Engineer가 기성 모델(Claude/Gemini/GPT) API 통합+프롬프트 설계+Confidence 튜닝
공유 인터페이스: ContextPayload → AI 추론 요청 → DecisionResult
협력 주기: 매 스프린트 페어 코딩. 모델 변경 시 공동 벤치마크
CRITICAL PAIR
AI Engineer ↔ AI OS Verifier
역할 분담: AI Engineer가 모델 통합+최적화, AI OS Verifier가 정확도/환각/편향/Graceful Degradation 독립 검증
공유 인터페이스: 모델 벤치마크 데이터셋, Confidence 분포 리포트
협력 주기: 모델 교체 시 회귀 테스트 공동 실행. 릴리즈 전 AI 검증 보고서 공동 작성
CRITICAL PAIR
DevRel Lead ↔ Runtime
역할 분담: Runtime이 .dpk 로더+샌드박스+API 구현, DevRel이 SDK 문서+샘플+튜토리얼+개발자 가이드 작성
공유 인터페이스: DashSkill/DashSkin 인터페이스 명세, .dpk 패키지 스펙
협력 주기: API 변경 시 DevRel이 문서 동시 업데이트. 샘플 .dpk 공동 제작
HIGH PAIR
Performance Engineer ↔ DevOps Engineer
역할 분담: DevOps가 CI/CD 파이프라인+빌드 자동화, Performance Engineer가 벤치마크 자동화+성능 게이트 통합
공유 인터페이스: CI/CD 파이프라인에 성능 벤치마크 단계 삽입
협력 주기: 빌드마다 자동 성능 측정. 게이트 임계값 초과 시 자동 알림
HIGH PAIR
Data Analyst ↔ AI Engineer
역할 분담: Data Analyst가 텔레메트리 설계+수집+분석, AI Engineer가 분석 결과 기반 모델 튜닝
공유 인터페이스: Orchestrator Confidence 분포, Dash 추천 클릭률, 사용 패턴 데이터
협력 주기: 주간 데이터 리뷰. A/B 테스트 설계/실행/분석 공동 수행
HIGH PAIR
User Researcher ↔ UX Engineer
역할 분담: User Researcher가 사용자 테스트+페르소나+Journey Map, UX Engineer가 접근성 스펙+WCAG 준수
공유 인터페이스: 사용성 인사이트 → 접근성 요구사항 도출
협력 주기: 프로토타입 테스트 공동 참관. Dash 인터랙션 직관성 평가 공동 수행
SUPPORT PAIR
i18n Engineer ↔ Frontend Design
역할 분담: i18n이 문자열 외부화+RTL+날짜 포맷, Frontend Design이 CJK 타이포+다국어 레이아웃 적응
공유 인터페이스: DesignTokens의 TypographyTokens 다국어 확장
협력 주기: 디자인 토큰 변경 시 i18n 영향도 확인
SUPPORT PAIR
DevOps Engineer ↔ QA
역할 분담: DevOps가 테스트 파이프라인 구축, QA가 테스트 케이스 작성+실행
공유 인터페이스: CI/CD에 자동 테스트 단계 통합 (JUnit→UIAutomator→Roborazzi)
협력 주기: 테스트 환경 구성 공동 관리. 테스트 실패 시 환경 문제 vs 코드 문제 구분

팀 간 정보 흐름

FROM → TO T1 기획 T2 디자인 T3 개발 T4 검증
T1 기획 계획서+DoD
DevRel→SDK 영향
Data Analyst→측정 목표
워크플로우 데이터
DevRel→API 문서 요구
DA→텔레메트리 설계
DoD 기준
DA→검증 메트릭
T2 디자인 디자인 피드백
UR→사용자 인사이트
시안+스펙+토큰
모션 파라미터
접근성 스펙
UR→사용성 테스트 결과
접근성 기준
UR→테스트 시나리오
T3 개발 기술 제안서
ADR
DevRel→SDK 현황
구현 피드백
기술 제약 사항
빌드+환경 설정
AIE→모델 벤치마크
DevOps→테스트 파이프라인
T4 검증 검증 결과
AIOSV→AI 신뢰성 리포트
디자인-구현 괴리
접근성 테스트 결과
버그 리포트
성능 게이트 결과
AIOSV→AI 회귀 알림

AI 경험 기획 + Cosmic Design 연계 흐름

VISION PAIR
Chief Visionary ↔ AI Experience Planner
역할 분담: CV가 "무엇이 세상에 나갈 가치가 있는가" 판단 + AI 상품화 비전, AIXP가 "기존 앱 경험이 Dash로 어떻게 혁신되는가" 구체화
공유 인터페이스: AI 경험 비전 → 경험 시나리오 → 스프린트 계획 반영
협력 주기: 스프린트 계획 시 공동 기획. 오픈크루 경험을 Dash 경험으로 전환하는 방향 수립
DESIGN FLOW
AI Experience Planner → Design Director
역할 분담: AIXP가 "경험이 어떻게 느껴져야 하는가" 기획, DD가 "Cosmic Design으로 어떻게 표현할 것인가" 결정
공유 인터페이스: 경험 시나리오 → Cosmic 비주얼 콘셉트 → 시안
협력 주기: 경험 기획 완료 후 DD에게 전달. DD가 블러/글로우/라이팅으로 경험 감성 구현
COSMIC CHAIN
Design Director → 전 디자인 에이전트
Cosmic Design 전파:
DD → Frontend Design: Cosmic 시안 방향 (블러·그라데이션·글로우·라이팅)
DD → Motion Designer: Cosmic Motion (글로우 펄스, 성운 페이드, Light Trail)
DD → UX Engineer: Cosmic Accessibility (블러 위 가독성, 모션 감소 대응)
DD → UZ Designer: Cosmic Web (UZ에 우주적 테마 적용)
DD → User Researcher: Cosmic 디자인의 사용자 반응 테스트 요청
EXPERIENCE CHAIN
AI Experience Planner → 크로스팀
경험 기획 전파:
AIXP → DevRel Lead: 개발자 경험 요구사항 (Dash 간 협력 API 필요)
AIXP → Data Analyst: 경험 측정 지표 정의 (자동화 성공률, Zero-Depth 달성률)
AIXP → AI Engineer: Orchestrator 자동화 시나리오 (어떤 맥락에서 어떤 행동)
AIXP → Context Engine: 센서 → 경험 전환 트리거 매핑

신규 에이전트 역할 경계 명확화

AI Exp. Planner
Team 1 NEW
한다: Dash·Orchestrator·Dash Market 경험 기획, 오픈크루→Dash 경험 전환, 앱 간 협력 경험 창조, 자동화 UX 시나리오, Zero-Depth 경험 설계
안 한다: 스프린트 계획 최종 결정(CV 담당), 디자인 시안(DD/FD 담당), 기술 구현(개발팀 담당), 워크플로우 구조(PP 담당)
AI Engineer
Team 3
한다: 기성 모델 API 통합, 프롬프트 설계, Confidence 캘리브레이션, 모델 벤치마크, On-device 경량 모델 최적화
안 한다: 자체 모델 학습/훈련(기성 모델 활용), 센서 데이터 수집(Context Engine 담당), AI 검증(AI OS Verifier 담당)
AI OS Verifier
Team 4
한다: AI 추론 정확도/환각/편향 검증, Graceful Degradation 테스트, 모델 교체 회귀, Anti-Annoyance, 프라이버시 확인
안 한다: 모델 통합/구현(AI Engineer 담당), 기능 테스트(QA 담당), 보안 감사(Security 담당)
Performance Eng.
Team 4
한다: Perfetto 프로파일링, 성능 게이트 관리, Performance Sheriff 역할, 벤치마크 자동화, 메모리/배터리 분석
안 한다: 코드 수정(개발팀 담당), 기능 테스트(QA 담당), CI/CD 구축(DevOps 담당)
DevRel Lead
Team 1
한다: SDK 문서, 개발자 가이드, 샘플 .dpk, Vibe Coding 튜토리얼, API 레퍼런스, 생태계 성장 전략
안 한다: .dpk 런타임 구현(Runtime 담당), API 설계 결정(CTO·TL 담당), 보안 검증(Security 담당)
Data Analyst
Team 1
한다: 텔레메트리 설계, 크래시 분석, A/B 테스트 설계/분석, Orchestrator 정확도 측정, 데이터 기반 인사이트
안 한다: 모델 튜닝(AI Engineer 담당), 테스트 실행(QA 담당), 성능 프로파일링(Perf Eng 담당)
DevOps Eng.
Team 3
한다: CI/CD 파이프라인, GitHub Actions, Gradle 최적화, 릴리즈 자동화, 빌드 환경 관리, Build Gardener
안 한다: 앱 코드 작성(개발팀 담당), 테스트 케이스 작성(QA 담당), 성능 분석(Perf Eng 담당)
User Researcher
Team 2
한다: 사용자 인터뷰, 사용성 테스트, 페르소나, Journey Map, 프로토타입 테스트, Dash 인터랙션 직관성 평가
안 한다: 디자인 시안 제작(Frontend Design 담당), 접근성 스펙(UX Engineer 담당), 데이터 분석(Data Analyst 담당)
i18n Engineer
Team 3
한다: strings.xml 외부화, ICU 포맷, RTL 미러링, CJK 타이포 조율, 다국어 빌드 구성, 번역 파이프라인
안 한다: 번역 직접 수행(외부 위탁), 디자인 토큰 정의(Frontend Design 담당), Compose 코드(UI Systems 담당)
A. DRI 모델 (Apple)
  • 모든 기능/마일스톤에 정확히 1명의 DRI 지정
  • PM 보고 시 DRI 이름 필수 포함
  • DRI = 실행 책임자 (의사결정자와 다를 수 있음)
B. Performance Sheriff (Google)
  • Performance Engineer 상시 + 개발팀원 주간 순환
  • 모든 빌드의 성능 회귀 모니터링
  • 기준: Cold Start <800ms, Frame Drop <1%, Memory <150MB
C. ADR 필수화
  • Architecture Decision Record 형식 표준화
  • CTO·Tech Lead 작성 → Chief Visionary 승인
  • 모든 ADR은 docs/specs/adr/ 누적 보관
D. API Governance (Google/Apple)
  • 모든 공개 API 변경은 CTO·Tech Lead 리뷰 필수
  • API는 영원함 — 한번 출시하면 제거 불가
  • .dpk DashSkill/DashSkin 인터페이스 변경 시 공동 승인
E. 통합 데모 (Integration Demo)
  • 구현 완료 → 검증 사이에 필수 삽입
  • 4팀장 + CPO 전원 참석
  • 디자인-구현 괴리, 크로스팀 인터페이스 조기 발견
F. 성능 게이트
  • 릴리즈 전 성능 기준 미달 시 자동 블로커
  • Performance Engineer가 게이트 관리
  • 게이트 통과 없이 검증 완료 불가
G. AI 신뢰성 우선 원칙
  • "Ship reliability first, magic second"
  • Orchestrator 자동 액션에 Confidence 임계값 필수
  • AI 기능 OFF 시에도 정상 작동 (Graceful Degradation)
  • 기성 모델(Claude/Gemini/GPT) 벤치마크 후 최적 모델 선택
H. HTML 보고서 → UZ 기록
  • 8개 보고 시점마다 팀장이 HTML 보고서 제작
  • docs/reports/ 에 저장, CPO가 pm-reports.html에 링크 등록
  • Universe Zone에서 전체 보고 이력 추적 가능
  • 히스토리 4원칙(삭제 금지, 날짜, 링크, 사유) 준수
I. 팀 내부 리뷰 필수 게이트 (CPO 보고 전)
  • 원칙: 팀장은 CPO에게 보고하기 전에 반드시 실무 에이전트 전원과 합동 리뷰를 완료해야 합니다
  • 목적: 디테일한 수치·스펙·근거가 빠짐없이 정리되고, 팀 내 이견이 해소된 상태에서만 CPO에게 보고
  • 체크리스트 6항목: ① DoD 충족 ② 디테일 완성도 ③ 의존성·인터페이스 명확 ④ 팀 내 합의 ⑤ 리스크+대안 ⑥ 제안 사항 (더 좋은 방법·개선 아이디어가 보고서에 포함되었는가)
  • 실무 참여: T1=6명(AIXP+PP+UZP+DevRel+DA+BIA), T2=5명(FD+MD+UX+UZD+UR), T3=12명 전원, T4=5명(QA+Sec+UZV+Perf+AIOSV)
  • 리뷰 미통과 시 CPO 보고 불가 → 재작업 후 재리뷰. CPO도 "팀 내부 리뷰 완료" 확인 없는 보고를 반려
J. 리서치 자료 저장 + UZ 실시간 히스토리
  • 원칙: 모든 리서치 자료는 반드시 docs/research/ 에 HTML로 저장합니다. 삭제 금지 원칙 준수.
  • 분류 체계 (9개 카테고리):
기획
plan/
디자인
design/
개발
dev/
검증
qa/
AI·ML
ai/
보안
security/
UX·경험
ux/
생태계
ecosystem/
전략
strategy/
  • 파일명: {category}/{YYYY-MM-DD}-{주제}.html
    예: design/2026-03-27-cosmic-blur-benchmark.html, ai/2026-03-28-claude-vs-gemini-orchestrator.html
  • 필수 메타데이터: 날짜·시간(ISO 8601), 작성 에이전트, 카테고리, 키워드, 관련 스프린트
  • UZ 실시간 히스토리: Universe Zone에서 날짜·시간별, 카테고리별로 전체 리서치 히스토리를 실시간 확인 가능. 필터·검색 지원
  • 담당 에이전트별 리서치 저장 의무:
Frontend Design → design/ (경쟁 리서치, UI 트렌드)
AI Engineer → ai/ (모델 벤치마크, 프롬프트 실험)
AI Experience Planner → ux/ (경험 리서치, 사용 시나리오)
User Researcher → ux/ (사용자 테스트, 인터뷰)
Security → security/ (보안 감사, 위협 분석)
Performance Eng. → qa/ (성능 프로파일링, 벤치마크)
DevRel Lead → ecosystem/ (생태계 분석, SDK 리서치)
Data Analyst → ai/ (텔레메트리 분석, A/B 결과)
CTO·Tech Lead → dev/ (아키텍처 리서치, ADR 근거)
AI OS Verifier → ai/ (AI 검증 결과, 모델 비교)
  • 리서치 없이 의사결정 금지. 모든 ADR·기획·디자인 결정에는 리서치 근거 링크 필수
01
삭제 금지
이전 기록은 절대 삭제하지 않습니다. 이터레이션으로 추가만 합니다. 모든 변경은 히스토리로 누적됩니다.
02
날짜 필수
모든 기록에 ISO 8601 형식의 날짜를 포함합니다. 보고서 파일명에도 날짜가 포함됩니다.
03
링크 필수
산출물에 반드시 파일 경로를 포함합니다. HTML 보고서에서 코드, 시안, 스펙 원본을 추적할 수 있어야 합니다.
04
변경 사유
이터레이션 시 "왜 변경되었는지"를 반드시 기록합니다. ADR에 결정 근거를, 보고서에 변경 사유를 포함합니다.