AI Operations Layer

현황판이 아니라, 조직의 AI 운영 레이어

웹에서는 HQ를 삽니다. 실제 사용자는 chat과 console에서 `HQ context applied`, `Org memory on`, `Billed to <org>`처럼 조직 문맥이 자동 적용되는 경험으로 가치를 느낍니다. cdot은 그 안에서 팀의 실행을 이어주는 dev-team operating surface입니다.

관찰

조직의 AI usage와 흐름을 봅니다

적용

org memory와 policy가 chat에 자동 적용됩니다

이해

팀의 진행 상태와 다음 액션을 이어받습니다

pain

팀이 AI를 쓰고 있어도, 조직 문맥은 아직 자동 적용되지 않습니다

개인 chat과 툴 사용은 늘어나지만 entitlement, memory, approvals, billing attribution은 각자 따로 놀고 있습니다.

organization 단위 use-checking 없이 개인 툴이 먼저 실행됩니다
잘하는 사람의 방식이 team memory나 role default로 남지 않습니다
진행 상태와 다음 액션이 chat·문서·승인 흐름 사이에서 끊깁니다

memory layer

HQ는 조직 문맥을 chat과 console에 자동 적용하는 운영 레이어입니다

observation, team memory, progress understanding, action automation 위에 entitlement, policy, approval, billing attribution을 얹어 조직 단위 AI 사용을 운영 가능한 시스템으로 바꿉니다.

evidence

팀의 AI 운영에는 네 가지가 함께 있어야 합니다

사용량과 활동 신호
팀의 암묵지와 잘 먹힌 패턴
현재 진행 상태와 최근 결정
리포트, 추천, 후속 액션 자동화

HQ는 네 가지를 함께 제공합니다

capability

Observation

팀의 AI usage, activity, adoption 상태를 봅니다.

capability

Team Memory

잘 먹히는 방식과 팀의 암묵지를 자산으로 남깁니다.

capability

Progress Understanding

일이 어디까지 왔는지 AI가 문맥적으로 이해합니다.

capability

Action Automation

리포트, 추천, follow-up을 자동으로 연결합니다.

Observation → Memory → Progress → Action

쓸수록 조직 문맥이 더 정확히 적용됩니다

HQ는 로그만 모으지 않습니다. organization 요청이면 entitlement를 먼저 확인하고, team memory, session continuity, approval/policy check, billing attribution을 chat과 console에 자동 적용합니다.

1

Observation

사용량과 운영 신호를 관찰합니다

Claude, ChatGPT, 문서, 커뮤니케이션에서 조직의 usage, adoption, approval signal을 모아 운영 상태를 봅니다.

2

Memory

org memory와 team memory를 적용합니다

잘 먹힌 프롬프트, 판단 기준, 역할별 기본 방식, 반복 흐름이 team memory로 쌓이고 chat에 자동 반영됩니다.

3

Progress

팀의 실행 상태를 이어받습니다

최근 결정, 현재 상태, 미해결 이슈, 다음 액션을 문맥적으로 파악해 다음 팀원과 다음 세션까지 이어줍니다.

4

Action

approval과 follow-up까지 자동으로 연결합니다

주간 요약, 승인 체크, 저활용 팀 알림, 반복 업무 추천, 후속 액션 정리까지 운영 흐름으로 이어집니다.

outcome

AI 사용이 개인 툴에서 조직 운영 시스템으로 바뀝니다

누가 잘하는지 보는 것에서 끝나지 않고, 그 방식이 조직 자산으로 남고, HQ context가 자동 적용된 chat과 console이 다음 실행을 이어받습니다.

personal

운영비와 교육예산, 둘 다 설명 가능한 제품입니다

운영 관점에서는 usage visibility, governance, automation, billing attribution을, 교육 관점에서는 베스트 프랙티스 전파와 팀 학습 내재화를 설명할 수 있습니다.

build vs buy

직접 붙이면 analytics tool이 되고, HQ로 시작하면 운영 레이어가 됩니다

직접 붙이면

usage, 문서, 보고, 자동화를 따로 연결해야 합니다
잘하는 사람의 방식이 시스템에 남지 않습니다
진행 상태 이해와 후속 액션이 분리됩니다

HQ로 시작하면

관찰, memory, progress, action이 한 흐름으로 연결됩니다
팀장 기준의 운영 화면과 주간 리포트가 바로 생깁니다
API ver와 Privacy ver 중 팀 상황에 맞게 시작할 수 있습니다

transition stages

빠르게 시작하는 버전과, 전용 조직 런타임으로 가는 버전을 함께 둡니다

HQ는 둘 다 조직 운영 레이어를 공통으로 제공합니다. 차이는 runtime과 privacy 수준입니다. 실제 사용자는 chat과 console에서 HQ context가 자동 적용된 상태로 일합니다.

memory

AI API ver

빠르게 시작하는 조직용

Shared runtime
외부 모델 API 기반으로 빠르게 도입합니다
org-aware usage, team memory, progress view를 즉시 활성화합니다
초기 파일럿과 국내 20~200인 SMB 팀에 가장 적합합니다

flow

Privacy ver

조직 전용 private workspace

Reserved monthly capacity
RunPod 기반 팀 전용 GPU workspace로 운영합니다
Qwen 3.6 계열을 조직 전용 private runtime으로 제공합니다
고객은 GPU 시간이 아니라 월 reserved capacity와 privacy를 구매합니다

control

HQ Context Layer

두 버전 모두 공통으로 제공되는 운영 가치

Included
entitlement, approval, policy check, billing attribution을 적용합니다
team memory와 role default를 지속적으로 축적합니다
chat과 console에서 `HQ context applied` 경험을 제공합니다

early access

얼리 액세스 프로그램

국내 20~200인 팀과 함께 HQ를 다듬고 있습니다. 운영 구조 진단, org context 설계, API ver / Privacy ver 적합도 상담을 함께 진행합니다.

outcomes

팀의 AI 활용을 보고, 이해하고, 운영 가능한 상태로 바꿉니다

누가 무엇을 얼마나 쓰는지 팀 단위로 파악합니다
잘하는 사람의 방식이 team memory와 role default로 쌓입니다
현재 상태·최근 결정·다음 액션이 자동으로 정리됩니다
주간 운영 리포트와 추천 액션으로 운영이 이어집니다

우리 조직의 AI 운영 레이어를 먼저 설계하세요

early access

얼리 액세스 신청

소수 팀과 함께 HQ를 만들어 갑니다. 신청 후 카카오톡 오픈 채팅으로 바로 대화할 수 있습니다.