본문으로 건너뛰기
테마
폰트
크기
A A

시작하기 (Get Started)

Google Antigravity가 무엇인지 알아보고, 설치부터 첫 번째 프로젝트까지 단계별로 안내합니다.

Antigravity란? #

Google Antigravity는 Google이 만든 AI 코딩 에이전트입니다. 채팅으로 대화하면 AI가 코드를 작성하고, 파일을 수정하고, 터미널 명령을 실행하며, 프로젝트 전체를 이해하고 작업합니다.

한 줄 요약
"코드를 직접 치는 대신, AI와 대화하며 소프트웨어를 만드는 도구" — 이것이 바이브 코딩(Vibe Coding)이고, Antigravity는 그 도구입니다.

바이브 코딩이란?

Andrej Karpathy가 만든 용어로, 코드를 직접 작성하지 않고 자연어로 AI에게 지시하여 프로그래밍하는 방식을 말합니다. "로그인 페이지 만들어줘", "이 CSV 데이터를 시각화해줘"처럼 말하면 AI가 코드를 생성하고 실행합니다.

Antigravity로 할 수 있는 것

웹사이트 & 앱 개발

"블로그를 만들어줘", "할일 관리 앱을 React로 만들어줘" 등 전체 프로젝트를 대화로 생성합니다.

데이터 분석

"이 CSV 파일의 매출 추이를 그래프로 보여줘", "결측치를 처리하고 통계 요약해줘" 등 Python/pandas 분석을 수행합니다.

코드 리뷰 & 리팩토링

"이 코드의 성능 문제를 찾아줘", "테스트 코드를 추가해줘" 등 기존 코드를 분석하고 개선합니다.

문서 & 자동화

"README를 작성해줘", "배포 스크립트를 만들어줘", "GitHub 이슈를 정리해줘" 등 반복 작업을 자동화합니다.

전통 코딩 vs 바이브 코딩

전통적인 코딩 개발자 (직접 코딩) 코드 작성 디버깅... 결과 문법, 라이브러리, 디버깅 지식 필요 수 시간 ~ 수 일 바이브 코딩 (Antigravity) 사용자 (자연어 지시) AI 에이전트 코드 생성+실행 결과 "로그인 페이지 만들어줘" 수 분 ~ 수 십 분
코딩 경험이 없어도 괜찮습니다. Antigravity는 비개발자도 자연어로 소프트웨어를 만들 수 있도록 설계되었습니다. 물론 개발 경험이 있다면 더 정교한 지시로 더 나은 결과를 얻을 수 있습니다.

개발 환경 설치 가이드 #

Antigravity 자체는 독립 실행 앱이지만, AI가 생성한 코드를 실행하려면 프로그래밍 언어와 도구가 필요합니다. 아래 도구들을 미리 설치해 두면 Antigravity의 능력을 최대로 활용할 수 있습니다.

왜 이런 도구들이 필요한가?

사용자 요청 "차트 그려줘" AI가 코드 생성 Python 스크립트 내 컴퓨터에서 실행 python script.py ← 여기에 Python 필요! 결과 반환 차트 이미지 생성 Antigravity는 코드를 내 컴퓨터의 터미널에서 실행합니다. 따라서 해당 언어/도구가 미리 설치되어 있어야 합니다.

필수 및 권장 설치 목록

도구필요성역할설치하지 않으면
Python 3.10+ 권장 데이터 분석, 스크립트 실행, 자동화 AI가 Python 코드를 생성해도 실행 불가
Node.js 18+ 권장 웹 개발, MCP 서버 연동, 패키지 관리 React/Next.js 프로젝트 생성 불가, MCP 서버 연결 불가
Git 권장 버전 관리, GitHub 연동, 코드 이력 추적 프로젝트 히스토리 관리 불가, GitHub 작업 제한
pip / npm 자동 포함 Python/Node.js 패키지 설치 Python/Node.js 설치 시 함께 포함됨
비유로 이해하기
Antigravity는 건축 설계사와 같습니다. 설계사가 도면을 그리지만, 실제 건물을 짓는 것은 현장의 도구(망치, 드릴, 크레인)입니다. Python, Node.js, Git은 바로 그 현장 도구에 해당합니다.

Python 설치

데이터 분석, 머신러닝, 자동화 스크립트 등 대부분의 작업에 사용됩니다.

방법 A: 공식 사이트에서 다운로드 (모든 OS 공통, 초보자 추천)

단계내용상세 설명
1 공식 사이트 접속 python.org/downloads 에 접속합니다
2 설치 파일 다운로드 노란색 "Download Python 3.x.x" 버튼 클릭. macOS는 macOS 64-bit universal2 installer 선택
3 설치 프로그램 실행 다운로드된 .pkg(macOS) 또는 .exe(Windows) 파일 더블클릭
4 설치 옵션 확인 Windows: 첫 화면에서 "Add python.exe to PATH" 반드시 체크!
macOS: 기본 옵션 그대로 "계속" 클릭
5 설치 완료 "Install Now"(Windows) 또는 "설치"(macOS) 클릭 후 완료 대기
macOS 인증서 설치 (중요!)
Python 공식 설치 프로그램으로 설치한 경우, SSL 인증서를 별도로 설치해야 합니다. 이 단계를 건너뛰면 pip install이나 웹 요청 시 SSL 인증서 오류가 발생합니다.
macOS 인증서 설치 (공식 설치 후 필수) # 방법 1: Finder에서 설치 # /Applications/Python 3.x/ 폴더를 열고 # "Install Certificates.command" 파일을 더블클릭 # 방법 2: 터미널에서 직접 실행 /Applications/Python\ 3.12/Install\ Certificates.command # (버전 번호는 설치한 버전에 맞게 변경)
인증서 설치가 필요한 이유: macOS에 내장된 Python은 시스템 인증서를 사용하지만, 공식 설치 프로그램의 Python은 자체 인증서 저장소를 사용합니다. Install Certificates.command를 실행하면 certifi 패키지를 설치하고 시스템 인증서를 연결합니다. 이 단계를 빠뜨리면 urllib, requests, pip 등에서 [SSL: CERTIFICATE_VERIFY_FAILED] 오류가 발생합니다.

방법 B: Homebrew로 설치 (macOS 터미널 사용자)

Homebrew로 설치하면 인증서가 자동으로 설정되며, 버전 업데이트도 간편합니다.

터미널 (macOS) # Homebrew가 없다면 먼저 설치 /bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)" # Python 설치 brew install python # Homebrew Python은 인증서가 자동 설정됨 (별도 작업 불필요)

방법 C: 패키지 관리자로 설치

운영체제명령어비고
Windows winget install Python.Python.3.12 PowerShell(관리자)에서 실행. PATH 자동 설정됨
Linux (Ubuntu/Debian) sudo apt update && sudo apt install python3 python3-pip python3-venv 대부분 이미 설치되어 있음. python3-venv는 가상환경용
Linux (Fedora) sudo dnf install python3 python3-pip Fedora/RHEL/CentOS 계열
설치 확인 (모든 OS 공통) # Python 버전 확인 (3.10 이상 권장) python3 --version # 출력 예: Python 3.12.4 # pip (패키지 관리자) 확인 pip3 --version # 출력 예: pip 24.0 from /usr/local/lib/python3.12/site-packages/pip # SSL 인증서 정상 여부 확인 python3 -c "import ssl; print(ssl.OPENSSL_VERSION)" # 출력 예: OpenSSL 3.2.1 30 Jan 2024 # Windows에서는 python3 대신 python 사용 python --version
Python으로 할 수 있는 것: pandas/numpy 데이터 분석, matplotlib/seaborn 시각화, scikit-learn 머신러닝, Flask/FastAPI 웹 서버, 웹 스크래핑, 파일 자동화 등
설치 방법 비교공식 사이트 다운로드Homebrew (macOS)패키지 관리자
난이도 쉬움 (GUI 클릭) 보통 (터미널 명령) 보통 (터미널 명령)
인증서 설정 수동 설치 필요 자동 자동
업데이트 새 버전 직접 다운로드 brew upgrade python apt upgrade
여러 버전 관리 어려움 가능 가능 (pyenv 권장)
추천 대상 프로그래밍 처음 시작하는 분 macOS 개발자 Linux 사용자

uv — 차세대 Python 패키지 관리자

uv는 Rust로 작성된 초고속 Python 패키지 관리자입니다. 기존 pip보다 10~100배 빠르고, Python 버전 관리까지 한 번에 해결합니다.

왜 uv를 써야 하나?

비교 항목pip (기존)uv (추천)
패키지 설치 속도 보통 10~100배 빠름 (Rust 기반 병렬 처리)
의존성 해결 느리고 가끔 충돌 빠르고 정확한 SAT 솔버
Python 버전 관리 별도 도구 필요 (pyenv 등) uv python install 3.12 한 줄로 해결
가상환경 관리 python -m venv + 활성화 필요 uv venv 자동 생성, uv run으로 자동 활성화
프로젝트 관리 requirements.txt 수동 관리 pyproject.toml 기반 자동 관리
도구 실행 pip install 후 실행 uvx ruff check . — 설치 없이 바로 실행 (npx와 유사)
비유로 이해하기
pip이 일반 택배라면, uv는 로켓배송입니다. 같은 패키지를 설치하는데 체감 속도가 완전히 다릅니다. 특히 프로젝트를 새로 시작하거나 의존성이 많은 프로젝트에서 차이가 극명합니다.

uv 설치

운영체제설치 명령어비고
macOS / Linux curl -LsSf https://astral.sh/uv/install.sh | sh 공식 설치 스크립트. 홈 디렉토리에 설치됨
macOS (Homebrew) brew install uv Homebrew 사용자라면 이 방법이 간편
Windows powershell -ExecutionPolicy ByPass -c "irm https://astral.sh/uv/install.ps1 | iex" PowerShell에서 실행
Windows (winget) winget install astral-sh.uv winget 사용자라면 이 방법이 간편
pip으로 설치 pip install uv 이미 Python이 있다면 pip으로도 설치 가능
설치 확인 # uv 버전 확인 uv --version # 출력 예: uv 0.6.12

uv 핵심 사용법

Python 버전 관리 (pyenv 대체) # 사용 가능한 Python 버전 목록 uv python list # Python 3.12 설치 uv python install 3.12 # 특정 버전의 Python 사용 uv python install 3.11 3.12 3.13 # 여러 버전을 동시에 설치할 수 있습니다
프로젝트 생성 및 패키지 관리 # 새 프로젝트 시작 (pyproject.toml 자동 생성) uv init my-project cd my-project # 패키지 추가 (pip install 대체) uv add pandas numpy matplotlib # → 가상환경 자동 생성 + 패키지 설치 + pyproject.toml 업데이트 # 개발용 패키지 추가 uv add --dev pytest ruff # 스크립트 실행 (가상환경 활성화 불필요) uv run python main.py uv run pytest
도구 실행 — uvx (npx의 Python 버전) # 설치 없이 도구 바로 실행 uvx ruff check . # 코드 린팅 uvx black . # 코드 포매팅 uvx jupyter lab # Jupyter Lab 실행 uvx cookiecutter gh:... # 프로젝트 템플릿 생성
기존 pip 명령어와 비교 # pip 방식 (기존) python -m venv .venv # 가상환경 생성 source .venv/bin/activate # 가상환경 활성화 pip install pandas numpy # 패키지 설치 pip freeze > requirements.txt # 의존성 저장 python main.py # 실행 # uv 방식 (추천) — 위의 모든 과정이 간소화 uv add pandas numpy # 가상환경 + 설치 + 의존성 관리 한 번에 uv run python main.py # 가상환경 자동 활성화 + 실행
Antigravity에서 uv 활용: Antigravity가 Python 프로젝트를 생성할 때 uv가 설치되어 있으면 pip 대신 uv를 사용하여 훨씬 빠르게 패키지를 설치합니다. 특히 데이터 분석 라이브러리(pandas, numpy, scikit-learn 등)처럼 의존성이 많은 패키지에서 설치 시간 차이가 큽니다.

Node.js 설치

웹 프론트엔드/백엔드 개발과 MCP 서버 연동에 필수입니다. GitHub, Notion 등 외부 서비스 연결 시 npx 명령이 필요합니다.

방법 A: 공식 사이트에서 다운로드 (초보자 추천)

단계내용상세 설명
1 공식 사이트 접속 nodejs.org 에 접속합니다
2 LTS 버전 다운로드 메인 페이지에 두 버전이 표시됩니다. 왼쪽의 LTS (Long Term Support) 버전을 클릭하세요. 안정적이고 호환성이 좋습니다.
3 설치 프로그램 실행 macOS: .pkg 파일 더블클릭 → "계속" 반복 → "설치"
Windows: .msi 파일 더블클릭 → 기본 옵션 그대로 "Next" 반복
4 설치 확인 터미널(macOS) 또는 명령 프롬프트(Windows)를 새로 열고 node --version 입력
LTS vs Current 차이: LTS(장기 지원)는 30개월간 보안 업데이트를 받는 안정 버전입니다. Current는 최신 기능이 포함되지만 변경이 잦습니다. 특별한 이유가 없다면 항상 LTS를 선택하세요.

방법 B: Homebrew / 패키지 관리자로 설치

운영체제명령어비고
macOS brew install node npm, npx 자동 포함
Windows winget install OpenJS.NodeJS.LTS PowerShell(관리자)에서 실행
Linux (Ubuntu/Debian) sudo apt update && sudo apt install nodejs npm 버전이 낮을 수 있음. 최신 버전은 NodeSource 저장소 추가 권장

방법 C: nvm으로 설치 (여러 버전 관리)

프로젝트마다 다른 Node.js 버전이 필요할 때 유용합니다.

터미널 (macOS / Linux) # nvm 설치 curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.40.1/install.sh | bash # 터미널 재시작 후 nvm install --lts nvm use --lts # 설치 확인 node --version
설치 확인 (모든 OS 공통) # Node.js 버전 확인 (18 이상 권장) node --version # 출력 예: v22.12.0 # npm (패키지 관리자) 확인 npm --version # 출력 예: 10.9.0 # npx (패키지 실행 도구) 확인 — MCP 서버 연동에 필수 npx --version # 출력 예: 10.9.0
Node.js가 특히 필요한 경우: MCP 서버 연결 (GitHub, Notion 등), React/Next.js/Vue 프로젝트, TypeScript 개발, 웹앱 빌드 및 번들링

Git 설치

코드 버전 관리와 GitHub 연동에 사용됩니다. 프로젝트의 변경 이력을 추적하고, 실수 시 이전 상태로 되돌릴 수 있습니다.

macOS에서 Git 설치

macOS에서는 3가지 방법으로 Git을 설치할 수 있습니다.

방법명령어 / 절차설명
Xcode CLI 도구 (추천) xcode-select --install 터미널에 입력하면 팝업이 뜸 → "설치" 클릭. Git 외에 컴파일러 등 개발 도구가 함께 설치됩니다. macOS 개발 시 어차피 필요한 도구입니다.
Homebrew brew install git Xcode CLI보다 최신 버전의 Git을 사용할 수 있습니다
공식 사이트 git-scm.com/downloads/mac 설치 프로그램(.dmg)을 다운로드해서 설치. 보안 경고가 뜨면 시스템 설정 → 개인정보 보호 및 보안 → "확인 없이 열기" 클릭

Windows에서 Git 설치

단계내용상세 설명
1 공식 사이트 접속 git-scm.com → "Download for Windows" 클릭
2 설치 프로그램 실행 다운로드된 .exe 파일 실행
3 설치 옵션 대부분 기본값 그대로 "Next". "Adjusting your PATH" 단계에서 "Git from the command line and also from 3rd-party software" 선택 (기본값)
4 설치 완료 Git Bash, Git GUI가 함께 설치됩니다. 명령 프롬프트, PowerShell에서도 git 명령 사용 가능

Linux에서 Git 설치

터미널 (Linux) # Ubuntu / Debian sudo apt update && sudo apt install git # Fedora / RHEL sudo dnf install git # 대부분의 배포판에서 이미 설치되어 있습니다
설치 확인 및 초기 설정 (모든 OS 공통) # Git 버전 확인 git --version # 출력 예: git version 2.43.0 # 최초 사용 시 사용자 정보 설정 (한 번만 하면 됩니다) git config --global user.name "홍길동" git config --global user.email "hong@example.com" # 설정 확인 git config --global --list # 출력 예: # user.name=홍길동 # user.email=hong@example.com
Git이 특히 필요한 경우: AI가 코드를 대량 수정할 때 변경 이력 추적, GitHub에 코드 공유/백업, GitHub MCP 연동, 팀 협업

macOS에서 한 번에 설치하기

터미널 (macOS) — Homebrew 방식 # 1. Homebrew 설치 (없는 경우) /bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)" # 2. Python, Node.js, Git 한 번에 설치 brew install python node git # 3. 설치 확인 python3 --version && node --version && git --version
Homebrew를 처음 설치하는 경우 (Apple Silicon Mac): Homebrew 설치 후 터미널에 표시되는 안내 메시지를 꼭 확인하세요. 보통 아래 명령을 실행해야 brew 명령이 동작합니다:
echo 'eval "$(/opt/homebrew/bin/brew shellenv)"' >> ~/.zprofile && eval "$(/opt/homebrew/bin/brew shellenv)"

macOS 공식 사이트 다운로드 방식 요약

터미널을 사용하지 않고 모두 공식 사이트에서 설치하는 방법입니다.

도구다운로드 주소설치 후 추가 작업
Python python.org/downloads Install Certificates.command 실행 필수 (위 인증서 설치 섹션 참조)
Node.js nodejs.org 추가 작업 없음. LTS 버전 선택
Git 터미널에서 xcode-select --install 팝업에서 "설치" 클릭. 또는 git-scm.com에서 다운로드

Windows에서 한 번에 설치하기

PowerShell (관리자 권한) # 1. winget으로 한 번에 설치 (Windows 10/11) winget install Python.Python.3.12 winget install OpenJS.NodeJS.LTS winget install Git.Git # 2. 터미널을 재시작한 후 확인 python --version && node --version && git --version

자주 발생하는 문제와 해결

증상원인해결 방법
python3: command not found PATH에 Python이 등록되지 않음 macOS: 터미널 재시작 또는 export PATH="/usr/local/bin:$PATH"
Windows: Python 재설치 시 "Add to PATH" 체크
[SSL: CERTIFICATE_VERIFY_FAILED] macOS에서 Python 인증서 미설치 /Applications/Python\ 3.12/Install\ Certificates.command 실행
pip installPermission denied 시스템 Python에 직접 설치 시도 pip3 install --user 패키지명 또는 가상환경(python3 -m venv) 사용
node: command not found 설치 후 터미널을 재시작하지 않음 터미널을 닫고 새로 열기. nvm 사용 시 nvm use --lts
macOS에서 brew: command not found Homebrew PATH 미설정 (Apple Silicon Mac) eval "$(/opt/homebrew/bin/brew shellenv)" 실행 후 ~/.zprofile에 추가
macOS에서 앱 보안 경고 확인되지 않은 개발자 앱 차단 시스템 설정 → 개인정보 보호 및 보안 → 하단 "확인 없이 열기" 클릭

설치 체크리스트

확인 항목명령어기대 결과상태
Antigravity 설치 앱 실행 가능 메인 채팅 화면 표시
Python python3 --version Python 3.10+
SSL 인증서 (macOS) python3 -c "import ssl; print(ssl.OPENSSL_VERSION)" OpenSSL 버전 출력 (오류 없음)
Node.js node --version v18+
Git git --version git version 2.x
npm / npx npx --version 10.x+
Git 사용자 설정 git config --global user.name 본인 이름 출력
모두 설치했다면
축하합니다! 이제 Antigravity에서 "Python으로 데이터 분석해줘", "React 웹앱 만들어줘", "GitHub에 코드 올려줘"까지 모든 요청이 바로 동작합니다. 다음 섹션에서 Antigravity 앱 설치와 시스템 요구사항을 확인하세요.

다운로드 & 시스템 요구사항 공식 문서 #

antigravity.google/download에서 운영체제에 맞는 설치 파일을 다운로드하세요.

운영체제요구사항비고
macOS 최소 버전 12 (Monterey) Apple 보안 업데이트가 지원되는 macOS 버전. 일반적으로 현재 버전과 이전 두 버전. X86은 지원되지 않습니다.
Windows Windows 10 (64비트) 64비트 전용
Linux glibc ≥ 2.28, glibcxx ≥ 3.4.25 Ubuntu 20+, Debian 10+, Fedora 36+, RHEL 8+
자동 업데이트: 애플리케이션이 업데이트가 있을 때 자동으로 프롬프트를 표시합니다. 알림이 뜨면 "Restart to Update" 버튼을 클릭하여 최신 버전으로 업데이트하세요.
데이터 분석 추천 사양: 대규모 데이터셋(1GB 이상) 분석 시 RAM 16GB 이상, SSD 저장소를 권장합니다. Antigravity는 로컬에서 코드를 실행하므로 Python, R 등의 런타임이 미리 설치되어 있으면 더 원활하게 작업할 수 있습니다.
데이터 분석 활용 팁
데이터 분석 작업을 위해 Python, R, Jupyter 등이 설치된 환경에서 Antigravity를 실행하면, 에이전트가 해당 도구를 터미널에서 직접 사용할 수 있습니다. 예: "이 CSV 파일을 pandas로 분석해줘"

기본 네비게이션 공식 문서 #

Antigravity는 크게 두 가지 화면으로 구성됩니다: Agent ManagerEditor.

Agent Manager

AI와의 대화를 시작하고 관리하는 곳입니다. Editor에서 상단 바의 버튼 또는 Cmd+E로 열 수 있습니다.

Editor

코드를 보고 편집하는 곳입니다. Agent Manager에서 "Focus Editor" 또는 "Open Editor" 버튼, 또는 Cmd+E로 열 수 있습니다.

핵심 단축키: Cmd + E (Mac) / Ctrl + E (Windows/Linux)로 Agent Manager와 Editor를 빠르게 전환할 수 있습니다. 이 단축키 하나만 기억하면 됩니다!
실전 예시
"매출 데이터를 분석해서 월별 트렌드 차트를 만들어줘"라고 요청하면, Agent Manager에서 작업 계획을 세우고 Editor에서 Python 코드를 작성 및 실행합니다. 결과 차트는 자동으로 파일로 저장됩니다.
Agent Manager AI 대화 시작 · 워크스페이스 상단 바 버튼 / Cmd+E Cmd+E Editor 코드 편집 · 파일 탐색 Focus Editor / Open Editor

모델 (Models) 공식 문서 #

대화 프롬프트 박스의 드롭다운에서 사용할 모델을 선택할 수 있습니다. 모델 선택은 대화 내 사용자 메시지 사이에서 sticky (유지)됩니다.

추론 모델 (Reasoning Models)

사용자가 직접 선택하여 대화에 사용하는 모델입니다.

모델특징추천 용도
Gemini 3.1 Pro (high)최고 성능, 깊은 추론복잡한 아키텍처 설계, 대규모 리팩토링
Gemini 3.1 Pro (low)균형 잡힌 성능일반적인 코딩, 디버깅
Gemini 3 Flash빠른 응답 속도간단한 수정, 빠른 작업
Claude Sonnet 4.6 (thinking)뛰어난 코드 품질, 사고 과정 포함코드 리뷰, 문서 작성
Claude Opus 4.6 (thinking)최고 수준의 추론, 사고 과정 포함복잡한 문제 해결, 알고리즘 설계
GPT-OSS-120b오픈소스 기반 대규모 모델다양한 범용 작업
모델 선택 동작: 모델 선택기(model selector)는 대화 프롬프트 박스의 드롭다운에 있습니다. 선택한 모델은 대화 내에서 사용자 메시지 간에 유지(sticky)됩니다. 대화 중간에 변경하면 다음 메시지부터 새 모델이 적용됩니다.
비용 최적화 팁: 모든 작업에 최고 성능 모델을 사용할 필요는 없습니다. 간단한 전처리나 포맷 변환은 Flash 모델로 빠르게 처리하고, 복잡한 분석이나 설계 작업에만 Pro/Opus 모델을 사용하면 비용과 시간을 절약할 수 있습니다. 대화 중간에 모델을 전환하는 것도 좋은 전략입니다.

추가 모델 (내부 자동 사용)

사용자가 직접 선택하지 않지만, Antigravity 내부에서 특수 목적으로 자동 사용되는 모델들입니다.

Nano Banana Pro 2

이미지 생성 전용 모델. UI 목업, 다이어그램, 차트 이미지 생성에 사용됩니다.

Gemini 2.5 Pro UI Checkpoint

브라우저 서브에이전트 전용 모델. 웹 페이지 내에서 클릭, 스크롤, 입력 등의 조작을 수행합니다.

Gemini 2.5 Flash

체크포인팅/요약 전용 모델. 컨텍스트 요약과 체크포인트 생성에 사용됩니다.

Gemini 2.5 Flash Lite

시맨틱 검색 전용 모델. 코드베이스 내 의미 기반 검색에 사용됩니다.

데이터 분석 활용 시작하기 #

Antigravity를 데이터 분석에 활용하는 첫걸음입니다. 모델 선택과 프롬프트 작성법을 데이터 분석 관점에서 살펴봅니다.

데이터 분석을 위한 모델 선택 가이드

분석 작업추천 모델이유
탐색적 데이터 분석 (EDA)Gemini 3.1 Pro (high)데이터 패턴을 깊이 추론하고 시각화 코드까지 생성
간단한 전처리/정제Gemini 3 Flash빠른 응답으로 반복적인 데이터 클리닝 작업 처리
통계 모델링/ML 파이프라인Claude Opus 4.6 (thinking)복잡한 알고리즘 설계와 하이퍼파라미터 최적화
분석 보고서 작성Claude Sonnet 4.6 (thinking)명확한 문서화와 인사이트 정리

효과적인 데이터 분석 프롬프트

나쁜 예시

"이 데이터 분석해줘"

-- 어떤 데이터인지, 어떤 분석을 원하는지 모호함

좋은 예시

"sales_2024.csv 파일을 pandas로 불러와서 월별 매출 추이를 matplotlib 선 그래프로 시각화하고, 이상치가 있는지 IQR 방법으로 탐지해줘."

-- 파일, 도구, 분석 방법, 시각화 방식이 명확함

난이도별 프롬프트 예시

난이도프롬프트 예시핵심 포인트
입문"data.csv를 불러와서 기본 통계를 보여줘"파일명 + 원하는 결과
중급"customers.xlsx의 연령대별 구매 금액을 seaborn 박스플롯으로 비교하고, 이상치는 제거해줘"파일 + 분석 축 + 시각화 도구 + 전처리
고급"sales_q1.csv와 sales_q2.csv를 merge해서 전분기 대비 카테고리별 성장률을 계산하고, 상위 5개 카테고리는 plotly 인터랙티브 차트로 시각화해줘. 결과는 reports/ 폴더에 HTML로 저장해"다중 파일 + 비즈니스 로직 + 특정 도구 + 출력 형식

에이전트 (Agent)

AI 에이전트의 핵심 구성요소, 작동 모드, 설정 옵션, 그리고 Rules/Skills/Workflows를 통한 커스터마이징을 알아봅니다.

에이전트 핵심 구성요소 공식 문서 #

에이전트(Agent)는 프론티어 LLM에 의해 구동되는 다단계 추론 시스템입니다. 사용자의 요청을 이해하고, 계획을 세우고, 도구를 사용하여 작업을 수행합니다.

핵심 구성요소 (Core Components)

Reasoning Model

에이전트의 두뇌. Gemini, Claude, GPT 등 프론티어 모델이 추론과 의사결정을 담당합니다.

Tools

파일 편집, 터미널 실행, 브라우저 조작, MCP 서버 연동 등 에이전트가 사용할 수 있는 도구들입니다.

Artifacts

에이전트가 생성하는 산출물. Task List, Implementation Plan, Walkthrough, Screenshots 등입니다.

Knowledge

에이전트의 영구 메모리 시스템. 코딩 세션에서 얻은 인사이트와 패턴을 자동으로 저장합니다.

Customizations

Rules, Skills, Workflows를 통해 에이전트의 행동을 프로젝트에 맞게 커스터마이징합니다.

Core Reasoning Model 실행 수단 Tools & MCP 영구 메모리 Knowledge & Artifacts 행동 제어 Rules / Skills / Workflows

언제 무엇을 사용할까?

상황사용할 도구이유
모든 분석에 한국어 주석을 달고 싶다Rules항상 적용되는 행동 규칙
EDA 분석 절차를 표준화하고 싶다Skills재사용 가능한 지식 패키지
주간 보고서 생성을 자동화하고 싶다Workflows순차적 단계별 자동화
코드 스타일을 통일하고 싶다Rules일관된 코딩 규칙 적용
크롤링+정제+분석을 한번에 하고 싶다Workflows복잡한 다단계 파이프라인

에이전트 모드 & 설정 공식 문서 #

에이전트의 작동 방식을 대화 단위로 선택할 수 있습니다. 두 가지 모드가 있습니다.

에이전트 모드 (Conversation-Level)

Planning 모드 추천

실행 전에 계획을 수립합니다. 깊은 리서치, 복잡한 작업, 협업 작업에 적합합니다. 작업을 Task Group으로 분해하고, Artifacts를 생성합니다.

Fast 모드

작업을 즉시 실행합니다. 변수 이름 변경, bash 명령어 실행 등 단순한 작업에 적합합니다. 속도가 최우선입니다.

데이터 분석 활용
대규모 EDA + 시각화 + 보고서 작성 같은 복합 분석은 Planning 모드로, "이 컬럼의 결측치 개수 확인해줘" 같은 단순 조회는 Fast 모드로 처리하면 효율적입니다.

전체 설정 (Overall Settings)

설정옵션설명
Artifact Review Policy "Always Proceed" / "Request Review" Always Proceed: 에이전트가 절대 검토를 요청하지 않고 자동 진행. Request Review: 항상 사용자 검토를 요청.
Terminal Command Auto Execution "Request Review" / "Always Proceed" Request Review: 허용 목록(Allow list) 설정 가능. Always Proceed: 차단 목록(Deny list) 설정 가능.
Agent Non-Workspace File Access 허용 / 비허용 에이전트가 워크스페이스 외부 파일을 조회/편집할 수 있는지 설정. 기본값: 워크스페이스 + ~/.antigravity/ 만 접근 가능.
보안 팁: "Non-Workspace File Access"를 활성화하면 에이전트가 시스템 전체 파일에 접근할 수 있습니다. 데이터 분석 시 다른 디렉토리의 데이터셋에 접근해야 한다면 활성화하되, 민감한 파일이 있다면 주의하세요.

Rules, Skills, Workflows #

에이전트의 행동을 커스터마이징하는 세 가지 도구입니다. 각각의 상세 내용은 별도 페이지를 참고하세요.

Rules (규칙) 상세 페이지 →

에이전트가 지켜야 할 행동 규칙을 마크다운으로 정의합니다. Global Rules (~/.gemini/GEMINI.md)와 Workspace Rules (.agents/rules/)로 나뉩니다.

Skills (스킬) 상세 페이지 →

에이전트의 능력을 확장하는 플러그인. SKILL.md 파일로 정의하며, Progressive Disclosure(발견 → 활성화 → 실행)로 작동합니다.

Workflows (워크플로우) 상세 페이지 →

반복 가능한 작업 절차를 정의합니다. /workflow-name 슬래시 명령으로 실행합니다.

세 가지 도구 비교

구분RulesSkillsWorkflows
실행 방식자동 적용컨텍스트 기반 자동 감지슬래시 명령 (/name)
역할"어떻게" 행동할지"무엇을" 할 수 있는지"어떤 순서로" 실행할지
비유회사 사규업무 매뉴얼요리 레시피
파일 위치.agents/rules/.agents/skills/이름/.agents/workflows/
적합한 작업코딩 스타일, 응답 형식EDA, 크롤링, 시각화주간 보고서, 파이프라인

Rules 활성화 모드

모드설명예시
Manual@멘션으로 수동 활성화@lint-rule 검사해줘
Always On항상 활성화코딩 컨벤션 규칙
Model Decision모델이 필요 여부 판단보안 관련 규칙
Glob파일 패턴에 매칭 시 활성화*.test.js
데이터 분석 활용
데이터 분석 프로젝트에서 Rules로 "모든 pandas DataFrame은 메모리 최적화를 위해 category 타입을 사용할 것" 같은 규칙을 정의하면, 에이전트가 자동으로 이를 따릅니다. Workflow로 "EDA → 전처리 → 모델링 → 보고서" 파이프라인을 정의할 수도 있습니다.

병렬 대화 (Parallel Conversations) #

Antigravity에서는 여러 Agent 대화를 동시에 병렬로 실행할 수 있습니다. 하나의 에이전트가 프론트엔드를 작업하는 동안, 다른 에이전트는 백엔드 API를 구현하는 방식입니다.

데이터 분석 병렬화 예시

에이전트 A: 고객 이탈 분석 모델 구축. 에이전트 B: 매출 시계열 예측. 에이전트 C: A/B 테스트 결과 시각화. 각각 독립적으로 진행하고 나중에 결과를 합칩니다.

효율적인 작업 분배

서로 의존성이 없는 분석 작업은 병렬로 실행하면 전체 소요 시간을 대폭 줄일 수 있습니다. 각 대화에서 모델과 모드를 독립적으로 설정하세요.

도구 & 연동 (Tools & Integration)

MCP(Model Context Protocol)로 외부 서비스를 연결하고, Browser Subagent로 웹을 자동 조작합니다.

MCP (Model Context Protocol) 공식 문서 #

MCP는 로컬 도구, 데이터베이스, 외부 서비스에 연결하기 위한 표준 프로토콜입니다. 에이전트가 GitHub, Notion, 데이터베이스 등 다양한 서비스와 통신할 수 있게 해줍니다.

핵심 기능 (Core Features)

1) Context Resources

MCP 서버로부터 데이터를 읽습니다. 라이브 DB 스키마 조회, 빌드 로그 확인, 외부 API 데이터 수집 등에 사용됩니다.

2) Custom Tools

안전한 작업을 실행합니다. 이슈 생성, PR 관리, 데이터 쿼리 실행, 배포 트리거 등 MCP 서버를 통해 외부 서비스에 작업을 수행합니다.

연결 방법: 내장된 MCP Store 패널에서 연결할 수 있습니다. "..." 드롭다운 메뉴에서 MCP Store를 열고 원하는 서비스를 검색하세요.
MCP 활용 시나리오
예를 들어, Google Sheets MCP 서버를 연결하면 "구글 시트의 매출 데이터를 가져와서 분기별 성장률을 계산해줘"라고 한 마디로 요청할 수 있습니다. 에이전트가 직접 시트에 접근하여 데이터를 읽고 분석합니다.
AI 에이전트 Gemini / Claude / GPT MCP (Model Context Protocol) GitHub PR, Issues BigQuery 데이터 분석 Notion 문서 검색 Figma 디자인 연동

MCP 서버 설정 공식 문서 #

MCP Store에 없는 커스텀 MCP 서버는 설정 파일을 직접 수정하여 연결합니다.

설정 파일 경로

PATH ~/.gemini/antigravity/mcp_config.json

설정 구조

mcpServers 객체 안에 각 서버를 정의합니다. 서버마다 transport 방식을 지정합니다.

JSON { "mcpServers": { "my-server": { "command": "npx", // stdio transport "args": ["my-mcp-server"], "env": { "API_KEY": "..." }, "cwd": "/path/to/dir" }, "remote-server": { "serverUrl": "https://example.com/mcp", // HTTP transport "headers": { "Authorization": "Bearer ..." } } } }

사용 가능한 속성

속성필수설명
commandstdio 시stdio transport를 위한 실행 명령
serverUrlHTTP 시HTTP transport를 위한 서버 URL
args선택명령어 인수 배열
env선택환경 변수 객체
cwd선택작업 디렉토리
headers선택HTTP 요청 헤더
authProviderType선택인증 제공자 유형
oauth선택OAuth 설정 객체
disabled선택서버 비활성화 여부 (boolean)
disabledTools선택비활성화할 도구 목록

MCP 서버 연결 5단계

  1. MCP Store 확인: Antigravity 내 "..." 메뉴에서 MCP Store를 열고, 원하는 서버가 있는지 검색합니다.
  2. Store에 있으면: 클릭 한 번으로 연결 완료. 별도 설정 불필요.
  3. Store에 없으면: ~/.gemini/antigravity/mcp_config.json 파일을 직접 편집합니다.
  4. 서버 정보 추가: transport 방식(stdio 또는 HTTP)에 맞는 속성을 작성합니다.
  5. 연결 확인: Antigravity를 재시작하고 에이전트에게 "연결된 MCP 서버 목록을 보여줘"라고 요청합니다.
연결 오류 시 체크리스트:command 경로가 올바른지 확인 (npx, node 등) ② env에 API 키가 정확히 입력됐는지 확인 ③ JSON 문법 오류 여부 검사 (쉼표, 중괄호) ④ 방화벽/프록시 설정 확인 (HTTP transport)
데이터 분석 활용
BigQuery MCP 서버를 연결하면 에이전트가 직접 SQL 쿼리를 실행하여 데이터를 가져올 수 있습니다. "지난 분기 매출 데이터를 BigQuery에서 가져와서 pandas로 분석해줘"라고 말하면 에이전트가 MCP를 통해 쿼리를 실행하고 결과를 분석합니다.

MCP 인증 (Authentication) #

MCP 서버 연결 시 다양한 인증 방식을 지원합니다.

Google Credentials (ADC)

Application Default Credentials를 사용하여 Google Cloud 서비스(BigQuery, Cloud SQL, Spanner 등)에 인증합니다.

OAuth

동적 클라이언트 등록(Dynamic Client Registration) 또는 수동 자격 증명(Manual Credentials)으로 OAuth 인증을 수행합니다.

OAuth 토큰 저장: OAuth 토큰은 ~/.gemini/antigravity/mcp_oauth_tokens.json에 저장됩니다. 보안상 이 파일은 다른 사람과 공유하지 마세요.

GitHub MCP 서버 설정 가이드 #

GitHub MCP 서버를 연결하면 에이전트가 이슈 관리, PR 생성, 코드 검색, 저장소 관리를 직접 수행할 수 있습니다. 이 가이드는 처음부터 끝까지 따라할 수 있도록 모든 단계를 안내합니다.

이 가이드를 완료하면: "이번 주 열린 이슈를 정리해줘", "버그 수정 PR을 만들어줘", "README를 업데이트해줘" 등의 요청을 에이전트가 GitHub에서 직접 수행합니다.

설정 전체 흐름

STEP 1 Personal Access Token 생성 STEP 2 설정 파일 작성 STEP 3 연결 확인 & 테스트 STEP 4 실전 활용

Step 1: GitHub Personal Access Token (PAT) 생성

GitHub MCP 서버가 사용자의 GitHub 계정에 접근하려면 Personal Access Token이 필요합니다. 일종의 "디지털 출입증"이라고 생각하면 됩니다.

비유로 이해하기
Personal Access Token은 아파트 출입 카드와 같습니다. 비밀번호(열쇠)를 직접 주는 대신, 특정 권한만 부여한 카드를 발급하는 것입니다. 필요 없어지면 카드만 폐기하면 됩니다.

토큰 종류 비교

구분Classic TokenFine-grained Token (권장)
권한 범위 넓은 범위 (repo, admin 등) 저장소/권한별 세밀한 제어
보안성 보통 높음 (최소 권한 원칙)
만료일 선택사항 필수 (최대 1년)
추천 용도 빠른 테스트, 레거시 프로덕션 사용, MCP 연동
토큰 접두어 ghp_ github_pat_

Fine-grained Token 생성 절차

  1. GitHub 설정 페이지 이동: GitHub에 로그인한 상태에서 우측 상단 프로필 아이콘 → Settings 클릭
  2. 개발자 설정 열기: 좌측 사이드바 맨 아래 Developer settings 클릭
  3. 토큰 메뉴 진입: Personal access tokensFine-grained tokensGenerate new token 클릭
  4. 기본 정보 입력:
    • Token name: antigravity-mcp (용도를 알 수 있는 이름)
    • Expiration: 90일 권장 (보안상 짧을수록 좋음)
    • Description: Antigravity MCP GitHub integration
  5. 저장소 범위 선택:
    • Only select repositories 선택 → MCP로 접근할 저장소만 추가
    • 전체 저장소가 필요하면 All repositories (보안 주의)
  6. 권한(Permissions) 설정: 아래 표를 참고하여 필요한 권한만 부여
  7. 토큰 생성: Generate token 클릭 → 표시된 토큰을 즉시 복사하여 안전한 곳에 저장
⚠ 중요: 토큰은 생성 직후에만 볼 수 있습니다! 페이지를 떠나면 다시 확인할 수 없으므로 반드시 복사해 두세요. 분실 시 토큰을 삭제하고 새로 생성해야 합니다.

권장 권한 설정

MCP 활용 목적에 따라 아래 권한을 설정하세요. 최소 권한 원칙: 필요한 것만 켜세요.

권한 (Permission)수준용도필수 여부
Contents Read and write 파일 읽기/쓰기, 커밋 생성 ✅ 필수
Issues Read and write 이슈 조회/생성/수정 ✅ 필수
Pull requests Read and write PR 조회/생성/리뷰 ✅ 필수
Metadata Read-only 저장소 기본 정보 ✅ 자동 부여
Workflows Read and write GitHub Actions 관리 선택
Actions Read-only CI/CD 상태 확인 선택
Discussions Read and write 디스커션 관리 선택
Classic Token을 사용해야 한다면
Fine-grained Token이 지원되지 않는 조직(Organization)에서는 Classic Token을 사용합니다. Personal access tokensTokens (classic)Generate new token에서 생성하세요. 필요한 scope: repo (전체 저장소 접근), read:org (조직 정보 읽기).

Step 2: MCP 설정 파일 작성

토큰을 생성했으면 설정 파일에 GitHub MCP 서버 정보를 추가합니다.

설정 파일 위치

운영체제설정 파일 경로
macOS / Linux ~/.gemini/antigravity/mcp_config.json
Windows %USERPROFILE%\.gemini\antigravity\mcp_config.json
파일이 없다면? 해당 경로에 파일이 없으면 직접 생성하세요. 먼저 디렉토리를 만들고 빈 JSON 파일을 생성합니다:
터미널 (macOS/Linux) # 디렉토리 생성 (이미 있으면 무시됨) mkdir -p ~/.gemini/antigravity # 빈 설정 파일 생성 echo '{ "mcpServers": {} }' > ~/.gemini/antigravity/mcp_config.json

GitHub MCP 서버 설정 추가

설정 파일을 열어 아래 내용을 작성합니다. YOUR_TOKEN_HERE 부분을 Step 1에서 복사한 토큰으로 교체하세요.

~/.gemini/antigravity/mcp_config.json { "mcpServers": { "github": { "command": "npx", "args": [ "-y", "@modelcontextprotocol/server-github" ], "env": { "GITHUB_PERSONAL_ACCESS_TOKEN": "YOUR_TOKEN_HERE" } } } }
⚠ 보안 주의: 토큰이 포함된 설정 파일을 Git에 커밋하거나, 다른 사람과 공유하지 마세요. 이 파일은 .gitignore에 추가하는 것을 권장합니다.

기존 MCP 서버가 있는 경우

이미 다른 MCP 서버를 설정해 둔 경우, mcpServers 안에 "github" 항목을 추가합니다.

기존 서버와 함께 설정하는 예시 { "mcpServers": { "my-existing-server": { "command": "npx", "args": ["some-other-mcp-server"] }, "github": { "command": "npx", "args": [ "-y", "@modelcontextprotocol/server-github" ], "env": { "GITHUB_PERSONAL_ACCESS_TOKEN": "ghp_xxxxxxxxxxxx" } } } }

설정 파일 구조 해부

mcp_config.json "mcpServers" "github" ← 서버 이름 (자유롭게 지정) "command": "npx" 실행 명령어 "args": ["-y", "@modelcontextprotocol/server-github"] 인수 "env": { "GITHUB_PERSONAL_ACCESS_TOKEN": "ghp_..." } ← Step 1에서 생성한 토큰을 여기에 입력

Step 3: 연결 확인 및 테스트

설정 파일을 저장한 후, Antigravity를 재시작하고 GitHub MCP 서버가 정상 연결됐는지 확인합니다.

  1. Antigravity 재시작: 설정 파일은 앱 시작 시 로드되므로, 저장 후 Antigravity를 완전히 종료했다가 다시 실행합니다.
  2. 연결 확인 명령: 채팅창에 다음과 같이 입력하세요.
에이전트에게 요청 // 연결된 MCP 서버 확인 "현재 연결된 MCP 도구 목록을 보여줘" // GitHub 연동 테스트 "내 GitHub 프로필 정보를 가져와줘" // 저장소 목록 확인 "내 GitHub 저장소 목록을 보여줘"

연결 성공 시 사용 가능한 도구

도구 이름기능사용 예시
create_issue 이슈 생성 "로그인 버그 이슈를 만들어줘"
list_issues 이슈 목록 조회 "열린 이슈를 정리해줘"
create_pull_request PR 생성 "feature 브랜치로 PR 만들어줘"
search_code 코드 검색 "handleError 함수를 찾아줘"
get_file_contents 파일 내용 읽기 "README.md 내용을 보여줘"
create_or_update_file 파일 생성/수정 "설정 파일을 업데이트해줘"
push_files 여러 파일 커밋 "변경된 파일들을 커밋해줘"
create_branch 브랜치 생성 "fix/login-bug 브랜치를 만들어줘"
fork_repository 저장소 포크 "이 저장소를 포크해줘"
search_repositories 저장소 검색 "Python MCP 관련 저장소를 찾아줘"

자주 발생하는 오류와 해결 방법

증상원인해결 방법
"GitHub 도구를 찾을 수 없습니다" MCP 서버가 로드되지 않음 설정 파일 경로 확인 후 앱 재시작
"401 Unauthorized" 오류 토큰이 유효하지 않음 토큰 만료 여부 확인, 새 토큰 생성
"403 Forbidden" 오류 권한 부족 토큰의 Permission 범위 확인 후 재생성
"npx: command not found" Node.js 미설치 node --version으로 확인, 없으면 Node.js 설치
JSON 파싱 오류 설정 파일 문법 오류 쉼표, 중괄호, 따옴표 확인 (jsonlint.com에서 검증)
특정 저장소에 접근 불가 Fine-grained 토큰 범위 제한 토큰 설정에서 해당 저장소 추가

Node.js 설치 확인

GitHub MCP 서버는 npx를 사용하므로 Node.js 18 이상이 설치되어 있어야 합니다.

터미널 # Node.js 버전 확인 node --version # v18.0.0 이상이어야 함 npx --version # npx도 함께 설치됨 # Node.js가 없다면 설치 # macOS (Homebrew) brew install node # Windows (공식 사이트에서 다운로드) # https://nodejs.org 에서 LTS 버전 설치 # Linux (Ubuntu/Debian) sudo apt update && sudo apt install nodejs npm

Step 4: 실전 활용 시나리오

GitHub MCP가 연결되면 다양한 작업을 자연어로 요청할 수 있습니다.

📋 이슈 관리

"이번 주 생성된 버그 이슈를 우선순위별로 정리해줘"

"로그인 페이지 깨짐 현상에 대한 이슈를 만들고 bug 라벨을 붙여줘"

🔀 PR 워크플로우

"feature/auth 브랜치의 변경사항을 설명하는 PR을 만들어줘"

"이 PR의 코드 리뷰 의견을 요약해줘"

🔍 코드 검색

"우리 저장소에서 deprecated된 API를 사용하는 파일을 찾아줘"

"환경변수를 사용하는 모든 설정 파일을 보여줘"

📁 저장소 관리

"README.md에 설치 가이드 섹션을 추가해줘"

".gitignore에 .env 파일을 추가해줘"

실전 예시: 이슈에서 PR까지 한 번에

에이전트에게 요청하는 흐름 ① 이슈 확인 "myrepo의 #42번 이슈 내용을 보여줘" ② 브랜치 생성 "fix/issue-42 브랜치를 만들어줘" ③ 코드 수정 "해당 이슈에서 언급된 버그를 수정하고 커밋해줘" ④ PR 생성 "fix/issue-42에서 main으로 PR을 만들고, 이슈 #42를 연결해줘" 💡 또는 한 번에 요청: "#42번 이슈의 버그를 수정하는 PR을 만들어줘"
보안 체크리스트:
☑ 토큰에 필요한 최소 권한만 부여했는지 확인
☑ 토큰 만료일을 90일 이내로 설정했는지 확인
☑ 설정 파일이 .gitignore에 포함되어 있는지 확인
☑ 토큰을 코드나 메시지에 직접 붙여넣지 않았는지 확인
☑ 사용하지 않는 토큰은 GitHub에서 즉시 삭제

지원 MCP 서버 (30+) #

MCP Store에서 연결 가능한 서비스들입니다. "..." 드롭다운 메뉴에서 바로 검색하고 연결하세요.

Airweave Arize AlloyDB Atlassian BigQuery Cloud SQL Dart Dataplex Figma Firebase GitHub Harness Heroku Linear Locofy Looker MCP Toolbox MongoDB Neon Netlify Notion PayPal Perplexity Pinecone Prisma Redis Sequential Thinking SonarQube Spanner Stripe Supabase
데이터 분석 추천 서버
데이터 분석에 특히 유용한 MCP 서버: BigQuery (대규모 데이터 쿼리), Cloud SQL (관계형 DB), MongoDB (NoSQL), Supabase (PostgreSQL + API), Looker (BI 대시보드), Dataplex (데이터 거버넌스)

Browser Subagent 공식 문서 #

메인 에이전트가 브라우저와 상호작용해야 할 때 자동으로 호출되는 전문 서브에이전트입니다. Antigravity가 관리하는 브라우저 내에서 페이지를 조작하기 위한 특화 모델로 구동됩니다.

Browser Subagent 도구 (Tools)

  • 클릭 (Clicking) — 웹 페이지의 버튼, 링크, 요소를 클릭합니다
  • 스크롤 (Scrolling) — 페이지를 위아래로 스크롤합니다
  • 텍스트 입력 (Typing) — 폼 필드에 텍스트를 입력합니다
  • 콘솔 로그 읽기 (Console Logs) — 브라우저 콘솔의 에러/경고/로그를 확인합니다

페이지 읽기 방식

  • DOM 캡처 — 페이지의 HTML 구조를 직접 분석합니다
  • 스크린샷 — 페이지의 현재 시각적 상태를 이미지로 캡처합니다
  • 마크다운 파싱 — 페이지 내용을 마크다운 텍스트로 변환합니다
  • 비디오 녹화 — 브라우저 조작 과정을 동영상으로 기록합니다

주요 특징

파란색 테두리 오버레이

Browser Subagent가 페이지를 조작 중일 때 파란색 테두리(blue border)가 표시됩니다. 이 동안 해당 페이지의 사용자 인터랙션이 일시적으로 차단됩니다.

비포커스 탭 지원

포커스되지 않은 탭에서도 작업할 수 있습니다. 사용자가 다른 탭에서 작업하는 동안 Browser Subagent가 백그라운드에서 작업을 수행합니다.

데이터 분석 활용
웹 기반 대시보드에서 데이터를 수집하거나, Jupyter Notebook의 실행 결과를 스크린샷으로 기록하거나, 웹 데이터 소스에서 정보를 스크래핑할 때 Browser Subagent가 유용합니다.

결과물 (Knowledge & Artifacts)

에이전트의 영구 메모리 시스템인 Knowledge Items와 코딩 세션에서 자동 생성되는 Artifacts를 알아봅니다.

Knowledge Items 공식 문서 #

Knowledge Items는 에이전트의 영구 메모리 시스템(persistent memory system)입니다. 코딩 세션에서 얻은 인사이트, 패턴, 솔루션을 자동으로 캡처하고 저장합니다.

쉬운 비유
Knowledge Items는 에이전트의 "경험 수첩"입니다. 여러 번의 코딩 세션에서 배운 것들을 기록해두고, 나중에 비슷한 상황이 오면 참고하여 더 좋은 결과를 만들어냅니다.

Knowledge Items의 핵심 특징

  • 자동 생성 — 대화 분석(conversation analysis)을 통해 자동으로 생성됩니다
  • 인사이트 캡처 — 코딩 세션에서 발견한 인사이트, 패턴, 솔루션을 자동으로 수집합니다
  • 영구 저장 — 세션이 종료되어도 사라지지 않는 영구 메모리입니다
  • Agent Manager에서 조회 — Agent Manager에서 저장된 Knowledge Items를 확인할 수 있습니다

Knowledge Item 실제 예시

데이터 분석 세션에서 자동 생성된 Knowledge Item의 예시입니다.

Knowledge Item 예시 Title: "sales_2024 데이터셋 전처리 패턴" Summary: "sales_2024.csv는 날짜 컬럼이 'YYYYMMDD' 문자열 형식이며, 결측치는 주로 weekend 행에서 발생. KNN imputation(k=5)이 mean imputation보다 RMSE 12% 낮음." Artifacts: // Documentation "날짜 컬럼 파싱 시 pd.to_datetime(df['date'], format='%Y%m%d') 사용. 'amount' 컬럼에 음수값 23건 존재 — 환불 데이터로 확인됨." // Code Example "df['date'] = pd.to_datetime(df['date'], format='%Y%m%d') df['amount'] = df['amount'].clip(lower=0) # 환불 제외 시" // Persistent Memory "이 프로젝트는 seaborn darkgrid 스타일, 한국어 라벨, matplotlib 폰트는 'NanumGothic' 사용."
활용 포인트: 위와 같은 Knowledge Item이 축적되면, 다음에 같은 데이터셋을 분석할 때 에이전트가 전처리 방법, 주의사항, 시각화 설정을 자동으로 적용합니다. 별도로 다시 설명할 필요가 없습니다.

Knowledge Item 구조 공식 문서 #

각 Knowledge Item은 다음과 같은 구조를 가집니다.

Title (제목)

Knowledge Item의 이름. 어떤 주제에 대한 지식인지 한눈에 파악할 수 있습니다.

Summary (요약)

핵심 내용의 간결한 요약. 에이전트가 관련성을 판단할 때 이 요약을 먼저 참조합니다.

Artifacts 컬렉션

관련된 산출물들의 모음. 문서(documentation), 코드 예시(code examples), 영구 메모리(persistent memories)가 포함됩니다.

Artifact 유형

유형설명예시
Documentation기술 문서, 설계 결정 기록API 설계 문서, 아키텍처 결정 사항
Code Examples재사용 가능한 코드 스니펫자주 사용하는 유틸리티 함수, 설정 패턴
Persistent Memories프로젝트별 컨텍스트와 인사이트"이 프로젝트는 TypeScript strict mode 사용", "DB 마이그레이션 시 항상 백업"

에이전트의 Knowledge 활용 #

에이전트는 Knowledge Items를 다음과 같이 활용합니다.

  1. 요약 참조 — 새 대화가 시작되면, 에이전트가 관련 Knowledge Items의 요약(summary)을 참조하여 응답의 방향을 정합니다.
  2. 상세 Artifacts 학습 — 관련성이 높은 Knowledge Item을 발견하면, 해당 Item의 상세 Artifacts(문서, 코드 예시, 메모리)를 깊이 학습합니다.
  3. 응답에 반영 — 학습한 Knowledge를 기반으로 더 정확하고 프로젝트에 맞는 응답을 생성합니다.
핵심 원리: 에이전트는 먼저 요약(summaries)을 통해 관련성을 판단하고, 관련있는 Knowledge의 상세 Artifacts를 학습하여 응답에 반영합니다. 사용할수록 Knowledge가 축적되어 점점 더 똑똑해집니다.

Knowledge 관리 모범 사례

  • 정기 검토: Agent Manager에서 축적된 Knowledge Items를 주기적으로 확인하고, 오래되거나 부정확한 항목은 삭제합니다.
  • 프로젝트 초기 세팅: 새 프로젝트 시작 시, 첫 대화에서 프로젝트 컨벤션(언어, 스타일, 라이브러리)을 알려주면 Knowledge로 저장되어 이후 대화에 자동 적용됩니다.
  • 충돌 방지: 비슷한 주제의 Knowledge가 여러 개 쌓이면 충돌할 수 있습니다. 오래된 항목을 정리하여 최신 정보만 유지하세요.
  • 팀 공유 불가: Knowledge Items는 개인 단위로 저장됩니다. 팀 전체에 적용할 지식은 Rules나 Skills로 정의하세요.
Conversation 대화 분석 Knowledge 자동 생성/저장 Summary 관련성 판단 Response 응답에 반영

데이터 분석 Knowledge 활용 사례 #

데이터 분석 프로젝트에서 Knowledge Items가 축적되는 예시를 살펴봅시다.

EDA 패턴 Knowledge

여러 번의 탐색적 데이터 분석을 수행하면, "이 프로젝트의 데이터는 시간대별 편향이 있다", "결측치는 KNN 대체가 가장 효과적이었다" 같은 인사이트가 자동으로 Knowledge에 저장됩니다.

전처리 코드 패턴

자주 사용하는 데이터 전처리 코드(날짜 파싱, 카테고리 인코딩, 스케일링 등)가 Code Examples로 저장됩니다. 다음에 비슷한 작업을 요청하면 에이전트가 이 패턴을 재사용합니다.

시각화 선호도

"이 프로젝트는 seaborn 스타일 사용", "차트에 항상 한국어 라벨 적용", "색상 팔레트는 viridis" 같은 시각화 관련 설정이 Persistent Memory로 기억됩니다.

모델링 결정 기록

"XGBoost가 이 데이터셋에서 Random Forest보다 15% 높은 정확도", "하이퍼파라미터 튜닝은 Optuna 사용" 같은 모델링 결정 사항이 Documentation으로 기록됩니다.

팁: Knowledge Items는 사용할수록 에이전트가 프로젝트를 더 깊이 이해하게 됩니다. 동일 워크스페이스에서 반복 작업할수록 에이전트의 분석 품질이 향상됩니다. Agent Manager에서 저장된 Knowledge를 확인하고 필요 시 관리할 수 있습니다.

오늘코드 Antigravity 튜토리얼 — Google Antigravity 공식 문서 기반 한국어 학습 가이드

이 튜토리얼은 비공식 학습 자료입니다. 공식 문서: antigravity.google/docs

오늘코드