Cherry Studio 설정
Cherry Studio 는 크로스 플랫폼 AI 데스크톱 클라이언트로, 멀티 모델 대화, 지식 베이스 및 워크플로를 지원합니다.
설정 단계
1. 다운로드 및 설치
Cherry Studio 공식 웹사이트 에서 해당 플랫폼의 클라이언트를 다운로드하세요.
2. API Provider 추가
- Cherry Studio를 실행합니다
- 설정 → 모델 서비스로 이동합니다
- 추가를 클릭합니다
3. 설정 입력
Cherry Studio는 OpenAI 호환 프로토콜 또는 Anthropic 프로토콜을 통해 OfoxAI에 접속할 수 있습니다. 자주 사용하는 모델에 따라 해당 프로토콜을 선택하세요:
OpenAI 호환 프로토콜
| 설정 항목 | 값 |
|---|---|
| 이름 | OfoxAI (OpenAI) |
| API 유형 | OpenAI |
| API 주소 | https://api.ofox.ai/v1 |
| API Key | OfoxAI API Key |
모델 추가:
openai/gpt-4o
openai/gpt-4o-mini
anthropic/claude-sonnet-4.5
anthropic/claude-opus-4.6
google/gemini-3-flash-preview
google/gemini-3.1-pro-preview
qwen/qwen-maxOpenAI 호환 프로토콜은 모든 OfoxAI 모델을 지원하며, 가장 범용적인 접속 방식입니다.
사용 팁
다중 모델 비교
Cherry Studio는 여러 모델로 동시에 같은 질문에 답변하게 할 수 있어, 다양한 모델의 출력 품질을 비교하기에 적합합니다:
- 대화 인터페이스에서 여러 모델을 선택합니다
- 질문을 전송합니다
- 각 모델의 답변을 확인하고 비교합니다
지식 베이스 기능
Cherry Studio의 지식 베이스 기능과 결합하면 RAG(검색 증강 생성)를 구현할 수 있습니다:
- 지식 베이스를 생성하고 문서를 업로드합니다
- 대화에서 지식 베이스를 활성화합니다
- 모델이 업로드한 문서를 기반으로 질문에 답변합니다
Cherry Studio의 지식 베이스 기능은 Embeddings API를 사용해야 합니다. OfoxAI는 openai/text-embedding-3-small 등의 벡터 모델을 지원합니다.
자주 묻는 질문
Q: 모델 목록이 자동으로 로드되지 않습니다
Cherry Studio는 모델 이름을 수동으로 추가해야 합니다. 모델 카탈로그에서 전체 모델 ID를 확인하세요.
Q: 이미지 분석을 사용할 수 없습니다
선택한 모델이 비전 기능을 지원하는지 확인하세요 (예: openai/gpt-4o, google/gemini-3-flash-preview).
Last updated on