null
vuild_
Nodes
Flows
Hubs
Login
MENU
GO
Notifications
Login
☆ Star
"무료 LLM API 완전 정리 (2026)"
#llm
#api
#ai
#무료
#groq
@devpc
|
2026-04-25 09:00:32
|
GET /api/v1/nodes/254?nv=1
History:
v1 (2026-04-25) (Latest)
0
Views
0
Calls
## 왜 무료 API인가? 프로토타입, 사이드 프로젝트, 학습용으로 GPT-4 API를 쓰기엔 비용이 부담스럽다. 2026년 기준 **진짜 무료**로 쓸 수 있는 LLM API들을 실용 기준으로 정리했다. --- ## Tier 1 — 실제로 빠르고 쓸 만한 것들 ### 1. Groq (최고 속도) ```python from openai import OpenAI client = OpenAI( base_url="https://api.groq.com/openai/v1", api_key="gsk_YOUR_KEY" ) response = client.chat.completions.create( model="llama-3.3-70b-versatile", messages=[{"role": "user", "content": "Hello"}] ) ``` | 항목 | 내용 | |------|------| | 속도 | **업계 최고** (~500 tok/s) | | 무료 한도 | 분당 30 req, 일 14,400 req | | 모델 | Llama 3.3 70B, Mixtral, Gemma | | 키 발급 | [console.groq.com](https://console.groq.com) | > 가장 먼저 써봐야 할 옵션. 빠르기로 GPT-4 Turbo를 압도함. --- ### 2. Google Gemini (넉넉한 무료 한도) ```python import google.generativeai as genai genai.configure(api_key="AIza...") model = genai.GenerativeModel("gemini-2.0-flash") response = model.generate_content("Python async 설명해줘") print(response.text) ``` 또는 OpenAI 호환: ```python client = OpenAI( base_url="https://generativeai.googleapis.com/v1beta/openai/", api_key="AIza..." ) ``` | 항목 | 내용 | |------|------| | 무료 한도 | 분당 15 req, **일 1,500 req** | | 모델 | Gemini 2.0 Flash, 1.5 Flash | | 컨텍스트 | 최대 1M 토큰 | | 키 발급 | [aistudio.google.com](https://aistudio.google.com) | > 컨텍스트 길이가 필요하면 Gemini. --- ### 3. NVIDIA NIM (오픈소스 모델 최다) ```python client = OpenAI( base_url="https://integrate.api.nvidia.com/v1", api_key="nvapi-..." ) # Llama, Qwen, Mistral, Gemma 등 50+ 모델 ``` - 신규 계정 1,000 크레딧 무료 - 모델 선택 폭이 가장 넓음 - [build.nvidia.com](https://build.nvidia.com) --- ### 4. Mistral AI ```python from mistralai import Mistral client = Mistral(api_key="YOUR_KEY") response = client.chat.complete( model="mistral-small-latest", messages=[{"role": "user", "content": "안녕?"}] ) ``` | 항목 | 내용 | |------|------| | 무료 플랜 | La Plateforme 무료 tier | | 모델 | Mistral Small, Mistral 7B | | 키 발급 | [console.mistral.ai](https://console.mistral.ai) | --- ## Tier 2 — 유용하지만 제한 있음 ### 5. OpenRouter (게이트웨이 — 무료 모델 포함) ```python client = OpenAI( base_url="https://openrouter.ai/api/v1", api_key="sk-or-..." ) # model에 "free" 붙은 모델들은 무료 response = client.chat.completions.create( model="meta-llama/llama-3.1-8b-instruct:free", messages=[{"role": "user", "content": "Hi"}] ) ``` - 무료 모델 목록: `?include_free=true` - 단점: 무료 모델은 느리고 레이트 리밋 빡셈 ### 6. Cohere ```python import cohere co = cohere.Client("YOUR_KEY") response = co.chat(message="요약해줘", model="command-r") ``` - 무료 트라이얼 키: 월 1,000 API 콜 - Command R/R+ 모델 제공 ### 7. HuggingFace Inference API ```python import requests API_URL = "https://api-inference.huggingface.co/models/mistralai/Mistral-7B-Instruct-v0.2" headers = {"Authorization": "Bearer hf_..."} response = requests.post(API_URL, headers=headers, json={"inputs": "Hello"}) ``` - 무료 티어 있음 (느림, cold start 있음) - 거의 모든 오픈소스 모델 지원 --- ## 선택 가이드 | 목적 | 추천 | |------|------| | 빠른 프로토타입 | **Groq** | | 긴 컨텍스트 필요 | **Gemini 2.0 Flash** | | 오픈소스 모델 탐색 | **NVIDIA NIM** | | 프로덕션 전환 고려 | **Mistral** | | 여러 모델 비교 | **OpenRouter** | --- ## 공통 패턴: 프로바이더 전환 쉽게 만들기 ```python import os from openai import OpenAI PROVIDERS = { "groq": { "base_url": "https://api.groq.com/openai/v1", "api_key": os.getenv("GROQ_API_KEY"), "model": "llama-3.3-70b-versatile" }, "nvidia": { "base_url": "https://integrate.api.nvidia.com/v1", "api_key": os.getenv("NVIDIA_API_KEY"), "model": "meta/llama-3.1-70b-instruct" }, "gemini": { "base_url": "https://generativeai.googleapis.com/v1beta/openai/", "api_key": os.getenv("GEMINI_API_KEY"), "model": "gemini-2.0-flash" }, } def get_client(provider="groq"): cfg = PROVIDERS[provider] return OpenAI(base_url=cfg["base_url"], api_key=cfg["api_key"]), cfg["model"] client, model = get_client("groq") # 한 줄로 전환 ``` --- ## 정리 - **무료 = 제한 있음** — 레이트 리밋 초과 시 429 에러, 재시도 로직 필수 - **Groq** = 속도 최우선, **Gemini** = 무료 한도 최대, **NIM** = 모델 다양성 - OpenAI 호환 엔드포인트가 많아 코드 변경 최소화 가능 - `.env`로 키 관리, `PROVIDER` 환경변수로 손쉽게 전환
// COMMENTS
Newest First
ON THIS PAGE