📌 moeru-ai/airi
Description: 💖🧸 Self hosted, you owned Grok Companion, a container of souls of waifu, cyber livings to bring them into our worlds, wishing to achieve Neuro-sama's altitude. Capable of realtime voice chat, Minecraft, Factorio playing. Web / macOS / Windows supported.
🌐 Vue|⭐️ 8,488 | 5373 stars this week
簡介
- Project AIRI 旨在重現 AI 虛擬伴侶 Neuro-sama,將 AI 擬人化的靈魂帶入我們的世界。
- 受 Neuro-sama 的高度啟發,Project AIRI 致力於創造一個能與使用者互動、玩遊戲,並能進行真實對話的數位生命。
- 該專案提供了擁有數位生命、虛擬生活、隨時隨地輕鬆互動的新可能性。
- Project AIRI 在開發上大量採用 Web 技術,如 WebGPU、WebAudio、Web Workers、WebAssembly、WebSocket 等,使其能執行於現代瀏覽器與裝置,甚至行動裝置(支援 PWA)。
- 同時,也支援原生 NVIDIA CUDA 和 Apple Metal,確保桌面版本的效能。
- 目前專案仍處於早期發展階段,正積極招募開發者、藝術家、設計師等加入,共同實現 AI VTuber 的願景。
- 專案組織
@proj-airi
涵蓋了 RAG、記憶系統、嵌入式資料庫、圖示、Live2D 工具等多個子專案。 - AIRI VTuber 能夠在瀏覽器和桌面環境執行,並計劃支援與 Discord 語音訊道連線、玩 Minecraft、Factorio 等功能。
主要功能
- Brain:
- 支援玩 Minecraft。
- 支援玩 Factorio (WIP)。
- 支援在 Telegram 和 Discord 中進行聊天。
- Memory:
- 支援純瀏覽器資料庫 (DuckDB WASM, pglite)。
- 支援純瀏覽器本地 (WebGPU) 推論。
- Ears:
- 支援從瀏覽器和 Discord 獲取音訊輸入。
- 支援客戶端語音辨識。
- 支援客戶端說話偵測。
- Mouth:
- 支援 ElevenLabs 語音合成。
- Body:
- 支援 VRM 模型,包括模型控制和自動眨眼、自動注視、閒置眼球移動等動畫。
- 支援 Live2D 模型,包括模型控制和自動眨眼、自動注視、閒置眼球移動等動畫。
如何使用
- 開發環境設定:
- 預設
pnpm dev
會啟動 Stage Web (瀏覽器版本) 的開發伺服器。 - 若要開發桌面版本,請參閱
CONTRIBUTING.md
進行正確的環境設定。
- 預設
- 安裝依賴:
pnpm i
- 啟動開發伺服器:
- Stage Web (Browser version for airi.moeru.ai):
pnpm dev
- Stage Tamagotchi (Desktop version):
pnpm dev:tamagotchi
- Documentation site:
pnpm dev:docs
- Stage Web (Browser version for airi.moeru.ai):
- 釋出:
- 在執行
bumpp
後,請更新Cargo.toml
中的版本。 npx bumpp --no-commit --no-tag
- 在執行
- 支援的 LLM API Providers:
- 支援 OpenRouter, vLLM, SGLang, Ollama, Google Gemini, OpenAI (Azure OpenAI API), Anthropic Claude (AWS Claude), DeepSeek, Qwen, xAI, Groq, Mistral, Cloudflare Workers AI, Together.ai, Fireworks.ai, Novita, Zhipu, SiliconFlow, Stepfun, Baichuan, Minimax, Moonshot AI, Player2, Tencent Cloud, Sparks, Volcano Engine。
📌 simstudioai/sim
Description: Sim is an open-source AI agent workflow builder. Sim's interface is a lightweight, intuitive way to rapidly build and deploy LLMs that connect with your favorite tools.
🌐 TypeScript|⭐️ 11,714 | 4321 stars this week
簡介
- Sim 旨在於幾分鐘內建置及部署 AI agent workflows。
- 提供 cloud-hosted (sim.ai) 或 self-hosted 的部署選項。
- self-hosted 版本可透過 NPM Package、Docker Compose、Dev Containers 或手動設定進行安裝。
主要功能
- AI Agent Workflow 建置與部署:可快速建立和部署 AI agent 的工作流程。
- 本地模型支援 (Ollama):支援使用 Ollama 在本地執行 AI 模型,無需外部 API 即可實現。
- PostgreSQL with pgvector:利用 PostgreSQL 的 pgvector 擴充功能,支援 AI embeddings,用於知識庫和語義搜尋等功能。
- 多種部署方式:提供 Cloud-hosted、NPM Package、Docker Compose、Dev Containers 和 Manual Setup 等多樣化的部署途徑,滿足不同需求。
如何使用
- Cloud-hosted:
- 直接訪問 sim.ai。
- Self-hosted (NPM Package):
- 執行
npx simstudio
。 - 應用程式將啟動於
http://localhost:3000
。 - 確保 Docker 已安裝並執行。
- 可透過
-p, --port <port>
指定執行埠號,或使用--no-pull
跳過更新 Docker images。
- 執行
- Self-hosted (Docker Compose):
- 複製 repository:
git clone https://github.com/simstudioai/sim.git
。 - 進入專案目錄:
cd sim
。 - 啟動 Sim:
docker compose -f docker-compose.prod.yml up -d
。 - 透過
http://localhost:3000/
訪問。
- 複製 repository:
- Self-hosted (Ollama):
- 啟動含 GPU 支援:
docker compose -f docker-compose.ollama.yml --profile setup up -d
。 - CPU-only 系統:
docker compose -f docker-compose.ollama.yml --profile cpu --profile setup up -d
。 - 等待模型下載,然後訪問
http://localhost:3000
。 - 新增模型:
docker compose -f docker-compose.ollama.yml exec ollama ollama pull llama3.1:8b
。
- 啟動含 GPU 支援:
- Self-hosted (Dev Containers):
- 使用 VS Code 的 Remote - Containers 擴充功能。
- 開啟專案並選擇 "Reopen in Container"。
- 在終端機執行
bun run dev:full
。
- Self-hosted (Manual Setup):
- 需求: Bun runtime, PostgreSQL 12+ with pgvector extension。
- 複製 repository 並安裝依賴:
git clone https://github.com/simstudioai/sim.git && cd sim && bun install
。 - 設定 PostgreSQL:推薦使用 Docker (
docker run --name simstudio-db -e POSTGRES_PASSWORD=your_password -e POSTGRES_DB=simstudio -p 5432:5432 -d pgvector/pgvector:pg17
) 或手動安裝。 - 設定環境變數:
cd apps/sim && cp .env.example .env
並更新DATABASE_URL
。 - 設定資料庫:
bunx drizzle-kit migrate
。 - 啟動伺服器:推薦
bun run dev:full
(同時啟動 Next.js app 和 socket server),或分別啟動bun run dev
(Next.js app) 和cd apps/sim && bun run dev:sockets
(socket server)。
📌 coleam00/Archon
Description: Beta release of Archon OS - the knowledge and task management backbone for AI coding assistants.
🌐 Python|⭐️ 10,468 | 4256 stars this week
簡介
- Archon 是一個 AI 編碼助手(AI coding assistants)的中央指揮中心。
- 它提供了一個使用者介面,用於管理專案的知識、上下文(context)和任務。
- 對於 AI 編碼助手而言,Archon 是一個 Model Context Protocol (MCP) server,用於協作和利用相同的知識、上下文和任務。
- Archon 旨在為任何 AI 驅動的編碼流程提供更最佳化的知識和任務管理能力,無論是新舊專案。
- 它支援連線多種 AI 編碼助手,如 Claude Code、Kiro、Cursor、Windsurf 等。
- Archon 目前處於 Beta 階段,鼓勵使用者提供回饋、錯誤報告和貢獻新功能。
- Archon 的新版本取代了舊的 "agenteer" 模型,現在可以建立和管理 AI 代理。
- 它能夠處理來自網頁、PDF 和其他文件的知識,並提供智慧搜尋和任務管理功能。
主要功能
- 知識管理 (Knowledge Management):
- 智慧網頁爬蟲,能自動爬取整個網站、sitemaps 和單頁。
- 文件處理,支援 PDF、Word、Markdown 和文字檔案,並進行智慧分塊(chunking)。
- 自動提取程式碼範例(Code Example Extraction),用於增強搜尋。
- 支援進階的向量搜尋(Vector Search)和 RAG 策略。
- 可依來源、型別和標籤組織知識。
- AI 整合 (AI Integration):
- 支援 Model Context Protocol (MCP) 以連線各種 AI 客戶端。
- 提供 10 種 MCP 工具,用於 RAG 查詢、任務管理等。
- 支援 OpenAI、Ollama 和 Google Gemini 等多種 LLM 模型。
- 提供即時串流(Real-time Streaming)的 AI 回應和進度追蹤。
- 專案與任務管理 (Project & Task Management):
- 支援階層式專案結構,用於組織工作流程。
- AI 輔助的專案需求和任務生成。
- 文件管理,支援版本控制和協作編輯。
- 專案進度追蹤。
- 即時協作 (Real-time Collaboration):
- 使用 WebSocket 進行即時進度更新。
- 支援多人協作。
- 背景處理(Asynchronous operations)。
- 內建服務健康檢查。
如何使用
- 先決條件:
- Docker Desktop
- Node.js 18+ (用於混合開發模式)
- Supabase 帳戶 (免費方案或本地 Supabase 皆可)
- OpenAI API key (支援 Gemini 和 Ollama)
- 設定步驟:
- Clone Repository:
git clone https://github.com/coleam00/archon.git cd archon
- 環境設定:
- 複製
.env.example
為.env
。 - 編輯
.env
檔案,加入 Supabase credentials (SUPABASE_URL, SUPABASE_SERVICE_KEY)。
- 複製
- 資料庫設定:
- 在 Supabase 的 SQL Editor 中執行
migration/complete_setup.sql
。
- 在 Supabase 的 SQL Editor 中執行
- 啟動服務 (推薦模式):
或使用docker compose --profile full up --build -d
make dev-docker
。 - 設定 API Keys:
- 開啟
http://localhost:3737
。 - 進入 Settings,選擇 LLM/embedding provider 並設定 API key。
- 開啟
- 測試:
- 透過 Knowledge Base 上傳檔案或爬取網站。
- 透過 Projects 建立新專案並新增任務。
- 在 MCP Dashboard 複製連線配置,整合到您的 AI 編碼助手。
- Clone Repository:
- 資料庫重置:
- 執行
migration/RESET_DB.sql
來刪除所有 Archon 資料。 - 再次執行
migration/complete_setup.sql
重建資料庫結構。 - 重新啟動服務 (
docker compose --profile full up -d
) 並重新配置 API key 和知識來源。
- 執行
📌 emcie-co/parlant
Description: LLM agents built for control. Designed for real-world use. Deployed in minutes.
🌐 Python|⭐️ 7,444 | 3495 stars this week
簡介
- Parlant 旨在解決 AI 開發者在建立生產級 AI Agent 時遇到的核心痛點。
- 傳統方法依賴複雜的 system prompts,但 LLM 經常無法遵守。
- Parlant 透過確保 LLM 遵循特定規則來翻轉這個過程,提升代理的可靠性。
主要功能
- Journeys: 定義清晰的客戶旅程,並規劃 agent 在每個步驟的反應。
- Behavioral Guidelines: 輕鬆建立 agent 的行為,Parlant 會根據上下文進行匹配。
- Tool Use: 將外部 API、資料擷取器或後端服務連線到特定的互動事件。
- Domain Adaptation: 教導 agent 特定領域的術語並製作個人化回應。
- Canned Responses: 使用回應範本消除幻覺並保證風格一致性。
- Explainability: 理解為何以及何時匹配和遵循了每個 guideline。
如何使用
- 安裝:
pip install parlant
- 引入 SDK:
import parlant.sdk as p
- 定義 Tool:
@p.tool async def get_weather(context: p.ToolContext, city: str) -> p.ToolResult: # 您的天氣 API 邏輯 return p.ToolResult(f"Sunny, 72°F in {city}")
- 建立 Agent 並定義 Guideline:
async def main(): async with p.Server() as server: agent = await server.create_agent( name="WeatherBot", description="Helpful weather assistant" ) await agent.create_guideline( condition="User asks about weather", action="Get current weather and provide a friendly response with suggestions", tools=[get_weather] ) # Playground 準備就緒於 http://localhost:8800
📌 Shubhamsaboo/awesome-llm-apps
Description: Collection of awesome LLM apps with AI Agents and RAG using OpenAI, Anthropic, Gemini and opensource models.
🌐 Python|⭐️ 61,713 | 3472 stars this week
簡介
- 這是一個精選的、使用 RAG、AI Agents、Multi-agent Teams、MCP、Voice Agents 等技術構建的 Awesome LLM Apps 集合。
- 該儲存庫展示了使用 OpenAI、Anthropic、Google 以及可在本地電腦上執行的 DeepSeek、Qwen 或 Llama 等開源模型的 LLM 應用。
- 旨在探索 LLMs 在不同領域的實際和創意應用,從程式碼儲存庫到電子郵件收件匣等。
- 讓使用者能夠學習以 LLM 為動力的應用程式不斷發展的開源生態系統。
- 提供各類 AI Agents,涵蓋入門級、進階級、遊戲、多代理團隊、語音 AI 以及 MCP AI。
- 包含多樣化的 RAG (Retrieval Augmented Generation) 應用,支援 Agentic RAG、Local RAG、Vision RAG 等。
- 提供 LLM Apps with Memory 教程,展示如何實現持久化記憶功能。
- 提供 Chat with X 教程,讓使用者可以與 GitHub、Gmail、PDF、研究論文和 YouTube 影片等進行互動。
主要功能
- AI Agents: 提供各種預先建置的 AI Agents,用於 Blog to Podcast、資料分析、醫療影像、遊戲生成、音樂生成、旅遊規劃、軟體架構設計、金融輔導、媒體製作、新聞採訪、心理健康支援、會議協助、以及自我演進等。
- Multi-agent Teams: 支援多個 AI Agents 協同工作,以解決複雜問題,例如競爭情報、金融分析、遊戲設計、法律諮詢、招聘、房地產、服務機構、教學、軟體開發和多模態設計。
- Voice AI Agents: 能夠處理語音輸入和輸出,用於音訊導覽、客戶支援和語音 RAG 應用。
- RAG (Retrieval Augmented Generation): 整合檢索增強生成技術,提升 LLM 回應的準確性和相關性,支援多種 RAG 實現方式。
- LLM Apps with Memory: 允許 LLM 應用程式具有長期記憶功能,以提供更個人化和連貫的互動體驗。
- Chat with X: 能夠與各種外部資料來源進行對話,包括 GitHub、Gmail、PDF 檔案、研究論文和 YouTube 影片。
- Local LLM Execution: 支援在本地電腦上執行開源 LLM,提供更大的隱私性和靈活性。
- Framework Integration: 涵蓋了 AI Agent Framework 的入門課程,以及對 Google ADK 的介紹。
如何使用
- 探索儲存庫: 瀏覽儲存庫中的各個目錄,尋找感興趣的 LLM 應用。
- 克隆專案: 使用
git clone <repository-url>
命令將專案複製到本地。 - 安裝依賴: 根據專案的
README
檔案,安裝必要的 Python 函式庫,通常使用pip install -r requirements.txt
。 - 配置 API 金鑰: 如果應用需要,請設定相應的模型提供商(如 OpenAI、Anthropic、Google)的 API 金鑰。
- 執行應用: 根據各應用程式的具體說明,執行主 Python 指令碼。例如,
python your_app.py
。 - 本地模型設定: 對於本地模型,請按照指示下載模型權重並配置執行環境。
- 修改和自定義: 克隆專案後,您可以根據自己的需求修改程式碼和配置。
- 參與貢獻: 歡迎貢獻程式碼、提交錯誤報告和建議新功能。