おそらく最も軽量なネイティブRAG + Agentアプリの1つであり、複雑な設定なしで、ワンクリックでAgentによるモデルと知識ベースの強力な機能を体験できます。
チャットとエージェントのインタラクション:
- 💭 シンプルで使いやすいチャットボックスインターフェース
- 🌏️ 言語オプション(簡体字中国語、英語)
- 🔧 複数の(ローカル)モデルソースの推論サポート(Azure OpenAI、Groq、ollama、llamafile)
- ネイティブのFunction Call(OpenAI、Azure OpenAI、OpenAI Like、Ollama)
- 🤖 複数のエージェントモードをオンプレミスで提供
- 🖥️ ダイアログデータのローカルストレージと管理
- 複数のエクスポート形式(Markdown、HTML)
- 複数のテーマ(HTML)
知識ベース:
- ネイティブ実装のリトリーバル強化生成(RAG)、軽量で効率的
- オプションの埋め込みモデル(Hugging Face/OpenAI)
- 使いやすい知識ベース管理
- ハイブリッド検索、再ランキング、および指定ファイルのリトリーバル
このプロジェクトが気に入ったら、スターを付けてください。それが私にとって最大の励みです!
エクスポート形式、テーマ選択、エクスポート範囲の制御をサポートします。
現在サポートされているテーマ:
デフォルト | ガラス化 |
---|---|
モデルの設定(サイドバー)と詳細な参照の表示:
RAGの設定:
Function CallはChat
とAgentChat
の両方のページでサポートされていますが、実装方法が異なります。
このページのFunction Callはネイティブであり、すべてのOpenAI互換モデルで動作しますが、モデル自体がFunction Callをサポートしている必要があります。
呼び出したい関数をカスタマイズすることもできます。記述ルールについてはtoolkits.pyを参照してください。
注意:AutoGen v0.4 は完全に再構築されているため、AgentChat ページは将来のバージョンで更新されます。現在は AutoGen v0.2 を使用してテストしています。AgentChat ページを使用する場合は、
python startup.py
を使用してアプリケーションを起動してください。
AutoGenフレームワークに依存して実装されています(テスト中)。モデルの互換性についてはAutoGenのドキュメントを参照してください。
Function CallはLLMの能力を大幅に強化することができ、現在はOpenAI、Azure OpenAI、Groq、およびローカルモデルをサポートしています。(LiteLLM + Ollamaによる)
呼び出したい関数をカスタマイズすることもできます。AutoGenの関数記述はネイティブの関数呼び出し記述ルールとは異なることに注意してください。詳細については公式ドキュメントおよびこのプロジェクトのtools.pyを参照してください。
-
git clone https://github.com/Wannabeasmartguy/RAGenT.git
を使用してコードを取得します。 次に、**コマンドプロンプト(CMD)**で実行環境を開き、pip install -r requirements.txt
を使用して実行依存関係をインストールします。 -
モデル依存関係を設定します:
.env_sample
ファイルを.env
に変更し、以下の内容を記入します:LANGUAGE
:English
と简体中文
をサポートし、デフォルトはEnglish
です。OPENAI_API_KEY
: OpenAIモデルを使用している場合、ここにAPIキーを記入します。AZURE_OAI_KEY
: Azure OpenAIモデルを使用している場合、ここにAPIキーを記入します。AZURE_OAI_ENDPOINT
: OpenAIモデルを使用している場合、ここにエンドポイントを記入します。API_VERSION
: Azure OpenAIモデルを使用している場合、ここにAPIバージョンを記入します。API_TYPE
: Azure OpenAIモデルを使用している場合、ここにAPIタイプを記入します。GROQ_API_KEY
: Groqをモデルソースとして使用している場合、ここにAPIキーを記入します。COZE_ACCESS_TOKEN
: 作成したCoze Botを使用する必要がある場合、ここにアクセストークンを記入します。
Llamafileを使用している場合、Llamafileモデルを起動した後、アプリケーション内でエンドポイントを設定してください。
- アプリケーションを起動します:
コマンドラインでstreamlit run RAGenT.py
を実行すると起動します。
AgentChat ページを使用する場合は、python startup.py
を使用してアプリケーションを起動してください。
- チャット履歴と設定のローカル永続化
- チャット履歴のローカル永続化
- 設定のローカル永続化
- プリセットエージェントの数を増やす
- 混合リトリーバル、再ランキング、および指定ファイルのリトリーバル
- 📚️エージェント駆動の知識ベース