* feat: add new model provider: Novita AI * feat: finished novita AI * fix: code lint * remove unneeded logging * add back log for novita stream not self closing * Clarify ENV vars for LLM/embedder seperation for future Patch ENV check for workspace/agent provider --------- Co-authored-by: Jason <ggbbddjm@gmail.com> Co-authored-by: shatfield4 <seanhatfield5@gmail.com>
16 KiB
AnythingLLM: あなたが探していたオールインワンAIアプリ。
ドキュメントとチャットし、AIエージェントを使用し、高度にカスタマイズ可能で、複数ユーザー対応、面倒な設定は不要です。
| | ドキュメント | ホストされたインスタンス
👉 デスクトップ用AnythingLLM(Mac、Windows、Linux対応)!今すぐダウンロード
これは、任意のドキュメント、リソース、またはコンテンツの断片を、チャット中にLLMが参照として使用できるコンテキストに変換できるフルスタックアプリケーションです。このアプリケーションを使用すると、使用するLLMまたはベクトルデータベースを選択し、マルチユーザー管理と権限をサポートできます。
製品概要
AnythingLLMは、市販のLLMや人気のあるオープンソースLLM、およびベクトルDBソリューションを使用して、妥協のないプライベートChatGPTを構築できるフルスタックアプリケーションです。ローカルで実行することも、リモートでホストすることもでき、提供されたドキュメントと知的にチャットできます。
AnythingLLMは、ドキュメントをワークスペース
と呼ばれるオブジェクトに分割します。ワークスペースはスレッドのように機能しますが、ドキュメントのコンテナ化が追加されています。ワークスペースはドキュメントを共有できますが、互いに通信することはないため、各ワークスペースのコンテキストをクリーンに保つことができます。
AnythingLLMのいくつかのクールな機能
- マルチユーザーインスタンスのサポートと権限付与
- ワークスペース内のエージェント(ウェブを閲覧、コードを実行など)
- ウェブサイト用のカスタム埋め込み可能なチャットウィジェット
- 複数のドキュメントタイプのサポート(PDF、TXT、DOCXなど)
- シンプルなUIからベクトルデータベース内のドキュメントを管理
- 2つのチャットモード
会話
とクエリ
。会話は以前の質問と修正を保持します。クエリはドキュメントに対するシンプルなQAです - チャット中の引用
- 100%クラウドデプロイメント対応。
- 「独自のLLMを持参」モデル。
- 大規模なドキュメントを管理するための非常に効率的なコスト削減策。巨大なドキュメントやトランスクリプトを埋め込むために一度以上支払うことはありません。他のドキュメントチャットボットソリューションよりも90%コスト効率が良いです。
- カスタム統合のための完全な開発者API!
サポートされているLLM、埋め込みモデル、音声モデル、およびベクトルデータベース
言語学習モデル:
- llama.cpp互換の任意のオープンソースモデル
- OpenAI
- OpenAI (汎用)
- Azure OpenAI
- Anthropic
- Google Gemini Pro
- Hugging Face (チャットモデル)
- Ollama (チャットモデル)
- LM Studio (すべてのモデル)
- LocalAi (すべてのモデル)
- Together AI (チャットモデル)
- Fireworks AI (チャットモデル)
- Perplexity (チャットモデル)
- OpenRouter (チャットモデル)
- Novita AI (チャットモデル)
- Mistral
- Groq
- Cohere
- KoboldCPP
埋め込みモデル:
音声変換モデル:
- AnythingLLM内蔵(デフォルト)
- OpenAI
TTS(テキストから音声へ)サポート:
- ネイティブブラウザ内蔵(デフォルト)
- OpenAI TTS
- ElevenLabs
STT(音声からテキストへ)サポート:
- ネイティブブラウザ内蔵(デフォルト)
ベクトルデータベース:
技術概要
このモノレポは、主に3つのセクションで構成されています:
frontend
: LLMが使用できるすべてのコンテンツを簡単に作成および管理できるviteJS + Reactフロントエンド。server
: すべてのインタラクションを処理し、すべてのベクトルDB管理およびLLMインタラクションを行うNodeJS expressサーバー。collector
: UIからドキュメントを処理および解析するNodeJS expressサーバー。docker
: Dockerの指示およびビルドプロセス + ソースからのビルド情報。embed
: 埋め込みウィジェットの生成に特化したコード。
🛳 セルフホスティング
Mintplex Labsおよびコミュニティは、AnythingLLMをローカルで実行できる多数のデプロイメント方法、スクリプト、テンプレートを維持しています。以下の表を参照して、お好みの環境でのデプロイ方法を読むか、自動デプロイを行ってください。
Docker | AWS | GCP | Digital Ocean | Render.com |
---|---|---|---|---|
Railway |
---|
Dockerを使用せずに本番環境のAnythingLLMインスタンスを設定する →
開発環境のセットアップ方法
yarn setup
各アプリケーションセクションに必要な.env
ファイルを入力します(リポジトリのルートから)。- 次に進む前にこれらを入力してください。
server/.env.development
が入力されていないと正しく動作しません。
- 次に進む前にこれらを入力してください。
yarn dev:server
ローカルでサーバーを起動します(リポジトリのルートから)。yarn dev:frontend
ローカルでフロントエンドを起動します(リポジトリのルートから)。yarn dev:collector
ドキュメントコレクターを実行します(リポジトリのルートから)。
貢献する方法
- issueを作成する
<issue number>-<short name>
の形式のブランチ名でPRを作成する- マージしましょう
テレメトリーとプライバシー
Mintplex Labs Inc.によって開発されたAnythingLLMには、匿名の使用情報を収集するテレメトリー機能が含まれています。
AnythingLLMのテレメトリーとプライバシーについての詳細
なぜ?
この情報を使用して、AnythingLLMの使用方法を理解し、新機能とバグ修正の優先順位を決定し、AnythingLLMのパフォーマンスと安定性を向上させるのに役立てます。
オプトアウト
サーバーまたはdockerの.env設定でDISABLE_TELEMETRY
を「true」に設定して、テレメトリーからオプトアウトします。アプリ内でも、サイドバー > プライバシー
に移動してテレメトリーを無効にすることができます。
明示的に追跡するもの
製品およびロードマップの意思決定に役立つ使用詳細のみを追跡します。具体的には:
- インストールのタイプ(Dockerまたはデスクトップ)
- ドキュメントが追加または削除されたとき。ドキュメントについての情報はありません。イベントが発生したことのみを知ります。これにより、使用状況を把握できます。
- 使用中のベクトルデータベースのタイプ。どのベクトルデータベースプロバイダーが最も使用されているかを知り、更新があったときに優先して変更を行います。
- 使用中のLLMのタイプ。最も人気のある選択肢を知り、更新があったときに優先して変更を行います。
- チャットが送信された。これは最も一般的な「イベント」であり、すべてのインストールでのこのプロジェクトの日常的な「アクティビティ」についてのアイデアを提供します。再び、イベントのみが送信され、チャット自体の性質や内容に関する情報はありません。
これらの主張を検証するには、Telemetry.sendTelemetry
が呼び出されるすべての場所を見つけてください。また、これらのイベントは出力ログに書き込まれるため、送信された具体的なデータも確認できます。IPアドレスやその他の識別情報は収集されません。テレメトリープロバイダーはPostHogです。
🔗 その他の製品
- VectorAdmin:ベクトルデータベースを管理するためのオールインワンGUIおよびツールスイート。
- OpenAI Assistant Swarm:単一のエージェントから指揮できるOpenAIアシスタントの軍隊に、ライブラリ全体を変換します。
Copyright © 2024 Mintplex Labs。
このプロジェクトはMITライセンスの下でライセンスされています。