Skip to content

Latest commit

 

History

History
215 lines (152 loc) · 9 KB

README.ja.md

File metadata and controls

215 lines (152 loc) · 9 KB

Raycast AI プロキシ

これは、シンプルな Raycast AI API プロキシです。サブスクリプションなしで Raycast AIを使用できる代替手段です。このプロキシは、RaycastのリクエストをOpenAIのAPIに変換し、応答をリアルタイムで変換してRaycastに転送します。

English | 中文 | 日本語

紹介

本プロジェクトはミドルマンプロキシの方式を採用し、RaycastのリクエストをOpenAIのAPIに転送し、OpenAIの応答をRaycastに転送します。

本プロジェクトは以下のインターフェイスを主にマッピングしています:

  • GET /api/v1/me: ユーザーのAI機能のフラグを変更
  • POST /api/v1/translations: 翻訳インターフェイス
  • POST /api/v1/ai/chat_completions: AI機能の共通インターフェイス
  • GET /api/v1/ai/models: AIモデルのリストインターフェイス

ミドルマンプロキシの簡単な原理は、DNSを変更してRaycastのリクエストのIPを本プロジェクトのアドレスに向け、その後リクエストをOpenAIのAPIに転送し、そこで得た応答をRaycastに転送することです。 しかし、RaycastとRaycast APIの間ではHTTPSが使用されているため、自署証明書が必要であり、Raycastがその証明書を信頼する必要があります。詳細なミドルマンプロキシの原理については(https://docs.mitmproxy.org/stable/conc epts-howmitmproxyworks/)をご参照ください。

サポートされているモデル

複数のモデルを同時に使用することが可能で、ただし環境変数を設定する必要があります

モデルプロバイダー モデル テスト状況 環境変数
openai gpt-3.5-turbo,gpt-4-turbo, gpt-4o テスト済み OPENAI_API_KEY
azure openai 同上 テスト済み AZURE_OPENAI_API_KEY, AZURE_DEPLOYMENT_ID, OPENAI_AZURE_ENDPOINT
google gemini-pro,gemini-1.5-pro テスト済み GOOGLE_API_KEY
anthropic claude-3-sonnet, claude-3-opus, claude-3-5-opus テスト済み ANTHROPIC_API_KEY

Ai チャット

!(./assert/img/chat.jpeg)

翻訳

!(./assert/img/translate.jpg)

使用方法

インストールと設定

1. 証明書を生成

pip3 install mitmproxy
python -c "$(curl -fsSL https://raw.githubusercontent.com/yufeikang/raycast_api_proxy/main/scripts/cert_gen.py)"  --domain backend.raycast.com  --out ./cert

あるいは

このリポジトリをクローンし、以下のコマンドを実行

pdm run cert_gen

2. 証明書をシステムキーチェーンに信頼として追加

cert フォルダ内のCA証明書を開き、システムキーチェーンに追加して信頼する必要があります。 これは必須です。Raycast AI プロキシは自署証明書を使用しているため、それを信頼しなければ正常に動作しません。

注意:

Apple Silicon搭載のmacOSを使用している場合、手動で鍵のアクセスにCA証明書を追加する際にアプリケーションがハングする問題が発生した場合には、以下のコマンドをターミナルで使用して代替することがで きます:

(https://docs.mitmproxy.org/stable/concepts-certificates/#installing-the-mitmproxy-ca-certificate-manually)

sudo security add-trusted-cert -d -p ssl -p basic -k /Library/Keychains/System.keychain ~/.mitmproxy/mitmproxy-ca-cert.pem

3. /etc/hosts ファイルを編集し、以下の行を追加

127.0.0.1 backend.raycast.com
::1 backend.raycast.com

この変更の目的は、backend.raycast.comをローカルアドレス(127.0.0.1)に向けることで、実際のbackend.raycast.comではなくプロキシにリクエストを送信することです。

当然ながら、独自のDNSサーバーにこのレコードを追加することも可能です。最終的な目的は、backend.raycast.comをプロキシのデプロイアドレスに向けることです。ここでの127.0.0.1は、デプロイアド レスに置き換えることができます。このプロジェクトをクラウドやローカルネットワークにデプロイした場合、そのデプロイアドレスに向けるように設定できます。

4. サービスを起動

docker run --name raycast \
    -e OPENAI_API_KEY=$OPENAI_API_KEY \
    -p 443:443 \
    --dns 1.1.1.1 \
    -v $PWD/cert/:/data/cert \
    -e CERT_FILE=/data/cert/backend.raycast.com.cert.pem \
    -e CERT_KEY=/data/cert/backend.raycast.com.key.pem \
    -e LOG_LEVEL=INFO \
    -d \
    ghcr.io/yufeikang/raycast_api_proxy:main

このサービスをクラウドまたはローカルネットワークにデプロイし、Raycastがそのアドレスにアクセスできるようにすることも可能です。

その後、Raycastを再起動して使用を開始できます。

高度な設定

1. Azure OpenAI APIを使用する

How to switch between OpenAI and Azure OpenAI endpoints with Pythonを参考にしてください。

適切な環境変数を設定するだけでOKです。

docker run --name raycast \
    -e OPENAI_API_KEY=$OPENAI_API_KEY \
    -e OPENAI_BASE_URL=https://your-resource.openai.azure.com \
    -e OPENAI_API_VERSION=2023-05-15 \
    -e OPENAI_API_TYPE=azure \
    -e AZURE_DEPLOYMENT_ID=your-deployment-id \
    -p 443:443 \
    --dns 1.1.1.1 \
    -v $PWD/cert/:/data/cert \
    -e CERT_FILE=/data/cert/backend.raycast.com.cert.pem \
    -e CERT_KEY=/data/cert/backend.raycast.com.key.pem \
    -e LOG_LEVEL=INFO \
    -d \
    ghcr.io/yufeikang/raycast_api_proxy:main

2. Google Gemini APIの使用

OpenAI APIと併せて同時に使用することが可能です。必要に応じて環境変数を設定するだけです。

Google API Keyを取得し、それをGOOGLE_API_KEYとして環境変数にエクスポートします。

# このリポジトリをクローンしてディレクトリに移動
docker build -t raycast .
docker run --name raycast \
    -e GOOGLE_API_KEY=$GOOGLE_API_KEY \
    -p 443:443 \
    --dns 1.1.1.1 \
    -v $PWD/cert/:/data/cert \
    -e CERT_FILE=/data/cert/backend.raycast.com.cert.pem \
    -e CERT_KEY=/data/cert/backend.raycast.com.key.pem \
    -e LOG_LEVEL=INFO \
    -d \
    raycast:latest

3. ローカルで手動起動

  1. このリポジトリをクローンします
  2. pdm install を使用して依存関係をインストール
  3. 環境変数を作成
export OPENAI_API_KEY=<your openai api key>
  1. ./scripts/cert_gen.py --domain backend.raycast.com --out ./cert を使用して自署証明書を生成
  2. python ./app/main.py でサービスを起動

4. ローカル開発

ローカル開発中にDNSがループしてしまうのを避けるために、Dockerを使用し、指定したDNSで開発環境を起動することが推奨されます。

参考:

sh ./local_docker.sh

5. カスタムマッピングの使用

プロジェクトディレクトリ内のcustom_mapping.yml.exampleファイルを参考にして、いくつかのインターフェイスの応答をカスタムマッピングで変更することができます。

"api/v1/me/trial_status":
  get:
    response:
      body:
        # jsonパスの置換
        "$.trial_limits.commands_limit": 30

例えば上記の設定では、GET api/v1/me/trial_status インターフェイスの応答の中で $.trial_limits.commands_limit30 に置き換えます。それぞれの$.trial_limits.commands_limit は (https://goessner.net/articles/JsonPath/) です。

現在のところ、レスポンスボディの置換のみサポートされています。

6. 複数ユーザーの共有サービス

複数のユーザーがこのサービスを共有する場合や、サービスをパブリックにデプロイする場合、サービスを使用できるユーザーを制限することができます。 ALLOWED_USERS 環境変数を設定して、このサービスを使用できるユーザーを制限します。

メールアドレスはRaycastユーザーのメールアドレスであり、複数のユーザーはカンマで区切ります。

注意事項

  1. DNS指定 GFWの存在により、中国国内で使用する場合、国内のDNSサーバーを指定する必要がある場合があります。例: --dns 223.5.5.5

  2. DNSの無効化 macOSで/etc/hostsファイルを変更してもDNSが有効にならない場合があり、現時点での解決方法は見つかっていません。Raycastを再起動するか、/etc/hostsファイルを再編集する方法が有効になること があります。