メインコンテンツへスキップ
こんな人に最適: 弁護士、医師、セキュリティ研究者、または機密データを自分のコンピュータから外に出したくない人など、機密データを扱っている人。

懸念事項

あなたが取り組んでいるのは:
  • クライアントの機密情報
  • 医療記録
  • 独自のビジネスデータ
  • 個人の財務書類
  • セキュリティ調査
また、OpenAI や Google などのクラウド AI サービスにこのデータを送信するのは、たとえそのデータがプライベートであると主張しているとしても心配です。 良いニュース: そうする必要はありません。 AI モデルを Mac 上で直接実行できます。

ローカルモデルの仕組み

データをインターネットに送信する代わりに、AI モデルを Mac にダウンロードし (大きなアプリをダウンロードするのと同じように)、ローカルで実行します。データがコンピューターから離れることはありません。

100% Private

クラウドには何も送信されませんでした。データは Mac に残ります。

Works Offline

飛行機、安全な施設、またはインターネットのない場所で AI を使用します。

No API Costs

一度ダウンロードすると、使用ごとに料金は発生しません。数千のドキュメントを無料で分析します。

Faster for Big Files

アップロード/ダウンロード時間はありません。大きな書類に最適です。

セットアップ: 2 つの簡単なオプション

オプション 1: オラマ (初心者に推奨)

Ollama を使用すると、アプリをインストールするのと同じくらい簡単にローカル モデルを実行できます。
1

Install Ollama

  1. ollama.comからダウンロード
  2. 他の Mac アプリと同様にインストールします
  3. メニューバーで実行されます
2

Download a model

ターミナルを開いて次を実行します。
ollama pull llama3.1
これにより、Meta の Llama 3.1 モデル (~4.7GB) がダウンロードされます。その他の良いオプション:
  • ollama pull mistral (より速く、より小さく)
  • ollama pull codellama (コードに最適)
  • ollama pull mixtral (より高性能、より大きい)
3

Connect to Alter

  1. [変更] → [設定] (Cmd + ,) を開きます。
  2. API キー タブに移動します
  3. カスタム プロバイダー で、Ollama を選択します
  4. Ollama が実行されていることを確認します (メニュー バーを確認してください)。
  5. カスタム プロバイダーを有効にする をオンに切り替えます
4

Start using it

  1. Alter のプロンプト ボックスで / を押します
  2. カスタム セクションを探します
  3. ローカル モデル (例: 「llama3.1」) を選択します。
  4. 何でも聞いてください – すべてあなたの Mac 上で実行されます!

オプション 2: LM Studio (より詳細な制御)

LM Studio には、モデルを管理するためのグラフィカル インターフェイスが用意されています。
1

Install LM Studio

lmstudio.aiからダウンロードしてインストールしてください。
2

Download a model

1.LMスタジオを開きます 2. モデルカタログを参照する 3. ニーズと Mac の仕様に合ったものをダウンロードします。 4. ローカルサーバーを起動します (大きな「サーバーの起動」ボタン)
3

Connect to Alter

  1. [設定の変更] → [API キー] で
  2. プロバイダーとして LM Studio を選択します
  3. LM Studio はデフォルトで localhost:1234 で実行されます
  4. カスタム プロバイダーを有効にする をオンに切り替えます

実際の例

博士チェン医師:
「研究のために患者のメモを分析する必要がありますが、HIPAA のためクラウド AI を使用できません。ローカル モデルを使用すると、「これらの症状にはどのようなパターンが見られますか?」と尋ねることができます。すべてを安全なラップトップに保存しながら、AI 支援を受けられます。」
アレックス、セキュリティ研究者:
「マルウェア レポートを分析していますが、どこにもアップロードできません。ローカル モデルを実行するということは、「どのような侵害の兆候が言及されているか?」を尋ねることができることを意味します。データ漏洩の危険を冒さずに。」

知っておくべきトレードオフ

クラウド モデル: より速く、より高機能 ローカル モデル: 速度は遅くなりますが、完全にプライベートです16GB RAM を搭載した MacBook Pro は小型モデルをスムーズに実行できます。より大きなモデルの場合は、32GB 以上の RAM が必要になります。
ローカル モデルは毎月改良されていますが、クラウド モデル (GPT-4、Claude) は依然として複雑な推論に対する能力が向上しています。最良のアプローチ: 機密データにはローカル モデルを使用し、機密性の低い複雑なタスクにはクラウド モデルを使用します。
モデルの範囲は 4GB から 70GB+ までです。十分なディスク容量があることを確認してください。優れたスターター モデル:
  • Llama 3.1 8B (~4.7GB) – 高速、まともな品質
  • Mistral 7B (~4.1GB) – バランスが良い
  • Mixtral 8x7B (~26GB) – 高品質、より多くの RAM が必要

プライベート ワークフローのベスト プラクティス

機密性の高いタスクには特定のアクションを使用します。 常にローカル モデルを使用するように構成された変更アクションを作成します。そうすれば、機密性の高い作業に誤ってクラウド モデルを使用することがなくなります。
プライバシー ワークスペースを設定する: 機密文書専用のワークスペースを作成します。これにより、それらが整理され、ローカル モデルを使用することが思い出されます。
動作していることを確認してください: セットアップ後、WiFi から切断し、Alter を使用してみてください。まだローカル モデルで動作する場合は、それが本当にローカルであることがわかります。

いつ何を使用するか

シナリオ推薦
医療記録ローカルモデル (Ollama/LM Studio)
法的文書ローカルモデル
セキュリティ研究ローカルモデル
財務分析ローカル モデルまたは Pro プランの Alter Cloud
クリエイティブライティングクラウド モデル (創造性の向上)
一般的な質問クラウド モデル (高速)
コード支援どちらでもうまくいきます

関連リソース


プライベートにする準備はできていますか? Ollama と Llama 3.1 モデルから始めましょう。無料でセットアップが簡単で、Mac から離れることなく AI アシスタントを利用できます。