Skip to main content
こんな人に最適: 弁護士、医師、セキュリティ研究者、または機密データを自分のコンピュータから外に出したくない人など、機密データを扱っている人。

懸念

あなたが取り組んでいるのは:
  • 顧客の機密情報
  • 医療記録
  • 独自のビジネスデータ
  • 個人の財務書類
  • セキュリティ研究
そして、たとえプライベートであると主張しているとしても、このデータを OpenAI や Google などのクラウド AI サービスに送信することを心配しています。 良いニュース: そうする必要はありません。 AI モデルを Mac 上で直接実行できます。

ローカルモデルの仕組み

データをインターネットに送信する代わりに、AI モデルを Mac にダウンロードし (大きなアプリをダウンロードするのと同じように)、ローカルで実行します。データがコンピューターから離れることはありません。

100% プライベート

クラウドには何も送信されませんでした。データは Mac に残ります。

オフラインでも動作

飛行機、安全な施設、またはインターネットのない場所で AI を使用します。

APIコストなし

一度ダウンロードすると、使用ごとに料金は発生しません。数千のドキュメントを無料で分析します。

大きなファイルの高速化

アップロード/ダウンロード時間はありません。大きな書類に最適です。

セットアップ: 2 つの簡単なオプション

オプション 1: オラマ (初心者に推奨)

Ollama を使用すると、アプリをインストールするのと同じくらい簡単にローカル モデルを実行できます。
1

オラマをインストールする

  1. オラマ.comからダウンロード
  2. 他の Mac アプリと同じようにインストールします
  3. メニューバーで実行されます
2

モデルをダウンロードする

ターミナルを開いて次を実行します。
ollama pull llama3.1
これにより、Meta の Llama 3.1 モデル (約 4.7GB) がダウンロードされます。その他の良いオプション:
  • ollama pull mistral (高速、小型)
  • ollama pull codellama (コードに最適)
  • ollama pull mixtral (より高機能、より大きい)
3

Alter に接続します

  1. Alter → 設定 (Cmd + ,) を開きます
  2. API キー タブに移動します
  3. カスタム プロバイダー で、Ollama を選択します
  4. Ollama が実行されていることを確認します (メニュー バーを確認してください)。
  5. カスタム プロバイダーを有効にする をオンに切り替えます
4

使い始めてください

  1. Alter のプロンプト ボックスで / を押します
  2. カスタム セクションを探します
  3. ローカル モデル (例: 「llama3.1」) を選択します。
  4. 何でも質問してください – すべてあなたの Mac 上で動作します。

オプション 2: LM Studio (より詳細なコントロール)

LM Studio には、モデルを管理するためのグラフィカル インターフェイスが用意されています。
1

LMスタジオをインストールする

lmstudio.aiからダウンロードしてインストールしてください。
2

モデルをダウンロードする

  1. LMスタジオを開く
  2. モデルカタログを閲覧する
  3. ニーズと Mac の仕様に合ったものをダウンロードしてください
  4. ローカルサーバーを起動します (大きな「サーバーの起動」ボタン)
3

Alter に接続します

  1. Alter 設定 → API キー
  2. プロバイダーとして LM Studio を選択します
  3. LM Studio はデフォルトで localhost:1234 で実行されます
  4. カスタム プロバイダーを有効にする をオンに切り替えます

現実世界の例

博士。チェン医師:
「研究のために患者の記録を分析する必要がありますが、HIPAA のためクラウド AI を使用できません。ローカル モデルを使用すると、「これらの症状にはどのようなパターンが見られますか?」と尋ねることができます。すべてを安全なラップトップに保存しながら、AI 支援を受けられます。」
アレックス、セキュリティ研究者:
「私はマルウェアのレポートを分析していますが、どこにもアップロードできません。ローカル モデルを実行するということは、『どのような侵害の兆候が言及されているか?』を尋ねることができることを意味します。データ漏洩の危険を冒さずに。」

知っておくべきトレードオフ

クラウド モデル: より速く、より高機能 ローカル モデル: 速度は遅くなりますが、完全にプライベートです16GB RAM を搭載した MacBook Pro は小型モデルをスムーズに実行できます。より大きなモデルの場合は、32GB 以上の RAM が必要になります。
ローカル モデルは毎月改良されていますが、クラウド モデル (GPT-4、Claude) は依然として複雑な推論に対する能力が向上しています。最良のアプローチ: 機密データにはローカル モデルを使用し、機密性の低い複雑なタスクにはクラウド モデルを使用します。
モデルの範囲は 4GB から 70GB 以上です。十分なディスク容量があることを確認してください。優れたスターター モデル:
  • Llama 3.1 8B (~4.7GB) – 高速、まともな品質
  • Mistral 7B (~4.1GB) – バランスが良い
  • Mixtral 8x7B (~26GB) – 高品質、より多くの RAM が必要

プライベート ワークフローのベスト プラクティス

機密性の高いタスクには特定のアクションを使用します: 常にローカル モデルを使用するように構成された Alter アクションを作成します。そうすれば、機密性の高い作業に誤ってクラウド モデルを使用することがなくなります。
プライバシー Workspaceを設定する: 機密文書専用のWorkspaceを作成します。これにより、それらが整理され、ローカル モデルを使用することが思い出されます。
動作していることを確認してください: セットアップ後、WiFi から切断し、Alter を使用してみてください。まだローカル モデルで動作する場合は、それが本当にローカルであることがわかります。

いつ何を使うか

シナリオ推薦
医療記録ローカルモデル (Ollama/LM Studio)
法的文書ローカルモデル
セキュリティ研究ローカルモデル
財務分析ローカル モデルまたは Alter Cloud with Pro プラン
クリエイティブライティングクラウド モデル (創造性の向上)
一般的な質問クラウド モデル (高速)
コード支援どちらでもうまくいきます

関連リソース


プライベートにする準備はできていますか? Ollama と Llama 3.1 モデルから始めましょう。無料でセットアップが簡単で、Mac から離れることなく AI アシスタントを利用できます。